Эта статья входит в число избранных

AlphaGo: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[отпатрулированная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
м Бот: оформление языков в Шаблон:Cite web; косметические изменения
Спасено источников — 54, отмечено мёртвыми — 0. Сообщить об ошибке. См. FAQ.) #IABot (v2.0.8.6
Строка 1: Строка 1:
[[Файл:Alphago logo Reversed.svg|thumb|Лого AlphaGo]]
[[Файл:Alphago logo Reversed.svg|thumb|Лого AlphaGo]]
'''AlphaGo''' — программа для игры в [[го]], разработанная компанией [[Google DeepMind]] в 2015 году. AlphaGo стала первой в мире программой, которая выиграла матч без [[Гандикап (спорт)|гандикапа]] у профессионального игрока в го на стандартной доске 19 × 19{{Переход|#Матч с Фань Хуэем}}, и эта победа ознаменовала собой важный прорыв в области искусственного интеллекта, так как большинство специалистов по искусственному интеллекту считало, что подобная программа не будет создана ранее 2020—2025 годов{{Переход|#Значение}}. В марте 2016 года программа выиграла со счётом 4:1 у [[Ли Седоль|Ли Седоля]], профессионала 9-го дана (высшего ранга), во время [[Матч AlphaGo — Ли Седоль|исторического матча]], широко освещавшегося в прессе<ref name=wired>{{cite web |url=https://www.wired.com/2016/03/final-game-alphago-lee-sedol-big-deal-humanity/ |title=Why the Final Game Between AlphaGo and Lee Sedol Is Such a Big Deal for Humanity |publisher=// [[Wired News]] |date=2016-03-14 |author= Metz C.|accessdate=2016-11-10 |lang=en}}</ref>{{Переход|#Матч AlphaGo — Ли Седоль}}. После победы в матче [[Корейская ассоциация падук]] присвоила AlphaGo «почётный [[Дан (го)|9-й дан]]» за «искренние усилия» программы в овладении мастерством игры<ref name="straitstimes.com">{{cite web |url=http://www.straitstimes.com/asia/east-asia/googles-alphago-gets-divine-go-ranking |title=Google's AlphaGo gets 'divine' Go ranking |date=2016-03-15 |publisher= // The Straits Times |lang=en |accessdate=2016-11-10}}</ref>.
'''AlphaGo''' — программа для игры в [[го]], разработанная компанией [[Google DeepMind]] в 2015 году. AlphaGo стала первой в мире программой, которая выиграла матч без [[Гандикап (спорт)|гандикапа]] у профессионального игрока в го на стандартной доске 19 × 19{{Переход|#Матч с Фань Хуэем}}, и эта победа ознаменовала собой важный прорыв в области искусственного интеллекта, так как большинство специалистов по искусственному интеллекту считало, что подобная программа не будет создана ранее 2020—2025 годов{{Переход|#Значение}}. В марте 2016 года программа выиграла со счётом 4:1 у [[Ли Седоль|Ли Седоля]], профессионала 9-го дана (высшего ранга), во время [[Матч AlphaGo — Ли Седоль|исторического матча]], широко освещавшегося в прессе<ref name=wired>{{cite web |url=https://www.wired.com/2016/03/final-game-alphago-lee-sedol-big-deal-humanity/ |title=Why the Final Game Between AlphaGo and Lee Sedol Is Such a Big Deal for Humanity |publisher=// [[Wired News]] |date=2016-03-14 |author=Metz C. |accessdate=2016-11-10 |lang=en |archive-date=2016-12-22 |archive-url=https://web.archive.org/web/20161222050057/https://www.wired.com/2016/03/final-game-alphago-lee-sedol-big-deal-humanity/ |deadlink=no }}</ref>{{Переход|#Матч AlphaGo — Ли Седоль}}. После победы в матче [[Корейская ассоциация падук]] присвоила AlphaGo «почётный [[Дан (го)|9-й дан]]» за «искренние усилия» программы в овладении мастерством игры<ref name="straitstimes.com">{{cite web |url=http://www.straitstimes.com/asia/east-asia/googles-alphago-gets-divine-go-ranking |title=Google's AlphaGo gets 'divine' Go ranking |date=2016-03-15 |publisher=// The Straits Times |lang=en |accessdate=2016-11-10 |archive-date=2016-10-07 |archive-url=https://web.archive.org/web/20161007023450/http://www.straitstimes.com/asia/east-asia/googles-alphago-gets-divine-go-ranking |deadlink=no }}</ref>.


Победу AlphaGo над Ли Седолем часто сравнивают с [[Матч Deep Blue — Гарри Каспаров|шахматным матчем между программой Deep Blue и Гарри Каспаровым]] 1997 года, где победа программы, созданной [[IBM]], над действовавшим чемпионом стала символической точкой отсчёта новой эпохи, когда компьютеры превзошли людей в шахматах<ref>{{cite web |url=http://www.bbc.com/news/technology-35785875 |title=Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol |publisher= // BBC News |date=2016-03-12}}</ref>.
Победу AlphaGo над Ли Седолем часто сравнивают с [[Матч Deep Blue — Гарри Каспаров|шахматным матчем между программой Deep Blue и Гарри Каспаровым]] 1997 года, где победа программы, созданной [[IBM]], над действовавшим чемпионом стала символической точкой отсчёта новой эпохи, когда компьютеры превзошли людей в шахматах<ref>{{cite web |url=http://www.bbc.com/news/technology-35785875 |title=Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol |publisher=// BBC News |date=2016-03-12 |access-date=2016-07-12 |archive-date=2016-08-26 |archive-url=https://web.archive.org/web/20160826103910/http://www.bbc.com/news/technology-35785875 |deadlink=no }}</ref>.
В отличие от Deep Blue, AlphaGo — это [[Программное обеспечение|программа]], которая не привязана к конкретному [[Аппаратное обеспечение|аппаратному обеспечению]]. Кроме того, AlphaGo основана на общих принципах [[Машинное обучение|машинного обучения]] и практически не использует (в отличие от шахматных программ) ни алгоритмов, ни оценочных функций, специфичных для игры в го. При разработке AlphaGo авторы использовали только самую элементарную теорию игры в го, программа достигла высокого уровня игры, обучаясь сама на партиях профессионалов{{Переход|#Устройство AlphaGo}}. Таким образом, её методы машинного обучения могут быть использованы в других областях применения искусственного интеллекта. В частности, команда разработчиков планирует применить опыт, полученный при написании AlphaGo, для создания системы медицинской диагностики{{Переход|#Значение}}.
В отличие от Deep Blue, AlphaGo — это [[Программное обеспечение|программа]], которая не привязана к конкретному [[Аппаратное обеспечение|аппаратному обеспечению]]. Кроме того, AlphaGo основана на общих принципах [[Машинное обучение|машинного обучения]] и практически не использует (в отличие от шахматных программ) ни алгоритмов, ни оценочных функций, специфичных для игры в го. При разработке AlphaGo авторы использовали только самую элементарную теорию игры в го, программа достигла высокого уровня игры, обучаясь сама на партиях профессионалов{{Переход|#Устройство AlphaGo}}. Таким образом, её методы машинного обучения могут быть использованы в других областях применения искусственного интеллекта. В частности, команда разработчиков планирует применить опыт, полученный при написании AlphaGo, для создания системы медицинской диагностики{{Переход|#Значение}}.


Строка 14: Строка 14:
=== Матч с Фань Хуэем ===
=== Матч с Фань Хуэем ===
[[Файл:FAN Hui vs BAO Yun.jpg|thumb|Фань Хуэй]]
[[Файл:FAN Hui vs BAO Yun.jpg|thumb|Фань Хуэй]]
В октябре 2015 года AlphaGo выиграла у трёхкратного чемпиона Европы [[Фань Хуэй|Фань Хуэя]] (2 профессиональный дан) матч из пяти партий со счётом 5—0. Это первый в истории случай, когда компьютер выиграл в го у профессионала в равной игре. Об этом было публично объявлено в январе 2016 года после публикации статьи{{sfn|Silver et al.|2016|name=nature}} в [[Nature]]<ref name=meduza>{{Cite web|accessdate = 2016-01-27|lang=ru |title = Искусственный интеллект впервые победил профессионального игрока в го |url = https://meduza.io/news/2016/01/27/iskusstvennyy-intellekt-vpervye-pobedil-professionalnogo-igroka-v-go |publisher = // Meduza}}</ref><ref name=googlego/>. На каждую партию игрокам давалось по одному часу и 3 [[бёёми]] по 30 секунд.
В октябре 2015 года AlphaGo выиграла у трёхкратного чемпиона Европы [[Фань Хуэй|Фань Хуэя]] (2 профессиональный дан) матч из пяти партий со счётом 5—0. Это первый в истории случай, когда компьютер выиграл в го у профессионала в равной игре. Об этом было публично объявлено в январе 2016 года после публикации статьи{{sfn|Silver et al.|2016|name=nature}} в [[Nature]]<ref name=meduza>{{Cite web|accessdate = 2016-01-27|lang = ru|title = Искусственный интеллект впервые победил профессионального игрока в го|url = https://meduza.io/news/2016/01/27/iskusstvennyy-intellekt-vpervye-pobedil-professionalnogo-igroka-v-go|publisher = // Meduza|archive-date = 2016-02-04|archive-url = https://web.archive.org/web/20160204104336/https://meduza.io/news/2016/01/27/iskusstvennyy-intellekt-vpervye-pobedil-professionalnogo-igroka-v-go|deadlink = no}}</ref><ref name=googlego/>. На каждую партию игрокам давалось по одному часу и 3 [[бёёми]] по 30 секунд.


После своего поражения Фань Хуэй заявил, что благодаря этому матчу он стал играть лучше и стал видеть те элементы игры, которые не замечал ранее; к марту 2016 года мировой рейтинг Фань Хуэя поднялся примерно на 300 позиций<ref name=sad>{{cite web |author=Metz C. |url=https://www.wired.com/2016/03/sadness-beauty-watching-googles-ai-play-go/ |title= The Sadness and Beauty of Watching Google’s AI Play Go |date=2016-03-11 |publisher= // [[Wired News]] |accessdate=}}</ref>.
После своего поражения Фань Хуэй заявил, что благодаря этому матчу он стал играть лучше и стал видеть те элементы игры, которые не замечал ранее; к марту 2016 года мировой рейтинг Фань Хуэя поднялся примерно на 300 позиций<ref name=sad>{{cite web |author=Metz C. |url=https://www.wired.com/2016/03/sadness-beauty-watching-googles-ai-play-go/ |title=The Sadness and Beauty of Watching Google’s AI Play Go |date=2016-03-11 |publisher=// [[Wired News]] |accessdate= |archive-date=2017-11-07 |archive-url=https://web.archive.org/web/20171107012426/https://www.wired.com/2016/03/sadness-beauty-watching-googles-ai-play-go/ |deadlink=no }}</ref>.


Ниже приведён пример партии, в которой AlphaGo играла чёрными. Фань Хуэй сдался после 165 ходов{{sfn|Silver et al.|2016|p=488}}.
Ниже приведён пример партии, в которой AlphaGo играла чёрными. Фань Хуэй сдался после 165 ходов{{sfn|Silver et al.|2016|p=488}}.
Строка 78: Строка 78:
{{main|Матч AlphaGo — Ли Седоль}}
{{main|Матч AlphaGo — Ли Седоль}}
[[Файл:Lee Se-Dol.jpg|thumb|Ли Седоль в 2016 году]]
[[Файл:Lee Se-Dol.jpg|thumb|Ли Седоль в 2016 году]]
C 9 по 15 марта 2016 года проходил [[Матч AlphaGo — Ли Седоль|матч AlphaGo с Ли Седолем]] (9-й дан)<ref name=meduza/> в [[Сеул|Сеуле, Южная Корея]]. Было сыграно 5 партий. На каждую партию игрокам давалось по 2 часа и 3 [[бёёми]] по одной минуте. Призовой фонд составил 1 млн долларов. Игры транслировались в прямом эфире на [[YouTube]]<ref>{{Cite web|accessdate = 2016-02-14 |title = Demis Hassabis on Twitter |url = https://twitter.com/demishassabis/status/695379217870008321 |publisher = // Twitter}}</ref>.
C 9 по 15 марта 2016 года проходил [[Матч AlphaGo — Ли Седоль|матч AlphaGo с Ли Седолем]] (9-й дан)<ref name=meduza/> в [[Сеул|Сеуле, Южная Корея]]. Было сыграно 5 партий. На каждую партию игрокам давалось по 2 часа и 3 [[бёёми]] по одной минуте. Призовой фонд составил 1 млн долларов. Игры транслировались в прямом эфире на [[YouTube]]<ref>{{Cite web |accessdate = 2016-02-14 |title = Demis Hassabis on Twitter |url = https://twitter.com/demishassabis/status/695379217870008321 |publisher = // Twitter |archive-date = 2019-07-27 |archive-url = https://web.archive.org/web/20190727151550/https://twitter.com/demishassabis/status/695379217870008321 |deadlink = no }}</ref>.


На момент матча у Ли Седоля было второе место по количеству выигранных чемпионатов мира<ref>{{cite web |author= Borowiec S.|title= Google's AI machine v world champion of 'Go': everything you need to know |url=https://www.theguardian.com/technology/2016/mar/09/googles-ai-machine-v-world-champion-of-go-everything-you-need-to-know |accessdate= 2016-03-15 |publisher= // [[The Guardian]]|date=2016-03-09}}</ref>. Несмотря на то, что не существует единого официального международного метода ранжирования игроков в го, некоторые источники ставят Ли Седоля четвёртым в мире игроком на время матча<ref name="goratings.org 2016">{{cite web|author={{iw|Кулон, Реми|Coulom R.|en|Rémi Coulom}} |title=Rating List of 2016-01-01 |url=http://www.goratings.org/history/2016-01-01.html |accessdate= |archiveurl=https://web.archive.org/web/20160318041922/http://www.goratings.org/history/2016-01-01.html |archivedate= 2016-03-18}}</ref><ref>{{cite web |author= Ji-yoon L. |title= Korean Go master proves human intuition still powerful in Go |url= http://digital.asiaone.com/digital/news/korean-go-master-proves-human-intuition-still-powerful-go |accessdate= 2016-03-15 |publisher= // The Korean Herald/ANN |date= 2016-03-14 |archiveurl= https://web.archive.org/web/20160412234130/http://digital.asiaone.com/digital/news/korean-go-master-proves-human-intuition-still-powerful-go |archivedate= 2016-04-12 |deadlink= yes }}</ref>.
На момент матча у Ли Седоля было второе место по количеству выигранных чемпионатов мира<ref>{{cite web|author= Borowiec S.|title= Google's AI machine v world champion of 'Go': everything you need to know|url= https://www.theguardian.com/technology/2016/mar/09/googles-ai-machine-v-world-champion-of-go-everything-you-need-to-know|accessdate= 2016-03-15|publisher= // [[The Guardian]]|date= 2016-03-09|archive-date= 2016-03-15|archive-url= https://web.archive.org/web/20160315002725/http://www.theguardian.com/technology/2016/mar/09/googles-ai-machine-v-world-champion-of-go-everything-you-need-to-know|deadlink= no}}</ref>. Несмотря на то, что не существует единого официального международного метода ранжирования игроков в го, некоторые источники ставят Ли Седоля четвёртым в мире игроком на время матча<ref name="goratings.org 2016">{{cite web|author={{iw|Кулон, Реми|Coulom R.|en|Rémi Coulom}} |title=Rating List of 2016-01-01 |url=http://www.goratings.org/history/2016-01-01.html |accessdate= |archiveurl=https://web.archive.org/web/20160318041922/http://www.goratings.org/history/2016-01-01.html |archivedate= 2016-03-18}}</ref><ref>{{cite web |author= Ji-yoon L. |title= Korean Go master proves human intuition still powerful in Go |url= http://digital.asiaone.com/digital/news/korean-go-master-proves-human-intuition-still-powerful-go |accessdate= 2016-03-15 |publisher= // The Korean Herald/ANN |date= 2016-03-14 |archiveurl= https://web.archive.org/web/20160412234130/http://digital.asiaone.com/digital/news/korean-go-master-proves-human-intuition-still-powerful-go |archivedate= 2016-04-12 |deadlink= yes }}</ref>.


AlphaGo выиграла матч со счётом 4—1. Ли Седоль сдался в четырёх из пяти игр. AlphaGo, играя чёрными, проиграла в [[Матч AlphaGo — Ли Седоль#Четвёртая партия|четвёртой партии]] после 180 ходов. По словам разработчиков программы, AlphaGo сдаётся, когда оценивает вероятность своего выигрыша меньше 20 %<ref>{{cite web|author=Metz C. |title= Go Grandmaster Lee Sedol Grabs Consolation Win Against Google’s AI |url=https://www.wired.com/2016/03/go-grandmaster-lee-sedol-grabs-consolation-win-googles-ai/ |accessdate= 2016-03-29 |publisher= // [[Wired News]] |date= 2016-03-13}}</ref>.
AlphaGo выиграла матч со счётом 4—1. Ли Седоль сдался в четырёх из пяти игр. AlphaGo, играя чёрными, проиграла в [[Матч AlphaGo — Ли Седоль#Четвёртая партия|четвёртой партии]] после 180 ходов. По словам разработчиков программы, AlphaGo сдаётся, когда оценивает вероятность своего выигрыша меньше 20 %<ref>{{cite web |author= Metz C. |title= Go Grandmaster Lee Sedol Grabs Consolation Win Against Google’s AI |url= https://www.wired.com/2016/03/go-grandmaster-lee-sedol-grabs-consolation-win-googles-ai/ |accessdate= 2016-03-29 |publisher= // [[Wired News]] |date= 2016-03-13 |archive-date= 2017-11-17 |archive-url= https://web.archive.org/web/20171117001746/https://www.wired.com/2016/03/go-grandmaster-lee-sedol-grabs-consolation-win-googles-ai/ |deadlink= no }}</ref>.


По мнению экспертов, AlphaGo во время матча с Ли Седолем была существенно сильнее и предлагала более сложную игру, чем во время матча с Фань Хуэем<ref>{{cite web |author=Ribeiro J. |title=Google’s AlphaGo AI program strong but not perfect, says defeated South Korean Go player |url=http://www.pcworld.com/article/3043211/big-win-for-ai-as-google-alphago-program-trounces-korean-player-in-go-tournament.html |accessdate= 2016-03-13 |publisher= // [[PC World]] |date=2016-03-12}}</ref>. Ли Седоль во время пресс-конференции сказал, что его поражение — это «поражение Ли Седоля», а не «поражение человечества»<ref name="koreatimes beatable" />.
По мнению экспертов, AlphaGo во время матча с Ли Седолем была существенно сильнее и предлагала более сложную игру, чем во время матча с Фань Хуэем<ref>{{cite web |author=Ribeiro J. |title=Google’s AlphaGo AI program strong but not perfect, says defeated South Korean Go player |url=http://www.pcworld.com/article/3043211/big-win-for-ai-as-google-alphago-program-trounces-korean-player-in-go-tournament.html |accessdate=2016-03-13 |publisher=// [[PC World]] |date=2016-03-12 |archive-date=2016-03-13 |archive-url=https://web.archive.org/web/20160313095830/http://www.pcworld.com/article/3043211/big-win-for-ai-as-google-alphago-program-trounces-korean-player-in-go-tournament.html |deadlink=no }}</ref>. Ли Седоль во время пресс-конференции сказал, что его поражение — это «поражение Ли Седоля», а не «поражение человечества»<ref name="koreatimes beatable" />.


=== Неофициальные игры в конце 2016 — начале 2017 ===
=== Неофициальные игры в конце 2016 — начале 2017 ===
{{якорь|AlphaGo Master}}29 декабря 2016 на го-сервере {{iw|Tygem}} новый аккаунт «[[AlphaGo Master|Master]]» начал играть партии с профессионалами го, 1 января 2017 он перешёл на го-сервер FoxGo. 4 января 2017 компания DeepMind подтвердила, что за Master и ещё за один более ранний аккаунт Magister играла обновлённая версия AlphaGo<ref name="Master">{{cite web |author= [[Хассабис, Демис|Хассабис Д.]] |url=https://twitter.com/demishassabis/status/816660463282954240?s=09|title=Demis Hassabis on Twitter: "Excited to share an update on #AlphaGo!"|publisher=// Demis Hassabis' [[Twitter]] account |date=2017-01-04 |accessdate=2017-01-04}}</ref><ref name="Nature-Master">{{cite web|author=Gibney E. |url=http://www.nature.com/news/google-reveals-secret-test-of-ai-bot-to-beat-top-go-players-1.21253 |title=Google reveals secret test of AI bot to beat top Go players |publisher= // [[Nature]] |date=2017-01-04 |accessdate=2017-01-04}}</ref>. AlphaGo выиграла все 60 сыгранных партий (30 на каждом сервере){{refn|Ещё одна партия закончилась ничьей, так как игрок-человек отсоединился от сервера из-за проблем с сетью. Но результат не был засчитан на сервере FoxGo, поскольку отсоединение произошло в самом начале партии.}}. По окончании всех игр сооснователь DeepMind [[Демис Хассабис]] написал в своём твите: «с нетерпением ждём официальных полных матчей го позже в 2017, в сотрудничестве с организациями и экспертами го»<ref name="Master" /><ref name="Nature-Master" />.
{{якорь|AlphaGo Master}}29 декабря 2016 на го-сервере {{iw|Tygem}} новый аккаунт «[[AlphaGo Master|Master]]» начал играть партии с профессионалами го, 1 января 2017 он перешёл на го-сервер FoxGo. 4 января 2017 компания DeepMind подтвердила, что за Master и ещё за один более ранний аккаунт Magister играла обновлённая версия AlphaGo<ref name="Master">{{cite web|author=[[Хассабис, Демис|Хассабис Д.]]|url=https://twitter.com/demishassabis/status/816660463282954240?s=09|title=Demis Hassabis on Twitter: "Excited to share an update on #AlphaGo!"|publisher=// Demis Hassabis' [[Twitter]] account|date=2017-01-04|accessdate=2017-01-04|archive-date=2019-02-15|archive-url=https://web.archive.org/web/20190215123254/https://twitter.com/demishassabis/status/816660463282954240?s=09|deadlink=no}}</ref><ref name="Nature-Master">{{cite web |author=Gibney E. |url=http://www.nature.com/news/google-reveals-secret-test-of-ai-bot-to-beat-top-go-players-1.21253 |title=Google reveals secret test of AI bot to beat top Go players |publisher=// [[Nature]] |date=2017-01-04 |accessdate=2017-01-04 |archive-date=2017-01-05 |archive-url=https://web.archive.org/web/20170105052336/http://www.nature.com/news/google-reveals-secret-test-of-ai-bot-to-beat-top-go-players-1.21253 |deadlink=no }}</ref>. AlphaGo выиграла все 60 сыгранных партий (30 на каждом сервере){{refn|Ещё одна партия закончилась ничьей, так как игрок-человек отсоединился от сервера из-за проблем с сетью. Но результат не был засчитан на сервере FoxGo, поскольку отсоединение произошло в самом начале партии.}}. По окончании всех игр сооснователь DeepMind [[Демис Хассабис]] написал в своём твите: «с нетерпением ждём официальных полных матчей го позже в 2017, в сотрудничестве с организациями и экспертами го»<ref name="Master" /><ref name="Nature-Master" />.


Master играл по 10 игр в день и быстро привлёк внимание многих игроков сервера Tygem своими исключительными навыками. Многие быстро заподозрили, что это ИИ-игрок, так как между играми или не было перерывов, или они длились очень мало. Противниками Master становились чемпионы мира, такие как [[Кэ Цзе]], [[Пак Чжон Хван]], [[Юта Ияма]], [[То Цзяси]], Ми Юйтин, Ши Юэ, [[Чэнь Яое]], Ли Циньчэн, [[Гу Ли]], [[Чан Хао]], Тан Вэйсин, {{iw|Фань Тинъюй|||Fan Tingyu}}, [[Чжоу Жуйян]], {{iw|Цзян Вэйцзе|||Jiang Weijie}}, {{iw|Чжоу Цзюньсюнь|||Chou Chun-hsun}}, {{iw|Ким Джисок|||Kim Ji-seok (Go player)}}, [[Кан Дон Юн]], [[Пак Ён Хун]], {{iw|Вон Сонджин|||Won Seong-jin}}; помимо них национальные чемпионы и серебряные призёры мировых чемпионатов: Лянь Сяо, {{iw|Тань Сяо|||Tan Xiao}}, Мэн Тайлин, Дан Ифэй, Хуан Юньсун, {{iw|Ян Динсинь|||Yang Dingxin}}, Син Джинсо, [[Чо Хансын]], Ан Сунджун. Все 60 игр, кроме одной, были быстрыми с тремя 20- или 30-секундными бёёми, лишь в игре с [[Не Вэйпин]]ом Master предложил увеличить бёёми до одной минуты ввиду пожилого возраста последнего. После 59 выигрышных партий Master раскрыл в чате, что им управляет доктор Айа Хуань из DeepMind<ref>{{cite web |url=http://www.thepaper.cn/newsDetail_forward_1593503 |title=横扫中日韩棋手斩获59胜的Master发话:我是阿尔法狗 |publisher=// 澎湃新闻 |date=2017-01-04}}</ref>.
Master играл по 10 игр в день и быстро привлёк внимание многих игроков сервера Tygem своими исключительными навыками. Многие быстро заподозрили, что это ИИ-игрок, так как между играми или не было перерывов, или они длились очень мало. Противниками Master становились чемпионы мира, такие как [[Кэ Цзе]], [[Пак Чжон Хван]], [[Юта Ияма]], [[То Цзяси]], Ми Юйтин, Ши Юэ, [[Чэнь Яое]], Ли Циньчэн, [[Гу Ли]], [[Чан Хао]], Тан Вэйсин, {{iw|Фань Тинъюй|||Fan Tingyu}}, [[Чжоу Жуйян]], {{iw|Цзян Вэйцзе|||Jiang Weijie}}, {{iw|Чжоу Цзюньсюнь|||Chou Chun-hsun}}, {{iw|Ким Джисок|||Kim Ji-seok (Go player)}}, [[Кан Дон Юн]], [[Пак Ён Хун]], {{iw|Вон Сонджин|||Won Seong-jin}}; помимо них национальные чемпионы и серебряные призёры мировых чемпионатов: Лянь Сяо, {{iw|Тань Сяо|||Tan Xiao}}, Мэн Тайлин, Дан Ифэй, Хуан Юньсун, {{iw|Ян Динсинь|||Yang Dingxin}}, Син Джинсо, [[Чо Хансын]], Ан Сунджун. Все 60 игр, кроме одной, были быстрыми с тремя 20- или 30-секундными бёёми, лишь в игре с [[Не Вэйпин]]ом Master предложил увеличить бёёми до одной минуты ввиду пожилого возраста последнего. После 59 выигрышных партий Master раскрыл в чате, что им управляет доктор Айа Хуань из DeepMind<ref>{{cite web |url=http://www.thepaper.cn/newsDetail_forward_1593503 |title=横扫中日韩棋手斩获59胜的Master发话:我是阿尔法狗 |publisher=// 澎湃新闻 |date=2017-01-04 |access-date=2017-01-05 |archive-date=2020-09-30 |archive-url=https://web.archive.org/web/20200930214237/http://www.thepaper.cn/newsDetail_forward_1593503 |deadlink=no }}</ref>.


Позже [[программист]] AlphaGo {{iw|Сильвер, Давид|Давид Сильвер|en|David Silver (programmer)}} пояснил, что в отличие от предыдущих версий AlphaGo, версия, которая играла за «Master», больше полагалась на обучение во время игры самой с собой, чем на обучение на играх профессиональных игроков, кроме того эта версия использовала в десять раз меньше вычислений и обучалась в течение недели, а не месяцев, как версия, которая играла с Ли Седолем<ref>{{YouTube|Z-HL5nppBnM|The Future of Go Summit, Match One: Ke Jie & AlphaGo|start=21530s}} (23 мая 2017)</ref>.
Позже [[программист]] AlphaGo {{iw|Сильвер, Давид|Давид Сильвер|en|David Silver (programmer)}} пояснил, что в отличие от предыдущих версий AlphaGo, версия, которая играла за «Master», больше полагалась на обучение во время игры самой с собой, чем на обучение на играх профессиональных игроков, кроме того эта версия использовала в десять раз меньше вычислений и обучалась в течение недели, а не месяцев, как версия, которая играла с Ли Седолем<ref>{{YouTube|Z-HL5nppBnM|The Future of Go Summit, Match One: Ke Jie & AlphaGo|start=21530s}} (23 мая 2017)</ref>.
Строка 96: Строка 96:
{{основная статья|Саммит «Будущее Го»}}
{{основная статья|Саммит «Будущее Го»}}


23-27 мая 2017 года в китайском городе {{iw|Вучжен||en|Wuzhen}} проходил саммит о будущем го, где среди прочих событий AlphaGo провёл несколько показательных партий<ref>{{cite web|url=https://deepmind.com/blog/exploring-mysteries-alphago/|title=Exploring the mysteries of Go with AlphaGo and China's top players|date=2017-04-10}}</ref> и победил во всех:
23-27 мая 2017 года в китайском городе {{iw|Вучжен||en|Wuzhen}} проходил саммит о будущем го, где среди прочих событий AlphaGo провёл несколько показательных партий<ref>{{cite web|url=https://deepmind.com/blog/exploring-mysteries-alphago/|title=Exploring the mysteries of Go with AlphaGo and China's top players|date=2017-04-10|access-date=2017-04-10|archive-date=2017-04-11|archive-url=https://web.archive.org/web/20170411054218/https://deepmind.com/blog/exploring-mysteries-alphago/|deadlink=no}}</ref> и победил во всех:
* Мини-матч из 3 партий: AlphaGo против [[Кэ Цзе]].
* Мини-матч из 3 партий: AlphaGo против [[Кэ Цзе]].
* Продвинутое го: Человек+AlphaGo против Человека+AlphaGo.
* Продвинутое го: Человек+AlphaGo против Человека+AlphaGo.
Строка 103: Строка 103:
=== Уход из го ===
=== Уход из го ===
После завершения [[Future of Go Summit|саммита о будущем го]] основатель DeepMind [[Демис Хассабис]] объявил об уходе AlphaGo из го, в будущем никаких матчей проходить больше не будет.
После завершения [[Future of Go Summit|саммита о будущем го]] основатель DeepMind [[Демис Хассабис]] объявил об уходе AlphaGo из го, в будущем никаких матчей проходить больше не будет.
Кроме того, DeepMind не планирует выпускать версию AlphaGo, доступную широкой публике.<ref>[https://www.theverge.com/2017/5/27/15704088/alphago-ke-jie-game-3-result-retires-future AlphaGo retires from competitive Go after defeating world number one 3-0 — The Verge<!-- Заголовок добавлен ботом -->]</ref>
Кроме того, DeepMind не планирует выпускать версию AlphaGo, доступную широкой публике.<ref>{{Cite web |url=https://www.theverge.com/2017/5/27/15704088/alphago-ke-jie-game-3-result-retires-future |title=AlphaGo retires from competitive Go after defeating world number one 3-0 — The Verge<!-- Заголовок добавлен ботом --> |access-date=2017-06-04 |archive-date=2017-06-07 |archive-url=https://web.archive.org/web/20170607184301/https://www.theverge.com/2017/5/27/15704088/alphago-ke-jie-game-3-result-retires-future |deadlink=no }}</ref>


=== AlphaGo Zero ===
=== AlphaGo Zero ===
Строка 111: Строка 111:
{| class="wikitable sortable" style="text-align:center"
{| class="wikitable sortable" style="text-align:center"
!Версии
!Версии
!Аппаратное обеспечение<ref name="sohu0524">{{cite web|url=http://www.sohu.com/a/143092581_473283|title=【柯洁战败解密】AlphaGo Master最新架构和算法,谷歌云与TPU拆解|date=2017-05-24|publisher=[[Sohu]]|language=zh|accessdate=2017-06-01}}</ref>
!Аппаратное обеспечение<ref name="sohu0524">{{cite web|url=http://www.sohu.com/a/143092581_473283|title=【柯洁战败解密】AlphaGo Master最新架构和算法,谷歌云与TPU拆解|date=2017-05-24|publisher=[[Sohu]]|language=zh|accessdate=2017-06-01|archive-date=2017-09-17|archive-url=https://web.archive.org/web/20170917171454/https://www.sohu.com/a/143092581_473283|deadlink=no}}</ref>
![[Рейтинг Эло]]<sup>1</sup>
![[Рейтинг Эло]]<sup>1</sup>
!Матчи
!Матчи
|-
|-
| align="left" |'''AlphaGo Fan'''
| align="left" |'''AlphaGo Fan'''
|176 [[GPU]],<ref name="Deepmind20171018">{{cite web|url=https://deepmind.com/blog/alphago-zero-learning-scratch/|title=AlphaGo Zero: Learning from scratch|publisher=[[DeepMind]] official website|date=2017-10-18|accessdate=2017-10-19}}</ref> распределенные вычисления
|176 [[GPU]],<ref name="Deepmind20171018">{{cite web|url=https://deepmind.com/blog/alphago-zero-learning-scratch/|title=AlphaGo Zero: Learning from scratch|publisher=[[DeepMind]] official website|date=2017-10-18|accessdate=2017-10-19|archive-date=2017-10-19|archive-url=https://web.archive.org/web/20171019220157/https://deepmind.com/blog/alphago-zero-learning-scratch/|deadlink=no}}</ref> распределенные вычисления
|3144<ref name="Nature2017">{{статья |author-link11=Chen Yutian |author-link13=Fan Hui |author-link17=Demis Hassabis |ссылка=https://www.nature.com/nature/journal/v550/n7676/full/nature24270.html |заглавие=Mastering the game of Go without human knowledge |издание=[[Nature]] |issn=0028-0836 |страницы=354—359 |том=550 |номер=7676 |doi=10.1038/nature24270 |accessdate=2017-12-10 |язык=en |автор={{Нп3|Silver, David|Silver, David||David Silver (programmer)}}; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; {{Нп3|Huang, Aja|Huang, Aja||Aja Huang}}; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis |число=19 |месяц=10 |год=2017 |тип=journal}}{{closed access}}</ref>
|3144<ref name="Nature2017">{{статья |author-link11=Chen Yutian |author-link13=Fan Hui |author-link17=Demis Hassabis |ссылка=https://www.nature.com/nature/journal/v550/n7676/full/nature24270.html |заглавие=Mastering the game of Go without human knowledge |издание=[[Nature]] |issn=0028-0836 |страницы=354—359 |том=550 |номер=7676 |doi=10.1038/nature24270 |accessdate=2017-12-10 |язык=en |автор={{Нп3|Silver, David|Silver, David||David Silver (programmer)}}; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; {{Нп3|Huang, Aja|Huang, Aja||Aja Huang}}; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis |число=19 |месяц=10 |год=2017 |тип=journal}}{{closed access}}</ref>
|5:0 Матч AlphaGo — [[Фань Хуэй]]
|5:0 Матч AlphaGo — [[Фань Хуэй]]
Строка 138: Строка 138:
89:11 против AlphaGo Master
89:11 против AlphaGo Master
|-
|-
| align=left|[[AlphaZero]] (20 блоков)||4 TPU v2, одна машина||5018<ref>[https://science.sciencemag.org/content/362/6419/1140.full?ijkey=XGd77kI6W4rSc&keytype=ref&siteid=sci A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play | Science<!-- Заголовок добавлен ботом -->]</ref> || 60:40 против AlphaGo Zero (20 блоков)<sup>2</sup>
| align=left|[[AlphaZero]] (20 блоков)||4 TPU v2, одна машина||5018<ref>{{Cite web |url=https://science.sciencemag.org/content/362/6419/1140.full?ijkey=XGd77kI6W4rSc&keytype=ref&siteid=sci |title=A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play {{!}} Science<!-- Заголовок добавлен ботом --> |access-date=2021-02-16 |archive-date=2021-03-08 |archive-url=https://web.archive.org/web/20210308035627/https://science.sciencemag.org/content/362/6419/1140.full?ijkey=XGd77kI6W4rSc&keytype=ref&siteid=sci |deadlink=no }}</ref> || 60:40 против AlphaGo Zero (20 блоков)<sup>2</sup>
|-
|-
|colspan="13" style="background-color:lemonchiffon; text-align: left"|<small>Примечания:<br>
|colspan="13" style="background-color:lemonchiffon; text-align: left"|<small>Примечания:<br>
[1] Для сравнения рейтинг эло лучшего [[человек]]а игрока в го [[Кэ Цзе]] по состоянию на октябрь 2017 года составлял 3670 пунктов<ref>[http://www.goratings.org/ Rating of Go players]</ref>.<br>
[1] Для сравнения рейтинг эло лучшего [[человек]]а игрока в го [[Кэ Цзе]] по состоянию на октябрь 2017 года составлял 3670 пунктов<ref>{{Cite web |url=http://www.goratings.org/ |title=Rating of Go players |access-date=2016-07-12 |archive-date=2017-04-01 |archive-url=https://web.archive.org/web/20170401123616/https://www.goratings.org/ |deadlink=no }}</ref>.<br>
[2] Рейтинг AlphaZero (20 блоков) меньше чем у AlphaGo Zero (40 блоков), в тестовом матче AlphaZero победила AlphaGo Zero со счетом 60:40 т.к. там сравнивались версии нейросети с равным числом блоков.</small>
[2] Рейтинг AlphaZero (20 блоков) меньше чем у AlphaGo Zero (40 блоков), в тестовом матче AlphaZero победила AlphaGo Zero со счетом 60:40 т.к. там сравнивались версии нейросети с равным числом блоков.</small>
|-
|-
Строка 147: Строка 147:


== Значение ==
== Значение ==
До создания AlphaGo го являлось одной из немногих традиционных игр, в которые человек играл лучше компьютера<ref>{{Cite web |accessdate = 2016-01-30 |lang=en |author=Levinovitz A. |title = The Mystery of Go, the Ancient Game That Computers Still Can’t Win |url = https://www.wired.com/2014/05/the-world-of-computer-go/|publisher = // [[Wired News]]}}</ref>.
До создания AlphaGo го являлось одной из немногих традиционных игр, в которые человек играл лучше компьютера<ref>{{Cite web |accessdate = 2016-01-30 |lang = en |author = Levinovitz A. |title = The Mystery of Go, the Ancient Game That Computers Still Can’t Win |url = https://www.wired.com/2014/05/the-world-of-computer-go/ |publisher = // [[Wired News]] |archive-date = 2016-01-31 |archive-url = https://web.archive.org/web/20160131132350/http://www.wired.com/2014/05/the-world-of-computer-go/ |deadlink = no }}</ref>.


Го намного сложнее [[Шахматы|шахмат]] из-за большего количества возможных позиций. Во-первых, как правило, в го в каждой позиции существует больше разрешённых ходов, чем в шахматах. Во-вторых, партия в го в среднем длится больше ходов. Эти два свойства делают го очень сложной для традиционных методов [[Искусственный интеллект|искусственного интеллекта]], таких как [[альфа-бета-отсечение]]<ref name="googlego"/><ref>{{публикация|статья|автор=Schraudolph N. N., Dayan P., Sejnowski T. J.|заглавие=Temporal difference learning of position evaluation in the game of Go. |издание=Advances in Neural Information Processing Systems |год=1994 |страницы=817 |url=http://www.variational-bayes.org/~dayan/papers/sds94.pdf}}</ref>.
Го намного сложнее [[Шахматы|шахмат]] из-за большего количества возможных позиций. Во-первых, как правило, в го в каждой позиции существует больше разрешённых ходов, чем в шахматах. Во-вторых, партия в го в среднем длится больше ходов. Эти два свойства делают го очень сложной для традиционных методов [[Искусственный интеллект|искусственного интеллекта]], таких как [[альфа-бета-отсечение]]<ref name="googlego"/><ref>{{публикация|статья|автор=Schraudolph N. N., Dayan P., Sejnowski T. J.|заглавие=Temporal difference learning of position evaluation in the game of Go. |издание=Advances in Neural Information Processing Systems |год=1994 |страницы=817 |url=http://www.variational-bayes.org/~dayan/papers/sds94.pdf}}</ref>.
Строка 153: Строка 153:
Другая сложность го по сравнению с шахматами и многими другими логическими играми заключается в создании оценочной функции, сопоставляющей произвольной позиции определённую оценку: для какой из сторон данная позиция выгоднее и насколько (либо позиция равная). В AlphaGo используются 2 нейронные сети, одна из которых специализируется на оценке позиции. Таким образом, её можно условно назвать аналогом оценочной функции в шахматах<ref>{{YouTube|K9Na-8r9SLA|''Demis Hassabis'' Как работает искусственный интеллект (ИИ) DeepMind (озвучивание Hello Robots) |start=6m50s}}</ref>.
Другая сложность го по сравнению с шахматами и многими другими логическими играми заключается в создании оценочной функции, сопоставляющей произвольной позиции определённую оценку: для какой из сторон данная позиция выгоднее и насколько (либо позиция равная). В AlphaGo используются 2 нейронные сети, одна из которых специализируется на оценке позиции. Таким образом, её можно условно назвать аналогом оценочной функции в шахматах<ref>{{YouTube|K9Na-8r9SLA|''Demis Hassabis'' Как работает искусственный интеллект (ИИ) DeepMind (озвучивание Hello Robots) |start=6m50s}}</ref>.


По этим причинам даже спустя почти двадцать лет, после того как компьютер [[Deep Blue]] впервые выиграл у чемпиона мира [[Каспаров, Гарри Кимович|Каспарова]] в 1997 году, самые сильные программы, играющие в го, достигли только любительского 5 дана, и не могли выиграть у профессионала на полной доске <math>19\times 19</math><ref name="googlego">{{cite web |url=http://googleresearch.blogspot.com/2016/01/alphago-mastering-ancient-game-of-go.html|title=Research Blog: AlphaGo: Mastering the ancient game of Go with Machine Learning |date= 2016-01-27 |publisher= // Google Research Blog}}</ref><ref name="bbcgo">{{cite web |url=http://www.bbc.com/news/technology-35420579 |title=Google achieves AI 'breakthrough' by beating Go champion |date=2016-01-27 |publisher= // [[BBC News]]}}</ref><ref name="CNN0128">{{cite web |author=Mullen J. |url=http://money.cnn.com/2016/01/28/technology/google-computer-program-beats-human-at-go/index.html |title=Computer scores big win against humans in ancient game of Go |publisher= // [[CNN]] | date= 2016-01-28 |accessdate= }}</ref>. Лучшими достижениями искусственного интеллекта в го были победы программы {{iw|Zen (программа)|Zen||Zen (software)}}, работающей на кластере из четырёх компьютеров, против профессионала 9 дана [[Масаки Такэмия]] два раза с форой в пять и четыре камня в 2012 году<ref>{{cite web |url= https://gogameguru.com/zen-computer-go-program-beats-takemiya-masaki-4-stones/ |author= Ormerod D. |title= Zen computer Go program beats Takemiya Masaki with just 4 stones! |publisher= // Go Game Guru |accessdate= 2016-01-28 |archiveurl= https://web.archive.org/web/20160201162313/https://gogameguru.com/zen-computer-go-program-beats-takemiya-masaki-4-stones/ |archivedate= 2016-02-01 |deadlink= yes }}</ref>, а также победа программы {{iw|Crazy Stone|||Crazy Stone (software)}} над [[Исида, Ёсио|Ёсио Исидой]] (9 профессиональный дан) с форой в четыре камня в 2013 году<ref>{{Книга|автор=Cambier A. |заглавие=Le Corps sans limites |ссылка= https://books.google.com/books?id=L5afDAAAQBAJ&pg=PA100 |издательство= Presses Univ. Septentrion |год=2016 |страницы=100 |страниц=146 |isbn=9782757414859 |язык=fr}}</ref>.
По этим причинам даже спустя почти двадцать лет, после того как компьютер [[Deep Blue]] впервые выиграл у чемпиона мира [[Каспаров, Гарри Кимович|Каспарова]] в 1997 году, самые сильные программы, играющие в го, достигли только любительского 5 дана, и не могли выиграть у профессионала на полной доске <math>19\times 19</math><ref name="googlego">{{cite web|url=http://googleresearch.blogspot.com/2016/01/alphago-mastering-ancient-game-of-go.html|title=Research Blog: AlphaGo: Mastering the ancient game of Go with Machine Learning|date=2016-01-27|publisher=// Google Research Blog|access-date=2016-01-28|archive-date=2016-02-01|archive-url=https://web.archive.org/web/20160201152040/http://googleresearch.blogspot.com/2016/01/alphago-mastering-ancient-game-of-go.html|deadlink=no}}</ref><ref name="bbcgo">{{cite web |url=http://www.bbc.com/news/technology-35420579 |title=Google achieves AI 'breakthrough' by beating Go champion |date=2016-01-27 |publisher=// [[BBC News]] |access-date=2016-07-12 |archive-date=2016-01-30 |archive-url=https://web.archive.org/web/20160130035623/http://www.bbc.com/news/technology-35420579 |deadlink=no }}</ref><ref name="CNN0128">{{cite web |author=Mullen J. |url=http://money.cnn.com/2016/01/28/technology/google-computer-program-beats-human-at-go/index.html |title=Computer scores big win against humans in ancient game of Go |publisher=// [[CNN]] |date=2016-01-28 |accessdate= |archive-date=2016-02-05 |archive-url=https://web.archive.org/web/20160205184937/http://money.cnn.com/2016/01/28/technology/google-computer-program-beats-human-at-go/index.html |deadlink=no }}</ref>. Лучшими достижениями искусственного интеллекта в го были победы программы {{iw|Zen (программа)|Zen||Zen (software)}}, работающей на кластере из четырёх компьютеров, против профессионала 9 дана [[Масаки Такэмия]] два раза с форой в пять и четыре камня в 2012 году<ref>{{cite web |url= https://gogameguru.com/zen-computer-go-program-beats-takemiya-masaki-4-stones/ |author= Ormerod D. |title= Zen computer Go program beats Takemiya Masaki with just 4 stones! |publisher= // Go Game Guru |accessdate= 2016-01-28 |archiveurl= https://web.archive.org/web/20160201162313/https://gogameguru.com/zen-computer-go-program-beats-takemiya-masaki-4-stones/ |archivedate= 2016-02-01 |deadlink= yes }}</ref>, а также победа программы {{iw|Crazy Stone|||Crazy Stone (software)}} над [[Исида, Ёсио|Ёсио Исидой]] (9 профессиональный дан) с форой в четыре камня в 2013 году<ref>{{Книга|автор=Cambier A. |заглавие=Le Corps sans limites |ссылка= https://books.google.com/books?id=L5afDAAAQBAJ&pg=PA100 |издательство= Presses Univ. Septentrion |год=2016 |страницы=100 |страниц=146 |isbn=9782757414859 |язык=fr}}</ref>.


Создание программы, которая хорошо бы играла в го, являлось камнем преткновения в развитии искусственного интеллекта<ref name=wired/>.
Создание программы, которая хорошо бы играла в го, являлось камнем преткновения в развитии искусственного интеллекта<ref name=wired/>.
До 2015 года большинство специалистов по искусственному интеллекту считали, что программа, способная победить чемпиона мира в го, не будет создана, по крайней мере, в течение следующих пяти лет<ref>{{cite web |author=Gershgorn D. |title=Google's AlphaGo Beats World Champion in Third Match to Win Entire Series |url=http://www.popsci.com/googles-alphago-beats-world-champion-in-third-match-to-win-entire-series |accessdate= 2016-11-13|publisher= // [[Popular Science]] |date= 2016-03-12}}</ref>, а многие из них предполагали, что на это потребуется как минимум десять лет<ref>{{cite web|url=https://www.inverse.com/article/12620-elon-musk-says-google-deepmind-s-go-victory-is-a-10-year-jump-for-a-i|title= Elon Musk Says Google Deepmind's Go Victory Is a 10-Year Jump For A.I.| author = Hoffman W.|date=2016-03-09|publisher = // Inverse|accessdate= 2016-03-12}}</ref>{{sfn|Silver et al.|2016|p=484}}<ref>{{cite web|title=Google DeepMind computer AlphaGo sweeps human champ in Go matches|url=http://www.cbc.ca/news/technology/go-google-alphago-lee-sedol-deepmind-1.3488913 |accessdate=2016-03-13 |publisher= // [[CBC News]] |agency=[[Associated Press]] |date=2016-03-12}}</ref><ref>{{cite web|author=Yan S. |title=A Google computer victorious over the world's 'Go' champion |url=http://money.cnn.com/2016/03/12/technology/google-deepmind-alphago-wins/ |accessdate= 2016-03-13 |publisher= // [[CNN Money]] |date= 2016-03-12}}</ref>. Даже после победы AlphaGo над Фань Хуэем многие эксперты предсказывали, что AlphaGo проиграет Ли Седолю<ref>{{cite web |author= Borowiec S., Lien T. |title=AlphaGo beats human Go champ in milestone for artificial intelligence |url=http://www.latimes.com/world/asia/la-fg-korea-alphago-20160312-story.html |accessdate= 2016-03-13|publisher= // [[Los Angeles Times]] |date= 2016-03-12}}</ref>.
До 2015 года большинство специалистов по искусственному интеллекту считали, что программа, способная победить чемпиона мира в го, не будет создана, по крайней мере, в течение следующих пяти лет<ref>{{cite web |author=Gershgorn D. |title=Google's AlphaGo Beats World Champion in Third Match to Win Entire Series |url=http://www.popsci.com/googles-alphago-beats-world-champion-in-third-match-to-win-entire-series |accessdate=2016-11-13 |publisher=// [[Popular Science]] |date=2016-03-12 |archive-date=2016-12-16 |archive-url=https://web.archive.org/web/20161216144211/http://www.popsci.com/googles-alphago-beats-world-champion-in-third-match-to-win-entire-series |deadlink=no }}</ref>, а многие из них предполагали, что на это потребуется как минимум десять лет<ref>{{cite web|url=https://www.inverse.com/article/12620-elon-musk-says-google-deepmind-s-go-victory-is-a-10-year-jump-for-a-i|title=Elon Musk Says Google Deepmind's Go Victory Is a 10-Year Jump For A.I.|author=Hoffman W.|date=2016-03-09|publisher=// Inverse|accessdate=2016-03-12|archive-date=2016-03-12|archive-url=https://web.archive.org/web/20160312004559/https://www.inverse.com/article/12620-elon-musk-says-google-deepmind-s-go-victory-is-a-10-year-jump-for-a-i|deadlink=no}}</ref>{{sfn|Silver et al.|2016|p=484}}<ref>{{cite web |title=Google DeepMind computer AlphaGo sweeps human champ in Go matches |url=http://www.cbc.ca/news/technology/go-google-alphago-lee-sedol-deepmind-1.3488913 |accessdate=2016-03-13 |publisher=// [[CBC News]] |agency=[[Associated Press]] |date=2016-03-12 |archive-date=2016-03-13 |archive-url=https://web.archive.org/web/20160313002739/http://www.cbc.ca/news/technology/go-google-alphago-lee-sedol-deepmind-1.3488913 |deadlink=no }}</ref><ref>{{cite web |author=Yan S. |title=A Google computer victorious over the world's 'Go' champion |url=http://money.cnn.com/2016/03/12/technology/google-deepmind-alphago-wins/ |accessdate=2016-03-13 |publisher=// [[CNN Money]] |date=2016-03-12 |archive-date=2016-03-13 |archive-url=https://web.archive.org/web/20160313111049/http://money.cnn.com/2016/03/12/technology/google-deepmind-alphago-wins/ |deadlink=no }}</ref>. Даже после победы AlphaGo над Фань Хуэем многие эксперты предсказывали, что AlphaGo проиграет Ли Седолю<ref>{{cite web |author= Borowiec S., Lien T. |title= AlphaGo beats human Go champ in milestone for artificial intelligence |url= http://www.latimes.com/world/asia/la-fg-korea-alphago-20160312-story.html |accessdate= 2016-03-13 |publisher= // [[Los Angeles Times]] |date= 2016-03-12 |archive-date= 2016-03-12 |archive-url= https://web.archive.org/web/20160312153804/http://www.latimes.com/world/asia/la-fg-korea-alphago-20160312-story.html |deadlink= no }}</ref>.


После матча с Ли Седолем правительство Южной Кореи объявило об инвестиции 1 триллиона [[Южнокорейская вона|вон]] (863 миллиона [[USD|долларов]]) в исследование искусственного интеллекта в течение следующих пяти лет<ref>{{статья |автор= Zastrow M.|заглавие= South Korea trumpets $860-million AI fund after AlphaGo 'shock'|ссылка= http://www.nature.com/news/south-korea-trumpets-860-million-ai-fund-after-alphago-shock-1.19595 |язык= en |издание= Nature News|тип= |год= 2016 |месяц= 03|число= 18|том= |номер= |страницы= |doi= 10.1038/nature.2016.19595|issn=}}</ref>.
После матча с Ли Седолем правительство Южной Кореи объявило об инвестиции 1 триллиона [[Южнокорейская вона|вон]] (863 миллиона [[USD|долларов]]) в исследование искусственного интеллекта в течение следующих пяти лет<ref>{{статья |автор= Zastrow M.|заглавие= South Korea trumpets $860-million AI fund after AlphaGo 'shock'|ссылка= http://www.nature.com/news/south-korea-trumpets-860-million-ai-fund-after-alphago-shock-1.19595 |язык= en |издание= Nature News|тип= |год= 2016 |месяц= 03|число= 18|том= |номер= |страницы= |doi= 10.1038/nature.2016.19595|issn=}}</ref>.


=== Практическое применение ===
=== Практическое применение ===
Методы, разработанные для игры в AlphaGo, могут применяться и в других областях искусственного интеллекта, в частности для медицинской диагностики<ref>{{Статья|автор=Zhang Z.|заглавие=When doctors meet with AlphaGo: potential application of machine learning to clinical medicine|ссылка=https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4828734/|издание=Annals of Translational Medicine|год=2016-03-01|том=4|выпуск=6|issn=2305-5839|doi=10.21037/atm.2016.03.25}}</ref>. Как сообщил основатель DeepMind [[Демис Хассабис]], DeepMind заключил соглашение с [[Национальная служба здравоохранения Великобритании|Национальной службой здравоохранения Великобритании]] для изучения возможности применения искусственного интеллекта для анализа медицинских данных<ref>{{Cite web |url=https://www.theverge.com/2016/3/10/11192774/demis-hassabis-interview-alphago-google-deepmind-ai |title=DeepMind founder Demis Hassabis on how AI will shape the future |author= Byford S.|date=2016-03-10 |publisher=// The Verge|accessdate=2016-07-12}}</ref><ref>{{Cite web |url=http://medicalfuturist.com/2016/04/05/alphago-artificial-intelligence-in-medicine/ |title=AlphaGo Can Shape The Future Of Healthcare |date=2016-04-05 |publisher=// The Medical Futurist |accessdate=2016-07-12 |archiveurl=https://web.archive.org/web/20160714064650/http://medicalfuturist.com/2016/04/05/alphago-artificial-intelligence-in-medicine/ |archivedate=2016-07-14 |deadlink=yes }}</ref>. Для этого было основано подразделение [[Google DeepMind#DeepMind Health|DeepMind Health]].
Методы, разработанные для игры в AlphaGo, могут применяться и в других областях искусственного интеллекта, в частности для медицинской диагностики<ref>{{Статья|автор=Zhang Z.|заглавие=When doctors meet with AlphaGo: potential application of machine learning to clinical medicine|ссылка=https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4828734/|издание=Annals of Translational Medicine|год=2016-03-01|том=4|выпуск=6|issn=2305-5839|doi=10.21037/atm.2016.03.25}}</ref>. Как сообщил основатель DeepMind [[Демис Хассабис]], DeepMind заключил соглашение с [[Национальная служба здравоохранения Великобритании|Национальной службой здравоохранения Великобритании]] для изучения возможности применения искусственного интеллекта для анализа медицинских данных<ref>{{Cite web |url=https://www.theverge.com/2016/3/10/11192774/demis-hassabis-interview-alphago-google-deepmind-ai |title=DeepMind founder Demis Hassabis on how AI will shape the future |author=Byford S. |date=2016-03-10 |publisher=// The Verge |accessdate=2016-07-12 |archive-date=2016-07-11 |archive-url=https://web.archive.org/web/20160711183810/http://www.theverge.com/2016/3/10/11192774/demis-hassabis-interview-alphago-google-deepmind-ai |deadlink=no }}</ref><ref>{{Cite web |url=http://medicalfuturist.com/2016/04/05/alphago-artificial-intelligence-in-medicine/ |title=AlphaGo Can Shape The Future Of Healthcare |date=2016-04-05 |publisher=// The Medical Futurist |accessdate=2016-07-12 |archiveurl=https://web.archive.org/web/20160714064650/http://medicalfuturist.com/2016/04/05/alphago-artificial-intelligence-in-medicine/ |archivedate=2016-07-14 |deadlink=yes }}</ref>. Для этого было основано подразделение [[Google DeepMind#DeepMind Health|DeepMind Health]].


== Устройство AlphaGo ==
== Устройство AlphaGo ==
Строка 167: Строка 167:


=== Основные принципы ===
=== Основные принципы ===
Существенной особенностью AlphaGo является то, что она использует ''общие'' алгоритмы, которые практически не зависят от особенностей игры го<ref>{{Cite web |url= http://www.abc.net.au/news/2016-03-08/google-artificial-intelligence-to-face-board-game-champion/7231192 |title= Man vs. machine: Google's AI to take on grand master of ancient Chinese board game |date=2016-03-08 |publisher=// ABC News |lang=en |accessdate=2016-07-12}}</ref>. В алгоритм AlphaGo заложены только базовые принципы игры, с которых начинает изучение игры любой начинающий, такие как подсчёт числа свободных пунктов ([[дамэ]]) у группы камней, и анализ возможности захватить камни, используя приём «лестница» ([[ситё]]). Остальное AlphaGo выучила сама, анализируя базу данных из 160 тысяч партий общими методами, которые могут использоваться и в других областях искусственного интеллекта{{sfn|Silver et al.|2016|p=489|loc=Methods}}. Этим AlphaGo отличается от таких систем, как [[Deep Blue]] — шахматного [[суперкомпьютер]]а<ref name=pcworld_unusual />.
Существенной особенностью AlphaGo является то, что она использует ''общие'' алгоритмы, которые практически не зависят от особенностей игры го<ref>{{Cite web |url=http://www.abc.net.au/news/2016-03-08/google-artificial-intelligence-to-face-board-game-champion/7231192 |title=Man vs. machine: Google's AI to take on grand master of ancient Chinese board game |date=2016-03-08 |publisher=// ABC News |lang=en |accessdate=2016-07-12 |archive-date=2016-06-15 |archive-url=https://web.archive.org/web/20160615055816/http://www.abc.net.au/news/2016-03-08/google-artificial-intelligence-to-face-board-game-champion/7231192 |deadlink=no }}</ref>. В алгоритм AlphaGo заложены только базовые принципы игры, с которых начинает изучение игры любой начинающий, такие как подсчёт числа свободных пунктов ([[дамэ]]) у группы камней, и анализ возможности захватить камни, используя приём «лестница» ([[ситё]]). Остальное AlphaGo выучила сама, анализируя базу данных из 160 тысяч партий общими методами, которые могут использоваться и в других областях искусственного интеллекта{{sfn|Silver et al.|2016|p=489|loc=Methods}}. Этим AlphaGo отличается от таких систем, как [[Deep Blue]] — шахматного [[суперкомпьютер]]а<ref name=pcworld_unusual />.
При написании алгоритма для Deep Blue использовалась продвинутая шахматная теория. Так, например, для оценки позиции Deep Blue использовал 8000 настраиваемых признаков, в Deep Blue была заложена огромная библиотека дебютов<ref>{{Cite web|url=http://acm.mipt.ru/twiki/bin/view/Algorithms/ArlazarovChessAlgo#_c____VII__cm_____qgpc_Deep_Blue |title=Алгоритмы шахматных программ |author=Арлазаров В. Л. |publisher= // acm.mipt.ru |accessdate=2016-07-12}}</ref>. AlphaGo — программа, которая может работать на любом [[Аппаратное обеспечение|аппаратном обеспечении]] (хотя она использовала процессор, разработанный специально для машинного обучения{{переход|#Аппаратное обеспечение}}), и принципы которой можно использовать в других областях. Она не использует библиотеку дебютов и во время игры не обращается ни к какой [[База данных|базе данных]] ходов непосредственно (а только использует нейронную сеть, натренированную на большом количестве партий). Сами разработчики программы не знают, как AlphaGo оценивает позицию, её ходы представляют собой феномен [[Эмерджентность|эмерджентности]]<ref name="wired.com">{{cite web |author=Metz C. |url=https://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/ |title=Google's AI Wins Pivotal Second Game in Match With Go Grandmaster |date=2016-03-10 |publisher= // [[Wired News]] |accessdate=2016-03-12}}</ref>. Кроме того, Deep Blue был разработан с одной целью — выиграть матч у [[Гарри Каспаров]]а в шахматы<ref name=pcworld_unusual>{{Cite web |url=http://www.pcworld.com/article/3043668/analytics/alphagos-unusual-moves-prove-its-ai-prowess-experts-say.html |title=AlphaGo’s unusual moves prove its AI prowess, experts say |author=Ribeiro J.|date=2016-03-14|publisher=// PC World|accessdate=2016-07-12}}</ref><ref>{{Книга |автор= Silver N. |заглавие=The Signal and the Noise: Why So Many Predictions Fail-but Some Don't |ссылка=https://books.google.com/books?id=SI-VqAT4_hYC&pg=PT195 |издательство=Penguin |год=2012-09-27 |страниц=449|pages=195|isbn=9781101595954}}</ref>. AlphaGo не была обучена играть специально против Ли Седоля<ref name="koreatimes beatable">{{cite web |author=Sung-won Y. |title= Lee Se-dol shows AlphaGo beatable |url=http://www.koreatimes.co.kr/www/news/tech/2016/03/133_200267.html |accessdate= 2016-03-15|publisher= // The Korea Times |date= 2016-11-13}}</ref><ref>{{YouTube|qUAmTYHEyM8|Match 3 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo|start=1350s}}</ref>, более того, в базе данных тренировки AlphaGo не было партий Ли Седоля<ref>{{YouTube|yCALyQRN3hw|Match 4 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo |start=22175s}}</ref>, и во время матча программа AlphaGo не менялась и не подстраивалась под стиль игры Ли Седоля<ref name=conf>{{YouTube|_r3yF4lV0wk|Google AlphaGo and machine learning (Alphago Korean Press Briefing 2 of 2)}}</ref>.
При написании алгоритма для Deep Blue использовалась продвинутая шахматная теория. Так, например, для оценки позиции Deep Blue использовал 8000 настраиваемых признаков, в Deep Blue была заложена огромная библиотека дебютов<ref>{{Cite web |url=http://acm.mipt.ru/twiki/bin/view/Algorithms/ArlazarovChessAlgo#_c____VII__cm_____qgpc_Deep_Blue |title=Алгоритмы шахматных программ |author=Арлазаров В. Л. |publisher=// acm.mipt.ru |accessdate=2016-07-12 |archive-date=2016-10-09 |archive-url=https://web.archive.org/web/20161009164444/http://acm.mipt.ru/twiki/bin/view/Algorithms/ArlazarovChessAlgo#_c____VII__cm_____qgpc_Deep_Blue |deadlink=no }}</ref>. AlphaGo — программа, которая может работать на любом [[Аппаратное обеспечение|аппаратном обеспечении]] (хотя она использовала процессор, разработанный специально для машинного обучения{{переход|#Аппаратное обеспечение}}), и принципы которой можно использовать в других областях. Она не использует библиотеку дебютов и во время игры не обращается ни к какой [[База данных|базе данных]] ходов непосредственно (а только использует нейронную сеть, натренированную на большом количестве партий). Сами разработчики программы не знают, как AlphaGo оценивает позицию, её ходы представляют собой феномен [[Эмерджентность|эмерджентности]]<ref name="wired.com">{{cite web |author=Metz C. |url=https://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/ |title=Google's AI Wins Pivotal Second Game in Match With Go Grandmaster |date=2016-03-10 |publisher=// [[Wired News]] |accessdate=2016-03-12 |archive-date=2016-03-11 |archive-url=https://web.archive.org/web/20160311114230/http://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/ |deadlink=no }}</ref>. Кроме того, Deep Blue был разработан с одной целью — выиграть матч у [[Гарри Каспаров]]а в шахматы<ref name=pcworld_unusual>{{Cite web|url=http://www.pcworld.com/article/3043668/analytics/alphagos-unusual-moves-prove-its-ai-prowess-experts-say.html|title=AlphaGo’s unusual moves prove its AI prowess, experts say|author=Ribeiro J.|date=2016-03-14|publisher=// PC World|accessdate=2016-07-12|archive-date=2016-07-17|archive-url=https://web.archive.org/web/20160717202329/http://www.pcworld.com/article/3043668/analytics/alphagos-unusual-moves-prove-its-ai-prowess-experts-say.html|deadlink=no}}</ref><ref>{{Книга |автор= Silver N. |заглавие=The Signal and the Noise: Why So Many Predictions Fail-but Some Don't |ссылка=https://books.google.com/books?id=SI-VqAT4_hYC&pg=PT195 |издательство=Penguin |год=2012-09-27 |страниц=449|pages=195|isbn=9781101595954}}</ref>. AlphaGo не была обучена играть специально против Ли Седоля<ref name="koreatimes beatable">{{cite web |author=Sung-won Y. |title=Lee Se-dol shows AlphaGo beatable |url=http://www.koreatimes.co.kr/www/news/tech/2016/03/133_200267.html |accessdate=2016-03-15 |publisher=// The Korea Times |date=2016-11-13 |archive-date=2016-03-14 |archive-url=https://web.archive.org/web/20160314184000/http://www.koreatimes.co.kr/www/news/tech/2016/03/133_200267.html |deadlink=no }}</ref><ref>{{YouTube|qUAmTYHEyM8|Match 3 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo|start=1350s}}</ref>, более того, в базе данных тренировки AlphaGo не было партий Ли Седоля<ref>{{YouTube|yCALyQRN3hw|Match 4 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo |start=22175s}}</ref>, и во время матча программа AlphaGo не менялась и не подстраивалась под стиль игры Ли Седоля<ref name=conf>{{YouTube|_r3yF4lV0wk|Google AlphaGo and machine learning (Alphago Korean Press Briefing 2 of 2)}}</ref>.


Главное новшество AlphaGo заключается в использовании [[Глубинное обучение|глубинного обучения]] — метода, успешно применявшегося для [[теория распознавания образов|распознавания образов]] (например, для поиска картинок в [[Google Images]])<ref name=how/>. А именно, AlphaGo использует [[искусственная нейронная сеть|нейронные сети]], [[Обучение с учителем|обученные]] на большом количестве профессиональных партий, способные предсказывать, какой ход сделает профессионал в той или иной позиции. Сыгранные сами с собой партии дополнительно [[Обучение с подкреплением|улучшили]] нейронные сети. Одно лишь это позволило AlphaGo играть на уровне лучших компьютерных программ 2015 года: без перебора вариантов, используя лишь нейронную сеть для выбора хода, программа смогла выиграть у [[Pachi]] (программы, играющей на уровне второго [[дан (го)|любительского дана]])<ref name="How it works">{{Cite web|title=Google DeepMind's AlphaGo: How it works|author=Burger C. |url= https://www.tastehit.com/blog/google-deepmind-alphago-how-it-works/ |publisher=// On Personalization and Data |date=2016-03-16 |accessdate=2016-11-01}}</ref>.
Главное новшество AlphaGo заключается в использовании [[Глубинное обучение|глубинного обучения]] — метода, успешно применявшегося для [[теория распознавания образов|распознавания образов]] (например, для поиска картинок в [[Google Images]])<ref name=how/>. А именно, AlphaGo использует [[искусственная нейронная сеть|нейронные сети]], [[Обучение с учителем|обученные]] на большом количестве профессиональных партий, способные предсказывать, какой ход сделает профессионал в той или иной позиции. Сыгранные сами с собой партии дополнительно [[Обучение с подкреплением|улучшили]] нейронные сети. Одно лишь это позволило AlphaGo играть на уровне лучших компьютерных программ 2015 года: без перебора вариантов, используя лишь нейронную сеть для выбора хода, программа смогла выиграть у [[Pachi]] (программы, играющей на уровне второго [[дан (го)|любительского дана]])<ref name="How it works">{{Cite web |title=Google DeepMind's AlphaGo: How it works |author=Burger C. |url=https://www.tastehit.com/blog/google-deepmind-alphago-how-it-works/ |publisher=// On Personalization and Data |date=2016-03-16 |accessdate=2016-11-01 |archive-date=2016-11-01 |archive-url=https://web.archive.org/web/20161101102913/https://www.tastehit.com/blog/google-deepmind-alphago-how-it-works/ |deadlink=no }}</ref>.


Как и лучшие предшествующие программы для игры в го, AlphaGo использует также {{нп5|метод Монте-Карло для поиска в дереве|||Monte Carlo tree search}} (MCST)<ref name="How it works" />. Суть этого метода (названного по аналогии с [[метод Монте-Карло|методом Монте-Карло]] в [[Вычислительная математика|вычислительной математике]]) состоит в том, что для оценки позиции программа много раз играет сама с собой случайным образом, доводя каждый раз игру до конца. Потом выбирает ход, при котором было наибольшее число побед.
Как и лучшие предшествующие программы для игры в го, AlphaGo использует также {{нп5|метод Монте-Карло для поиска в дереве|||Monte Carlo tree search}} (MCST)<ref name="How it works" />. Суть этого метода (названного по аналогии с [[метод Монте-Карло|методом Монте-Карло]] в [[Вычислительная математика|вычислительной математике]]) состоит в том, что для оценки позиции программа много раз играет сама с собой случайным образом, доводя каждый раз игру до конца. Потом выбирает ход, при котором было наибольшее число побед.
Строка 198: Строка 198:


==== Глубинное обучение ====
==== Глубинное обучение ====
AlphaGo работает, используя [[искусственная нейронная сеть|нейронные сети]], — технику, которая успешно применяется при [[Теория распознавания образов|распознавании образов]]. Большой прорыв в этой области произошёл благодаря использованию многоуровневых [[свёрточная нейронная сеть|свёрточных нейронных сетей]] и специальной техники их тренировки — [[глубинное обучение|глубинному обучению]]. Свёрточные нейронные сети состоят из нескольких уровней нейронов. Каждый уровень получает на вход матрицу чисел, комбинирует их с некоторыми весами и, используя нелинейную [[Функция активации|функцию активации]], выдаёт множество чисел на выходе, которые передаются на следующий уровень. При распознавании образов изображение подаётся на первый уровень, а последний уровень выдаёт результат. Нейронные сети [[Машинное обучение|обучают]] на большом количестве изображений, постоянно корректируя веса, используемые для вычисления результата. В результате нейронная сеть приходит в такую конфигурацию, которая способна сама распознавать аналогичные изображения. Этот процесс невозможно предсказать, поэтому сложно сказать, как нейронная сеть «думает», но, грубо говоря, выходы на промежуточных уровнях соответствуют различным возможным классификациям<ref name=how>{{cite web |author= Maas D. |url=https://www.dcine.com/2016/01/28/alphago/ |title=How AlphaGo Works |lang=en |publisher= // Maas Digital|date=2016-01-28}}</ref><ref>{{cite web |title= Convolutional Neural Networks (LeNet) - DeepLearning 0.1 documentation |url= http://deeplearning.net/tutorial/lenet.html |publisher= // DeepLearning 0.1 (LISA Lab) |accessdate= 2013-08-31 |archive-date= 2017-12-28 |archive-url= https://web.archive.org/web/20171228091645/http://deeplearning.net/tutorial/lenet.html |deadlink= yes }}</ref>.
AlphaGo работает, используя [[искусственная нейронная сеть|нейронные сети]], — технику, которая успешно применяется при [[Теория распознавания образов|распознавании образов]]. Большой прорыв в этой области произошёл благодаря использованию многоуровневых [[свёрточная нейронная сеть|свёрточных нейронных сетей]] и специальной техники их тренировки — [[глубинное обучение|глубинному обучению]]. Свёрточные нейронные сети состоят из нескольких уровней нейронов. Каждый уровень получает на вход матрицу чисел, комбинирует их с некоторыми весами и, используя нелинейную [[Функция активации|функцию активации]], выдаёт множество чисел на выходе, которые передаются на следующий уровень. При распознавании образов изображение подаётся на первый уровень, а последний уровень выдаёт результат. Нейронные сети [[Машинное обучение|обучают]] на большом количестве изображений, постоянно корректируя веса, используемые для вычисления результата. В результате нейронная сеть приходит в такую конфигурацию, которая способна сама распознавать аналогичные изображения. Этот процесс невозможно предсказать, поэтому сложно сказать, как нейронная сеть «думает», но, грубо говоря, выходы на промежуточных уровнях соответствуют различным возможным классификациям<ref name=how>{{cite web |author=Maas D. |url=https://www.dcine.com/2016/01/28/alphago/ |title=How AlphaGo Works |lang=en |publisher=// Maas Digital |date=2016-01-28 |access-date=2016-09-29 |archive-date=2016-10-05 |archive-url=https://web.archive.org/web/20161005074415/http://www.dcine.com/2016/01/28/alphago/ |deadlink=no }}</ref><ref>{{cite web |title= Convolutional Neural Networks (LeNet) - DeepLearning 0.1 documentation |url= http://deeplearning.net/tutorial/lenet.html |publisher= // DeepLearning 0.1 (LISA Lab) |accessdate= 2013-08-31 |archive-date= 2017-12-28 |archive-url= https://web.archive.org/web/20171228091645/http://deeplearning.net/tutorial/lenet.html |deadlink= yes }}</ref>.


С помощью этой техники удалось добиться больших успехов в [[Теория распознавания образов|распознавании образов]], в частности в [[распознавание лиц|распознавании лиц]]. Кроме того, компания DeepMind [[Google DeepMind#Глубинное обучение с подкреплением в видеоиграх|использовала]] её для создания [[искусственный интеллект|искусственного интеллекта]], способного самостоятельно обучаться [[видеоигра|видеоигре]] на игровой консоли [[Atari 2600]], используя в качестве входа видео, полученное с экрана<ref>{{Cite web |author= Clark L. |title = DeepMind's AI is an Atari gaming pro now |url = https://www.wired.co.uk/news/archive/2015-02/25/google-deepmind-atari |publisher = // Wired UK |accessdate = 2016-11-01}}</ref>.
С помощью этой техники удалось добиться больших успехов в [[Теория распознавания образов|распознавании образов]], в частности в [[распознавание лиц|распознавании лиц]]. Кроме того, компания DeepMind [[Google DeepMind#Глубинное обучение с подкреплением в видеоиграх|использовала]] её для создания [[искусственный интеллект|искусственного интеллекта]], способного самостоятельно обучаться [[видеоигра|видеоигре]] на игровой консоли [[Atari 2600]], используя в качестве входа видео, полученное с экрана<ref>{{Cite web |author = Clark L. |title = DeepMind's AI is an Atari gaming pro now |url = https://www.wired.co.uk/news/archive/2015-02/25/google-deepmind-atari |publisher = // Wired UK |accessdate = 2016-11-01 |archive-date = 2016-05-21 |archive-url = https://web.archive.org/web/20160521161454/http://www.wired.co.uk/news/archive/2015-02/25/google-deepmind-atari |deadlink = no }}</ref>.


=== Алгоритм AlphaGo ===
=== Алгоритм AlphaGo ===
Строка 210: Строка 210:


==== Стратегическая сеть ====
==== Стратегическая сеть ====
Для того, чтобы не рассматривать совсем плохие ходы, и тем самым сократить степень ветвления при поиске, AlphaGo использует ''стратегические сети''<ref name=Черников>{{cite web |author=Черников А. |title=Хроники Го-4. После матча |url=http://ko.com.ua/hroniki_go-4_posle_matcha_114682 |date=2016-03-18 |publisher=// Компьютерное Обозрение |accessdate=2016-06-06}}</ref> ({{lang-en|policy networks}}) — [[Искусственная нейронная сеть|нейронные сети]], которые помогают выбирать хороший ход.
Для того, чтобы не рассматривать совсем плохие ходы, и тем самым сократить степень ветвления при поиске, AlphaGo использует ''стратегические сети''<ref name=Черников>{{cite web |author=Черников А. |title=Хроники Го-4. После матча |url=http://ko.com.ua/hroniki_go-4_posle_matcha_114682 |date=2016-03-18 |publisher=// Компьютерное Обозрение |accessdate=2016-06-06 |archive-date=2016-08-02 |archive-url=https://web.archive.org/web/20160802124204/http://ko.com.ua/hroniki_go-4_posle_matcha_114682 |deadlink=no }}</ref> ({{lang-en|policy networks}}) — [[Искусственная нейронная сеть|нейронные сети]], которые помогают выбирать хороший ход.


Одна из таких сетей (''SL policy networks'') может предсказывать ход, который в данной позиции сделал бы профессионал.
Одна из таких сетей (''SL policy networks'') может предсказывать ход, который в данной позиции сделал бы профессионал.
Строка 224: Строка 224:


===== Быстрая стратегическая сеть =====
===== Быстрая стратегическая сеть =====
Для симуляции игры, требуемой в методе Монте-Карло (см. [[#Поиск в дереве|ниже]]), AlphaGo использует более быстрый, но менее точный вариант стратегической сети (''rollout policy''), который получает ответ всего за 2 мкс. Эта быстрая сеть предсказывает ход человека с вероятностью 30 %<ref>В статье журнала [[Nature]] ([http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html Silver et al., 2016]) утверждалось, что стратегическая сеть AlphaGo предсказывает ход человека с вероятностью 24 %, но позже один из авторов, Айа Хуань, заявил, что эти данные ошибочные. См. {{YouTube|KoIv7oYZ8wc|''Huang A.'' Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference |start=2085s}}</ref>, в то время как улучшенная стратегическая сеть выдаёт ответ на том же оборудовании за 3 мс с вероятностью 57 %.
Для симуляции игры, требуемой в методе Монте-Карло (см. [[#Поиск в дереве|ниже]]), AlphaGo использует более быстрый, но менее точный вариант стратегической сети (''rollout policy''), который получает ответ всего за 2 мкс. Эта быстрая сеть предсказывает ход человека с вероятностью 30 %<ref>В статье журнала [[Nature]] ([http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html Silver et al., 2016] {{Wayback|url=http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html |date=20190924233603 }}) утверждалось, что стратегическая сеть AlphaGo предсказывает ход человека с вероятностью 24 %, но позже один из авторов, Айа Хуань, заявил, что эти данные ошибочные. См. {{YouTube|KoIv7oYZ8wc|''Huang A.'' Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference |start=2085s}}</ref>, в то время как улучшенная стратегическая сеть выдаёт ответ на том же оборудовании за 3 мс с вероятностью 57 %.


==== Оценочная сеть ====
==== Оценочная сеть ====
Строка 241: Строка 241:
=== Аппаратное обеспечение ===
=== Аппаратное обеспечение ===
[[Файл:AlphaGo's TPU.png|thumb| [[Телекоммуникационная стойка|Стойка]] [[Tensor processing unit|TPU]], используемая AlphaGo в [[Матч AlphaGo — Ли Седоль|матче с Ли Седолем]].]]
[[Файл:AlphaGo's TPU.png|thumb| [[Телекоммуникационная стойка|Стойка]] [[Tensor processing unit|TPU]], используемая AlphaGo в [[Матч AlphaGo — Ли Седоль|матче с Ли Седолем]].]]
Обучение AlphaGo происходило в течение нескольких недель на 50 [[графический процессор|графических процессорах]], используя платформу {{iw|Google Cloud|||Google Cloud Platform}}, сервера которой расположены в США<ref name=AjaPolicy/><ref name="JoongAng Ilbo">{{cite web |lang=zh|url=http://chinese.joins.com/gb/article.do?method=detail&art_id=148225&category=005001 |title=李世乭:即使Alpha Go得到升级也一样能赢|publisher= // JoongAng Ilbo |date=2016-02-23 |accessdate=2016-06-07}}</ref>.
Обучение AlphaGo происходило в течение нескольких недель на 50 [[графический процессор|графических процессорах]], используя платформу {{iw|Google Cloud|||Google Cloud Platform}}, сервера которой расположены в США<ref name=AjaPolicy/><ref name="JoongAng Ilbo">{{cite web|lang=zh|url=http://chinese.joins.com/gb/article.do?method=detail&art_id=148225&category=005001|title=李世乭:即使Alpha Go得到升级也一样能赢|publisher=// JoongAng Ilbo|date=2016-02-23|accessdate=2016-06-07|archive-date=2016-03-04|archive-url=https://web.archive.org/web/20160304010903/http://chinese.joins.com/gb/article.do?method=detail&art_id=148225&category=005001|deadlink=no}}</ref>.


AlphaGo тестировалась в компьютерных системах с различным количеством [[процессор]]ов и [[графический процессор|графических процессоров]], работающих [[параллельные вычислительные системы|параллельно]] или [[распределённые вычисления|распределённо]]. В каждом случае давалось 2 секунды на ход. Достигнутые при этом рейтинги, рассчитанные на основе результатов игр друг с другом по [[рейтинг Эло|системе Эло]], представлены в таблице:{{sfn|Silver et al.|2016|loc=Table 8}}
AlphaGo тестировалась в компьютерных системах с различным количеством [[процессор]]ов и [[графический процессор|графических процессоров]], работающих [[параллельные вычислительные системы|параллельно]] или [[распределённые вычисления|распределённо]]. В каждом случае давалось 2 секунды на ход. Достигнутые при этом рейтинги, рассчитанные на основе результатов игр друг с другом по [[рейтинг Эло|системе Эло]], представлены в таблице:{{sfn|Silver et al.|2016|loc=Table 8}}
Строка 267: Строка 267:
Версия, которая выиграла у Фань Хуэя в октябре 2015 года, работала на 1202 [[процессор]]ах и 176 [[GPU|графических процессорах]]{{sfn|Silver et al.|2016|loc=Table 6}} .
Версия, которая выиграла у Фань Хуэя в октябре 2015 года, работала на 1202 [[процессор]]ах и 176 [[GPU|графических процессорах]]{{sfn|Silver et al.|2016|loc=Table 6}} .


В игре с Ли Седолем в марте 2016 года AlphaGo использовала 1920 процессоров и 280 графических процессоров, работающих в [[распределённые вычисления|распределённой сети]]<ref>{{cite web |title=Showdown: Win or lose, a computer program’s contest against a professional Go player is another milestone in AI |date=2016-03-12 |publisher= // The Economist |url= https://www.economist.com/news/science-and-technology/21694540-win-or-lose-best-five-battle-contest-another-milestone |lang=en}}</ref>.
В игре с Ли Седолем в марте 2016 года AlphaGo использовала 1920 процессоров и 280 графических процессоров, работающих в [[распределённые вычисления|распределённой сети]]<ref>{{cite web |title=Showdown: Win or lose, a computer program’s contest against a professional Go player is another milestone in AI |date=2016-03-12 |publisher=// The Economist |url=https://www.economist.com/news/science-and-technology/21694540-win-or-lose-best-five-battle-contest-another-milestone |lang=en |access-date=2017-09-28 |archive-date=2017-08-14 |archive-url=https://web.archive.org/web/20170814060437/https://www.economist.com/news/science-and-technology/21694540-win-or-lose-best-five-battle-contest-another-milestone |deadlink=no }}</ref>.


В мае 2016 года представители компании [[Google (компания)|Google]] объявили, что AlphaGo использовала [[Tensor processing unit|TPU]], процессор, разработанный Google, специально для машинного обучения<ref>{{cite web |author=McMillan R.|title=Google Isn’t Playing Games With New Chip |url= https://www.wsj.com/articles/google-isnt-playing-games-with-new-chip-1463597820 |accessdate=2016-06-26 |publisher= // [[Wall Street Journal]] |date=2016-05-18}}</ref><ref>{{Cite web|url=https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html |title=Google supercharges machine learning tasks with TPU custom chip |author = Jouppi N. |date=2016-05-18 |publisher = // Google Cloud Platform Blog |lang=en |access-date=2016-06-26}}</ref>.
В мае 2016 года представители компании [[Google (компания)|Google]] объявили, что AlphaGo использовала [[Tensor processing unit|TPU]], процессор, разработанный Google, специально для машинного обучения<ref>{{cite web|author=McMillan R.|title=Google Isn’t Playing Games With New Chip|url=https://www.wsj.com/articles/google-isnt-playing-games-with-new-chip-1463597820|accessdate=2016-06-26|publisher=// [[Wall Street Journal]]|date=2016-05-18|archive-date=2016-06-29|archive-url=https://web.archive.org/web/20160629031433/http://www.wsj.com/articles/google-isnt-playing-games-with-new-chip-1463597820|deadlink=no}}</ref><ref>{{Cite web |url=https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html |title=Google supercharges machine learning tasks with TPU custom chip |author=Jouppi N. |date=2016-05-18 |publisher=// Google Cloud Platform Blog |lang=en |access-date=2016-06-26 |archive-date=2016-05-18 |archive-url=https://web.archive.org/web/20160518201516/https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html |deadlink=no }}</ref>.


В [[Future of Go Summit|матче]] против [[Кэ Цзе]] в мае 2017 года новая версия AlphaGo использовала только один компьютер на Google Cloud c TPU процессором, то есть примерно в 10 раз меньшую [[Вычислительная мощность компьютера|вычислительную мощность]], чем была использована в [[Матч AlphaGo — Ли Седоль|матче с Ли Седолем]]<ref>{{YouTube|Z-HL5nppBnM|The Future of Go Summit, Match One: Ke Jie & AlphaGo|start=21790s}} (23 мая 2017)</ref>.
В [[Future of Go Summit|матче]] против [[Кэ Цзе]] в мае 2017 года новая версия AlphaGo использовала только один компьютер на Google Cloud c TPU процессором, то есть примерно в 10 раз меньшую [[Вычислительная мощность компьютера|вычислительную мощность]], чем была использована в [[Матч AlphaGo — Ли Седоль|матче с Ли Седолем]]<ref>{{YouTube|Z-HL5nppBnM|The Future of Go Summit, Match One: Ke Jie & AlphaGo|start=21790s}} (23 мая 2017)</ref>.


== Стиль игры ==
== Стиль игры ==
Тоби Маннинг, судья в матче AlphaGo с Фань Хуэем, охарактеризовал стиль игры AlphaGo скорее как консервативный, чем агрессивный<ref name=":0">{{Cite web |author = Gibney E. |title = Google AI algorithm masters ancient game of Go |url = http://www.nature.com/news/google-ai-algorithm-masters-ancient-game-of-go-1.19234 |publisher = // Nature News & Comment |access-date = 2016-02-03 |date = 2016-01-27 }}</ref>. По словам генерального директора [[DeepMind]] Демиса Хассабиса, AlphaGo пытается увеличить вероятность выигрыша, а не разрыв в количестве очков<ref name="pcworld_unusual" />.
Тоби Маннинг, судья в матче AlphaGo с Фань Хуэем, охарактеризовал стиль игры AlphaGo скорее как консервативный, чем агрессивный<ref name=":0">{{Cite web |author = Gibney E. |title = Google AI algorithm masters ancient game of Go |url = http://www.nature.com/news/google-ai-algorithm-masters-ancient-game-of-go-1.19234 |publisher = // Nature News & Comment |access-date = 2016-02-03 |date = 2016-01-27 |archive-date = 2019-05-02 |archive-url = https://web.archive.org/web/20190502200837/http://www.nature.com/news/google-ai-algorithm-masters-ancient-game-of-go-1.19234 |deadlink = no }}</ref>. По словам генерального директора [[DeepMind]] Демиса Хассабиса, AlphaGo пытается увеличить вероятность выигрыша, а не разрыв в количестве очков<ref name="pcworld_unusual" />.


Профессиональные игроки отмечали, что некоторые ходы AlphaGo, первоначально кажущиеся ошибочными, при более глубоком изучении оказывались стратегически важными<ref name=ShanghaiDaily_Match2>{{cite web |url=http://www.shanghaidaily.com/article/article_xinhua.aspx?id=322918 |title=Lee Sedol expects «not easy» game with AlphaGo in 3rd Go match |publisher= // Shanghai Daily |date= 2016-03-10 |accessdate=2016-03-10 }}</ref>.
Профессиональные игроки отмечали, что некоторые ходы AlphaGo, первоначально кажущиеся ошибочными, при более глубоком изучении оказывались стратегически важными<ref name=ShanghaiDaily_Match2>{{cite web |url=http://www.shanghaidaily.com/article/article_xinhua.aspx?id=322918 |title=Lee Sedol expects «not easy» game with AlphaGo in 3rd Go match |publisher=// Shanghai Daily |date=2016-03-10 |accessdate=2016-03-10 |archive-date=2016-03-11 |archive-url=https://web.archive.org/web/20160311025316/http://www.shanghaidaily.com/article/article_xinhua.aspx?id=322918 |deadlink=no }}</ref>.


[[Не Вэйпин]] (9 профессиональный дан, [[Китай]]) после первой игры с Ли Седолем предположил, что AlphaGo играет на уровне 6 или 7 профессионального дана в [[фусэки]] и 13—15 дана в [[тюбан]]е<ref name=nie>{{cite web |url=https://m.reddit.com/r/baduk/comments/4akosv/nie_weiping_9dalphago_is_a_67_dan_pro_in_the/?ref=readnext_1 |title= Nie Weiping 9d: «AlphaGo is a 6-7 dan pro in the beginning; 13d mid-game; 15d end-game» |publisher = // Reddit |date=2016-03-15}}</ref>.
[[Не Вэйпин]] (9 профессиональный дан, [[Китай]]) после первой игры с Ли Седолем предположил, что AlphaGo играет на уровне 6 или 7 профессионального дана в [[фусэки]] и 13—15 дана в [[тюбан]]е<ref name=nie>{{cite web |url=https://m.reddit.com/r/baduk/comments/4akosv/nie_weiping_9dalphago_is_a_67_dan_pro_in_the/?ref=readnext_1 |title=Nie Weiping 9d: «AlphaGo is a 6-7 dan pro in the beginning; 13d mid-game; 15d end-game» |publisher=// Reddit |date=2016-03-15 |access-date=2016-09-13 |archive-date=2016-07-01 |archive-url=https://web.archive.org/web/20160701203700/https://m.reddit.com/r/baduk/comments/4akosv/nie_weiping_9dalphago_is_a_67_dan_pro_in_the/?ref=readnext_1 |deadlink=no }}</ref>.


В [[Матч AlphaGo — Ли Седоль#Третья партия|третьей партии]] выяснилось, что AlphaGo способна управлять ситуацией при ведении [[Правило ко|ко-борьбы]], что ранее считалось значительной слабостью большей части программ, играющих в го<ref name=Verge_match3>{{cite web |url= https://www.theverge.com/2016/3/12/11210650/alphago-deepmind-go-match-3-result |title=AlphaGo beats Lee Se-dol again to take Google DeepMind Challenge series |author = Byford S. |date=2016-03-12 |publisher= // The Verge (Vox Media)|accessdate=2016-03-12}}</ref>.
В [[Матч AlphaGo — Ли Седоль#Третья партия|третьей партии]] выяснилось, что AlphaGo способна управлять ситуацией при ведении [[Правило ко|ко-борьбы]], что ранее считалось значительной слабостью большей части программ, играющих в го<ref name=Verge_match3>{{cite web |url=https://www.theverge.com/2016/3/12/11210650/alphago-deepmind-go-match-3-result |title=AlphaGo beats Lee Se-dol again to take Google DeepMind Challenge series |author=Byford S. |date=2016-03-12 |publisher=// The Verge (Vox Media) |accessdate=2016-03-12 |archive-date=2016-03-13 |archive-url=https://web.archive.org/web/20160313142135/http://www.theverge.com/2016/3/12/11210650/alphago-deepmind-go-match-3-result |deadlink=no }}</ref>.


Некоторые обозреватели охарактеризовали ошибки AlphaGo, приведшие к поражению в [[Матч AlphaGo — Ли Седоль#Четвёртая партия|четвёртой партии]], как типичные ошибки для программы, работающей на основе метода Монте-Карло<ref name="g4">{{Cite web |title=Lee Sedol defeats AlphaGo in masterful comeback - Game 4 |author=Ormerod D. |url=https://gogameguru.com/lee-sedol-defeats-alphago-masterful-comeback-game-4/ |publisher=// Go Game Guru |date=2016-03-13 |accessdate=2016-11-04 |lang=en |archiveurl=https://web.archive.org/web/20161116082508/https://gogameguru.com/lee-sedol-defeats-alphago-masterful-comeback-game-4/ |archivedate=2016-11-16 |deadlink=yes }}</ref>. Демис Хассабис заявил, что эти ошибки будут тщательно проанализированы, и что, видимо, AlphaGo не знает некоторые классические [[тэсудзи]] и совершает тактические ошибки<ref>{{cite web |lang=en |url=http://www.nature.com/news/the-go-files-ai-computer-wraps-up-4-1-victory-against-human-champion-1.19575 |title=The Go Files: AI computer wraps up 4-1 victory against human champion |author=Tanguy C. |publisher = // Nature |date=2016-03-15}}</ref>. Впоследствии Айа Хуань (один из разработчиков AlphaGo, который ставил камни за AlphaGo) сказал, что у команды авторов два предположения о причинах этих ошибок: либо AlphaGo просто не хватило глубины просмотра, чтобы проанализировать ситуацию; либо 78-й ход Ли Седоля был настолько необычным (комментаторы его называли «божественным»<ref name="g4"/>), что программа при самообучении не встречала подобных ситуаций, в результате её оценочная функция (см. [[#Оценочная сеть|выше]]) в этой ситуации оказалась слаба. В любом случае, по словам Айа Хуаня, новая версия AlphaGo в этой ситуации уже играет правильно. При этом команда не делала ничего специального, AlphaGo сама в результате обучения перестала делать такие ошибки<ref>{{YouTube|KoIv7oYZ8wc|''Huang A.'' Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference |start=2248s}}</ref>.
Некоторые обозреватели охарактеризовали ошибки AlphaGo, приведшие к поражению в [[Матч AlphaGo — Ли Седоль#Четвёртая партия|четвёртой партии]], как типичные ошибки для программы, работающей на основе метода Монте-Карло<ref name="g4">{{Cite web |title=Lee Sedol defeats AlphaGo in masterful comeback - Game 4 |author=Ormerod D. |url=https://gogameguru.com/lee-sedol-defeats-alphago-masterful-comeback-game-4/ |publisher=// Go Game Guru |date=2016-03-13 |accessdate=2016-11-04 |lang=en |archiveurl=https://web.archive.org/web/20161116082508/https://gogameguru.com/lee-sedol-defeats-alphago-masterful-comeback-game-4/ |archivedate=2016-11-16 |deadlink=yes }}</ref>. Демис Хассабис заявил, что эти ошибки будут тщательно проанализированы, и что, видимо, AlphaGo не знает некоторые классические [[тэсудзи]] и совершает тактические ошибки<ref>{{cite web |lang=en |url=http://www.nature.com/news/the-go-files-ai-computer-wraps-up-4-1-victory-against-human-champion-1.19575 |title=The Go Files: AI computer wraps up 4-1 victory against human champion |author=Tanguy C. |publisher=// Nature |date=2016-03-15 |access-date=2016-09-13 |archive-date=2016-09-17 |archive-url=https://web.archive.org/web/20160917131730/http://www.nature.com/news/the-go-files-ai-computer-wraps-up-4-1-victory-against-human-champion-1.19575 |deadlink=no }}</ref>. Впоследствии Айа Хуань (один из разработчиков AlphaGo, который ставил камни за AlphaGo) сказал, что у команды авторов два предположения о причинах этих ошибок: либо AlphaGo просто не хватило глубины просмотра, чтобы проанализировать ситуацию; либо 78-й ход Ли Седоля был настолько необычным (комментаторы его называли «божественным»<ref name="g4"/>), что программа при самообучении не встречала подобных ситуаций, в результате её оценочная функция (см. [[#Оценочная сеть|выше]]) в этой ситуации оказалась слаба. В любом случае, по словам Айа Хуаня, новая версия AlphaGo в этой ситуации уже играет правильно. При этом команда не делала ничего специального, AlphaGo сама в результате обучения перестала делать такие ошибки<ref>{{YouTube|KoIv7oYZ8wc|''Huang A.'' Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference |start=2248s}}</ref>.


После матча Ли Седоль заявил, что был побеждён психологически, но вовсе не технически<ref name=inter>{{cite web |author= Audureau, W.|title=Jeu de go: pour Lee Sedol, la victoire de la machine est moins tactique que psychologique|url=http://www.lemonde.fr/pixels/article/2016/03/15/jeu-de-go-pour-lee-sedol-la-victoire-d-alphago-est-psychologique-plus-que-sportive_4883286_4408996.html |publisher= // Le Monde |date=2016-03-15 |accessdate=2016-06-13|lang=fr}}</ref>. Программа показала способность к креативным решениям, что удивило многих игроков (например, ход № 37 во [[Матч AlphaGo — Ли Седоль#Вторая партия|второй партии]]); некоторые ходы противоречили классической теории го, но в матче доказали свою эффективность, некоторые профессионалы стали использовать эти находки в своих партиях<ref name=wired.com/>.
После матча Ли Седоль заявил, что был побеждён психологически, но вовсе не технически<ref name=inter>{{cite web|author=Audureau, W.|title=Jeu de go: pour Lee Sedol, la victoire de la machine est moins tactique que psychologique|url=http://www.lemonde.fr/pixels/article/2016/03/15/jeu-de-go-pour-lee-sedol-la-victoire-d-alphago-est-psychologique-plus-que-sportive_4883286_4408996.html|publisher=// Le Monde|date=2016-03-15|accessdate=2016-06-13|lang=fr|archive-date=2016-03-16|archive-url=https://web.archive.org/web/20160316161817/http://www.lemonde.fr/pixels/article/2016/03/15/jeu-de-go-pour-lee-sedol-la-victoire-d-alphago-est-psychologique-plus-que-sportive_4883286_4408996.html|deadlink=no}}</ref>. Программа показала способность к креативным решениям, что удивило многих игроков (например, ход № 37 во [[Матч AlphaGo — Ли Седоль#Вторая партия|второй партии]]); некоторые ходы противоречили классической теории го, но в матче доказали свою эффективность, некоторые профессионалы стали использовать эти находки в своих партиях<ref name=wired.com/>.


== Аналогичные системы ==
== Аналогичные системы ==
[[Facebook]] также разрабатывает программу для игры в го, {{iw|Darkforest}}, которая тоже основана на машинном обучении и поиске в дереве<ref name=":0" /><ref name=facebook-paper>{{публикация |статья |автор= Tian Y., Zhu Y. |заглавие= Better Computer Go Player with Neural Network and Long-term Prediction |ссылка= https://arxiv.org/pdf/1511.06410v3.pdf |издание= ICLR 2016 |год= 2016 |номер= |том= |месяц= 02 |день= 29 |issn= | arxiv = 1511.06410v3 |ref= }}</ref>. На начало 2016 года Darkforest показал сильную игру против других компьютеров, но не смог выиграть у профессионала<ref>{{Cite web|title = No Go: Facebook fails to spoil Google's big AI day|url = https://www.theguardian.com/technology/2016/jan/28/go-playing-facebook-spoil-googles-ai-deepmind|newspaper = The Guardian|date = 2016-01-28|access-date = 2016-02-01|issn = 0261-3077|lang=en|last = HAL 90210}}</ref>. По силе Darkforest оценивается на уровне программ {{iw|Crazy Stone|||Crazy Stone (software)}} и {{iw|Zen (программа)|Zen||Zen (software)}}<ref>{{cite web |author= Hassabis D. |url= http://livestream.com/oxuni/StracheyLectureDrDemisHassabis |title=Strachey Lecture |publisher = // The New Livestream |accessdate=2016-03-17}}</ref>.
[[Facebook]] также разрабатывает программу для игры в го, {{iw|Darkforest}}, которая тоже основана на машинном обучении и поиске в дереве<ref name=":0" /><ref name=facebook-paper>{{публикация |статья |автор= Tian Y., Zhu Y. |заглавие= Better Computer Go Player with Neural Network and Long-term Prediction |ссылка= https://arxiv.org/pdf/1511.06410v3.pdf |издание= ICLR 2016 |год= 2016 |номер= |том= |месяц= 02 |день= 29 |issn= | arxiv = 1511.06410v3 |ref= }}</ref>. На начало 2016 года Darkforest показал сильную игру против других компьютеров, но не смог выиграть у профессионала<ref>{{Cite web|title = No Go: Facebook fails to spoil Google's big AI day|url = https://www.theguardian.com/technology/2016/jan/28/go-playing-facebook-spoil-googles-ai-deepmind|newspaper = The Guardian|date = 2016-01-28|access-date = 2016-02-01|issn = 0261-3077|lang = en|last = HAL 90210|archive-date = 2016-03-15|archive-url = https://web.archive.org/web/20160315202426/http://www.theguardian.com/technology/2016/jan/28/go-playing-facebook-spoil-googles-ai-deepmind|deadlink = no}}</ref>. По силе Darkforest оценивается на уровне программ {{iw|Crazy Stone|||Crazy Stone (software)}} и {{iw|Zen (программа)|Zen||Zen (software)}}<ref>{{cite web |author= Hassabis D. |url= http://livestream.com/oxuni/StracheyLectureDrDemisHassabis |title= Strachey Lecture |publisher= // The New Livestream |accessdate= 2016-03-17 |archive-date= 2016-03-16 |archive-url= https://web.archive.org/web/20160316020203/http://livestream.com/oxuni/StracheyLectureDrDemisHassabis |deadlink= no }}</ref>.


1 марта 2016 года разработчики программы Zen (Ёдзи Одзима и Хидэки Като), компания [[DWANGO]] и исследовательская группа глубинного обучения [[Токийский университет|Токийского университета]] (которая создала программу {{iw|Ponanza||ja}} для игры в [[сёги]], победившую человека) объявили о совместном проекте «Deep Zen Go Project», с целью победить AlphaGo в течение 6—12 месяцев. [[Японская ассоциация го]] обещала поддержать проект<ref>{{Cite web|url=http://shogi1.com/deep-zen-go-project-start/|title=「DEEP ZEN GO プロジェクト」発表。AlphaGo対抗の囲碁ソフト開発をドワンゴが支援、山本一成さんら参加|date=2016-03-01|lang=ja|accessdate=2016-07-13}}</ref>.
1 марта 2016 года разработчики программы Zen (Ёдзи Одзима и Хидэки Като), компания [[DWANGO]] и исследовательская группа глубинного обучения [[Токийский университет|Токийского университета]] (которая создала программу {{iw|Ponanza||ja}} для игры в [[сёги]], победившую человека) объявили о совместном проекте «Deep Zen Go Project», с целью победить AlphaGo в течение 6—12 месяцев. [[Японская ассоциация го]] обещала поддержать проект<ref>{{Cite web|url=http://shogi1.com/deep-zen-go-project-start/|title=「DEEP ZEN GO プロジェクト」発表。AlphaGo対抗の囲碁ソフト開発をドワンゴが支援、山本一成さんら参加|date=2016-03-01|lang=ja|accessdate=2016-07-13|archive-date=2016-07-06|archive-url=https://web.archive.org/web/20160706185300/http://shogi1.com/deep-zen-go-project-start/|deadlink=no}}</ref>.
В ноябре 2016 года Deep Zen Go проиграла со счётом 2-1 самому титулованному игроку Японии [[Тё Тикун]]у<ref>{{cite web|author=Jiji|title=Go master Cho wins best-of-three series against Japan-made AI|url=http://www.japantimes.co.jp/news/2016/11/24/national/go-master-cho-wins-best-three-series-japan-made-ai/#.WDtq8x_6zCI|accessdate=2016-11-27|publisher= // The Japan Times Online|date=2016-11-24}}</ref><ref>{{cite web|author=Bolton A.|title=Humans strike back: Korean Go master bests AI in board game bout|url=https://www.cnet.com/news/humans-strike-back-korean-go-master-beats-ai-in-board-game-bout/|date=2016-11-23|accessdate=2016-11-27|publisher= // CNET}}</ref>.
В ноябре 2016 года Deep Zen Go проиграла со счётом 2-1 самому титулованному игроку Японии [[Тё Тикун]]у<ref>{{cite web|author=Jiji|title=Go master Cho wins best-of-three series against Japan-made AI|url=http://www.japantimes.co.jp/news/2016/11/24/national/go-master-cho-wins-best-three-series-japan-made-ai/#.WDtq8x_6zCI|accessdate=2016-11-27|publisher=// The Japan Times Online|date=2016-11-24|archive-date=2017-08-14|archive-url=https://web.archive.org/web/20170814022025/http://www.japantimes.co.jp/news/2016/11/24/national/go-master-cho-wins-best-three-series-japan-made-ai/#.WDtq8x_6zCI|deadlink=no}}</ref><ref>{{cite web|author=Bolton A.|title=Humans strike back: Korean Go master bests AI in board game bout|url=https://www.cnet.com/news/humans-strike-back-korean-go-master-beats-ai-in-board-game-bout/|date=2016-11-23|accessdate=2016-11-27|publisher=// CNET|archive-date=2016-11-25|archive-url=https://web.archive.org/web/20161125140800/https://www.cnet.com/news/humans-strike-back-korean-go-master-beats-ai-in-board-game-bout/|deadlink=no}}</ref>.


== Литература ==
== Литература ==
* {{Статья|автор = Silver D., Huang A., Maddison C. J., Guez A., Sifre L., van den Driessche G., Schrittwieser J., Antonoglou I., Panneershelvam V., Lanctot M., Dieleman S., Grewe D., Nham J., Kalchbrenner N., Sutskever I., Lillicrap T., Leach M., Kavukcuoglu K., Graepel T. & Hassabis D.|год = 2016|месяц=1|число=28|doi = 10.1038/nature16961|issn = 0028-0836|выпуск = 7587|язык = en|страницы = 484—489|издание = Nature|заглавие = Mastering the game of Go with deep neural networks and tree search|ссылка = http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html|том = 529|ref=Silver et al.}}
* {{Статья|автор = Silver D., Huang A., Maddison C. J., Guez A., Sifre L., van den Driessche G., Schrittwieser J., Antonoglou I., Panneershelvam V., Lanctot M., Dieleman S., Grewe D., Nham J., Kalchbrenner N., Sutskever I., Lillicrap T., Leach M., Kavukcuoglu K., Graepel T. & Hassabis D.|год = 2016|месяц = 1|число = 28|doi = 10.1038/nature16961|issn = 0028-0836|выпуск = 7587|язык = en|страницы = 484—489|издание = Nature|заглавие = Mastering the game of Go with deep neural networks and tree search|ссылка = http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html|том = 529|ref = Silver et al.|archivedate = 2019-09-24|archiveurl = https://web.archive.org/web/20190924233603/https://www.nature.com/articles/nature16961}}


== См. также ==
== См. также ==

Версия от 13:39, 13 марта 2022

Лого AlphaGo

AlphaGo — программа для игры в го, разработанная компанией Google DeepMind в 2015 году. AlphaGo стала первой в мире программой, которая выиграла матч без гандикапа у профессионального игрока в го на стандартной доске 19 × 19[⇨], и эта победа ознаменовала собой важный прорыв в области искусственного интеллекта, так как большинство специалистов по искусственному интеллекту считало, что подобная программа не будет создана ранее 2020—2025 годов[⇨]. В марте 2016 года программа выиграла со счётом 4:1 у Ли Седоля, профессионала 9-го дана (высшего ранга), во время исторического матча, широко освещавшегося в прессе[1][⇨]. После победы в матче Корейская ассоциация падук присвоила AlphaGo «почётный 9-й дан» за «искренние усилия» программы в овладении мастерством игры[2].

Победу AlphaGo над Ли Седолем часто сравнивают с шахматным матчем между программой Deep Blue и Гарри Каспаровым 1997 года, где победа программы, созданной IBM, над действовавшим чемпионом стала символической точкой отсчёта новой эпохи, когда компьютеры превзошли людей в шахматах[3]. В отличие от Deep Blue, AlphaGo — это программа, которая не привязана к конкретному аппаратному обеспечению. Кроме того, AlphaGo основана на общих принципах машинного обучения и практически не использует (в отличие от шахматных программ) ни алгоритмов, ни оценочных функций, специфичных для игры в го. При разработке AlphaGo авторы использовали только самую элементарную теорию игры в го, программа достигла высокого уровня игры, обучаясь сама на партиях профессионалов[⇨]. Таким образом, её методы машинного обучения могут быть использованы в других областях применения искусственного интеллекта. В частности, команда разработчиков планирует применить опыт, полученный при написании AlphaGo, для создания системы медицинской диагностики[⇨].

AlphaGo комбинирует технику, которая дала большой прорыв в силе программ для игры в го в 2007—2012 годах (метод Монте-Карло для поиска в дереве[англ.]), и недавние успехи в области машинного обучения, а именно глубинное обучение с помощью многоуровневых нейронных сетей[⇨].

История

По словам одного из авторов AlphaGo, Давида Сильвера[англ.], работа над программой началась в 2014 году с исследования того, как новые методы глубинного обучения будут работать в го[4].

Чтобы оценить силу своей программы, авторы устроили турнир между AlphaGo и лучшими свободными и коммерческими программами для игры в го (Crazy Stone[англ.], Zen[англ.], Pachi, Fuego), которые использовали метод Монте-Карло, и GNU Go, которая была лучшей свободной программой до использования метода Монте-Карло. В результате версия AlphaGo, использующая один компьютер, выиграла 494 матча из 495[5].

Матч с Фань Хуэем

Фань Хуэй

В октябре 2015 года AlphaGo выиграла у трёхкратного чемпиона Европы Фань Хуэя (2 профессиональный дан) матч из пяти партий со счётом 5—0. Это первый в истории случай, когда компьютер выиграл в го у профессионала в равной игре. Об этом было публично объявлено в январе 2016 года после публикации статьи[6] в Nature[7][8]. На каждую партию игрокам давалось по одному часу и 3 бёёми по 30 секунд.

После своего поражения Фань Хуэй заявил, что благодаря этому матчу он стал играть лучше и стал видеть те элементы игры, которые не замечал ранее; к марту 2016 года мировой рейтинг Фань Хуэя поднялся примерно на 300 позиций[9].

Ниже приведён пример партии, в которой AlphaGo играла чёрными. Фань Хуэй сдался после 165 ходов[5].

19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Первые 99 ходов (96 в 10)
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Ходы 100—165.

После матча с Фань Хуэем программа AlphaGo стала играть существенно лучше (её рейтинг Эло, считаемый по играм разных версий программы друг с другом, возрос на 1500 пунктов и превысил 4500). Новая версия могла выигрывать у старой, давая фору 3—4 камня[10].

Матч AlphaGo — Ли Седоль

Ли Седоль в 2016 году

C 9 по 15 марта 2016 года проходил матч AlphaGo с Ли Седолем (9-й дан)[7] в Сеуле, Южная Корея. Было сыграно 5 партий. На каждую партию игрокам давалось по 2 часа и 3 бёёми по одной минуте. Призовой фонд составил 1 млн долларов. Игры транслировались в прямом эфире на YouTube[11].

На момент матча у Ли Седоля было второе место по количеству выигранных чемпионатов мира[12]. Несмотря на то, что не существует единого официального международного метода ранжирования игроков в го, некоторые источники ставят Ли Седоля четвёртым в мире игроком на время матча[13][14].

AlphaGo выиграла матч со счётом 4—1. Ли Седоль сдался в четырёх из пяти игр. AlphaGo, играя чёрными, проиграла в четвёртой партии после 180 ходов. По словам разработчиков программы, AlphaGo сдаётся, когда оценивает вероятность своего выигрыша меньше 20 %[15].

По мнению экспертов, AlphaGo во время матча с Ли Седолем была существенно сильнее и предлагала более сложную игру, чем во время матча с Фань Хуэем[16]. Ли Седоль во время пресс-конференции сказал, что его поражение — это «поражение Ли Седоля», а не «поражение человечества»[17].

Неофициальные игры в конце 2016 — начале 2017

29 декабря 2016 на го-сервере Tygem[англ.] новый аккаунт «Master» начал играть партии с профессионалами го, 1 января 2017 он перешёл на го-сервер FoxGo. 4 января 2017 компания DeepMind подтвердила, что за Master и ещё за один более ранний аккаунт Magister играла обновлённая версия AlphaGo[18][19]. AlphaGo выиграла все 60 сыгранных партий (30 на каждом сервере)[20]. По окончании всех игр сооснователь DeepMind Демис Хассабис написал в своём твите: «с нетерпением ждём официальных полных матчей го позже в 2017, в сотрудничестве с организациями и экспертами го»[18][19].

Master играл по 10 игр в день и быстро привлёк внимание многих игроков сервера Tygem своими исключительными навыками. Многие быстро заподозрили, что это ИИ-игрок, так как между играми или не было перерывов, или они длились очень мало. Противниками Master становились чемпионы мира, такие как Кэ Цзе, Пак Чжон Хван, Юта Ияма, То Цзяси, Ми Юйтин, Ши Юэ, Чэнь Яое, Ли Циньчэн, Гу Ли, Чан Хао, Тан Вэйсин, Фань Тинъюй[англ.], Чжоу Жуйян, Цзян Вэйцзе[англ.], Чжоу Цзюньсюнь[англ.], Ким Джисок[англ.], Кан Дон Юн, Пак Ён Хун, Вон Сонджин[англ.]; помимо них национальные чемпионы и серебряные призёры мировых чемпионатов: Лянь Сяо, Тань Сяо[англ.], Мэн Тайлин, Дан Ифэй, Хуан Юньсун, Ян Динсинь[англ.], Син Джинсо, Чо Хансын, Ан Сунджун. Все 60 игр, кроме одной, были быстрыми с тремя 20- или 30-секундными бёёми, лишь в игре с Не Вэйпином Master предложил увеличить бёёми до одной минуты ввиду пожилого возраста последнего. После 59 выигрышных партий Master раскрыл в чате, что им управляет доктор Айа Хуань из DeepMind[21].

Позже программист AlphaGo Давид Сильвер[англ.] пояснил, что в отличие от предыдущих версий AlphaGo, версия, которая играла за «Master», больше полагалась на обучение во время игры самой с собой, чем на обучение на играх профессиональных игроков, кроме того эта версия использовала в десять раз меньше вычислений и обучалась в течение недели, а не месяцев, как версия, которая играла с Ли Седолем[22].

Саммит «Будущее Го»

23-27 мая 2017 года в китайском городе Вучжен[англ.] проходил саммит о будущем го, где среди прочих событий AlphaGo провёл несколько показательных партий[23] и победил во всех:

  • Мини-матч из 3 партий: AlphaGo против Кэ Цзе.
  • Продвинутое го: Человек+AlphaGo против Человека+AlphaGo.
  • AlphaGo против объединённой команды лучших китайских профессиональных игроков в го.

Уход из го

После завершения саммита о будущем го основатель DeepMind Демис Хассабис объявил об уходе AlphaGo из го, в будущем никаких матчей проходить больше не будет. Кроме того, DeepMind не планирует выпускать версию AlphaGo, доступную широкой публике.[24]

AlphaGo Zero

В октябре 2017 DeepMind сообщила о появлении ещё более сильной версии AlphaGo — AlphaGo Zero. Новая нейросеть обучалась играть в го с нуля, «tabula rasa», играя сама с собой (без обучения на партиях, сыгранных людьми, как это было в более ранних версиях AlphaGo). Всего за 21 день самообучения система достигла уровня силы игры AlphaGo Master, а затем и превзошла его. К 40-му дню достигнув превосходства более чем в 300 пунктов эло.

Сравнение версий AlphaGo

Версии Аппаратное обеспечение[25] Рейтинг Эло1 Матчи
AlphaGo Fan 176 GPU,[26] распределенные вычисления 3144[27] 5:0 Матч AlphaGo — Фань Хуэй
AlphaGo Lee 48 TPU,[26] распределенные вычисления 3739[27] 4:1 Матч AlphaGo — Ли Седоль
AlphaGo Master 4 TPU[26] v2, одна машина 4858[27] 60:0 против профессиональных игроков го;

Саммит «Будущее Го»;
3:0 Матч AlphaGo — Кэ Цзе

AlphaGo Zero (40 блоков) 4 TPU[26] v2, одна машина 5185[27] 100:0 против AlphaGo Lee

89:11 против AlphaGo Master

AlphaZero (20 блоков) 4 TPU v2, одна машина 5018[28] 60:40 против AlphaGo Zero (20 блоков)2
Примечания:

[1] Для сравнения рейтинг эло лучшего человека игрока в го Кэ Цзе по состоянию на октябрь 2017 года составлял 3670 пунктов[29].
[2] Рейтинг AlphaZero (20 блоков) меньше чем у AlphaGo Zero (40 блоков), в тестовом матче AlphaZero победила AlphaGo Zero со счетом 60:40 т.к. там сравнивались версии нейросети с равным числом блоков.

Значение

До создания AlphaGo го являлось одной из немногих традиционных игр, в которые человек играл лучше компьютера[30].

Го намного сложнее шахмат из-за большего количества возможных позиций. Во-первых, как правило, в го в каждой позиции существует больше разрешённых ходов, чем в шахматах. Во-вторых, партия в го в среднем длится больше ходов. Эти два свойства делают го очень сложной для традиционных методов искусственного интеллекта, таких как альфа-бета-отсечение[8][31].

Другая сложность го по сравнению с шахматами и многими другими логическими играми заключается в создании оценочной функции, сопоставляющей произвольной позиции определённую оценку: для какой из сторон данная позиция выгоднее и насколько (либо позиция равная). В AlphaGo используются 2 нейронные сети, одна из которых специализируется на оценке позиции. Таким образом, её можно условно назвать аналогом оценочной функции в шахматах[32].

По этим причинам даже спустя почти двадцать лет, после того как компьютер Deep Blue впервые выиграл у чемпиона мира Каспарова в 1997 году, самые сильные программы, играющие в го, достигли только любительского 5 дана, и не могли выиграть у профессионала на полной доске [8][33][34]. Лучшими достижениями искусственного интеллекта в го были победы программы Zen[англ.], работающей на кластере из четырёх компьютеров, против профессионала 9 дана Масаки Такэмия два раза с форой в пять и четыре камня в 2012 году[35], а также победа программы Crazy Stone[англ.] над Ёсио Исидой (9 профессиональный дан) с форой в четыре камня в 2013 году[36].

Создание программы, которая хорошо бы играла в го, являлось камнем преткновения в развитии искусственного интеллекта[1]. До 2015 года большинство специалистов по искусственному интеллекту считали, что программа, способная победить чемпиона мира в го, не будет создана, по крайней мере, в течение следующих пяти лет[37], а многие из них предполагали, что на это потребуется как минимум десять лет[38][39][40][41]. Даже после победы AlphaGo над Фань Хуэем многие эксперты предсказывали, что AlphaGo проиграет Ли Седолю[42].

После матча с Ли Седолем правительство Южной Кореи объявило об инвестиции 1 триллиона вон (863 миллиона долларов) в исследование искусственного интеллекта в течение следующих пяти лет[43].

Практическое применение

Методы, разработанные для игры в AlphaGo, могут применяться и в других областях искусственного интеллекта, в частности для медицинской диагностики[44]. Как сообщил основатель DeepMind Демис Хассабис, DeepMind заключил соглашение с Национальной службой здравоохранения Великобритании для изучения возможности применения искусственного интеллекта для анализа медицинских данных[45][46]. Для этого было основано подразделение DeepMind Health.

Устройство AlphaGo

Основные принципы

Существенной особенностью AlphaGo является то, что она использует общие алгоритмы, которые практически не зависят от особенностей игры го[47]. В алгоритм AlphaGo заложены только базовые принципы игры, с которых начинает изучение игры любой начинающий, такие как подсчёт числа свободных пунктов (дамэ) у группы камней, и анализ возможности захватить камни, используя приём «лестница» (ситё). Остальное AlphaGo выучила сама, анализируя базу данных из 160 тысяч партий общими методами, которые могут использоваться и в других областях искусственного интеллекта[48]. Этим AlphaGo отличается от таких систем, как Deep Blue — шахматного суперкомпьютера[4]. При написании алгоритма для Deep Blue использовалась продвинутая шахматная теория. Так, например, для оценки позиции Deep Blue использовал 8000 настраиваемых признаков, в Deep Blue была заложена огромная библиотека дебютов[49]. AlphaGo — программа, которая может работать на любом аппаратном обеспечении (хотя она использовала процессор, разработанный специально для машинного обучения[⇨]), и принципы которой можно использовать в других областях. Она не использует библиотеку дебютов и во время игры не обращается ни к какой базе данных ходов непосредственно (а только использует нейронную сеть, натренированную на большом количестве партий). Сами разработчики программы не знают, как AlphaGo оценивает позицию, её ходы представляют собой феномен эмерджентности[50]. Кроме того, Deep Blue был разработан с одной целью — выиграть матч у Гарри Каспарова в шахматы[4][51]. AlphaGo не была обучена играть специально против Ли Седоля[17][52], более того, в базе данных тренировки AlphaGo не было партий Ли Седоля[53], и во время матча программа AlphaGo не менялась и не подстраивалась под стиль игры Ли Седоля[54].

Главное новшество AlphaGo заключается в использовании глубинного обучения — метода, успешно применявшегося для распознавания образов (например, для поиска картинок в Google Images)[55]. А именно, AlphaGo использует нейронные сети, обученные на большом количестве профессиональных партий, способные предсказывать, какой ход сделает профессионал в той или иной позиции. Сыгранные сами с собой партии дополнительно улучшили нейронные сети. Одно лишь это позволило AlphaGo играть на уровне лучших компьютерных программ 2015 года: без перебора вариантов, используя лишь нейронную сеть для выбора хода, программа смогла выиграть у Pachi (программы, играющей на уровне второго любительского дана)[56].

Как и лучшие предшествующие программы для игры в го, AlphaGo использует также метод Монте-Карло для поиска в дереве[англ.] (MCST)[56]. Суть этого метода (названного по аналогии с методом Монте-Карло в вычислительной математике) состоит в том, что для оценки позиции программа много раз играет сама с собой случайным образом, доводя каждый раз игру до конца. Потом выбирает ход, при котором было наибольшее число побед.

Технологии, предшествующие AlphaGo

Общие подходы к играм с полной информацией

Го является игрой с полной информацией. Теоретически для любой игры с полной информацией существует оптимальная стратегия. Чтобы найти оптимальную стратегию, нужно обойти полное дерево игры[англ.]. Например, таким образом в 2007 году программа Chinook полностью решила[англ.] английские шашки[57]. Однако для большинства игр этот метод непрактичен, так как размер дерева может быть очень большим. Его можно оценить как , где  — степень ветвления дерева игры (то есть примерное число возможных ходов в каждой позиции), а  — глубина дерева игры (то есть примерная длина партии). Для го в то время как для шахмат Перебор может быть сокращён с использованием двух техник.

Во-первых, глубина поиска может быть сокращена за счёт оценочной функции: вместо того, чтобы рассматривать игру до конца, можно оценить промежуточную позицию, используя эвристику. Такой подход хорошо зарекомендовал себя в таких играх, как шахматы, где компьютер смог играть лучше человека. Однако такой подход оказался недостаточным для го из-за огромной сложности игры.

Другой подход заключается в сокращении степени ветвления просматриваемого дерева за счёт отбрасывания некоторых ходов. Одним из таких методов является метод Монте-Карло, который позволил компьютерам играть лучше людей в такие игры, как нарды.

Метод Монте-Карло для поиска в дереве

Метод Монте-Карло для поиска в дереве в простейшем виде состоит в следующем. Сначала из текущей позиции выбираются все возможные ходы, а затем для каждого хода разыгрывается большое количество случайных партий. Ход оценивается как соотношение побед к поражениям для случайных игр, начинающихся с этого хода. При этом вероятность выбрать тот или иной ход также зависит от текущей оценки позиции: позиции, в которых чаще происходил выигрыш, выбираются с большей вероятностью. Такая стратегия асимптотически стремится к оптимальной. Используя такой подход, программы-предшественники AlphaGo, смогли достичь в го уровня слабого любителя.

Для улучшения этого алгоритма применялись функции, позволяющие предсказать наиболее вероятный следующий ход. До AlphaGo использовались линейные оценочные функции и функции, полученные поверхностным обучением (shallow policies). Такой подход позволил достичь уровня сильного любителя.

Архитектура свёрточной нейронной сети

Глубинное обучение

AlphaGo работает, используя нейронные сети, — технику, которая успешно применяется при распознавании образов. Большой прорыв в этой области произошёл благодаря использованию многоуровневых свёрточных нейронных сетей и специальной техники их тренировки — глубинному обучению. Свёрточные нейронные сети состоят из нескольких уровней нейронов. Каждый уровень получает на вход матрицу чисел, комбинирует их с некоторыми весами и, используя нелинейную функцию активации, выдаёт множество чисел на выходе, которые передаются на следующий уровень. При распознавании образов изображение подаётся на первый уровень, а последний уровень выдаёт результат. Нейронные сети обучают на большом количестве изображений, постоянно корректируя веса, используемые для вычисления результата. В результате нейронная сеть приходит в такую конфигурацию, которая способна сама распознавать аналогичные изображения. Этот процесс невозможно предсказать, поэтому сложно сказать, как нейронная сеть «думает», но, грубо говоря, выходы на промежуточных уровнях соответствуют различным возможным классификациям[55][58].

С помощью этой техники удалось добиться больших успехов в распознавании образов, в частности в распознавании лиц. Кроме того, компания DeepMind использовала её для создания искусственного интеллекта, способного самостоятельно обучаться видеоигре на игровой консоли Atari 2600, используя в качестве входа видео, полученное с экрана[59].

Алгоритм AlphaGo

Представление позиции

AlphaGo использует свёрточные нейронные сети для того, чтобы оценить позицию или предсказать следующий ход. Аналогично тому, как при распознавании образов на нейронную сеть подаётся изображение, AlphaGo подаёт на нейронные сети позицию. Каждая позиция представлена как многослойная картинка , где каждый слой представляет описания простых свойств каждого пункта доски. Используются следующие простые свойства: цвет камня, количество свободных пунктов (дамэ) у данной группы камней (если их не больше 8), взятие камней, возможность сходить в данный пункт, был ли данный камень поставлен недавно. Единственное нетривиальное свойство, которое используется, — это угрожает ли данной группе захват в лестницу (ситё). Всего используется 48 бинарных свойств (свойства, выраженные целым числом, представляются при помощи унитарного кода). Таким образом каждая позиция представлена в виде таблицы бит [60].

Стратегическая сеть

Для того, чтобы не рассматривать совсем плохие ходы, и тем самым сократить степень ветвления при поиске, AlphaGo использует стратегические сети[61] (англ. policy networks) — нейронные сети, которые помогают выбирать хороший ход.

Одна из таких сетей (SL policy networks) может предсказывать ход, который в данной позиции сделал бы профессионал. Это 13-уровневая нейронная сеть получена обучением «с учителем» (англ. supervised learning, SL) на 30 миллионах позиций, взятых из 160 тысяч партий, сыгранных на сервере KGS[англ.] игроками от 6 до 9 дана. Обучение происходило в течение четырёх недель на 50 GPU; в качестве обучающего алгоритма использовался стохастический градиентный спуск[англ.] для поиска максимального правдоподобия[62]. Получившаяся нейронная сеть вычисляла распределение вероятностей среди всех возможных ходов в данной позиции (представленной, как описано выше). В результате нейронная сеть смогла правильно предсказывать ход, который выбрал человек, в 57 % тестовых ситуациях[англ.] (не использованных при обучении). Для сравнения лучший результат до AlphaGo был 44 %. Даже небольшое увеличение точности предсказаний существенно увеличивает силу игры.

Стратегическая сеть способна сама играть в го, выбирая каждый раз случайный ход с вычисленной вероятностью.

Улучшенная стратегическая сеть

Стратегическая сеть была улучшена при помощи обучения с подкреплением (англ. reinforcement learning, RL): а именно сеть постоянно улучшалась, играя с одной из сетей, полученных ранее. При этом каждый раз выбиралась случайная сеть из полученных ранее, чтобы избежать переобучения (ситуации, когда программа выбирает лучший ход, в предположении, что оппонент использует ту же стратегию, но может плохо играть против другого оппонента). В результате получилась стратегическая сеть (RL policy network), которая выигрывала у первоначальной сети 80 % игр.

Оказалось, что полученная стратегическая сеть, не используя ни оценочную функцию, ни перебор вариантов, смогла выиграть 85 % игр у самой сильной на то время открытой программы Pachi. Для сравнения, до этого лучшая программа, которая играла, не используя перебор вариантов, а только свёрточную нейронную сеть, выигрывала у Pachi 11 % игр. Таким образом AlphaGo без перебора вариантов смогла достичь примерно уровня третьего любительского дана по оценке авторов программы[63].

Быстрая стратегическая сеть

Для симуляции игры, требуемой в методе Монте-Карло (см. ниже), AlphaGo использует более быстрый, но менее точный вариант стратегической сети (rollout policy), который получает ответ всего за 2 мкс. Эта быстрая сеть предсказывает ход человека с вероятностью 30 %[64], в то время как улучшенная стратегическая сеть выдаёт ответ на том же оборудовании за 3 мс с вероятностью 57 %.

Оценочная сеть

Для сокращения глубины поиска AlphaGo использовала оценочную сеть[61] (англ. value network). Эта нейронная сеть оценивает вероятность выигрыша в данной позиции. Эта сеть является результатом обучения на 30 миллионах позиций, полученных при игре улучшенной стратегической сети с собой. При этом из каждой игры выбиралось не более чем по одной позиции (чтобы избежать переобучения из-за похожести позиций в одной игре). Для каждой из этих позиций оценивалась вероятность выигрыша методом Монте-Карло: устраивался турнир из многих партий, в которых улучшенная стратегическая сеть, построенная на прошлом этапе[⇦], играла сама с собой, начиная с этой позиции. После этого оценочная сеть была обучена на этих данных. Обучение заняло одну неделю на 50 GPU. В результате получилась сеть, которая могла предсказывать для каждой позиции вероятность выигрыша, при этом используя в 15 000 раз меньше вычислений, чем метод Монте-Карло.

Поиск в дереве

AlphaGo осуществляет перебор вариантов при помощи метода Монте-Карло для поиска в дереве[англ.] следующим образом. AlphaGo строит частичное дерево игры[англ.], начиная с текущей позиции, производя многочисленные симуляции игры. Для каждого хода в дереве записывается оценка, которая специальным образом зависит от оценок хода, полученных при помощи стратегической[⇦] и оценочной[⇦] сетей, от результата случайных партий в предыдущих симуляциях и от количества предыдущих симуляций, выбравших этот ход (чем чаще выбирался раньше этот ход, тем ниже оценка, чтобы программа рассматривала больше разнообразных ходов).

Вначале каждой симуляции AlphaGo выбирает ход в уже построенном дереве, с максимальной оценкой. Когда симуляция доходит до позиции, которой нет в дереве, эта позиция добавляется в дерево, вместе со всеми ходами, разрешёнными в этой позиции, которые оцениваются при помощи стратегической сети[⇦]. Далее, как в методе Монте-Карло, игра симулируется до конца без ветвления. В этой симуляции каждый ход выбирается случайно с вероятностью, полученной при помощи быстрой стратегической сети[⇦].

В конце симуляции, в зависимости от результата, обновляются оценки ходов в построенном дереве. Таким образом каждая симуляция начинается с текущей игровой позиции, доходит до конца, и в результате одной симуляции в текущем дереве раскрывается одна позиция.

Авторы программы обнаружили, что на этом этапе выгоднее использовать не улучшенную стратегическую сеть[⇦], а первоначальную (SL policy network)[⇦]. Как считают авторы, это связано с тем, что профессиональные игроки выбирают более разнообразные ходы, чем улучшенная сеть, что позволяет программе рассматривать больше вариантов. Таким образом улучшенная стратегическая сеть не используется во время игры, но её использование существенно для построения оценочной сети[⇦], когда программа обучается, играя сама с собой.

Аппаратное обеспечение

Стойка TPU, используемая AlphaGo в матче с Ли Седолем.

Обучение AlphaGo происходило в течение нескольких недель на 50 графических процессорах, используя платформу Google Cloud[англ.], сервера которой расположены в США[62][65].

AlphaGo тестировалась в компьютерных системах с различным количеством процессоров и графических процессоров, работающих параллельно или распределённо. В каждом случае давалось 2 секунды на ход. Достигнутые при этом рейтинги, рассчитанные на основе результатов игр друг с другом по системе Эло, представлены в таблице:[66]

Вычисления Потоков
выполнения
Число ЦП Число ГП Рейтинг Эло
Параллельные 40 48 1 2181
Параллельные 40 48 2 2738
Параллельные 40 48 4 2850
Параллельные 40 48 8 2890
Распределённые 12 428 64 2937
Распределённые 24 764 112 3079
Распределённые 40 1202 176 3140
Распределённые 64 1920 280 3168

Версия, которая выиграла у Фань Хуэя в октябре 2015 года, работала на 1202 процессорах и 176 графических процессорах[67] .

В игре с Ли Седолем в марте 2016 года AlphaGo использовала 1920 процессоров и 280 графических процессоров, работающих в распределённой сети[68].

В мае 2016 года представители компании Google объявили, что AlphaGo использовала TPU, процессор, разработанный Google, специально для машинного обучения[69][70].

В матче против Кэ Цзе в мае 2017 года новая версия AlphaGo использовала только один компьютер на Google Cloud c TPU процессором, то есть примерно в 10 раз меньшую вычислительную мощность, чем была использована в матче с Ли Седолем[71].

Стиль игры

Тоби Маннинг, судья в матче AlphaGo с Фань Хуэем, охарактеризовал стиль игры AlphaGo скорее как консервативный, чем агрессивный[72]. По словам генерального директора DeepMind Демиса Хассабиса, AlphaGo пытается увеличить вероятность выигрыша, а не разрыв в количестве очков[4].

Профессиональные игроки отмечали, что некоторые ходы AlphaGo, первоначально кажущиеся ошибочными, при более глубоком изучении оказывались стратегически важными[73].

Не Вэйпин (9 профессиональный дан, Китай) после первой игры с Ли Седолем предположил, что AlphaGo играет на уровне 6 или 7 профессионального дана в фусэки и 13—15 дана в тюбане[74].

В третьей партии выяснилось, что AlphaGo способна управлять ситуацией при ведении ко-борьбы, что ранее считалось значительной слабостью большей части программ, играющих в го[75].

Некоторые обозреватели охарактеризовали ошибки AlphaGo, приведшие к поражению в четвёртой партии, как типичные ошибки для программы, работающей на основе метода Монте-Карло[76]. Демис Хассабис заявил, что эти ошибки будут тщательно проанализированы, и что, видимо, AlphaGo не знает некоторые классические тэсудзи и совершает тактические ошибки[77]. Впоследствии Айа Хуань (один из разработчиков AlphaGo, который ставил камни за AlphaGo) сказал, что у команды авторов два предположения о причинах этих ошибок: либо AlphaGo просто не хватило глубины просмотра, чтобы проанализировать ситуацию; либо 78-й ход Ли Седоля был настолько необычным (комментаторы его называли «божественным»[76]), что программа при самообучении не встречала подобных ситуаций, в результате её оценочная функция (см. выше) в этой ситуации оказалась слаба. В любом случае, по словам Айа Хуаня, новая версия AlphaGo в этой ситуации уже играет правильно. При этом команда не делала ничего специального, AlphaGo сама в результате обучения перестала делать такие ошибки[78].

После матча Ли Седоль заявил, что был побеждён психологически, но вовсе не технически[79]. Программа показала способность к креативным решениям, что удивило многих игроков (например, ход № 37 во второй партии); некоторые ходы противоречили классической теории го, но в матче доказали свою эффективность, некоторые профессионалы стали использовать эти находки в своих партиях[50].

Аналогичные системы

Facebook также разрабатывает программу для игры в го, Darkforest[англ.], которая тоже основана на машинном обучении и поиске в дереве[72][80]. На начало 2016 года Darkforest показал сильную игру против других компьютеров, но не смог выиграть у профессионала[81]. По силе Darkforest оценивается на уровне программ Crazy Stone[англ.] и Zen[англ.][82].

1 марта 2016 года разработчики программы Zen (Ёдзи Одзима и Хидэки Като), компания DWANGO и исследовательская группа глубинного обучения Токийского университета (которая создала программу Ponanza[яп.] для игры в сёги, победившую человека) объявили о совместном проекте «Deep Zen Go Project», с целью победить AlphaGo в течение 6—12 месяцев. Японская ассоциация го обещала поддержать проект[83]. В ноябре 2016 года Deep Zen Go проиграла со счётом 2-1 самому титулованному игроку Японии Тё Тикуну[84][85].

Литература

См. также

Примечания

  1. 1 2 Metz C. Why the Final Game Between AlphaGo and Lee Sedol Is Such a Big Deal for Humanity (англ.). // Wired News (14 марта 2016). Дата обращения: 10 ноября 2016. Архивировано 22 декабря 2016 года.
  2. Google's AlphaGo gets 'divine' Go ranking (англ.). // The Straits Times (15 марта 2016). Дата обращения: 10 ноября 2016. Архивировано 7 октября 2016 года.
  3. Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol. // BBC News (12 марта 2016). Дата обращения: 12 июля 2016. Архивировано 26 августа 2016 года.
  4. 1 2 3 4 Ribeiro J. AlphaGo’s unusual moves prove its AI prowess, experts say. // PC World (14 марта 2016). Дата обращения: 12 июля 2016. Архивировано 17 июля 2016 года.
  5. 1 2 Silver et al., 2016, p. 488.
  6. Silver et al., 2016.
  7. 1 2 Искусственный интеллект впервые победил профессионального игрока в го. // Meduza. Дата обращения: 27 января 2016. Архивировано 4 февраля 2016 года.
  8. 1 2 3 Research Blog: AlphaGo: Mastering the ancient game of Go with Machine Learning. // Google Research Blog (27 января 2016). Дата обращения: 28 января 2016. Архивировано 1 февраля 2016 года.
  9. Metz C. The Sadness and Beauty of Watching Google’s AI Play Go. // Wired News (11 марта 2016). Архивировано 7 ноября 2017 года.
  10. Huang A. Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference на YouTube, начиная с 35:56
  11. Demis Hassabis on Twitter. // Twitter. Дата обращения: 14 февраля 2016. Архивировано 27 июля 2019 года.
  12. Borowiec S. Google's AI machine v world champion of 'Go': everything you need to know. // The Guardian (9 марта 2016). Дата обращения: 15 марта 2016. Архивировано 15 марта 2016 года.
  13. Coulom R.[англ.]. Rating List of 2016-01-01. Архивировано 18 марта 2016 года.
  14. Ji-yoon L. Korean Go master proves human intuition still powerful in Go. // The Korean Herald/ANN (14 марта 2016). Дата обращения: 15 марта 2016. Архивировано из оригинала 12 апреля 2016 года.
  15. Metz C. Go Grandmaster Lee Sedol Grabs Consolation Win Against Google’s AI. // Wired News (13 марта 2016). Дата обращения: 29 марта 2016. Архивировано 17 ноября 2017 года.
  16. Ribeiro J. Google’s AlphaGo AI program strong but not perfect, says defeated South Korean Go player. // PC World (12 марта 2016). Дата обращения: 13 марта 2016. Архивировано 13 марта 2016 года.
  17. 1 2 Sung-won Y. Lee Se-dol shows AlphaGo beatable. // The Korea Times (13 ноября 2016). Дата обращения: 15 марта 2016. Архивировано 14 марта 2016 года.
  18. 1 2 Хассабис Д. Demis Hassabis on Twitter: "Excited to share an update on #AlphaGo!". // Demis Hassabis' Twitter account (4 января 2017). Дата обращения: 4 января 2017. Архивировано 15 февраля 2019 года.
  19. 1 2 Gibney E. Google reveals secret test of AI bot to beat top Go players. // Nature (4 января 2017). Дата обращения: 4 января 2017. Архивировано 5 января 2017 года.
  20. Ещё одна партия закончилась ничьей, так как игрок-человек отсоединился от сервера из-за проблем с сетью. Но результат не был засчитан на сервере FoxGo, поскольку отсоединение произошло в самом начале партии.
  21. 横扫中日韩棋手斩获59胜的Master发话:我是阿尔法狗. // 澎湃新闻 (4 января 2017). Дата обращения: 5 января 2017. Архивировано 30 сентября 2020 года.
  22. The Future of Go Summit, Match One: Ke Jie & AlphaGo на YouTube, начиная с 5:58:50 (23 мая 2017)
  23. Exploring the mysteries of Go with AlphaGo and China's top players (10 апреля 2017). Дата обращения: 10 апреля 2017. Архивировано 11 апреля 2017 года.
  24. AlphaGo retires from competitive Go after defeating world number one 3-0 — The Verge. Дата обращения: 4 июня 2017. Архивировано 7 июня 2017 года.
  25. 【柯洁战败解密】AlphaGo Master最新架构和算法,谷歌云与TPU拆解 (кит.). Sohu (24 мая 2017). Дата обращения: 1 июня 2017. Архивировано 17 сентября 2017 года.
  26. 1 2 3 4 AlphaGo Zero: Learning from scratch. DeepMind official website (18 октября 2017). Дата обращения: 19 октября 2017. Архивировано 19 октября 2017 года.
  27. 1 2 3 4 Silver, David[англ.]; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja[англ.]; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis. Mastering the game of Go without human knowledge (англ.) // Nature : journal. — 2017. — 19 October (vol. 550, no. 7676). — P. 354—359. — ISSN 0028-0836. — doi:10.1038/nature24270.Шаблон:Closed access
  28. A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play | Science. Дата обращения: 16 февраля 2021. Архивировано 8 марта 2021 года.
  29. Rating of Go players. Дата обращения: 12 июля 2016. Архивировано 1 апреля 2017 года.
  30. Levinovitz A. The Mystery of Go, the Ancient Game That Computers Still Can’t Win (англ.). // Wired News. Дата обращения: 30 января 2016. Архивировано 31 января 2016 года.
  31. Schraudolph N. N., Dayan P., Sejnowski T. J. Temporal difference learning of position evaluation in the game of Go. // Advances in Neural Information Processing Systems. — 1994. — С. 817.
  32. Demis Hassabis Как работает искусственный интеллект (ИИ) DeepMind (озвучивание Hello Robots) на YouTube, начиная с 6:50
  33. Google achieves AI 'breakthrough' by beating Go champion. // BBC News (27 января 2016). Дата обращения: 12 июля 2016. Архивировано 30 января 2016 года.
  34. Mullen J. Computer scores big win against humans in ancient game of Go. // CNN (28 января 2016). Архивировано 5 февраля 2016 года.
  35. Ormerod D. Zen computer Go program beats Takemiya Masaki with just 4 stones! // Go Game Guru. Дата обращения: 28 января 2016. Архивировано из оригинала 1 февраля 2016 года.
  36. Cambier A. Le Corps sans limites (фр.). — Presses Univ. Septentrion, 2016. — С. 100. — 146 с. — ISBN 9782757414859.
  37. Gershgorn D. Google's AlphaGo Beats World Champion in Third Match to Win Entire Series. // Popular Science (12 марта 2016). Дата обращения: 13 ноября 2016. Архивировано 16 декабря 2016 года.
  38. Hoffman W. Elon Musk Says Google Deepmind's Go Victory Is a 10-Year Jump For A.I. // Inverse (9 марта 2016). Дата обращения: 12 марта 2016. Архивировано 12 марта 2016 года.
  39. Silver et al., 2016, p. 484.
  40. Google DeepMind computer AlphaGo sweeps human champ in Go matches. // CBC News (12 марта 2016). Дата обращения: 13 марта 2016. Архивировано 13 марта 2016 года.
  41. Yan S. A Google computer victorious over the world's 'Go' champion. // CNN Money (12 марта 2016). Дата обращения: 13 марта 2016. Архивировано 13 марта 2016 года.
  42. Borowiec S., Lien T. AlphaGo beats human Go champ in milestone for artificial intelligence. // Los Angeles Times (12 марта 2016). Дата обращения: 13 марта 2016. Архивировано 12 марта 2016 года.
  43. Zastrow M. South Korea trumpets $860-million AI fund after AlphaGo 'shock' (англ.) // Nature News. — 2016. — 18 March. — doi:10.1038/nature.2016.19595.
  44. Zhang Z. When doctors meet with AlphaGo: potential application of machine learning to clinical medicine // Annals of Translational Medicine. — 2016-03-01. — Т. 4, вып. 6. — ISSN 2305-5839. — doi:10.21037/atm.2016.03.25.
  45. Byford S. DeepMind founder Demis Hassabis on how AI will shape the future. // The Verge (10 марта 2016). Дата обращения: 12 июля 2016. Архивировано 11 июля 2016 года.
  46. AlphaGo Can Shape The Future Of Healthcare. // The Medical Futurist (5 апреля 2016). Дата обращения: 12 июля 2016. Архивировано из оригинала 14 июля 2016 года.
  47. Man vs. machine: Google's AI to take on grand master of ancient Chinese board game (англ.). // ABC News (8 марта 2016). Дата обращения: 12 июля 2016. Архивировано 15 июня 2016 года.
  48. Silver et al., 2016, Methods, p. 489.
  49. Арлазаров В. Л. Алгоритмы шахматных программ. // acm.mipt.ru. Дата обращения: 12 июля 2016. Архивировано 9 октября 2016 года.
  50. 1 2 Metz C. Google's AI Wins Pivotal Second Game in Match With Go Grandmaster. // Wired News (10 марта 2016). Дата обращения: 12 марта 2016. Архивировано 11 марта 2016 года.
  51. Silver N. The Signal and the Noise: Why So Many Predictions Fail-but Some Don't. — Penguin, 2012-09-27. — 449 с. — P. 195. — ISBN 9781101595954.
  52. Match 3 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo на YouTube, начиная с 22:30
  53. Match 4 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo на YouTube, начиная с 6:09:35
  54. Google AlphaGo and machine learning (Alphago Korean Press Briefing 2 of 2) на YouTube
  55. 1 2 Maas D. How AlphaGo Works (англ.). // Maas Digital (28 января 2016). Дата обращения: 29 сентября 2016. Архивировано 5 октября 2016 года.
  56. 1 2 Burger C. Google DeepMind's AlphaGo: How it works. // On Personalization and Data (16 марта 2016). Дата обращения: 1 ноября 2016. Архивировано 1 ноября 2016 года.
  57. Schaeffer J., Burch N., Björnsson Y., Kishimoto A., Müller M., Lake R., Lu P., Sutphen S. Checkers is Solved // Science. — 2007. — Т. 317, № 5844. — P. 1518–22. — doi:10.1126/science.1144079. — PMID 17641166.
  58. Convolutional Neural Networks (LeNet) - DeepLearning 0.1 documentation. // DeepLearning 0.1 (LISA Lab). Дата обращения: 31 августа 2013. Архивировано из оригинала 28 декабря 2017 года.
  59. Clark L. DeepMind's AI is an Atari gaming pro now. // Wired UK. Дата обращения: 1 ноября 2016. Архивировано 21 мая 2016 года.
  60. Silver et al., 2016, Methods.
  61. 1 2 Черников А. Хроники Го-4. После матча. // Компьютерное Обозрение (18 марта 2016). Дата обращения: 6 июня 2016. Архивировано 2 августа 2016 года.
  62. 1 2 Huang A. Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference на YouTube, начиная с 27:00
  63. Huang A. Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference на YouTube, начиная с 27:45
  64. В статье журнала Nature (Silver et al., 2016 Архивная копия от 24 сентября 2019 на Wayback Machine) утверждалось, что стратегическая сеть AlphaGo предсказывает ход человека с вероятностью 24 %, но позже один из авторов, Айа Хуань, заявил, что эти данные ошибочные. См. Huang A. Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference на YouTube, начиная с 34:45
  65. 李世乭:即使Alpha Go得到升级也一样能赢 (кит.). // JoongAng Ilbo (23 февраля 2016). Дата обращения: 7 июня 2016. Архивировано 4 марта 2016 года.
  66. Silver et al., 2016, Table 8.
  67. Silver et al., 2016, Table 6.
  68. Showdown: Win or lose, a computer program’s contest against a professional Go player is another milestone in AI (англ.). // The Economist (12 марта 2016). Дата обращения: 28 сентября 2017. Архивировано 14 августа 2017 года.
  69. McMillan R. Google Isn’t Playing Games With New Chip. // Wall Street Journal (18 мая 2016). Дата обращения: 26 июня 2016. Архивировано 29 июня 2016 года.
  70. Jouppi N. Google supercharges machine learning tasks with TPU custom chip (англ.). // Google Cloud Platform Blog (18 мая 2016). Дата обращения: 26 июня 2016. Архивировано 18 мая 2016 года.
  71. The Future of Go Summit, Match One: Ke Jie & AlphaGo на YouTube, начиная с 6:03:10 (23 мая 2017)
  72. 1 2 Gibney E. Google AI algorithm masters ancient game of Go. // Nature News & Comment (27 января 2016). Дата обращения: 3 февраля 2016. Архивировано 2 мая 2019 года.
  73. Lee Sedol expects «not easy» game with AlphaGo in 3rd Go match. // Shanghai Daily (10 марта 2016). Дата обращения: 10 марта 2016. Архивировано 11 марта 2016 года.
  74. Nie Weiping 9d: «AlphaGo is a 6-7 dan pro in the beginning; 13d mid-game; 15d end-game». // Reddit (15 марта 2016). Дата обращения: 13 сентября 2016. Архивировано 1 июля 2016 года.
  75. Byford S. AlphaGo beats Lee Se-dol again to take Google DeepMind Challenge series. // The Verge (Vox Media) (12 марта 2016). Дата обращения: 12 марта 2016. Архивировано 13 марта 2016 года.
  76. 1 2 Ormerod D. Lee Sedol defeats AlphaGo in masterful comeback - Game 4 (англ.). // Go Game Guru (13 марта 2016). Дата обращения: 4 ноября 2016. Архивировано из оригинала 16 ноября 2016 года.
  77. Tanguy C. The Go Files: AI computer wraps up 4-1 victory against human champion (англ.). // Nature (15 марта 2016). Дата обращения: 13 сентября 2016. Архивировано 17 сентября 2016 года.
  78. Huang A. Alpha Go: Combining Deep Neural Networks with Tree Search // Keynote Lecture CG2016 Conference на YouTube, начиная с 37:28
  79. Audureau, W. Jeu de go: pour Lee Sedol, la victoire de la machine est moins tactique que psychologique (фр.). // Le Monde (15 марта 2016). Дата обращения: 13 июня 2016. Архивировано 16 марта 2016 года.
  80. Tian Y., Zhu Y. Better Computer Go Player with Neural Network and Long-term Prediction // ICLR 2016. — 2016. — 29 февраля. — arXiv:1511.06410v3.
  81. HAL 90210 No Go: Facebook fails to spoil Google's big AI day (англ.) (28 января 2016). Дата обращения: 1 февраля 2016. Архивировано 15 марта 2016 года.
  82. Hassabis D. Strachey Lecture. // The New Livestream. Дата обращения: 17 марта 2016. Архивировано 16 марта 2016 года.
  83. 「DEEP ZEN GO プロジェクト」発表。AlphaGo対抗の囲碁ソフト開発をドワンゴが支援、山本一成さんら参加 (яп.) (1 марта 2016). Дата обращения: 13 июля 2016. Архивировано 6 июля 2016 года.
  84. Jiji. Go master Cho wins best-of-three series against Japan-made AI. // The Japan Times Online (24 ноября 2016). Дата обращения: 27 ноября 2016. Архивировано 14 августа 2017 года.
  85. Bolton A. Humans strike back: Korean Go master bests AI in board game bout. // CNET (23 ноября 2016). Дата обращения: 27 ноября 2016. Архивировано 25 ноября 2016 года.

Ссылки