Юдковский, Элиезер: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[отпатрулированная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
http -> https
Исправлены ссылки
Строка 11: Строка 11:


== Научные интересы ==
== Научные интересы ==
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта [[Singularity Institute for Artificial Intelligence]] (SIAI)<ref name = "SiNnote">{{cite book|author=Kurzweil, Ray|title=The Singularity Is Near|publisher=Viking Penguin|location=New York, US|year=2005|isbn=0-670-03384-7|page=599|authorlink=Ray_Kurzweil}}</ref>. Он — автор книги «Создание дружественного ИИ»<ref>[https://intelligence.org/files/CFAI.pdf Creating Friendly AI], 2001</ref>, статей «Уровни организации универсального интеллекта»<ref>[https://intelligence.org/files/LOGI.pdf Levels of Organization in General Intelligence], 2002</ref>, «Когерентная экстраполированная воля»<ref>[https://intelligence.org/files/CEV.pdf Coherent Extrapolated Volition], 2004</ref> и «Вневременная теория принятия решений»<ref>[https://intelligence.org/files/TDT.pdf Timeless Decision Theory], 2010</ref><ref name = "afuture">{{cite web|url=http://www.acceleratingfuture.com/people/Eliezer-Yudkowsky/|title=Eliezer Yudkowsky Profile|publisher=Accelerating Future|archiveurl=https://www.webcitation.org/68u5GDn1X|archivedate=2012-07-04}}</ref>. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией [[Бостром, Ник|Ника Бострома]], а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»<ref name="airisk">{{cite web|url=http://www.singinst.org/upload/artificial-intelligence-risk.pdf|title=Artificial Intelligence as a Positive and Negative Factor in Global Risk|publisher=Singularity Institute for Artificial Intelligence|accessdate=2009-07-28|archiveurl=https://www.webcitation.org/68u5GedCn|archivedate=2012-07-04}}</ref><ref name="biasrisk">{{cite web|url=http://www.singinst.org/upload/cognitive-biases.pdf|title=Cognitive Biases Potentially Affecting Judgement of Global Risks|publisher=Singularity Institute for Artificial Intelligence|archiveurl=https://www.webcitation.org/68u5H5A9G|archivedate=2012-07-04}}</ref><ref name = "bostrom">{{cite book|editor=Bostrom, Nick|editorlink=Nick_Bostrom|title=Global Catastrophic Risks|publisher=Oxford University Press|location=Oxford, UK|year=2008|isbn=978-0-19-857050-9|pages=91–119, 308–345}}</ref>. Юдковский не обучался в ВУЗах и является [[автодидакт]]ом без формального образования в области ИИ<ref name="GDay">{{cite web|url=http://gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|title=GDay World #238: Eliezer Yudkowsky|publisher=The Podcast Network|accessdate=2009-07-26|deadlink=404|archiveurl=https://web.archive.org/20070717003906/gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|archivedate=2007-07-17}}</ref>.
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта [[Singularity Institute for Artificial Intelligence]] (SIAI)<ref name = "SiNnote">{{cite book|author=Kurzweil, Ray|title=The Singularity Is Near|publisher=Viking Penguin|location=New York, US|year=2005|isbn=0-670-03384-7|page=599|authorlink=Ray_Kurzweil}}</ref>. Он — автор книги «Создание дружественного ИИ»<ref>[https://intelligence.org/files/CFAI.pdf Creating Friendly AI], 2001</ref>, статей «Уровни организации универсального интеллекта»<ref>[https://intelligence.org/files/LOGI.pdf Levels of Organization in General Intelligence], 2002</ref>, «Когерентная экстраполированная воля»<ref>[https://intelligence.org/files/CEV.pdf Coherent Extrapolated Volition], 2004</ref> и «Вневременная теория принятия решений»<ref>[https://intelligence.org/files/TDT.pdf Timeless Decision Theory], 2010</ref><ref name = "afuture">{{cite web|url=http://www.acceleratingfuture.com/people/Eliezer-Yudkowsky/|title=Eliezer Yudkowsky Profile|publisher=Accelerating Future|archiveurl=https://www.webcitation.org/68u5GDn1X|archivedate=2012-07-04}}</ref>. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией [[Бостром, Ник|Ника Бострома]], а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»<ref name="airisk">{{cite web|url=https://intelligence.org/files/AIPosNegFactor.pdf|title=Artificial Intelligence as a Positive and Negative Factor in Global Risk|publisher=Singularity Institute for Artificial Intelligence|accessdate=2009-07-28|archiveurl=https://www.webcitation.org/68u5GedCn|archivedate=2012-07-04}}</ref><ref name="biasrisk">{{cite web|url=https://intelligence.org/files/CognitiveBiases.pdf|title=Cognitive Biases Potentially Affecting Judgement of Global Risks|publisher=Singularity Institute for Artificial Intelligence|archiveurl=https://www.webcitation.org/68u5H5A9G|archivedate=2012-07-04}}</ref><ref name = "bostrom">{{cite book|editor=Bostrom, Nick|editorlink=Nick_Bostrom|title=Global Catastrophic Risks|publisher=Oxford University Press|location=Oxford, UK|year=2008|isbn=978-0-19-857050-9|pages=91–119, 308–345}}</ref>. Юдковский не обучался в ВУЗах и является [[автодидакт]]ом без формального образования в области ИИ<ref name="GDay">{{cite web|url=http://gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|title=GDay World #238: Eliezer Yudkowsky|publisher=The Podcast Network|accessdate=2009-07-26|deadlink=404|archiveurl=https://web.archive.org/20070717003906/gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|archivedate=2007-07-17}}</ref>.


Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению ([[Seed AI]]), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации ([[Дружественный искусственный интеллект]]). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»<ref>[http://yudkowsky.net/rational/bayes «An Intuitive Explanation of Bayes' Theorem»]</ref><ref>[http://translatedby.com/you/an-intuitive-explanation-of-bayes-theorem/into-ru/trans/ перевод]</ref>.
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению ([[Seed AI]]), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации ([[Дружественный искусственный интеллект]]). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»<ref>[http://yudkowsky.net/rational/bayes «An Intuitive Explanation of Bayes' Theorem»]</ref><ref>[http://translatedby.com/you/an-intuitive-explanation-of-bayes-theorem/into-ru/trans/ перевод]</ref>.

Версия от 10:03, 29 октября 2018

Элиезер Юдковский
англ. Eliezer Yudkowsky
Элиезер Юдковский на Стэнфордском саммите сингулярности в 2006 году.
Элиезер Юдковский на Стэнфордском саммите сингулярности в 2006 году.
Имя при рождении англ. Eliezer Shlomo Yudkowsky
Дата рождения 11 сентября 1979(1979-09-11)[1] (44 года)
Место рождения
Страна
Научная сфера Искусственный интеллект
Место работы Machine Intelligence Research Institute
Известен как автор книги Гарри Поттер и методы рационального мышления
Сайт yudkowsky.net (англ.)
Логотип Викисклада Медиафайлы на Викискладе

Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ[2].

Научные интересы

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI)[3]. Он — автор книги «Создание дружественного ИИ»[4], статей «Уровни организации универсального интеллекта»[5], «Когерентная экстраполированная воля»[6] и «Вневременная теория принятия решений»[7][8]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[9][10][11]. Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ[12].

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[13][14].

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[15].

Юдковский — автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой Less Wrong[16].

Ссылки

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Статьи на русском

Примечания

  1. People by Last Names: Y (англ.) — 2002.
  2. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Дата обращения: 16 июля 2009. Архивировано 4 июля 2012 года.
  3. Kurzweil, Ray. The Singularity Is Near. — New York, US : Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7.
  4. Creating Friendly AI, 2001
  5. Levels of Organization in General Intelligence, 2002
  6. Coherent Extrapolated Volition, 2004
  7. Timeless Decision Theory, 2010
  8. Eliezer Yudkowsky Profile. Accelerating Future. Архивировано 4 июля 2012 года.
  9. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Дата обращения: 28 июля 2009. Архивировано 4 июля 2012 года.
  10. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архивировано 4 июля 2012 года.
  11. Global Catastrophic Risks / Bostrom, Nick. — Oxford, UK : Oxford University Press, 2008. — P. 91–119, 308–345. — ISBN 978-0-19-857050-9.
  12. GDay World #238: Eliezer Yudkowsky. The Podcast Network. Дата обращения: 26 июля 2009. Архивировано 17 июля 2007 года.
  13. «An Intuitive Explanation of Bayes' Theorem»
  14. перевод
  15. Sequences — Lesswrongwiki
  16. Yudkowsky — Fiction

Ссылки