Юдковски, Элиезер

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск
Элиезер Юдковский
Eliezer Yudkowsky, Stanford 2006 (square crop).jpg
Элиезер Юдковский на Стэнфордском саммите сингулярности в 2006 году.
Дата рождения:

11 сентября 1979(1979-09-11) (38 лет)

Страна:
Научная сфера:

Искусственный интеллект

Место работы:

Machine Intelligence Research Institute

Сайт:

yudkowsky.net

Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ[1].

Научные интересы[править | править вики-текст]

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI)[2]. Он — автор книги «Создание дружественного ИИ»[3], статей «Уровни организации универсального интеллекта»[4], «Когерентная экстраполированная воля»[5] и «Вневременная теория принятия решений»[6][7]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[8][9][10]. Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ[11].

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса» [12][13].

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[14].

Юдковский автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» (англ. Harry Potter and the Methods of Rationality) под эгидой Less Wrong[15].

Ссылки[править | править вики-текст]

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Статьи на русском

Примечания[править | править вики-текст]

  1. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Проверено 16 июля 2009. Архивировано 4 июля 2012 года.
  2. Kurzweil, Ray. The Singularity Is Near. — New York, US: Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7.
  3. Creating Friendly AI, 2001
  4. Levels of Organization in General Intelligence, 2002
  5. Coherent Extrapolated Volition, 2004
  6. Timeless Decision Theory, 2010
  7. Eliezer Yudkowsky Profile. Accelerating Future. Архивировано 4 июля 2012 года.
  8. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Проверено 28 июля 2009. Архивировано 4 июля 2012 года.
  9. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архивировано 4 июля 2012 года.
  10. Global Catastrophic Risks / Bostrom, Nick. — Oxford, UK: Oxford University Press, 2008. — P. 91–119, 308–345. — ISBN 978-0-19-857050-9.
  11. GDay World #238: Eliezer Yudkowsky  (недоступная ссылка — история). The Podcast Network. Проверено 26 июля 2009. Архивировано 17 июля 2007 года.
  12. «An Intuitive Explanation of Bayes' Theorem»
  13. перевод
  14. Sequences — Lesswrongwiki
  15. Yudkowsky — Fiction

Ссылки[править | править вики-текст]