Юдковский, Элиезер: различия между версиями
[отпатрулированная версия] | [отпатрулированная версия] |
Dmottl (обсуждение | вклад) http -> https |
Dmottl (обсуждение | вклад) Исправлены ссылки |
||
Строка 11: | Строка 11: | ||
== Научные интересы == |
== Научные интересы == |
||
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта [[Singularity Institute for Artificial Intelligence]] (SIAI)<ref name = "SiNnote">{{cite book|author=Kurzweil, Ray|title=The Singularity Is Near|publisher=Viking Penguin|location=New York, US|year=2005|isbn=0-670-03384-7|page=599|authorlink=Ray_Kurzweil}}</ref>. Он — автор книги «Создание дружественного ИИ»<ref>[https://intelligence.org/files/CFAI.pdf Creating Friendly AI], 2001</ref>, статей «Уровни организации универсального интеллекта»<ref>[https://intelligence.org/files/LOGI.pdf Levels of Organization in General Intelligence], 2002</ref>, «Когерентная экстраполированная воля»<ref>[https://intelligence.org/files/CEV.pdf Coherent Extrapolated Volition], 2004</ref> и «Вневременная теория принятия решений»<ref>[https://intelligence.org/files/TDT.pdf Timeless Decision Theory], 2010</ref><ref name = "afuture">{{cite web|url=http://www.acceleratingfuture.com/people/Eliezer-Yudkowsky/|title=Eliezer Yudkowsky Profile|publisher=Accelerating Future|archiveurl=https://www.webcitation.org/68u5GDn1X|archivedate=2012-07-04}}</ref>. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией [[Бостром, Ник|Ника Бострома]], а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»<ref name="airisk">{{cite web|url= |
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта [[Singularity Institute for Artificial Intelligence]] (SIAI)<ref name = "SiNnote">{{cite book|author=Kurzweil, Ray|title=The Singularity Is Near|publisher=Viking Penguin|location=New York, US|year=2005|isbn=0-670-03384-7|page=599|authorlink=Ray_Kurzweil}}</ref>. Он — автор книги «Создание дружественного ИИ»<ref>[https://intelligence.org/files/CFAI.pdf Creating Friendly AI], 2001</ref>, статей «Уровни организации универсального интеллекта»<ref>[https://intelligence.org/files/LOGI.pdf Levels of Organization in General Intelligence], 2002</ref>, «Когерентная экстраполированная воля»<ref>[https://intelligence.org/files/CEV.pdf Coherent Extrapolated Volition], 2004</ref> и «Вневременная теория принятия решений»<ref>[https://intelligence.org/files/TDT.pdf Timeless Decision Theory], 2010</ref><ref name = "afuture">{{cite web|url=http://www.acceleratingfuture.com/people/Eliezer-Yudkowsky/|title=Eliezer Yudkowsky Profile|publisher=Accelerating Future|archiveurl=https://www.webcitation.org/68u5GDn1X|archivedate=2012-07-04}}</ref>. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией [[Бостром, Ник|Ника Бострома]], а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»<ref name="airisk">{{cite web|url=https://intelligence.org/files/AIPosNegFactor.pdf|title=Artificial Intelligence as a Positive and Negative Factor in Global Risk|publisher=Singularity Institute for Artificial Intelligence|accessdate=2009-07-28|archiveurl=https://www.webcitation.org/68u5GedCn|archivedate=2012-07-04}}</ref><ref name="biasrisk">{{cite web|url=https://intelligence.org/files/CognitiveBiases.pdf|title=Cognitive Biases Potentially Affecting Judgement of Global Risks|publisher=Singularity Institute for Artificial Intelligence|archiveurl=https://www.webcitation.org/68u5H5A9G|archivedate=2012-07-04}}</ref><ref name = "bostrom">{{cite book|editor=Bostrom, Nick|editorlink=Nick_Bostrom|title=Global Catastrophic Risks|publisher=Oxford University Press|location=Oxford, UK|year=2008|isbn=978-0-19-857050-9|pages=91–119, 308–345}}</ref>. Юдковский не обучался в ВУЗах и является [[автодидакт]]ом без формального образования в области ИИ<ref name="GDay">{{cite web|url=http://gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|title=GDay World #238: Eliezer Yudkowsky|publisher=The Podcast Network|accessdate=2009-07-26|deadlink=404|archiveurl=https://web.archive.org/20070717003906/gdayworld.thepodcastnetwork.com/2007/05/17/gday-world-238-eliezer-yudkowsky/|archivedate=2007-07-17}}</ref>. |
||
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению ([[Seed AI]]), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации ([[Дружественный искусственный интеллект]]). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»<ref>[http://yudkowsky.net/rational/bayes «An Intuitive Explanation of Bayes' Theorem»]</ref><ref>[http://translatedby.com/you/an-intuitive-explanation-of-bayes-theorem/into-ru/trans/ перевод]</ref>. |
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению ([[Seed AI]]), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации ([[Дружественный искусственный интеллект]]). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»<ref>[http://yudkowsky.net/rational/bayes «An Intuitive Explanation of Bayes' Theorem»]</ref><ref>[http://translatedby.com/you/an-intuitive-explanation-of-bayes-theorem/into-ru/trans/ перевод]</ref>. |
Версия от 10:03, 29 октября 2018
Элиезер Юдковский | |
---|---|
англ. Eliezer Yudkowsky | |
| |
Имя при рождении | англ. Eliezer Shlomo Yudkowsky |
Дата рождения | 11 сентября 1979[1] (44 года) |
Место рождения | |
Страна | |
Научная сфера | Искусственный интеллект |
Место работы | Machine Intelligence Research Institute |
Известен как | автор книги Гарри Поттер и методы рационального мышления |
Сайт | yudkowsky.net (англ.) |
Медиафайлы на Викискладе |
Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ[2].
Научные интересы
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI)[3]. Он — автор книги «Создание дружественного ИИ»[4], статей «Уровни организации универсального интеллекта»[5], «Когерентная экстраполированная воля»[6] и «Вневременная теория принятия решений»[7][8]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[9][10][11]. Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ[12].
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[13][14].
Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[15].
Юдковский — автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой Less Wrong[16].
Ссылки
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
- Статьи на русском
- Е. Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков.
- Е. Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска.
- Е. Юдковский. Вглядываясь в Сингулярность.
- Е. Юдковский. Таблица критических ошибок Дружественного ИИ.
- Е. Юдковский. Три школы сингулярности.
- Е. Юдковский. Уровни организации универсального интеллекта.
Примечания
- ↑ People by Last Names: Y (англ.) — 2002.
- ↑ Singularity Institute for Artificial Intelligence: Team . Singularity Institute for Artificial Intelligence. Дата обращения: 16 июля 2009. Архивировано 4 июля 2012 года.
- ↑ Kurzweil, Ray. The Singularity Is Near. — New York, US : Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7.
- ↑ Creating Friendly AI, 2001
- ↑ Levels of Organization in General Intelligence, 2002
- ↑ Coherent Extrapolated Volition, 2004
- ↑ Timeless Decision Theory, 2010
- ↑ Eliezer Yudkowsky Profile . Accelerating Future. Архивировано 4 июля 2012 года.
- ↑ Artificial Intelligence as a Positive and Negative Factor in Global Risk . Singularity Institute for Artificial Intelligence. Дата обращения: 28 июля 2009. Архивировано 4 июля 2012 года.
- ↑ Cognitive Biases Potentially Affecting Judgement of Global Risks . Singularity Institute for Artificial Intelligence. Архивировано 4 июля 2012 года.
- ↑ Global Catastrophic Risks / Bostrom, Nick. — Oxford, UK : Oxford University Press, 2008. — P. 91–119, 308–345. — ISBN 978-0-19-857050-9.
- ↑ GDay World #238: Eliezer Yudkowsky . The Podcast Network. Дата обращения: 26 июля 2009. Архивировано 17 июля 2007 года.
- ↑ «An Intuitive Explanation of Bayes' Theorem»
- ↑ перевод
- ↑ Sequences — Lesswrongwiki
- ↑ Yudkowsky — Fiction
Ссылки
- Personal web site
- Biography page at KurzweilAI.net
- Biography page at the Singularity Institute
- Downloadable papers and bibliography
- Overcoming Bias — A blog to which Yudkowsky contributed regularly until 2009.
- Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
- Переводы статей по рациональному мышлению на русский
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
- Less Wrong Q&A with Eliezer Yudkowsky: Video Answers
- Глава о Юдковском в книге «21st Century Technology and Its Radical Implications for Mind, Society and Reality»
- Ben Goertzel. Superintelligence: Fears, Promises and Potentials // Journal of Evolution and Technology. — 2015. — Vol. 24, no. 2. — P. 55-87.
- Фанфик Harry Potter and the Methods of Rationality (перевод: Гарри Поттер и Методы Рационального Мышления)
Для улучшения этой статьи желательно:
|