Юдковский, Элиезер
Элиезер Юдковский | |
---|---|
англ. Eliezer Yudkowsky | |
| |
Имя при рождении | англ. Eliezer Shlomo Yudkowsky |
Дата рождения | 11 сентября 1979 (45 лет) |
Место рождения | Чикаго |
Страна | США |
Род деятельности | исследователь искусственного интеллекта, блогер, писатель, специалист в области информатики |
Научная сфера | Искусственный интеллект |
Место работы | Machine Intelligence Research Institute |
Известен как | автор книги Гарри Поттер и методы рационального мышления |
Сайт | yudkowsky.net (англ.) |
Медиафайлы на Викискладе |
Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky; род. 11 сентября 1979) — американский специалист[источник не указан 598 дней] по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ[1][2]. Ключевая фигура сообщества рационалистов.
Биография
[править | править код]Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев[3].
Научные интересы
[править | править код]Юдковский — сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI)[4]. Он — автор книги «Создание дружественного ИИ»[5], статей «Уровни организации универсального интеллекта»[6], «Когерентная экстраполированная воля»[7] и «Вневременная теория принятия решений»[8][9]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[10][11][12]. Юдковский не обучался в вузах и является автодидактом без формального образования в области ИИ[13].
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[14][15].
Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[16].
Юдковский — автор нескольких научно-фантастических, рациональных рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой LessWrong[17].
В начале 2020-х гг. начал публично выступать о высокой вероятности экзистенциальной катастрофы, вызванной искусственным интеллектом[18]. В опубликованной в марте 2023 года статье для Time он написал, что без маловероятного всемирного моратория на обучение общих ИИ-моделей умнее GPT-4, который государства были бы готовы поддерживать силовыми методами (вплоть до уничтожения датацентров, отказывающихся соблюдать ограничения, даже если есть шанс конфликта между ядерными державами), человечество обречено[19]. Вслед за ним похожее беспокойство начали высказывать два из трёх «крёстных отцов» искусственного интеллекта, Йошуа Бенжио[20] и Джеффри Хинтон[21].
Сочинения
[править | править код]- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Академические публикации
- Юдковский, Элиезер (2007). "Levels of Organization in General Intelligence" (PDF). Artificial General Intelligence. Berlin: Springer.
- Юдковский Э.. Cognitive Biases Potentially Affecting Judgement of Global Risks // Global Catastrophic Risks (англ.) / под ред. Ника Бострома. — Oxford University Press, 2008. — P. 91-119. — ISBN 978-0199606504.
- Юдковский Э.. Artificial Intelligence as a Positive and Negative Factor in Global Risk // Global Catastrophic Risks (англ.) / под ред. Ника Бострома. — Oxford University Press, 2008. — P. 308-345. — ISBN 978-0199606504.
- Юдковский, Элиезер (2011). "Complex Value Systems in Friendly AI" (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer.
- Юдковский Э.. Friendly Artificial Intelligence // Singularity Hypotheses: A Scientific and Philosophical Assessment (англ.) / под ред. Аммона Эдена, Джеймса Мура, Джона Сёракера. — Берлин: Springer, 2012. — P. 181-195. — (The Frontiers Collection). — ISBN 978-3-642-32559-5. — doi:10.1007/978-3-642-32560-1_10.
- Юдковский Э.. Intelligence Explosion Microeconomics (англ.). — 2013.
- Бостром, Н., Юдковский Э.. The Ethics of Artificial Intelligence // The Cambridge Handbook of Artificial Intelligence (англ.) / под ред. Кита Франкиша и Уильяма Рамси. — Нью-Йорк: Cambridge University Press, 2014. — ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Юдковский, Элиезер; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem". Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications.
- Соарес, Нейт; Fallenstein, Benja; Юдковский, Элиезер (2015). "Corrigibility" (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.
- Юдковский Э., Соарес, Н.. Functional Decision Theory: A New Theory of Instrumental Rationality (англ.). — 2018.
Статьи на русском
- Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков
- Искусственный интеллект как позитивный и негативный фактор глобального риска
- Рациональность: от ИИ до зомби
Примечания
[править | править код]- ↑ Russell, Stuart. Artificial Intelligence: A Modern Approach / Stuart Russell, Peter Norvig. — Prentice Hall, 2009. — ISBN 978-0-13-604259-4.
- ↑ Leighton, Jonathan. The Battle for Compassion: Ethics in an Apathetic Universe. — Algora, 2011. — ISBN 978-0-87586-870-7.
- ↑ Avoiding Your Belief's Real Weak Points . LessWrong. Дата обращения: 31 мая 2021. Архивировано 2 мая 2021 года.
- ↑ Ray Kurzweil. The Singularity Is Near (англ.). — N. Y.: Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7.
- ↑ Creating Friendly AI Архивная копия от 19 ноября 2018 на Wayback Machine, 2001
- ↑ Levels of Organization in General Intelligence Архивная копия от 13 декабря 2018 на Wayback Machine, 2002
- ↑ Coherent Extrapolated Volition Архивная копия от 30 сентября 2015 на Wayback Machine, 2004
- ↑ Timeless Decision Theory Архивная копия от 17 ноября 2014 на Wayback Machine, 2010
- ↑ Eliezer Yudkowsky Profile . Accelerating Future. Дата обращения: 15 ноября 2010. Архивировано из оригинала 4 декабря 2010 года.
- ↑ Artificial Intelligence as a Positive and Negative Factor in Global Risk . Singularity Institute for Artificial Intelligence. Дата обращения: 28 июля 2009. Архивировано из оригинала 2 марта 2013 года.
- ↑ Cognitive Biases Potentially Affecting Judgement of Global Risks . Singularity Institute for Artificial Intelligence. Дата обращения: 29 октября 2018. Архивировано из оригинала 7 мая 2015 года.
- ↑ Global Catastrophic Risks (англ.) / Bostrom, Nick. — Oxford, UK: Oxford University Press, 2008. — P. 91—119, 308—345. — ISBN 978-0-19-857050-9.
- ↑ GDay World #238: Eliezer Yudkowsky . The Podcast Network. Дата обращения: 26 июля 2009. Архивировано 17 июля 2007 года.
- ↑ «An Intuitive Explanation of Bayes' Theorem» . Дата обращения: 15 ноября 2010. Архивировано 16 ноября 2013 года.
- ↑ перевод . Дата обращения: 2 сентября 2012. Архивировано 19 января 2013 года.
- ↑ Sequences — Lesswrongwiki . Дата обращения: 15 ноября 2010. Архивировано 4 июля 2014 года.
- ↑ Yudkowsky — Fiction . Дата обращения: 11 мая 2012. Архивировано 12 мая 2014 года.
- ↑ AGI Ruin: A List of Lethalities . LessWrong. Дата обращения: 18 мая 2023. Архивировано 17 мая 2023 года.
- ↑ Pausing AI Developments Isn't Enough. We Need to Shut it All Down . Time. Дата обращения: 15 апреля 2023. Архивировано 2 апреля 2023 года.
- ↑ How Rogue AIs May Arise . Дата обращения: 28 мая 2023. Архивировано 26 мая 2023 года.
- ↑ “Godfather of artificial intelligence” weighs in on the past and potential of AI . CBS News. Дата обращения: 15 апреля 2023. Архивировано 15 апреля 2023 года.
Ссылки
[править | править код]- Personal web site
- Biography page at KurzweilAI.net
- Biography page at the Singularity Institute
- Downloadable papers and bibliography
- Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
- Переводы статей по рациональному мышлению на русский
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
- Less Wrong Q&A with Eliezer Yudkowsky: Video Answers
- Глава о Юдковском в книге «21st Century Technology and Its Radical Implications for Mind, Society and Reality»
- Ben Goertzel. Superintelligence: Fears, Promises and Potentials // Journal of Evolution and Technology. — 2015. — Vol. 24, no. 2. — P. 55—87.
- Фанфик Harry Potter and the Methods of Rationality (перевод: Гарри Поттер и Методы Рационального Мышления)
Для улучшения этой статьи желательно:
|