Меню
Главная
Случайная статья
Настройки
|
Элиезер Шломо Юдковский (англ. Eliezer S. Yudkowsky; род. 11 сентября 1979) — американский исследователь искусственного интеллекта, занимающийся проблемами технологической сингулярности и выступающий за создание дружественного ИИ[1][2]. Ключевая фигура сообщества рационалистов.
Содержание
Биография
Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев[3].
Научные интересы
Юдковский — сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI)[4]. Он — автор книги «Создание дружественного ИИ»[5], статей «Уровни организации универсального интеллекта»[6], «Когерентная экстраполированная воля»[7] и «Вневременная теория принятия решений»[8][9]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[10][11][12]. Юдковский не обучался в вузах и является автодидактом без формального образования в области ИИ[13].
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[14][15].
Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[16].
Юдковский — автор нескольких научно-фантастических, рациональных рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой LessWrong[17].
В начале 2020-х гг. начал публично выступать о высокой вероятности экзистенциальной катастрофы, вызванной искусственным интеллектом[18]. В опубликованной в марте 2023 года статье для Time он написал, что без маловероятного всемирного моратория на обучение общих ИИ-моделей умнее GPT-4, который государства были бы готовы поддерживать силовыми методами (вплоть до уничтожения датацентров, отказывающихся соблюдать ограничения, даже если есть шанс конфликта между ядерными державами), человечество обречено[19]. Вслед за ним похожее беспокойство начали высказывать два из трёх «крёстных отцов» искусственного интеллекта, Йошуа Бенжио[20] и Джеффри Хинтон[21].
Сочинения- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Академические публикации
Статьи на русском
Примечания
- Russell, Stuart. Artificial Intelligence: A Modern Approach / Stuart Russell, Peter Norvig. — Prentice Hall, 2009. — ISBN 978-0-13-604259-4.
- Leighton, Jonathan. The Battle for Compassion: Ethics in an Apathetic Universe. — Algora, 2011. — ISBN 978-0-87586-870-7.
- Avoiding Your Belief's Real Weak Points (неопр.). LessWrong. Дата обращения: 31 мая 2021. Архивировано 2 мая 2021 года.
-
- Creating Friendly AI Архивная копия от 19 ноября 2018 на Wayback Machine, 2001
- Levels of Organization in General Intelligence Архивная копия от 13 декабря 2018 на Wayback Machine, 2002
- Coherent Extrapolated Volition Архивная копия от 30 сентября 2015 на Wayback Machine, 2004
- Timeless Decision Theory Архивная копия от 17 ноября 2014 на Wayback Machine, 2010
- Eliezer Yudkowsky Profile (неопр.). Accelerating Future. Дата обращения: 15 ноября 2010. Архивировано из оригинала 4 декабря 2010 года.
- Artificial Intelligence as a Positive and Negative Factor in Global Risk (неопр.). Singularity Institute for Artificial Intelligence. Дата обращения: 28 июля 2009. Архивировано из оригинала 2 марта 2013 года.
- Cognitive Biases Potentially Affecting Judgement of Global Risks (неопр.). Singularity Institute for Artificial Intelligence. Дата обращения: 29 октября 2018. Архивировано из оригинала 7 мая 2015 года.
-
- GDay World #238: Eliezer Yudkowsky (неопр.). The Podcast Network. Дата обращения: 26 июля 2009. Архивировано 17 июля 2007 года.
- «An Intuitive Explanation of Bayes' Theorem» (неопр.). Дата обращения: 15 ноября 2010. Архивировано 16 ноября 2013 года.
- перевод (неопр.). Дата обращения: 2 сентября 2012. Архивировано 19 января 2013 года.
- Sequences — Lesswrongwiki (неопр.). Дата обращения: 15 ноября 2010. Архивировано 4 июля 2014 года.
- Yudkowsky — Fiction (неопр.). Дата обращения: 11 мая 2012. Архивировано 12 мая 2014 года.
- AGI Ruin: A List of Lethalities (неопр.). LessWrong. Дата обращения: 18 мая 2023. Архивировано 17 мая 2023 года.
- Pausing AI Developments Isn't Enough. We Need to Shut it All Down (неопр.). Time. Дата обращения: 15 апреля 2023. Архивировано 2 апреля 2023 года.
- How Rogue AIs May Arise (неопр.). Дата обращения: 28 мая 2023. Архивировано 26 мая 2023 года.
- “Godfather of artificial intelligence” weighs in on the past and potential of AI (неопр.). CBS News. Дата обращения: 15 апреля 2023. Архивировано 15 апреля 2023 года.
Ссылки
|
|