Искусственное сознание

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Искусственное сознание[1] (ИС), также известное как машинное сознание[2][3] (МС), синтетическое сознание[4] или цифровое сознание[5] — это сознание, гипотетически возможное в искусственном интеллекте[6]. Это также соответствующая область исследований, которая черпает идеи из философии разума, философии искусственного интеллекта, когнитивной науки и нейронаук. Та же терминология может быть использована с термином «чувства» вместо «сознание» при конкретном обозначении феноменального сознания (способности ощущать квалиа (qualia))[7].

Некоторые ученые считают, что сознание возникает в результате взаимодействия различных частей мозга; эти механизмы обозначаются как нейронные корреляты сознания (neural correlates of consciousness или NCC). Некоторые также полагают, что создание системы (например, компьютерной), способной эмулировать это взаимодействие NCC, приведет к появлению системы, обладающей сознанием[8].

Философский взгляд

[править | править код]

Поскольку существует множество гипотетических типов сознания, существует и множество потенциальных реализаций искусственного сознания. В философской литературе, возможно, наиболее распространена систематизация сознания на «доступное» и «феноменальное». Сознание доступа касается тех аспектов опыта, которые могут быть восприняты, в то время как феноменальное сознание касается тех аспектов опыта, которые, по-видимому, не могут быть восприняты, а вместо этого характеризуются качественно в терминах «сырых ощущений», «того, на что это похоже» или квалиа[9].

Дебаты о правдоподобии

[править | править код]

Теоретики тождества типов и другие скептики придерживаются мнения, что сознание может быть реализовано только в определённых физических системах, потому что сознание обладает свойствами, которые обязательно зависят от физической конституции[10][11][12][13].

В своей статье «Искусственное сознание: Утопия или реальная возможность» Джорджио Буттаццо говорит, что общее возражение против искусственного сознания состоит в том, что «работая в полностью автоматизированном режиме, они [компьютеры] не могут проявлять креативность, непрограммируемость (что означает невозможность перепрограммирования, переосмысления), эмоции или свободу воли. Компьютер, как и стиральная машина, — это раб, управляемый своими компонентами»[14].

Для других теоретиков (например, функционалистов), которые определяют ментальные состояния в терминах каузальных ролей, любая система, которая может инстанцировать один и тот же паттерн каузальных ролей, независимо от физической конституции, будет инстанцировать одни и те же ментальные состояния, включая сознание[15].

Аргумент «вычислительной техники»

[править | править код]

Один из самых явных аргументов в пользу правдоподобности искусственного разума принадлежит Дэвиду Чалмерсу. Его предложение сводится к тому, что для обладания сознанием достаточно правильных видов вычислений.

Чалмерс считает, что система реализует вычисления, если «каузальная структура системы отражает формальную структуру вычислений», и что любая система, реализующая определённые вычисления, является разумной[16].

Наиболее спорной частью предложения Чалмерса является то, что ментальные свойства «организационно инвариантны». Психические свойства бывают двух видов — психологические и феноменологические. Психологические свойства, такие как вера и восприятие, — это те, которые «характеризуются своей каузальной ролью». Опираясь на предыдущие работы[17][18], он говорит, что «системы с одинаковой каузальной топологией… будут иметь общие психологические свойства».

Феноменологические свойства, в отличие от психологических, не поддаются определению в терминах их каузальных ролей. Поэтому установление того, что феноменологические свойства являются следствием каузальной топологии, требует аргументации. Для этого Чалмерс приводит свой аргумент Dancing Qualia[19].

Чалмерс начинает с предположения, что его принцип инвариантности организации ложен: агенты с идентичной каузальной организацией могут иметь разный опыт. Затем он просит нас представить себе изменение одного агента в другого путем замены частей (нейронных частей на кремниевые, скажем) с сохранением его каузальной организации. Опыт агента, подвергшегося трансформации, изменится (по мере замены частей), но не произойдет никаких изменений в каузальной топологии и, следовательно, не будет средств, с помощью которых агент сможет «заметить» изменение опыта; Чалмерс считает такое положение дел неправдоподобным reducto ad absurdum, устанавливающим, что его принцип организационной инвариантности должен быть почти наверняка истинным.

Критики искусственного сознания возражают, что предложение Чалмерса ставит вопрос ребром, предполагая, что все ментальные свойства и внешние связи уже в достаточной степени охвачены абстрактной каузальной организацией.

Противоречия

[править | править код]

В 2022 году инженер Google Блейк Лемуан сделал вирусное заявление о том, что чатбот LaMDA компании Google является разумным. В качестве доказательства Лемуан привел человекоподобные ответы чатбота на многие свои вопросы; однако поведение чатбота было оценено научным сообществом как скорее всего следствие мимикрии, а не машинного разума. Утверждение Лемуана было осмеяно как нелепое[20].

Однако, хотя философ Ник Бостром утверждает, что LaMDA вряд ли обладает сознанием, он дополнительно ставит вопрос: «Какие основания есть у человека для уверенности в этом?» Нужно было бы иметь доступ к неопубликованной информации об архитектуре LaMDA, а также понимать, как работает сознание, и затем придумать, как перенести философию на машину: «[В отсутствие этих шагов], похоже, следует быть немного неуверенным… вполне возможно, что сейчас или в относительно ближайшем будущем появятся другие системы, которые начнут удовлетворять этим критериям»[21].

Тестирование

[править | править код]

Наиболее известным методом проверки машинного интеллекта является тест Тьюринга. Но если трактовать этот тест только как наблюдательный, то он противоречит принципам философии науки о зависимости теории от наблюдений. Также высказывается мнение, что рекомендацию Алана Тьюринга об имитации сознания человеческого ребёнка вместо сознания взрослого человека следует воспринимать всерьез[22].

Квалиа, или феноменологическое сознание, по своей сути является феноменом первого лица. Хотя различные системы могут демонстрировать многочисленные признаки поведения, коррелирующего с функциональным сознанием, не существует мыслимого способа, с помощью которого тесты от третьего лица могли бы получить доступ к феноменологическим характеристикам от первого лица. Из-за этого, в дополнение к отсутствию эмпирического определения сознания[23], тесты на наличие сознания в ИС могут быть невозможны.

В 2014 году Виктор Аргонов предложил нетьюринговский тест на разумность машины, основанный на её способности производить философские суждения[24]. Он утверждает, что детерминированная машина должна считаться сознательной, если она способна производить суждения обо всех проблемных свойствах сознания (таких как квалиа и проблеме привязки), не имея врожденных (предварительно загруженных) философских знаний по этим вопросам, не ведя философских дискуссий в процессе обучения и не имея в своей памяти информационных моделей других существ (такие модели могут имплицитно или эксплицитно содержать знания о сознании этих существ).

Однако этот тест может быть использован только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина обладает сознанием, а отрицательный — ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.

Этические вопросы

[править | править код]

Если бы возникло подозрение, что конкретная машина обладает сознанием, её права стали бы этическим вопросом, который необходимо было бы оценить (в том числе, какие права она имела бы по закону).

Например, компьютер с сознанием, который принадлежал и использовался как инструмент или центральный компьютер в составе более крупной машины, представляет собой особую двусмысленность. Должны ли быть приняты законы для такого случая? Сознание требует юридического определения в этом конкретном случае.

Поскольку искусственное сознание все ещё остается в значительной степени теоретической темой, подобная этика не обсуждалась и не разрабатывалась в значительной степени, хотя она часто становилась темой в фантастике.

В 2021 году немецкий философ Томас Метцингер выступил за введение глобального моратория на синтетическую феноменологию до 2050 года. Метцингер утверждает, что люди обязаны заботиться о любых разумных ИИ, которые они создают, и что слишком быстрое развитие рискует привести к «взрыву искусственных страданий»[25].

Аспекты сознания, считающиеся необходимыми

[править | править код]

Бернард Баарс[англ.] и другие утверждают, что существуют различные аспекты сознания, необходимые для того, чтобы машина могла быть искусственно сознательной[26].

Функции сознания, предложенные Баарсом: определение и установление контекста, адаптация и обучение, редактирование, отметка и отладка, привлечение и контроль, определение приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогии, метакогнитивная функция и функция самоконтроля, а также функция автопрограммирования и самообслуживания.

Игорь Александер[англ.] предложил 12 принципов искусственного сознания[27]: «Мозг — машина состояний», «Внутреннее разделение нейронов», «Сознательные и бессознательные состояния», «Перцептивное обучение и память», «Предсказание», «Осознание себя», «Репрезентация смысла», «Обучение высказываниям», «Обучение языку», «Воля», «Инстинкт» и «Эмоция».

Цель ИС — определить, могут ли эти и другие аспекты сознания быть синтезированы в инженерном артефакте (цифровом компьютере). Этот список не является исчерпывающим; существует множество других не охваченных тем.

Осознанность

[править | править код]

Осознанность могла бы быть одним из необходимых аспектов, но с точным определением этого элемента существует множество проблем. Результаты экспериментов по нейросканированию на обезьянах свидетельствуют о том, что нейроны активируются не только состоянием или объектом, но и процессом. Осознание включает в себя создание и проверку альтернативных моделей каждого процесса на основе информации, полученной через органы чувств или воображение, а также полезно для составления прогнозов. Подобное моделирование требует большой гибкости. Создание такой модели включает в себя моделирования физического мира, собственных внутренних состояний и процессов, а также других сознательных сущностей.

Существует как минимум три типа осознанности[28]: агентное осознание, осознание цели и сенсомоторное осознание, которые также могут быть осознанными или нет. Например, при агентном осознании вы можете знать, что вчера выполнили определённое действие, но сейчас не осознаете этого. В осознании цели вы можете знать, что должны искать потерянный предмет, но сейчас не осознаете этого. В сенсомоторном сознании вы можете знать, что ваша рука лежит на каком-то предмете, но сейчас не осознаете этого.

Поскольку объекты осознания часто являются сознательными, различие между осознанием и сознанием часто размывается или они используются как синонимы[29].

Сознательные события взаимодействуют с системами памяти при обучении, повторении и извлечении информации[30]. Модель IDA (Intelligent Distribution Agent, интеллектуальный агент распределения)[31] проясняет роль сознания в обновлении перцептивной памяти[32], переходной эпизодической памяти и процедурной памяти. Переходная эпизодическая и декларативная память имеют распределенное представление в IDA; есть доказательства, что так же обстоит дело и в нервной системе[33]. В IDA эти две памяти реализуются вычислительно с помощью модифицированной версии архитектуры распределенной памяти Sparse американского нейробиолога Пентти Канервы[34].

Обучение также считается необходимым для искусственного сознания. По мнению Бернарда Баарса, сознательный опыт необходим для представления и адаптации к новым и значимым событиям[26]. По мнению Акселя Клиреманса[англ.] и Луиса Хименеса, обучение определяется как «набор филогенетически (sic) развитых процессов адаптации, которые в значительной степени зависят от развитой чувствительности к субъективному опыту, чтобы позволить агентам гибко контролировать свои действия в сложных, непредсказуемых средах»[35].

Предвидение

[править | править код]

Игорь Александер считает важной для искусственного интеллекта способность предсказывать (или предвидеть) предвидимые события[36]. Эмерджентистский принцип «множественных черновиков», предложенный Дэниелом Деннеттом в книге «Consciousness Explained», может быть полезен для предсказания: он включает оценку и выбор наиболее подходящего «черновика», соответствующего текущей обстановке. Предвидение включает в себя предсказание последствий собственных предполагаемых действий и предсказание последствий вероятных действий других субъектов.

Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, что позволяет ему предсказывать события[36]. Искусственная сознательная машина должна уметь правильно предвидеть события, чтобы быть готовой отреагировать на них, когда они произойдут, или предпринять упреждающие действия, чтобы предотвратить ожидаемые события. Отсюда следует, что машине нужны гибкие компоненты реального времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального и прогнозируемого миров, позволяя демонстрировать, что она обладает искусственным сознанием в настоящем и будущем, а не только в прошлом. Для этого машина с сознанием должна делать последовательные предсказания и разрабатывать планы на случай непредвиденных обстоятельств не только в мирах с фиксированными правилами, как на шахматной доске, но и в новых изменяющихся средах, которые будут выполняться только тогда, когда это необходимо для моделирования и контроля реального мира.

Субъективный опыт

[править | править код]

Субъективный опыт или квалиа широко рассматривается как трудная проблема сознания. Действительно, считается, что она бросает вызов физикализму, не говоря уже о вычислительных методах.

Предложения по реализации

[править | править код]

Символические или гибридные

[править | править код]

Стэн Франклин[англ.] в работах 1995 и 2003 года определяет автономный агент как обладающий функциональным сознанием, если он способен выполнять несколько функций сознания, определённых в теории глобального рабочего пространства (Global workspace theory, GWT) Бернарда Баарса[26][37]. Его детище IDA (Intelligent Distribution Agent) является программной реализацией GWT, что делает его функционально сознательным по определению.

Задача IDA — договариваться о новых назначениях для моряков ВМС США после окончания службы, сопоставляя навыки и предпочтения каждого человека с потребностями ВМС. IDA взаимодействует с базами данных ВМС и ведёт диалог с моряками на естественном языке по электронной почте, подчиняясь при этом большому набору политик ВМС. Вычислительная модель IDA была разработана в 1996—2001 годах в группе Стэна Франклина по исследованию «сознательного» программного обеспечения в Университете Мемфиса. Она «состоит примерно из четверти миллиона строк Java-кода и почти полностью потребляет ресурсы высокопроизводительной рабочей станции 2001 года». Основная опора — коделеты — «специализированные, относительно независимые мини-агенты, обычно реализуемые в виде небольшого фрагмента кода, выполняемого в отдельном потоке». В нисходящей архитектуре IDA явно моделируются высокоуровневые когнитивные функции[38][39].

Хотя IDA по определению функционально сознательна, Франклин не приписывает феноменального сознания своему собственному "сознательному"программному агенту, IDA, несмотря на её многие человекоподобные модели поведения. И это несмотря на то, что несколько сотрудников ВМС США неоднократно кивали головой, говоря: «Да, именно так я это и делаю», наблюдая за внутренними и внешними действиями IDA при выполнении ею своей задачи". IDA была расширена до LIDA (Learning Intelligent Distribution Agent).

Когнитивная архитектура CLARION

[править | править код]

Когнитивная архитектура CLARION предполагает двухуровневую репрезентацию, которая объясняет различие между сознательными и бессознательными ментальными процессами. CLARION успешно учитывает различные психологические данные. С помощью CLARION был смоделирован ряд известных задач на обучение навыкам, которые охватывают спектр от простых реактивных навыков до сложных когнитивных навыков. Среди них — задачи на последовательное время реакции (SRT), искусственное обучение грамматике (AGL), управление процессом (PC), категориальный вывод (CI), алфавитная арифметика (AA) и Ханойская башня[40]. SRT, AGL и PC — типичные задачи имплицитного обучения, имеющие большое отношение к проблеме сознания, поскольку они операционализировали понятие сознания в контексте психологических экспериментов.

Бен Герцель создал воплощённый ИИ в рамках проекта OpenCog с открытым исходным кодом. Код включает в себя воплощённых виртуальных питомцев, способных обучаться простым командам на английском языке, а также интеграцию с реальной робототехникой, выполненную в Гонконгском политехническом университете.

Коннекционизм

[править | править код]

Когнитивная архитектура Хайконена

[править | править код]

Пентти Хайконен считает классические вычисления, основанные на правилах, неадекватными для достижения искусственного сознания: «Мозг — это определённо не компьютер. Мышление — это невыполнение запрограммированных строк команд. Мозг также не является цифровым калькулятором. Мы не мыслим цифрами».

Вместо того чтобы пытаться достичь разума и сознания путем выявления и реализации лежащих в их основе вычислительных правил, Хайконен предлагает «особую когнитивную архитектуру для воспроизведения процессов восприятия, внутренних образов, внутренней речи, боли, удовольствия, эмоций и стоящих за ними когнитивных функций. Эта архитектура „снизу вверх“ будет производить функции более высокого уровня за счет мощности элементарных процессоров, искусственных нейронов, без алгоритмов и программ». Хайконен считает, что при достаточно сложной реализации подобная архитектура приведет к развитию сознания, которое учёный рассматривает как «стиль и способ работы, характеризующийся распределенным представлением сигналов, процессом восприятия, кросс-модальным отчетом и доступностью для ретроспекции»[41][42].

Хайконен не одинок в этом процессном взгляде на сознание или в мнении, что ИС спонтанно возникнет у автономных агентов, имеющих подходящую по сложности нейроинспирированную архитектуру; их разделяют многие[43][44]. Реализация архитектуры с низкой сложностью, предложенная Хайконеном, по отчётам, не была способна к ИС, но проявляла эмоции, как и ожидалось. Позже Хайконен обновил и обобщил свою архитектуру[45][46].

Когнитивная архитектура Шанахана

[править | править код]

Мюррей Шанахан описывает когнитивную архитектуру, которая сочетает в себе идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображения»)[47][2][3][48].

Исследование самосознания Такено

[править | править код]

Самосознание роботов исследуется Дзюнъити Такено в Университете Мэйдзи в Японии[49]. Такено утверждает, что разработал робота, способного отличать свое изображение в зеркале от любого другого, идентичного ему[50][51][52]. Такено утверждает, что сначала создал вычислительный модуль под названием MoNAD, который обладает функцией самосознания, а затем построил систему искусственного сознания, сформулировав взаимосвязи между эмоциями, чувствами и разумом путем соединения модулей в иерархию («Realization of an emotional conscious robot and imitation behavior». Rei Igarashi, Junichi Takeno, Tohru Suzuki, Yusuke Shirakura, 2007).

Такено провел эксперимент по познанию зеркального изображения с помощью робота, оснащенного системой MoNAD.

Учёный выдвинул «теорию собственного тела», утверждающую, что «люди чувствуют, что их собственное зеркальное отражение ближе к ним самим, чем реальная часть себя». Наиболее важным моментом в разработке искусственного сознания или прояснении человеческого сознания является развитие функции самосознания, и он утверждает, что в своей диссертации продемонстрировал физические и математические доказательства этого[53].

Такено также показал, что роботы могут изучать в памяти эпизоды, когда эмоции были стимулированы, и использовать этот опыт для принятия предиктивных действий, чтобы предотвратить повторное возникновение неприятных эмоций («Creation of a robot that is conscious of its experiences». S. Torigoe, Rei Igarashi, Takashi Komatsu, Jun’ichi Takeno, 2009).

Невозможные умы: Мои нейроны, мое сознание

[править | править код]

Игорь Александер, заслуженный профессор инженерии нейронных систем в Имперском колледже, много занимался исследованием искусственных нейронных сетей и в своей книге «Невозможные умы: My Neurons, My Consciousness» («Мои нейроны, мое сознание»), указал, что принципы создания машины с сознанием уже существуют, но для обучения такой машины пониманию языка потребуется сорок лет[54].

Так ли это на самом деле, ещё предстоит выяснить, и основной принцип, изложенный в «Невозможных разумах», — что мозг является нейронной машиной — можно подвергнуть сомнению[55].

Машина для творчества

[править | править код]

Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года под названием «Устройство для автономной генерации полезной информации» (DAGUI)[56][57][58], так называемой «Машины творчества», в которой вычислительные критики управляют подачей синаптического шума и деградации в нейронные сети, чтобы вызвать ложные воспоминания или конфабуляции, которые могут быть квалифицированы как потенциальные идеи или стратегии[59]. Он использует эту нейронную архитектуру и методологию для объяснения субъективного ощущения сознания, утверждая, что аналогичные нейронные узлы в мозге, управляемые шумом, придумывают сомнительное значение для общей активности коры[60][61][62].

Теория Талера и вытекающие из неё патенты на машинное сознание были вдохновлены экспериментами, в которых он внутренне нарушал обученные нейронные сети, чтобы вызвать последовательность нейронных активаций, которые он уподобил потоку сознания[61][63][64][65][66].

Теория схем внимания

[править | править код]

В 2011 году Майкл Грациано и Сабина Кастлер опубликовали работу под названием «Человеческое сознание и его связь с социальной нейронаукой: Новая гипотеза», в которой была предложена теория сознания как схемы внимания[67]. Грациано опубликовал расширенное обсуждение этой теории в своей книге «Сознание и социальный мозг»[8].

Теория сознания с помощью схемы внимания, как он её назвал, предлагает, что мозг отслеживает внимание к различным сенсорным входам с помощью схемы внимания, аналогичной хорошо изученной схеме тела, которая отслеживает пространственное местоположение тела человека[8]. Это относится к искусственному сознанию, предлагая особый механизм обработки информации, который производит то, что мы якобы испытываем и описываем как сознание, и который должен быть способен быть продублирован машиной с помощью современных технологий. Когда мозг обнаруживает, что человек Х осознает вещь Y, он фактически моделирует состояние, в котором человек Х применяет усиление внимания к Y. В теории схемы внимания тот же процесс может быть применен к самому себе. Мозг отслеживает внимание к различным сенсорным входам, и собственное осознание — это схематизированная модель внимания. Грациано предлагает конкретные места в мозге для этого процесса и предполагает, что такое осознание является вычисляемой характеристикой, созданной экспертной системой в мозге.

«Самомоделирование»

[править | править код]

Ход Липсон определяет «самомоделирование» как необходимый компонент самосознания или сознания у роботов. «Самомоделирование» заключается в том, что робот запускает внутреннюю модель или симуляцию самого себя[68][69].

Искусственное сознание в художественной литературе

[править | править код]
  • В романе Артура Кларка «Город и звезды» Ванамонд — искусственное существо, основанное на квантовой запутанности, которое должно было стать чрезвычайно могущественным, но начинал, практически ничего не зная, тем самым уподобившись искусственному сознанию.
  • В игре Punishing: Gray Raven, созданной Kuro Games, H.A.I.C.M.A. (Heuristic Artificial Intelligence Caretaking Machine-Alpha), обозначенный как MPA-01, является административным A.I. В задачу MPA-01 входит обслуживание, наблюдение, общение и запись работы механоидов, участвующих в эксперименте «Сознание машин», целью которого является определение возможности существования «Сознания» у машин, помеченных в проекте как «аномалия». Среди многочисленных машин-участников, MPL-00, также известная как NANAMI, обладает наибольшим потенциалом для того, что эксперимент стремится подтвердить.

Примечания

[править | править код]
  1. Thaler, S. L. (1998). "The emerging intelligence and its critical look at us". Journal of Near-Death Studies. 17 (1): 21—29. doi:10.1023/A:1022990118714. S2CID 49573301.
  2. 1 2 Gamez, 2008.
  3. 1 2 Reggia, 2013.
  4. Smith, David Harris; Schillaci, Guido (2021). "Build a Robot With Artificial Consciousness? How to Begin? A Cross-Disciplinary Dialogue on the Design and Implementation of a Synthetic Model of Consciousness". Frontiers in Psychology. 12: 530560. doi:10.3389/fpsyg.2021.530560. ISSN 1664-1078. PMC 8096926. PMID 33967869.
  5. Elvidge, Jim. Digital Consciousness: A Transformative Vision : [англ.]. — John Hunt Publishing Limited, 2018. — ISBN 978-1-78535-760-2.
  6. Chrisley, Ron (October 2008). "Philosophical foundations of artificial consciousness". Artificial Intelligence in Medicine. 44 (2): 119—137. doi:10.1016/j.artmed.2008.07.011. PMID 18818062.
  7. Institute, Sentience The Terminology of Artificial Sentience (англ.). Sentience Institute. Дата обращения: 19 августа 2023.
  8. 1 2 3 Graziano, 2013.
  9. Block, Ned (2010). "On a confusion about a function of consciousness". Behavioral and Brain Sciences (англ.). 18 (2): 227—247. doi:10.1017/S0140525X00038188. ISSN 1469-1825. S2CID 146168066.
  10. Block, Ned (1978). "Troubles for Functionalism". Minnesota Studies in the Philosophy of Science: 261—325.
  11. Bickle, John. Philosophy and Neuroscience : [англ.]. — Dordrecht : Springer Netherlands, 2003. — ISBN 978-1-4020-1302-7. — doi:10.1007/978-94-010-0237-0.
  12. Schlagel, R. H. (1999). "Why not artificial consciousness or thought?". Minds and Machines. 9 (1): 3—28. doi:10.1023/a:1008374714117. S2CID 28845966.
  13. Searle, J. R. (1980). "Minds, brains, and programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417—457. doi:10.1017/s0140525x00005756. S2CID 55303721.
  14. Artificial consciousness: Utopia or real possibility? Buttazzo, Giorgio, July 2001, Computer, ISSN 0018-9162
  15. Putnam, Hilary. The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion. — University of Pittsburgh Press, 1967.
  16. David J. Chalmers (2011). "A Computational Foundation for the Study of Cognition" (PDF). Journal of Cognitive Science. 12 (4): 325—359. doi:10.17791/JCS.2011.12.4.325. S2CID 248401010.
  17. Armstrong, D. M. A Materialist Theory of the Mind. — New York: Routledge, 1968.
  18. Lewis, David (1972). "Psychophysical and theoretical identifications". Australasian Journal of Philosophy (англ.). 50 (3): 249—258. doi:10.1080/00048407212341301. ISSN 0004-8402.
  19. Chalmers, David Absent Qualia, Fading Qualia, Dancing Qualia (1995). Дата обращения: 12 апреля 2016.
  20. "'I am, in fact, a person': can artificial intelligence ever be sentient?". the Guardian (англ.). 2022-08-14. Дата обращения: 5 января 2023.
  21. Leith, Sam (2022-07-07). "Nick Bostrom: How can we be certain a machine isn't conscious?". The Spectator.
  22. Mapping the Landscape of Human-Level Artificial General Intelligence. Дата обращения: 5 июля 2012. Архивировано из оригинала 6 июля 2017 года.
  23. «Consciousness». In Honderich T. The Oxford companion to philosophy. Oxford University Press. ISBN 978-0-19-926479-7
  24. Victor Argonov (2014). "Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach". Journal of Mind and Behavior. 35: 51—70.
  25. Metzinger, Thomas (2021). "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness. 08: 43—66. doi:10.1142/S270507852150003X. S2CID 233176465.
  26. 1 2 3 Baars, 1995.
  27. Aleksander, Igor. Artificial neuroconsciousness an update // From Natural to Artificial Neural Computation : [англ.]. — Berlin, Heidelberg : Springer, 1995. — Vol. 930. — P. 566–583. — ISBN 978-3-540-49288-7. — doi:10.1007/3-540-59497-3_224.
  28. Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307—324
  29. Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2
  30. Tulving, E. 1985. Memory and consciousness. Canadian Psychology 26:1-12
  31. Franklin, Stan, et al. «The role of consciousness in memory.» Brains, Minds and Media 1.1 (2005): 38.
  32. Franklin, Stan. «Perceptual memory and learning: Recognizing, categorizing, and relating.» Proc. Developmental Robotics AAAI Spring Symp. 2005.
  33. Shastri, L. 2002. Episodic memory and cortico-hippocampal interactions. Trends in Cognitive Sciences
  34. Kanerva, Pentti. Sparse distributed memory. MIT press, 1988.
  35. Implicit Learning and Consciousness: An Empirical, Philosophical and Computational Consensus in the Making (англ.). Routledge & CRC Press. Дата обращения: 22 июня 2023.
  36. 1 2 Aleksander 1995
  37. Baars, Bernard J. In the theater of consciousness: the workspace of the mind. — New York Oxford : Oxford University Press, 2001. — ISBN 978-0-19-510265-9.
  38. Franklin, Stan. Artificial minds. — 3rd print. — Cambridge, Mass. : MIT Press, 1998. — ISBN 978-0-262-06178-0.
  39. Franklin, Stan (2003). "IDA: A Conscious Artefact". Machine Consciousness.
  40. (Sun 2002)
  41. Haikonen, Pentti O. The cognitive approach to conscious machines. — Exeter : Imprint Academic, 2003. — ISBN 978-0-907845-42-3.
  42. Pentti Haikonen's architecture for conscious machines – Raúl Arrabales Moreno (амер. англ.) (8 сентября 2019). Дата обращения: 24 июня 2023.
  43. Freeman, Walter J. How brains make up their minds. — New York Chichester, West Sussex : Columbia University Press, 2000. — ISBN 978-0-231-12008-1.
  44. Cotterill, Rodney M J (2003). "CyberChild - A simulation test-bed for consciousness studies". Journal of Consciousness Studies. 10 (4—5): 31—45. ISSN 1355-8250.
  45. Haikonen, Pentti O. Consciousness and robot sentience / Pentti O. Haikonen, Pentti Olavi Antero Haikonen. — Singapore : World Scientific, 2012. — ISBN 978-981-4407-15-1.
  46. Haikonen, Pentti O. Consciousness and robot sentience. — 2nd. — Singapore Hackensack, NJ London : World Scientific, 2019. — ISBN 978-981-12-0504-0.
  47. Shanahan, Murray (2006). "A cognitive architecture that combines internal simulation with a global workspace". Consciousness and Cognition. 15 (2): 433—449. doi:10.1016/j.concog.2005.11.005. ISSN 1053-8100. PMID 16384715. S2CID 5437155.
  48. Haikonen, Pentti O. chapter 20 // Consciousness and robot sentience / Pentti O. Haikonen, Pentti Olavi Antero Haikonen. — Singapore : World Scientific, 2012. — ISBN 978-981-4407-15-1.
  49. Robot. Дата обращения: 3 июля 2007. Архивировано из оригинала 3 июля 2007 года.
  50. Takeno – Archive No... Дата обращения: 7 января 2010. Архивировано из оригинала 7 ноября 2018 года.
  51. The world first self-aware robot and The success of mirror image cognition, Takeno
  52. Takeno, Inaba, Suzuki, 2005.
  53. A Robot Succeeds in 100 % Mirror Image Cognition Архивировано 9 августа 2017 года., Takeno, 2008
  54. Aleksander I (1996) Impossible Minds: My Neurons, My Consciousness, Imperial College Press ISBN 1-86094-036-6
  55. Wilson, RJ (1998). "review of Impossible Minds". Journal of Consciousness Studies. 5 (1): 115—6.
  56. Thaler, S.L., «Device for the autonomous generation of useful information»
  57. Marupaka, N.; Lyer, L.; Minai, A. (2012). "Connectivity and thought: The influence of semantic network structure in a neurodynamical model of thinking" (PDF). Neural Networks. 32: 147—158. doi:10.1016/j.neunet.2012.02.004. PMID 22397950. Архивировано из оригинала (PDF) 19 декабря 2016. Дата обращения: 22 мая 2015.
  58. Roque, R. and Barreira, A. (2011). "O Paradigma da «Máquina de Criatividade» e a Geração de Novidades em um Espaço Conceitual, " 3º Seminário Interno de Cognição Artificial — SICA 2011 — FEEC — UNICAMP.
  59. Minati, Gianfranco. Mistake Making Machines // Systemics of Emergence: Research and Development / Gianfranco Minati, Giuseppe Vitiello. — 2006. — P. 67–78. — ISBN 978-0-387-28899-4. — doi:10.1007/0-387-28898-8_4.
  60. Thaler, S. L. (2013) The Creativity Machine Paradigm, Encyclopedia of Creativity, Invention, Innovation, and Entrepreneurship, (ed.) E.G. Carayannis, Springer Science+Business Media
  61. 1 2 Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness, " APA Newsletter on Philosophy and Computers
  62. Thaler, S. L. (2014). "Synaptic Perturbation and Consciousness". Int. J. Mach. Conscious. 6 (2): 75—107. doi:10.1142/S1793843014400137.
  63. Thaler, S. L. (1995). ""Virtual Input Phenomena" Within the Death of a Simple Pattern Associator". Neural Networks. 8 (1): 55—65. doi:10.1016/0893-6080(94)00065-t.
  64. Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995
  65. Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN’96), Lawrence Erlbaum, Mawah, NJ.
  66. Mayer, H. A. (2004). A modular neurocontroller for creative mobile autonomous robots learning by temporal difference, Systems, Man and Cybernetics, 2004 IEEE International Conference(Volume:6)
  67. Graziano, Michael (2011-01-01). "Human consciousness and its relationship to social neuroscience: A novel hypothesis". Cognitive Neuroscience. 2 (2): 98—113. doi:10.1080/17588928.2011.565121. PMC 3223025. PMID 22121395.
  68. Pavlus, John Curious About Consciousness? Ask the Self-Aware Machines (англ.). Quanta Magazine (11 июля 2019). Дата обращения: 6 января 2021.
  69. Bongard, Josh, Victor Zykov, and Hod Lipson. «Resilient machines through continuous self-modeling.» Science 314.5802 (2006): 1118—1121.