Философия искусственного интеллекта

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Философия искусственного интеллекта задаётся вопросами о «мышлении машин», эти вопросы отражают интересы различных исследователей искусственного интеллекта, философов, исследователей познавательной (когнитивной) деятельности. Ответы на эти вопросы зависят от того, что понимается под понятиями «интеллект» или «сознание», и какие именно «машины» являются предметом обсуждения.

Может ли машина мыслить?[править | править код]

Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, его же словами подход и характеризуется:

Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.

[1]

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

В своем мысленном эксперименте «Китайская комната», Джон Сёрль показывает, что даже прохождение теста Тьюринга может не являться достаточным критерием наличия у машины подлинного процесса мышления.

Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем[2].

Что считать интеллектом?[править | править код]

Наука о знании[править | править код]

Также, с проблемами искусственного интеллекта тесно связана эпистемология — наука о знании в рамках философии. Философы, занимающиеся данной проблематикой, решают вопросы, схожие с теми, которые решаются инженерами ИИ о том, как лучше представлять и использовать знания и информацию.

Этические проблемы создания искусственного разума[править | править код]

Этот раздел содержит вопросы, касающиеся искусственного интеллекта и этики.

  • Если в будущем машины смогут рассуждать, осознавать себя и иметь чувства, то что тогда делает человека человеком, а машину — машиной?
  • Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатировать или придется наделять их правами?
  • Если в будущем машины смогут рассуждать, то как сложатся отношения людей и машин? Данный вопрос был не раз рассмотрен в произведениях искусства на примере противостояния людей и машин. К примеру, батлерианский джихад в романе «Дюна» Фрэнка Герберта, проблемы взаимоотношения с ИскИнами в романе Дэна Симмонса «Гиперион», война с машинами в кинофильме «Терминатор» и так далее.
  • Будет ли человек, которому в результате многочисленных медицинских имплантаций заменили 99 процентов тела, считаться машиной?

Данные вопросы рассматриваются в рамках философии техники и трансгуманистической философии.

См. также[править | править код]

Примечания[править | править код]

  1. Джон Сёрль. Разум мозга — компьютерная программа?
  2. Роджер Пенроуз. Новый ум короля. О компьютерах, мышлении и законах физики. Издательство: УРСС, 2005 г. ISBN 5-354-00993-6

Литература[править | править код]

  • Петрунин Ю. Ю., Рязанов М.А., Савельев А. В. Философия искусственного интеллекта в концепциях нейронаук. — 1-е. — М.: МАКС Пресс, 2010. — С. 84. — ISBN 978-5-317-03251-7.

Ссылки[править | править код]