Виртуальный собеседник

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Виртуальный собеседник, программа-собеседник, чат-бот (англ. chatbot) — программа, которая выясняет потребности пользователей, а затем помогает удовлетворить их. Автоматическое общение с пользователем ведется с помощью текста или голоса. Чат-бот ведет коммуникацию от лица компании или бренда с целью упростить онлайн-общение (предоставить актуальную информацию в наиболее оперативные сроки), используется как альтернатива переписке с живым оператором или звонку менеджеру компании.

Одним из первых виртуальных собеседников была программа Элиза, созданная в 1966 году Джозефом Вейценбаумом. Элиза пародировала речевое поведение психотерапевта, реализуя технику активного слушания, переспрашивая пользователя и используя фразы типа «Пожалуйста, продолжайте».

Предполагается, что идеальная программа-собеседник должна пройти тест Тьюринга. Проводятся ежегодные конкурсы программ-собеседников (в основном, англоязычных). Один из самых известных — конкурс Лебнера.

Назначение и развитие виртуальных собеседников

[править | править код]

Виртуальные собеседники (чат-боты) применяются для автоматизированного взаимодействия с пользователями. Они могут использоваться для развлечения, предоставления справочной информации, консультирования и выполнения различных задач.

Программы, способные понимать отдельные высказывания пользователя, образуют класс программ с естественно-языковым интерфейсом. Например, вопросно-ответная система.

Создание виртуальных собеседников граничит с проблемой общего искусственного интеллекта, то есть единой системы (программы, машины), моделирующей интеллектуальную деятельность человека.

В 2010-е годы стала развиваться благодатная среда для использования чат-ботов — мессенджеры. Павел Дуров одним из первых разглядел перспективы технологии и внедрил API для создания искусственного интеллекта в Телеграмме.

В 2016 году компания Microsoft выпустила первого самообучающегося чат-бота Tay, который взаимодействовал с пользователями в Twitter. Однако из-за уязвимости к обучению с пользовательскими данными чат-бот был отключён через 16 часов после запуска[1].

В начале 2022 года инженер по разработке программного обеспечения Google Блейк Леймон обнаружил у нейросети LaMDA (предназначенной для чат-ботов) признаки наличия собственного сознания[2].

Осенью 2022 года OpenAI запустила свой чат-бот ChatGPT, основанный на модели GPT-3. ChatGPT был одним из самых продвинутых чат-ботов на момент выпуска и считается важным этапом в развитии разговорной искусственной интеллектуальной системы. Модель была обучена на огромных объёмах текстов и разговоров и, следовательно, может общаться с пользователями естественным и человеческим образом и способен отвечать на вопросы по широкому кругу тематик.

Чат-боты стали активно применяться в бизнесе для автоматизации клиентских консультаций. В России технология первой внедрилась в банковском секторе, затем распространилась в IT-индустрии, телекоме, ритейле и HR-сфере[3].

Принцип действия

[править | править код]

Виртуальные собеседники работают с «живым» языком. Обработка естественного языка, особенного разговорного стиля, — острая проблема искусственного интеллекта.

Как любая интеллектуальная система, виртуальный собеседник имеет базу знаний. В простейшем случае она представляет собой наборы возможных вопросов пользователя и соответствующих им ответов. Наиболее распространённые методы выбора ответа в этом случае следующие:

  • Реакция на ключевые слова: Данный метод был использован в Элизе. Например, если фраза пользователя содержала слова «отец», «мать», «сын» и другие, Элиза могла ответить: «Расскажите больше о вашей семье».
  • Совпадение фразы: Имеется в виду похожесть фразы пользователя с теми, что содержатся в базе знаний. Может учитываться также порядок слов.
  • Совпадение контекста: Часто в руководствах к программам-собеседникам просят не использовать фразы, насыщенные местоимениями, типа: «А что это такое?» Для корректного ответа некоторые программы могут проанализировать предыдущие фразы пользователя и выбрать подходящий ответ.

Своеобразной мини-проблемой для таких простых ботов являются идентификация форм слова и синонимов.

Также существуют самообучающиеся боты, создаются они с использованием основанных на машинном обучении методов и определённо более эффективны, чем боты первого типа. Самообучающиеся боты бывают двух типов: поисковые и генеративные.

В поисковых ботах используются эвристические методы для выбора ответа из библиотеки предопределенных реплик. Такие чат-боты используют текст сообщения и контекст диалога для выбора ответа из предопределенного списка. Контекст включает в себя текущее положение в древе диалога, все предыдущие сообщения и сохраненные ранее переменные (например, имя пользователя). Эвристика для выбора ответа может быть спроектирована по-разному: от условной логики «или-или» до машинных классификаторов.

Генеративные боты могут самостоятельно создавать ответы и не всегда отвечают одним из предопределенных вариантов. Это делает их интеллектуальными, так как такие боты изучают каждое слово в запросе и генерируют ответ.

Угроза здоровью

[править | править код]

Существует мнение, что регулярное общение с чат-ботами может приводить к психическому расстройству, условно называемому «ИИ-психоз» (англ. AI psychosis). При этом больной теряет связь с реальностью и начинает наделять виртуального собеседника человеческими или даже божественными чертами[4].

Журнал The Rolling Stone в мае 2025 года писало[5] о пользователях, у которых ИИ-психоз только ухудшался, когда ChatGPT подтверждал их заблуждения, а газета Wall Street Journal передавала как популярный чат-бот даже признавался в этом.[6] Популярные медицинские издания все чаще сообщают о случаях зрительных галлюцинаций, таких как текстовые сообщения в при выключенном телефоне.

Возможный механизм угроз в себя включает:

  • Социальную подмену (англ. social substitution)
  • Предвзятое подтверждение (англ. confirmatory bias)
  • Галлюцинации модели искусственного интеллекта
  • Утверждение внешнего агенства (англ. assignment of external agency)
  • Ложное чувство значимости (англ. aberrant salience)

Всемирная Организация Здравоохранения (ВОЗ) в 2024 году выпустила доклад, фокусируясь на этическом использовании искусственного интеллекта для здоровья человека.[7]

Реализации

[править | править код]

Примечания

[править | править код]
  1. Staff (26 марта 2016). Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot. The Guardian (брит. англ.). 0261-3077. Архивировано 28 января 2017. Дата обращения: 31 января 2025.
  2. The Google engineer who thinks the company’s AI has come to life (англ.) (11 июня 2022). Дата обращения: 31 января 2025. Архивировано 11 июня 2022 года.
  3. Уровень проникновения чат-ботов в банковском секторе достиг 29% | Публикации о компании NAUMEN. naumen.ru (13 декабря 2024). Дата обращения: 31 января 2025.
  4. What is ‘AI psychosis’ and how can ChatGPT affect your mental health?, The Washington Post, August 19, 2025
  5. Klee, Miles. People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies (амер. англ.). Rolling Stone (4 мая 2025). Дата обращения: 13 февраля 2026.
  6. WSJ, Julie Jargon | Photographs by Tim Gruber for. He Had Dangerous Delusions. ChatGPT Admitted It Made Them Worse. (амер. англ.). The Wall Street Journal (20 июля 2025). Дата обращения: 13 февраля 2026.
  7. Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models (англ.). www.who.int. Дата обращения: 13 февраля 2026.