Последние несколько лет мы уже перестали замечать, как часто обращаемся за помощью к искусственному интеллекту. Многочисленные виртуальные помощники подсказывают нам маршруты для отпуска, предлагают идеи для дизайна квартиры, помогают с выбором товаров в интернет-магазинах, переводят тексты и даже видео, отвечают на вопросы. На работе и в быту ИИ, например GigaChat, стал привычным собеседником — как умный, неприхотливый помощник, который всегда рядом, готовый круглосуточно прийти на помощь и решить любую проблему. С ним можно поговорить, задать интересующий вопрос и даже пообщаться как с человеком просто для развлечения.
Но есть в таком взаимодействии одно слабое место: чем больше мы привыкаем к удобному присутствию ИИ, тем меньше проверяем его ответы. Мы начинаем чрезмерно доверять искусственному интеллекту по инерции, не задумываясь. А нейросеть тем временем под видом фактов начинает вдруг фантазировать. Она может говорить уверенно, использовать точные формулировки и ссылки, но при этом ошибаться. Иногда — выдумывать то, чего не существует. Так появляются галлюцинации нейросети — эффектная речь без опоры на факты.
Почему генеративный интеллект способен выдавать неправду, какие ошибки чаще всего совершают нейросети, как распознать ложный ответ и снизить риск галлюцинаций? Попробуем разобраться.
Термин «галлюцинации искусственного интеллекта» (AI hallucinations) стал применяться для описания явления, при котором нейросеть генерирует неверные или несуществующие факты, уверенно подавая их как достоверные данные. Такие ошибки стали одной из главных проблем настройки и обучения генеративных систем именно в последние годы — когда ИИ стал бурно развиваться. Чаще других с этим явлением сталкиваются пользователи, использующие искусственный интеллект для автоматизации бизнес-процессов, генерации текстов, изображений или анализа данных. И что беспокоит пользователей больше всего — ИИ «чудит» в таких сферах как наука, медицина, биология, то есть там, где точность ответов имеет критическое значение.
Аналитики Shaip отмечают, что галлюцинации ИИ возникают, когда нейросети, особенно основанные на большой языковой модели LLM, генерируют информацию, которая кажется правдивой, но неверна или не связана с входными данными. Когда ИИ не имеет точной информации для ответа, он может создать кажущийся правдоподобным, но ложный контент, основанный на вероятностных связях внутри своей модели.
Типичные примеры:
Даже самые совершенные нейросети допускают ошибки при обработке информации. Чаще всего проблема кроется не в самих алгоритмах, а в данных, на которых они обучались. Среди наиболее распространённых типов ошибок можно выделить:
Мы часто склонны приписывать ИИ так убедительно имитирует мыслительную деятельность человека, что мы начинаем приписывать ему человеческие черты. Нам кажется, что нейросеть «понимает», что ей говорят, или «знает», о чём идёт речь. Но это только иллюзия. Искусственный интеллект не мыслит и не осознаёт — он не обладает человеческой логикой, не умеет критического мышления и тем более — чувств. Его «понимание» — не осознанное, а статистическое.
Каждый ответ, который мы получаем — это результат генерации по алгоритму. Модель не рассуждает, не вспоминает факты, а просто вычисляет, какое слово с наибольшей вероятностью должно следовать за предыдущим. Она не понимает смысла этого слова, но знает, как часто оно встречалось рядом с другими словами в миллионах текстов.
Именно поэтому ИИ может убедительно давать ответы на любые вопросы, даже если эти ответы неправдивы — он вычисляет закономерности языка, улавливает ритм и стиль человеческой речи, но не её смысл. Он не «понимает», что «вода мокрая» или что «ошибка может стоить дорого». Он просто «видел» эти фразы рядом в текстах и знает, что они звучат естественно.
Зная принципы работы ИИ, можно сделать вывод, что галлюцинации — это не случайный сбой, а закономерный побочный эффект вероятностной природы генеративных моделей. Когда данных не хватает или контекст для машины слишком сложен, она не «задумывается» и не останавливается, а продолжает генерировать наиболее вероятное слово, даже если это приводит к ложному выводу.
Основная, но не единственная причина галлюцинаций AI — обучение на неполных или искажённых данных. Если база данных имеет пробелы, содержит устаревшую информацию или не отражает контекст конкретных задач, система будет заполнять пробелы вероятностными предположениями.
Но есть и другие:
В числе факторов риска можно назвать и отсутствие системы внутренней фильтрации информации. Модель не проверяет собственные ответы перед отправкой пользователю.
Снизить количество галлюцинаций можно за счёт дополнительного обучения модели на качественных доменных данных, внедрения фильтров и правил проверки контента.
Что можно предпринять:
Повысить качество данных для обучения: очистка, проверка, удаление дублей, противоречивых данных, сомнительных источников, добавление достоверных источников, официальных и научных данных. Это поможет повысить точность ответов, особенно в узконаправленных областях. Например, для финансового помощника использовать данные Bloomberg, SEC, а не случайные статьи из интернета.
Научить работать с контекстом: включать в обучение не только факт, но и контекст — условия задачи, ограничения. В результате модель учится учитывать нюансы и делает меньше логических ошибок в выводах.
Использовать Grounding (заземление) — подход, противоположный Retrieval Augmented Generation (RAG) — поисковой дополненной генерации, при которой AI при отсутствии у него нужной информации включает внешний поиск данных в процессе генерации ответа. При заземлении ИИ ограничивается в источниках, чтобы дать точный и релевантный ответ, а не отклоняться от темы или придумывать что-то. По сути, концепция заземления помогает языковым моделям помнить, «зачем» они делают то, что делают. Она напоминает им о реальном контексте, обеспечивая актуальность, точность и соответствие ответов поставленной задаче. Это снижает вероятность избыточной уверенности и «догадок». Пример: если модель отвечает на юридические вопросы, можно запретить ей генерацию рекомендаций вне рамок закона.
Внедрить многоступенчатую генерацию и самопроверку (Chain-of-Thought). Это заставит модель «думать вслух», разбивая сложные задачи на шаги и проверять каждый шаг. Например, при решении математических задач модель сначала пишет «Шаг 1: сложим числа», затем «Шаг 2: проверим результат». Другой пример: модель генерирует медицинские рекомендации, после чего система сверяет их с официальными протоколами.
Настроить чёткие подсказки и управление генерацией (prompt engineering). Форматируйте запрос: просите список с источниками, ограничьте диапазон, требуйте «если нет данных — скажи не знаю». Это снижает избыточную уверенность и галлюцинации.
Установить обратную связь и дообучение (RLHF — Reinforcement Learning from Human Feedback). Модель дообучается на основе оценок людей с точки зрения правильности, полезности и достоверности. Пример: отчёт, составленный медицинским ИИ, перед публикацией проходит проверку врачом.
Ответ на этот вопрос зависит от особенностей конкретного проекта, поставленных перед нейросетью задач и целей использования.
Примеры возможных стратегий:
Выработка стратегии особенно важна при настройке AI-ассистентов или использовании генеративных моделей в своих продуктах.
Например, при работе с GigaChat можно создать собственного ИИ-помощника, который будет генерировать тексты, изображения или анализировать файлы с учётом специфики вашей компании. Правильная настройка модели и обучение на собственных данных помогают сократить риск галлюцинаций и повысить точность ответов.