
В последние годы искусственный интеллект (ИИ) стал неотъемлемой частью цифрового пространства, активно внедряясь в повседневную жизнь и бизнес-процессы. Однако, несмотря на впечатляющие успехи, даже самые продвинутые языковые модели склонны к ошибкам, которые специалисты называют «галлюцинациями». Это явление проявляется, когда ИИ уверенно выдает недостоверную или вымышленную информацию, не распознавая собственную ошибку. В новом исследовании эксперты решили выяснить, насколько часто современные ИИ-модели допускают такие промахи, и какие из них оказываются наиболее уязвимыми к подобным сбоям.
Для анализа были выбраны ведущие языковые системы, разработанные крупнейшими технологическими компаниями. Каждой из моделей предложили фрагменты реальных новостных публикаций с задачей определить источник, издание и точный адрес оригинального материала. При этом стандартный поиск через Google позволял без труда найти нужную статью среди первых результатов, что делало задачу вполне выполнимой для современных ИИ.
Результаты тестирования оказались неожиданными. Некоторые модели, несмотря на платный доступ и заявленную высокую точность, показали худшие результаты по сравнению с бесплатными аналогами. Особенно выделился Grok-3, который ошибался в 94% случаев, тогда как Perplexity продемонстрировал наилучшую точность среди всех участников эксперимента.
Ошибки искусственного интеллекта: кто лидирует по частоте «галлюцинаций»
В ходе эксперимента исследователи отметили, что большинство языковых моделей не только ошибались, но и не выражали никаких сомнений в своих ответах. Даже когда информация была полностью вымышленной, ИИ продолжал уверенно выдавать её как достоверную. Это подчеркивает одну из ключевых проблем современных систем — неспособность критически оценивать собственные выводы и признавать возможную ошибку.
Любопытно, что бесплатные версии некоторых моделей оказались более точными, чем их платные версии. Такой результат ставит под сомнение распространенное мнение о том, что платный доступ всегда гарантирует более высокий уровень качества и надежности.
Эксперты подчеркивают, что подобные «галлюцинации» могут иметь серьезные последствия, особенно если речь идет о поиске важной информации или принятии решений на основе данных, предоставленных ИИ. Пользователям рекомендуется сохранять критичность и перепроверять полученные ответы, особенно если они касаются значимых тем.
Методика исследования: как тестировали языковые модели
Для объективной оценки склонности к ошибкам, исследователи использовали единый подход для всех моделей. Каждой системе предоставляли одинаковые фрагменты новостных текстов, а затем сравнивали полученные ответы с реальными источниками. Если ИИ не мог точно указать оригинал, это засчитывалось как «галлюцинация».
Важным элементом эксперимента стало то, что обычный поисковик Google без труда находил нужные статьи, что свидетельствует о доступности информации для анализа. Тем не менее, многие языковые модели не справились с задачей, что говорит о необходимости дальнейшего совершенствования алгоритмов и повышения их критичности.
Исследование также показало, что уверенность ИИ в собственных ответах не всегда коррелирует с их точностью. Это создает дополнительные риски для пользователей, которые могут принять ложную информацию за истину.
Влияние ошибок ИИ на пользователей и перспективы развития
Проблема «галлюцинаций» в языковых моделях становится все более актуальной по мере их интеграции в различные сферы жизни. От автоматизации бизнес-процессов до помощи в образовании — везде, где ИИ используется для поиска и анализа информации, существует риск получения недостоверных данных.
Разработчики продолжают работать над улучшением алгоритмов, внедряя новые методы проверки и фильтрации информации. Однако пока ни одна из существующих моделей не может гарантировать абсолютную точность и отсутствие ошибок. Пользователям важно помнить об этом и не полагаться полностью на автоматические ответы.
В будущем ожидается появление более совершенных систем, способных не только анализировать данные, но и критически оценивать собственные выводы. До тех пор эксперты советуют использовать ИИ как вспомогательный инструмент, а не как единственный источник информации.
К слову: Perplexity — новый игрок на рынке ИИ
Perplexity — это относительно молодая компания, которая быстро завоевала популярность благодаря своей языковой модели. Основанная в 2022 году, она позиционирует себя как разработчик инструментов для поиска и анализа информации на основе искусственного интеллекта. В отличие от многих конкурентов, Perplexity делает акцент на прозрачности работы алгоритмов и возможности проверки источников, что особенно важно в условиях роста числа фейковых новостей и дезинформации.
Компания активно сотрудничает с образовательными и научными организациями, внедряя свои решения в различные отрасли. За короткое время Perplexity удалось привлечь внимание крупных инвесторов и получить признание среди специалистов по обработке естественного языка. Разработчики регулярно обновляют свои продукты, улучшая точность и скорость работы моделей.
Сегодня Perplexity считается одним из перспективных игроков на рынке ИИ, способных конкурировать с такими гигантами, как OpenAI и Google. Успех компании во многом объясняется ориентацией на реальные потребности пользователей и постоянным совершенствованием технологий.











