Известия: Нейросети стали чаще давать фейковые ответы


Ведущие чат-боты стали давать в два раза больше ложной информации. Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».

О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США).

По мнению аналитиков, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов.

Дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников. Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания.

Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ — так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей.

Важно и то, что современный контент всё активнее создается с помощью ИИ — дипфейки, статьи, посты для соцсетей и мессенджеров.

— Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — объясняют специалисты.

О том, как будет меняться ситуация с фейковыми ответами от ИИ и как защититься от ложных ответов нейросетей читайте в материале «Известий».


Рубрика: Новости

Дата: 15-09-2025

Теги: Искусственный интеллект (ИИ) Нейросети