Newsguard: В 2025 г нейросети выдавали фейки на новостные запросы в 35% случаев

15.09.2025, 10:50 , Анастасия Федосеева — Главный редактор

Аналитическая компания Newsguard выявила рост распространения фейковой информации чат-ботами с ИИ

Аналитическая компания Newsguard обнаружила, что частота распространения ложной информации чат-ботами на базе искусственного интеллекта удвоилась. Основной причиной этого стало внедрение функции веб-поиска в реальном времени, позволяющей алгоритмам получать доступ к источникам с недостоверными данными.

Согласно исследованию, доля ложных ответов чат-ботов при обработке новостных тем возросла с 18% в 2024 году до 35% в августе 2025 года.

Эксперты Newsguard связывают ухудшение ситуации с тем, что нейросетевые модели получили возможность осуществлять веб-поиск в реальном времени. Это привело к использованию информации из источников, содержащих недостоверные или фальсифицированные данные.

Раньше искусственный интеллект старался минимизировать риск распространения ложной информации, отказываясь отвечать на потенциально опасные вопросы. Однако внедрение функции веб-поиска дало моделям доступ к среде с недостоверными данными, что значительно увеличило количество ложных ответов.

Худшие результаты показали нейросети Inflection (56,67% ложных ответов) и Perplexity (46,67%). ChatGPT и Meta* выдавали ложную информацию в 40% случаев, Copilot и Mistral — в 36,67%. Наиболее надёжными оказались Claude (10%) и Gemini (16,67%).

Функция веб-поиска изначально была внедрена для решения проблемы устаревания данных в ответах ИИ. Но вместо этого она создала новые вызовы, связанные с трудностями в различении авторитетных новостных изданий и сайтов с недостоверной информацией, пишет источник.

*Meta признана экстремистской организацией и запрещена на территории России