Newsguard: В 2025 г нейросети выдавали фейки на новостные запросы в 35% случаев
Аналитическая компания Newsguard выявила рост распространения фейковой информации чат-ботами с ИИ
Аналитическая компания Newsguard обнаружила, что частота распространения ложной информации чат-ботами на базе искусственного интеллекта удвоилась. Основной причиной этого стало внедрение функции веб-поиска в реальном времени, позволяющей алгоритмам получать доступ к источникам с недостоверными данными.
Читайте также
Согласно исследованию, доля ложных ответов чат-ботов при обработке новостных тем возросла с 18% в 2024 году до 35% в августе 2025 года.
Эксперты Newsguard связывают ухудшение ситуации с тем, что нейросетевые модели получили возможность осуществлять веб-поиск в реальном времени. Это привело к использованию информации из источников, содержащих недостоверные или фальсифицированные данные.
Раньше искусственный интеллект старался минимизировать риск распространения ложной информации, отказываясь отвечать на потенциально опасные вопросы. Однако внедрение функции веб-поиска дало моделям доступ к среде с недостоверными данными, что значительно увеличило количество ложных ответов.
Худшие результаты показали нейросети Inflection (56,67% ложных ответов) и Perplexity (46,67%). ChatGPT и Meta* выдавали ложную информацию в 40% случаев, Copilot и Mistral — в 36,67%. Наиболее надёжными оказались Claude (10%) и Gemini (16,67%).
Функция веб-поиска изначально была внедрена для решения проблемы устаревания данных в ответах ИИ. Но вместо этого она создала новые вызовы, связанные с трудностями в различении авторитетных новостных изданий и сайтов с недостоверной информацией, пишет источник.
*Meta признана экстремистской организацией и запрещена на территории России



