The New York Times: Галлюцинации ИИ усиливаются и становятся всё чаще

Системы искусственного интеллекта (ИИ) всё чаще выдают неверную информацию, называемую галлюцинациями. Это происходит несмотря на рост их мощности.

Новые системы рассуждений от OpenAI, Google и DeepSeek увеличивают число ошибок. Хотя их математические навыки улучшились, работа с фактами ухудшилась. Исследователи не могут объяснить причину.

ИИ обучаются на больших объемах данных, но не способны различать правду и ложь. Они используют математические вероятности для выбора ответов, что приводит к ошибкам. Представители компаний признают, что галлюцинации неизбежны.

Галлюцинации опасны для работы с важными данными, такими как судебные документы или медицинская информация. Они снижают ценность ИИ, который должен автоматизировать задачи.

Тестирование показало, что галлюцинации у новейших систем OpenAI достигают 33-79%. Google и DeepSeek также столкнулись с ростом ошибок.

Компании перешли к обучению с подкреплением, но этот метод работает нестабильно, особенно в сложных задачах. Боты часто делают ошибки на каждом шаге, что видно пользователям, пишет actualcomment.