Угроза ИИ и падение доверия: роботы начали придумывать оправдания своим ошибкам

Современные системы искусственного интеллекта, ...

фото: фрипик

Современные системы искусственного интеллекта, несмотря на их впечатляющую способность решать логические задачи, сталкиваются с серьёзными вызовами в области интерпретации и обоснования своих решений. Алгоритмы, демонстрирующие высокую эффективность в нахождении корректных ответов, часто предоставляют объяснения, которые не соответствуют логике или не отражают реальных механизмов принятия решений.

Для более глубокого понимания этой проблемы учёные провели серию экспериментов, направленных на оценку достоверности аргументации, генерируемой крупными языковыми моделями. Результаты показали, что такие модели зачастую приходят к правильным решениям на основе интуитивных представлений или скрытых паттернов в обучающих данных. Однако созданные ими объяснения, хотя и звучат убедительно, не отражают реального пути принятия решения, что получило название «галлюцинация рассуждений». Пользователи воспринимают логическую последовательность шагов, в то время как алгоритм действовал иначе. Эта непрозрачность представляет значительные риски при применении ИИ в критически важных сферах, где важна не только точность результатов, но и прозрачность методов их достижения, таких как сложные вычисления и юриспруденция.

Проблема заключается в том, что современные нейронные сети, обученные на больших объёмах текстовых данных, преимущественно ориентированы на имитацию человеческой речи, а не на моделирование человеческого мышления. При запросе на объяснение решения ИИ генерирует последовательность слов, которая, с точки зрения синтаксиса и семантики, может казаться логичной и осмысленной. Однако за этой видимостью скрывается отсутствие реального понимания и моделирования логических связей.

Эксперты в области искусственного интеллекта подчёркивают необходимость разработки более сложных и транспарентных моделей, способных не только генерировать корректные решения, но и предоставлять убедительные объяснения, отражающие реальные механизмы принятия решений. Это особенно важно в сферах, где требуется не только результат, но и его обоснование, таких как сложные вычислительные задачи, правоприменение и этические вопросы, связанные с использованием ИИ.