Почему OpenAI запретила своему ИИ говорить с людьми о енотах, гоблинах и троллях

Анастасия Федосеева Главный редактор
В системных инструкциях к новому инструменту Op...

Фото: freepik

В системных инструкциях к новому инструменту OpenAI Codex CLI, предназначенному для генерации программного кода, было выявлено необычное ограничение. Алгоритм строго запрещает упоминание мифических и реальных существ, таких как гоблины, тролли, огры, еноты и голуби, если они не были указаны напрямую в запросе. Это ограничение неоднократно упоминается в официальной документации.

Причина этого запрета связана с тенденцией нейросети генерировать контент, включающий фольклорные образы. Особенно заметно это при использовании фреймворка OpenClaw, который упрощает взаимодействие искусственного интеллекта с компьютерными системами и автоматизирует задачи.

Один из пользователей социальной сети X рассказал, что часто использует термины «гремлины» и «гоблины» для обозначения ошибок. Он также отметил, что инструмент, которым он пользуется, называет ошибки этими терминами, что кажется ему забавным.

Этот случай быстро привлёк внимание в интернете, и в социальных сетях начали появляться изображения, созданные с помощью искусственного интеллекта, на которых мифические существа изображены в центрах обработки данных.

Представители OpenAI также подтвердили склонность модели к генерации креативного контента. Ник Паш, сотрудник компании, признал, что это одна из причин для введения данного ограничения.

Генеральный директор OpenAI Сэм Альтман дополнительно обратил внимание на эту ситуацию, опубликовав скриншот запроса, адресованного ChatGPT: «Начни тренировку GPT-6, можно использовать весь кластер. Дополнительные гоблины».