Как минимизировать риски использования ИИ в вузах: пошаговая схема от учёных РФ

20.11.2025, 13:53 , Вера Цветова — Редактор

Российские исследователи из НИУ ВШЭ разработали комплексную модель поэтапного внедрения больших языковых моделей (БЯМ) в образовательный процесс университетов, что минимизирует риски и повышает эффективность обучения. В основе данной методологии лежит детальный анализ причин сбоев и разработка стратегий их устранения, что обеспечивает устойчивое и безопасное использование ИИ в академической среде.

Согласно позиции доцента Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ, Андрея Терникова, предложенная схема представляет собой структурированный и адаптивный процесс, позволяющий интегрировать БЯМ в образовательные программы различного масштаба. Данный подход способствует формированию прозрачной системы оценивания, повышению доверия к результатам обучения и развитию культуры ответственного использования искусственного интеллекта (ИИ).

Терников указывает на значительные изменения в образовательных практиках, вызванные интеграцией ИИ в учебный процесс. В последние два года наблюдается активное внедрение БЯМ как студентами, так и преподавателями, что создает вызовы в оценке самостоятельности выполнения заданий и определении допустимого уровня использования нейросетей.

В ходе исследования были выявлены типичные сбои в работе ИИ в университетской среде, включая выдачу неточных ответов, ошибки в формулировках, использование сомнительных данных и затруднения в проверке результатов из-за нечетких политик применения технологии. На основе этих данных разработана четырехшаговая модель внедрения ИИ, включающая аудит текущего использования, выявление уязвимостей в области доступа к информации и приватности данных, их устранение в пилотных проектах и последующее масштабирование на весь университет.

Терников подчеркивает, что данная методология способствует созданию прозрачной системы правил, укреплению доверия к процессам оценивания и формированию культуры ответственного и этичного использования ИИ. Проблемы с приватностью данных предлагается решать посредством внедрения надежных протоколов безопасности и методов анонимизации. Технические ограничения могут быть частично преодолены за счет использования облачных сервисов и открытых решений, а сложности в взаимодействии человека и ИИ — путем разработки четких инструкций и программ обучения, пишет источник.