Глюки и ошибки ИИ испугали пользователей больше риска потерять работу

фото: freepik
Исследование, на которое ссылается The Financial Times, выявило, что обеспокоенность пользователей искусственным интеллектом (ИИ) по поводу его ошибок значительно превышает опасения, связанные с риском потери работы. Этот вывод был сделан на основе анализа данных, полученных в результате опроса, охватившего более 80 тысяч пользователей чат-бота Claude из 159 стран.
Анализ результатов показал, что 27% респондентов выразили наибольшую тревогу по поводу так называемых «галлюцинаций» ИИ, то есть ситуаций, когда нейросети генерируют недостоверную информацию. В то же время, 22% опрошенных выразили обеспокоенность по поводу потенциального сокращения рабочих мест и уменьшения значимости человеческого труда. Примерно 16% респондентов отметили тревогу относительно возможного негативного влияния технологий на их способность к критическому мышлению и анализу информации.
Результаты опроса демонстрируют, что пользователи ИИ в различных регионах мира демонстрируют разные уровни восприятия и оценки рисков, связанных с его использованием. В странах с низким уровнем дохода наблюдается более оптимистичное отношение к ИИ, в то время как в развитых государствах отмечается повышенный уровень скептицизма и настороженности.
Один из респондентов, проживающий в Германии, описал ситуацию, когда ошибки ИИ привели к потере времени и снижению эффективности его работы. Военнослужащий из Мексики отметил, что неточности в ответах ИИ чаще всего проявляются в областях, которые ему не знакомы, тогда как в знакомых темах он может не замечать ошибок.
Руководитель исследования, Саффрон Хуан, подчеркнула, что отношение к ИИ зависит от культурных и экономических факторов. В странах с низким уровнем дохода пользователи чаще воспринимают ИИ как инструмент, способствующий развитию и улучшению качества жизни, тогда как в развитых странах существует более высокий уровень скептицизма, связанный с опасениями относительно потери рабочих мест и изменения структуры занятости.
Некоторые эксперты выразили сомнения относительно точности полученных результатов. Див Тхакар из Google DeepMind отметил, что использование ИИ для сбора данных могло повлиять на качество выводов, подчеркнув, что традиционные методы интервью позволяют глубже понять мнения участников и выявить более широкий спектр факторов, влияющих на их восприятие технологий.
Экономист Илан Штраус также обратил внимание на необходимость осторожности при интерпретации результатов опроса, отметив отсутствие показателей погрешности и субъективность самооценки пользователей, что может исказить общую картину восприятия ИИ.
В заключение, материал также упоминает о случае сбоя в Amazon Web Services, когда ИИ-сервис допустил ошибку при изменении инфраструктуры. Компания объяснила, что инцидент был вызван действиями человека, а не техническим сбоем ИИ, что подчеркивает важность человеческого фактора и необходимости комплексного подхода к управлению и контролю за использованием ИИ-технологий.


