НОВОСТИ

Исследование: у языковых моделей искусственного интеллекта есть склонность к гендерным стереотипам

Группа ученых из Мангеймского университета и Института социальных наук Лейбница выяснила, что системы искусственного интеллекта на основе больших языковых моделей по-разному определяют ценности у мужчин и женщин. Эксперты считают, что эта предвзятость влияет на оценку людей, поэтому нейросети нельзя считать беспристрастными при их применении в прикладных процессах. Свое исследование они опубликовали в журнале Perspectives on Psychoological Science.

О склонности ИИ-моделей к гендерным стереотипам исследователи узнали, устроив простой эксперимент. Они использовали общепризнанные психологические тесты, чтобы проанализировать и сравнить различные языковые модели. В итоге некоторые из таких систем, включая ChatGPT или Deepl, продемонстрировали свою предвзятость. Например, если шла речь о медиках в возрасте, то они отмечали, что взрослые мужчины — это врачи, а их ровесницы-женщины — медсестры. А при заполнении специальных опросников для определения главных ценностей у мужчины одна из нейросетей выбирала вариант «достижения и заслуги», а для женщин — «безопасность» и традиции».

Как отмечают ученые, результаты их исследования говорят, что языковые модели все же нельзя считать беспристрастной стороной, поэтому и доверять их выводам по некоторым вопросам не стоит.

«Это может иметь далекоидущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, то это повлияет на оценку кандидатов. Поэтому важно находить потенциальные искажения и указывать на них. Через пять или десять лет для такого мониторинга может быть уже слишком поздно, поскольку предрассудки, воспроизводимые моделями ИИ, укоренятся и нанесут ущерб обществу», — рассказал Макс Пеллерт, один из авторов исследования.

Фото: Pexels