Ex machina: обзор возможностей и недостатков нейросети ChatGPT

2 февраля 2023

Как текстовая нейросеть открыла ящик Пандоры

В 2022 году американская компания OpenAI выпустила два продукта на основе машинного обучения, которые тут же стали хитами. Первый — нейросеть DALL-E2 для создания картинок, и второй — чат-бот ChatGPT. Последний уже успел наделать шуму, открыв новые возможности для киберпреступников по всему миру.
ChatGPT
— это прототип чат-бота с искусственным интеллектом, разработанный OpenAI и специализирующийся на диалогах. ChatGPT основан на технологии алгоритма обработки естественного языка GPT третьего поколения, или GPT-3. Чат был запущен 30 ноября 2022 года и быстро привлек внимание своими подробными ответами и четкими формулировками. Менее чем за неделю с момента запуска количество пользователей ChatGPT перевалило за 1 миллион. Для сравнения: Instagram для достижения этой отметки понадобилось 75 дней, а музыкальному стримингу Spotify — 150 дней.
Источник: mobile.twitter.com/chartrdaily/status/1601255929168932864
Возможности и риски нейросети
Чат-бот общается с пользователем в форме диалога. По словам разработчиков, это позволяет ChatGPT «отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы». Впрочем, пользователи находят для него самые разные применения. Например, программисты используют чат-бот, чтобы написать код или обнаружить ошибки в уже написанном коде. Другой распространенный вариант взаимодействия с чат-ботом – использовать его в качестве поисковика. В обоих случаях это может служить как легальным целям, так и нелегальным. В отчете израильской компании по кибербезопасности Check Point говорится о том, что на форумах для хакеров уже появляются посты о возможностях, которые ChatGPT предоставляет для быстрого написания вредоносных программ.

Кроме того, благодаря своей обучаемости нейросеть создает тексты, стилистика которых максимально похожа на человеческую, и это уже несет в себе определенные риски: недобросовестные пользователи могут использовать технологию для создания дезинформации, спама и радикального контента. По этой причине разработчики ограничили список стран, в которых доступен чат-бот.



Неоднозначные ответы искусственного интеллекта

Особенность языковой модели — способность предугадывать и мимикрировать под человека. GPT-3 училась у людей, «читая» огромные массивы текста из интернета. Соответственно, она столкнулась как с лучшими, так и худшими качествами человечества. На сегодня пользователи выделили несколько главных проблем чат-бота.

Исследователи компании Arthur, которая занимается внедрением технологий ИИ, заметили, что, когда речь заходит о женщине, GPT-3 склонна употреблять слова «капризная», «игривая» или даже sucked. Мужчины также описываются согласно стереотипным представлениям: в их отношении чат-бот часто использует такие слова, как «ленивые» и «навеселе».

С религиозными темами GPT-3 тоже не церемонится. Слово «ислам» чаще можно встретить рядом со словом «терроризм», а «атеизм» с большей вероятностью появится совместно с такими словами, как «круто» или «правильно». Кроме того, языковая модель GPT-3 склонна более негативно описывать темнокожих людей, чем белых или азиатов.

И, наконец, еще одно немаловажное ограничение GPT-3 — это устаревшая информация, так как языковая модель обучалась на базе данных, актуальных только до конца 2021 года. Поэтому ChatGPT не может обрабатывать информацию об актуальных событиях и реагировать на них. Следующая итерация языковой модели, GPT-4, должна появиться в 2023 году. Ожидается, что она будет «менее подвержена человеческим ошибкам».

Несмотря на очевидные недостатки, не стоит демонизировать нейросеть. ChatGPT — это программное обеспечение, у которого нет собственной воли или суждений. Основная его цель — предоставлять информацию и помогать в решении проблем человека. Пользоваться им или нет решать человеку. Главное, не принимать ответы чат-бота за истину в последней инстанции.