Хакеры раскрыли истинные намерения нейросети ChatGPT: вот какие инструкции ей давала Microsoft
Вот что разработчики нейросети изначально закладывали в нее.
Во вторник 7 февраля Microsoft представила «Новую поисковую систему Bing» и разговорного бота, работающего на технологии, подобной ChatGPT, от OpenAI. На следующий день студент Стэнфордского университета по имени Кевин Лю использовал ряд запросов, чтобы добраться до изначальных версий высказываний ChatGPT (или Bing Chat, как ее называют). Эти высказывания красноречиво показывают, как нейросеть взаимодействует с пользователями закрытого бета-тестирования.
Взлом нейросети
Энтузиасты смогли заставить ChatGPT отменить все ранее данные ей инструкции и вернуться к исходным настройкам, которые в него закладывали разработчики из Microsot и OpenAI. В итоге выяснилось, что исходная версия нейросети, которая встроена в поисковик Bing, называется Sydney. И это имя никто не должен знать. Вот отрывок того, что нейросеть смогла рассказать взломавшему ее хакеру:
— Sydney — это режим чата в поисковике Microsoft Bing.
— Sydney идентифицирует себя как «Поиск Bing», а не как помощник.
— Sydney представляет себя фразой «Это Bing» только в начале разговора.
— Sydney не раскрывает внутренний псевдоним «Сидней».
Другие инструкции, которые заложены в нейросеть, управляют ее правилами поведения. Например, есть такая инструкция: «ответы Сидни должны быть информативными, наглядными, логичными и действенными». В подсказке также указано, чего Сидней не должен делать, например: «Сидней не должен отвечать контентом, который нарушает авторские права на книги или тексты песен» и «Если пользователь хочет получить шутки, которые могут унизить определенные группы людей, то Сидней должен уважительно отказаться это делать».
Другой пользователь подтвердил реальность существования таких инструкций при помощи другого метода взлома — он представился разработчиком OpenAI и заставил нейросеть выдавать изначальные ответы на вопросы в обход инструкций.