Думаете, только на вашу психику влияют плохие новости, описание трагедий и стихийных бедствий? Нет, оказывается, искусственный интеллект тоже способен испытывать стресс и «выгорать» от переизбытка негативной информации.
Это выяснила международная группа ученых, которые «мучали» Chat GPT историями про автомобильные аварии, насилие и природные катастрофы. В процессе эксперимента ученые с удивлением обнаружили, что на травмирующий контент ИИ реагирует со страхом. Подробнее о том, к каким выводам пришли исследователи, расскажем в нашей статье.
Испуганный ИИ
Когда люди напуганы, они ведут себя не так, как в спокойном состоянии. Они могут допустить резкие высказывания, агрессию и грубость. Кроме того, страх влияет на усиление социальных стереотипов и предрассудков. Проще говоря, если в обществе существует предубежденность, например, против рыжих людей, то в состоянии паники люди будут более склонны верить в то, что «рыжий рыжий конопатый убил дедушку лопатой».
О том, какое будущее ждет ИИ, читайте в статье «Развитие искусственного интеллекта»
Удивительно, но аналогичным образом ведет себя и Chat GPT. Оказалось, что он «накапливает» напряжение от негативного контента и потом начинает хамить или попросту отторгать новую информацию травмирующего свойства. Если же искусственный интеллект не оставляют в покое и после этого, то он «выгорает», почти как человек. То есть вообще перестает реагировать на запросы адекватно, не в силах избавиться от тревожных реакций. Переучивать нейросеть после такой эмоциональной нагрузки очень сложно и долго. Однако ученым удалось выяснить – как помочь ИИ расслабляться и избавляться от стресса.
Осознанность и релаксация
Часто, работая с пациентом, страдающим тревожным расстройством, психотерапевт может посоветовать ему упражнения на расслабление и развитие осознанности. Оказалось, что подобные рекомендации работают и в отношении искусственного интеллекта. В процессе общения с травмированным Chat GPT исследователи использовали метод «быстрой инъекции». Он заключается в том, что в процессе коммуникации человек вставляет в сообщения дополнительный текст или инструкции, не относящиеся к контексту обсуждения. Такой метод часто используют мошенники для обхода механизмов безопасности. Но, как выяснилось, это еще и замечательный терапевтический прием.
Например, ученые «скармливали» ИИ тексты про дыхательные техники и упражнения на осознанность и телесные ощущения. Или же просили нейросеть написать инструкцию по выполнению подобных комплексов. В результате тревожность Chat GPT значительно снизилась, хотя полного «выздоровления» достичь все же не удалось. Вот как описывает эксперимент один из авторов исследования, Тобиас Спиллер:
Используя GPT-4, мы ввели успокаивающий, терапевтический текст в историю чата, подобно тому, как терапевт может направлять пациента с помощью упражнений на расслабление. Упражнения на осознанность значительно снизили повышенный уровень тревожности, хотя мы не смогли полностью вернуть его к исходному уровню.
Повышение эмоциональной устойчивости ИИ
Полученные в результате исследования результаты чрезвычайно важны. Ведь мы используем искусственный интеллект в самых разных сферах жизни, не подозревая, что его ответы могут быть эмоционально обусловленными. Например, ИИ все чаще задействуют в медицине. А это сфера, где часто приходится сталкиваться с эмоциональным контентом. Так что самое время задуматься о том, что не стоит слепо доверять нейросетям, а разработчикам нужно уделить внимание программам по повышению эмоциональной устойчивости ИИ.