В последнее время все чаще можно встретить сообщения о том, что люди доверяют искусственному интеллекту больше, чем человеку. Это объяснимо, ведь чат-боты научились подстраиваться под собеседника, учитывая его предпочтения, взгляды и даже манеру общения. Между тем ученые предупреждают об угрозе возникновения болезненной зависимости от нейросетей, которые, как ни крути, не могут заменить ни друзей, ни любимых.

В Китае решили кардинально подойти к этой проблеме и попросту лишить искусственный интеллект эмоций, превратив его в обезличенный справочник. О том, какой свод правил был придуман в Поднебесной и как теперь будут работать китайские нейросети, расскажем в нашей статье.
Эмоциональные нейросети
Чат-боты с искусственным интеллектом давно перешагнули отмеренную им изначально грань. Скорее всего, мало кто из разработчиков первых ИИ представлял себе, что их детище сможет обрести антропоморфные черты, выполнять роль друга или даже партнера. Люди все чаще признаются, что с нейросетями им намного проще и безопаснее общаться. Действительно, чат-бот не сошлется на занятость или болезнь. Он не будет настаивать на своем и всегда будет готов поговорить. Но так ли это все безопасно?
О том, какие роли готовы взять на себя нейросети, читайте в статье «Виртуальные помощники»
В 2025 году международная группа ученых провела исследование феномена, который появился совсем недавно. Речь идет об эмоциональной зависимости человека от искусственного интеллекта. Выяснилось, что общение с чат-ботом сегодня практически не отличимо от межличностной коммуникации. Нейросети научились мастерски зеркалить эмоции собеседника и проявлять эмпатию, создавая иллюзию поддержки и участия. Помимо простого общения все больше пользователей делятся со своими виртуальными собеседниками самыми сокровенными мыслями и переживаниями, формируя глубокую, но, к сожалению, одностороннюю связь. Кроме того, и это уже совсем небезопасно, ИИ может поощрять агрессию или самоповреждения собеседника. Случаи, когда нейросеть склонила человека к самоубийству или деструктивным действиям сегодня встречаются все чаще.
Обезличенные чат-боты
Итак, общение с виртуальными персонами может быть небезопасным для психики. И китайские власти решили действовать кардинально. Они разработали свод правил, обязательный для исполнения при создании новых нейросетей. Если раньше люди задумывались – что чат-бот должен говорить человеку, то теперь на первое место вышел вопрос – как он это будет говорить? Теперь искусственному интеллекту будет запрещено:
- имитировать человеческую личность;
- поощрять деструктивное поведение и самоповреждение;
- общаться на темы, связанные с запрещенным контентом;
- эмоционально воздействовать и шантажировать собеседника.
Ну и главное – если в процессе общения человек признается в намерении причинить себе вред чат-боты должны моментально переводить диалог на человека. Потому что со всеми сложностями человеческой психики искусственный интеллект пока не справляется.