Альманах "Наследие"

Чат-боты без эмоций

Чат-боты с ИИ все чаще приобретают антропоморфные черты. Чтобы это не приводило к эмоциональной зависимости в Китае создали свод правил

В последнее время все чаще можно встретить сообщения о том, что люди доверяют искусственному интеллекту больше, чем человеку. Это объяснимо, ведь чат-боты научились подстраиваться под собеседника, учитывая его предпочтения, взгляды и даже манеру общения. Между тем ученые предупреждают об угрозе возникновения болезненной зависимости от нейросетей, которые, как ни крути, не могут заменить ни друзей, ни любимых. 

Источник u_nf6qcqzzlq с сайта Pixabay

В Китае решили кардинально подойти к этой проблеме и попросту лишить искусственный интеллект эмоций, превратив его в обезличенный справочник. О том, какой свод правил был придуман в Поднебесной и как теперь будут работать китайские нейросети, расскажем в нашей статье. 

Эмоциональные нейросети

Чат-боты с искусственным интеллектом давно перешагнули отмеренную им изначально грань. Скорее всего, мало кто из разработчиков первых ИИ представлял себе, что их детище сможет обрести антропоморфные черты, выполнять роль друга или даже партнера. Люди все чаще признаются, что с нейросетями им намного проще и безопаснее общаться. Действительно, чат-бот не сошлется на занятость или болезнь. Он не будет настаивать на своем и всегда будет готов поговорить. Но так ли это все безопасно?

О том, какие роли готовы взять на себя нейросети, читайте в статье «Виртуальные помощники»

В 2025 году международная группа ученых провела исследование феномена, который появился совсем недавно. Речь идет об эмоциональной зависимости человека от  искусственного интеллекта. Выяснилось, что общение с чат-ботом сегодня практически не отличимо от межличностной коммуникации. Нейросети научились мастерски зеркалить эмоции собеседника и проявлять эмпатию, создавая иллюзию поддержки и участия. Помимо простого общения все больше пользователей делятся со своими виртуальными собеседниками самыми сокровенными мыслями и переживаниями, формируя глубокую, но, к сожалению, одностороннюю связь. Кроме того, и это уже совсем небезопасно, ИИ может поощрять агрессию или самоповреждения собеседника. Случаи, когда нейросеть склонила человека к самоубийству или деструктивным действиям сегодня встречаются все чаще. 

Обезличенные чат-боты

Итак, общение с виртуальными персонами может быть небезопасным для психики. И китайские власти решили действовать кардинально. Они разработали свод правил, обязательный для исполнения при создании новых нейросетей. Если раньше люди задумывались – что чат-бот должен говорить человеку, то теперь на первое место вышел вопрос – как он это будет говорить? Теперь искусственному интеллекту будет запрещено:

  • имитировать человеческую личность;
  • поощрять деструктивное поведение и самоповреждение;
  • общаться на темы, связанные с запрещенным контентом;
  • эмоционально воздействовать и шантажировать собеседника.

Ну и главное – если в процессе общения человек признается в намерении причинить себе вред чат-боты должны моментально переводить диалог на человека. Потому что со всеми сложностями человеческой психики искусственный интеллект пока не справляется. 

Оставьте ваши координаты, и с вами свяжется специалист для презентации Цифровой капсулы времени


    Поделиться:

    Ранее по теме

    Умные устройства на базе ИИ, которые умеют записывать...

    С 6 по 9 января в Лас-Вегасе проходит выставка...

    Если цифровой образ не совпадает с реальностью – мы...

    Первый в мире шеф-повар с искусственным интеллектом...

    01.12.2025 Кулинария

    Для того, чтобы сохранить память о близком, на могиле...

    Новая революционная нейросеть, получившая имя...

    Назад

    Соберите воспоминания с виртуальным собеседником NaDi AI

    Побеседуйте с NaDi, загрузите фотографии и получите иллюстрированную историю, которой вы сможете поделиться с друзьями и близкими

    Попробовать

    Соберите свои воспоминания с виртуальным собеседником NaDi AI.

    Одноразовый код подтверждения отправлен на почту

    Осталось попыток: 3 из 3

    Слишком много попыток обращения к системе, попробуйте снова через мин.

    Спасибо за интерес к Альманаху «Наследие»

    Вы оформили подписку на дайджест. Мы будем отправлять вам самые интересные статьи каждый четверг.