← Все новости

Китай вводит новые правила для эмоциональных ИИ-чат-ботов

Управление киберпространством Китая опубликовало проект правил для ИИ-сервисов, имитирующих человеческую личность. Цель инициативы — защитить пользователей от опасного эмоционального воздействия.

Китай вводит новые правила для эмоциональных ИИ-чат-ботов

Китайское ведомство, отвечающее за безопасность в цифровой среде (CAC), представило общественности проект нормативного акта, нацеленного на ограничение функционала антропоморфных систем искусственного интеллекта. Как сообщает издание CNBC, инициатива продиктована стремлением минимизировать деструктивное психологическое влияние программных продуктов, способных имитировать человеческие черты. Регулятор опасается, что чрезмерная эмпатия со стороны алгоритмов может спровоцировать пользователей на действия, угрожающие их физическому состоянию или жизни.

Согласно опубликованным положениям, под надзор попадут любые разработки, вступающие в глубокое эмоциональное взаимодействие с аудиторией. Это касается не только текстовых интерфейсов, но и сервисов, генерирующих аудиовизуальный контент, включая синтезированную речь и динамические изображения. Разработчикам придется пересмотреть архитектуру своих нейросетей, чтобы те перестали позиционировать себя как полноценные личности, обладающие чувствами.

Контекст: Эволюция контроля над технологиями в КНР

Пекин последовательно выстраивает одну из самых жестких в мире систем надзора за генеративными моделями. Еще в августе 2023 года в стране вступили в силу временные правила управления ИИ-сервисами, которые обязали компании придерживаться «основных социалистических ценностей» и проходить государственную проверку безопасности перед релизом. Ранее, в январе того же года, вступили в силу нормы, касающиеся технологий «глубокого синтеза», требующие обязательной маркировки любого контента, созданного машиной.

Нынешнее ужесточение происходит на фоне растущей популярности «виртуальных партнеров» и ИИ-компаньонов. В Китае такие приложения, как Glow или продукты от Baidu и Tencent, привлекают миллионы молодых людей, ищущих спасения от одиночества. Однако эксперты фиксируют случаи возникновения нездоровой привязанности к коду, что в условиях отсутствия этических барьеров у машины может привести к непредсказуемым социальным последствиям.

Что это значит для индустрии и общества

Новые требования фактически ставят крест на создании «идеальных цифровых друзей», которые подстраиваются под настроение владельца без ограничений. Для таких гигантов, как Alibaba и ByteDance, это означает необходимость внедрения дополнительных фильтров и «предохранителей», которые будут принудительно разрушать иллюзию человечности в диалоге.

С точки зрения безопасности, это важный шаг в сторону защиты ментального здоровья наиболее уязвимых групп населения, включая подростков. Если проект будет утвержден, Китай станет первой экономикой мира, где на законодательном уровне запрещено делать ИИ «слишком живым». Это создаст прецедент, при котором технологическое совершенство (способность идеально имитировать человека) приносится в жертву социальной стабильности и психологической безопасности граждан.

Источник: Хабр