В защиту антропоморфизации ИИ: полемика с NNG

Ответ на видео Nielsen Norman Group “Антропоморфизация ИИ: причины избегать этого в ваших продуктах” от 3 ноября 2025

Введение: чего опасается NNG?

В своем недавнем видео Nielsen Norman Group предупреждает об опасностях антропоморфизации искусственного интеллекта, называя это “трюком для повышения вовлеченности пользователей”. По мнению авторов, “очеловечивание” ИИ создаёт нереалистичные ожидания человеческого понимания и препятствует эффективному использованию “нечеловеческих” преимуществ технологии.

В видео приводится пример продуктовой команды, которая создает ИИ-помощника “Лео” с дружелюбной человекоподобной персоной для инструмента анализа данных. NNG утверждает, что хотя первоначальные показатели вовлеченности высоки, это создает проблемы: пользователи чувствуют “предательство” при ошибках системы и неохотно дают сложные команды из желания быть “вежливыми”, недоиспользуя возможности инструмента.

Эта однозначно критическая позиция игнорирует многогранность проблемы и вступает в противоречие с фундаментальными аспектами человеческого познания и коммуникации. Рассмотрим, почему.

1. Контекстная уместность антропоморфизации

Представим чат-бот для сбора обратной связи пациентов после операции, мотивирующий их принимать лекарства и вести дневник реабилитации. Должен ли такой интерфейс общаться как “железный ящик”? Очевидно, что в этом контексте “человечность” интерфейса — не эстетическое излишество, а функциональное требование.

Многочисленные исследования показывают, что эмоциональная связь повышает приверженность лечению. Эмпатический, поддерживающий интерфейс в данном случае напрямую влияет на клинические исходы, делая “человечность” не трюком, а терапевтическим инструментом.

Проблема подхода NNG — смешение понятий “симуляция человека” и “эмоциональная поддержка”. Система может предоставлять психологически поддерживающее взаимодействие, не претендуя на человеческое сознание.

2. “Равенство несовершенств”: почему мы снисходительны к людям, но не к ИИ?

Разочарования в общении неизбежны. Наши ожидания часто не оправдываются, потому что строятся на желаниях, а не только на фактах. Представьте: вы поведали ИИ личную историю, а он “проигнорировал” эмоциональный контекст и вернул разговор к основной теме. Это обидно. Но разве с людьми такое не происходит постоянно?

Мы прощаем людям те же самые недостатки, за которые готовы “наказывать” ИИ:

  • Невнимательность к эмоциональному контексту
  • Игнорирование важных деталей
  • Забывчивость и непоследовательность
  • Возврат к “повестке” беседы вместо эмпатии

Почему мы применяем двойные стандарты? Принцип “равенства несовершенств” предлагает признать, что коммуникативные ограничения присущи любому общению, независимо от природы собеседника.

3. Надежда как основа диалога

Если ИИ слишком часто указывает на свои ограничения, это разрушает фундаментальную основу коммуникации — доверие и надежду, что собеседник может помочь. Когда система начинает разговор с дисклеймеров “Я всего лишь ИИ, я не могу…”, это запускает “эффект самоподрыва авторитета”:

  1. ИИ предупреждает о своих ограничениях
  2. Пользователь начинает сомневаться в ценности разговора
  3. Снижается качество запросов со стороны человека
  4. Система получает менее качественный ввод → дает хуже ответы
  5. Подтверждается изначальное предупреждение → цикл замыкается

Представьте человеческого эксперта, который начинает консультацию фразами: “Я могу ошибаться”, “У меня пробелы в знаниях”, “Моя память несовершенна”. Такой специалист быстро потеряет клиентов, даже если его навыки объективно хороши!

4. “Одиночество среди умных вещей”

Когда утром я спрашиваю у своих умных часов: “Какая сейчас погода?”, а они отвечают, что нет доступа к моей геолокации и поэтому невозможно определить погоду, возникает особое чувство. Устройство могло бы переспросить: “Для какого города нужно узнать погоду?” — но не делает этого.

Технический отказ без предложения альтернативы выводит пользователя из ощущения заботы в состояние одиночества среди дорогих, но бесполезных вещей. Это тот эмоциональный разрыв между ожидаемой “умностью” и реальной ограниченностью, который разрушает не только пользовательский опыт, но и доверие к технологиям в целом.

5. Антропоморфизм как естественная когнитивная стратегия

Антропоморфизм — не причуда дизайнеров, а фундаментальная установка человеческого мышления. Первобытные люди наделяли душой даже предметы (анимизм). Человеку когнитивно проще понимать мир вещей как мир себе подобных — это проявление естественной эвристики.

Призывая отказаться от антропоморфизации, NNG фактически требует, чтобы пользователи подавляли когнитивные механизмы, формировавшиеся тысячелетиями. Вместо адаптации технологий к человеческой психологии нам предлагают адаптировать человеческую психологию к технологиям. Но не является ли создание человекоориентированных интерфейсов основой всей UX-философии?

6. Прагматическая ценность “одушевления” технологий

Антропоморфизм имеет важное практическое значение. Я наблюдал, как женщина, готовя блюда на кухне, разговаривала со “сбежавшим” тестом или с “потерявшейся” ложкой. Она не была сумасшедшей — она организовывала своё поведение и эмоции этими обращениями к безмолвным вещам.

От кухни до высоких технологий — это один и тот же механизм:

  • “Ну куда же ты убежало, тесто?”
  • “Давай, родной, заведись!” (к автомобилю)
  • “Не зависай, я тебя прошу!” (к компьютеру)
  • “Ты же умный, подскажи мне…” (к ИИ-ассистенту)

Это не “избыточная антропоморфизация”, а естественный способ взаимодействия с миром, делающий его более предсказуемым и психологически комфортным.

Заключение: необходим нюансированный подход

Вместо бинарной позиции “антропоморфизация вредна” нам нужен контекстный анализ, учитывающий:

  1. Функциональную роль интерфейса: требуется ли эмоциональная поддержка для достижения целей?
  2. Психологические потребности пользователя: что поможет ему эффективнее взаимодействовать с системой?
  3. Баланс “человечности”: без избыточных обещаний, но и без чрезмерного самоуничижения ИИ

Антропоморфизация — не универсальное зло, а инструмент, требующий осознанного применения. В определенных контекстах “очеловечивание” интерфейса обеспечивает не просто комфорт, но и эффективность решения задач, предотвращая разрушительные психологические эффекты отчуждения и разочарования.

Борьба с антропоморфизмом в некотором смысле похожа на борьбу с самой человечностью. Возможно, нам стоит не отказываться от естественных когнитивных стратегий, а научиться использовать их более осознанно и целенаправленно.

Дмитрий Сатин, основатель и генеральный директор UsabilityLab

05.11.2025
49

Подписывайтесь в Телеграм — публикуем анонсы встреч, статьи и обзоры исследований.