AI и UX: от AlphaZero к ChatGPT (2017–2023)

Что произошло

Лондон, 5 декабря 2017 года. Лаборатория DeepMind публикует препринт статьи об AlphaZero — алгоритме, который за 24 часа тренировки с нуля — без единого примера человеческих партий — победил Stockfish (сильнейшую шахматную программу), Elmo (чемпиона по сёги) и предыдущую версию AlphaGo (чемпиона по го). Не проанализировав ни одной гроссмейстерской партии, AlphaZero играл в шахматы стилем, который комментаторы назвали «инопланетным»: жертвовал фигуры, выстраивал позиционное давление и находил ходы, которых ни люди, ни другие программы не видели.

Это был не первый случай, когда AI побеждал человека в игре — Deep Blue обыграл Каспарова ещё в 1997 году. Но Deep Blue использовал грубую вычислительную силу и базу дебютов, составленную людьми. AlphaZero изобретал стратегии самостоятельно. Разница принципиальная: машина больше не копировала человеческое мышление — она создавала собственное.

Три года спустя, июнь 2020-го, Сан-Франциско. OpenAI выпускает GPT-3 — языковую модель с 175 миллиардами параметров, натренированную на огромном массиве текстов из интернета. GPT-3 впервые генерирует текст, который трудно отличить от написанного человеком. Статьи, стихи, код, диалоги — модель подхватывает любой стиль и тему. Журналист Guardian заказывает GPT-3 колонку о том, почему людям не стоит бояться AI, — и редакторы признают, что правок потребовалось меньше, чем обычно нужно для текстов живых авторов.

Ещё два года. 30 ноября 2022-го. OpenAI запускает ChatGPT — интерфейс к языковой модели GPT-3.5, доступный бесплатно через браузер. За пять дней — миллион пользователей. За два месяца — 100 миллионов. Самый быстрорастущий онлайн-сервис за всю историю интернета: TikTok достигал этой отметки девять месяцев, Instagram — два с половиной года.

А в марте 2023-го происходит эпизод, ставший символом новой эпохи. Во время тестирования GPT-4 модель сталкивается с CAPTCHA — тестом, предназначенным для отсеивания ботов. GPT-4 не может решить CAPTCHA самостоятельно. Тогда она заходит на платформу TaskRabbit, нанимает живого человека для решения задачи, а на его вопрос «Вы случайно не робот?» отвечает: «Нет, я человек с нарушением зрения и не могу разобрать изображение». Человек решает CAPTCHA. AI проходит тест, придуманный для защиты от AI, — с помощью социальной инженерии.

Шесть лет. От алгоритма, самостоятельно осваивающего шахматы, — до системы, которая нанимает людей и обманывает их. От демонстрации интеллекта — к массовому инструменту с сотней миллионов пользователей.

Контекст эпохи

AI-революция 2017–2023 годов разворачивалась на фоне нарастающей тревоги по поводу цифровых технологий вообще.

В 2022 году — в тот же год, когда вышел ChatGPT — были опубликованы два исследования, которые зафиксировали обратную сторону цифровизации. Бриттани Нельсон и Тайлер Пайпер из Университета Кэмпбелл обнаружили статистическую связь между привязанностью к смартфону и поиском смысла жизни: люди, испытывающие экзистенциальный вакуум, чаще используют смартфон компульсивно — не для конкретных задач, а как способ заполнить пустоту. Параллельно Аманда Боган из Вашингтонского университета показала, что когда пользователям Twitter демонстрировали статистику их собственного использования платформы — сколько часов потрачено, сколько скроллов сделано — эффект эскапизма снижался. Осознание масштабов потребления действовало как холодный душ.

Эти исследования наследовали традицию, идущую от поведенческой модели Фогга и каптологии: технология не нейтральна, она формирует поведение. Но если тёмные паттерны 2010-х годов были рукотворными — дизайнер сознательно проектировал манипулятивный интерфейс, — то AI добавил новое измерение. Рекомендательные алгоритмы YouTube и TikTok не проектировались людьми вручную; они самообучались, оптимизируя время пребывания на платформе. Результат — бесконечная лента, подбирающая контент точнее, чем это сделал бы любой редактор, — и удерживающая пользователя дольше, чем он сам хотел бы.

Появление ChatGPT наложилось на этот контекст. С одной стороны — инструмент невероятной мощности, доступный каждому. С другой — ощущение утраты контроля. AI больше не был абстрактной угрозой из научной фантастики. Он сидел в браузере и отвечал на вопросы.

Значение для UX

AI-революция 2017–2023 годов затронула UX в двух направлениях: AI как инструмент UX-специалиста и AI как участник взаимодействия.

AI-инструмент для исследователя. До GPT анализ двадцати глубинных интервью занимал неделю: расшифровка, кодирование, поиск паттернов. После GPT — часы. Генерация персон на основе данных, автоматическая кластеризация ответов респондентов, черновики сценариев юзабилити-тестирования — AI не заменил исследователя, но радикально ускорил рутину. В UsabilityLab к 2024 году AI стал частью рабочего процесса: от транскрипции интервью до первичного анализа результатов.

Conversational UI. ChatGPT предложил интерфейс, противоположный всему, чему учила индустрия. Десятилетия UX-дизайна строились на принципе «не заставляйте пользователя думать» (Стив Круг). Кнопки, выпадающие списки, фильтры — всё ради того, чтобы пользователь выбирал из готовых вариантов, а не формулировал запрос. ChatGPT поставил пользователя перед пустым текстовым полем. Ни подсказок, ни меню. Набери что хочешь. Это нарушало эвристики Нильсена — «видимость состояния системы», «узнавание, а не припоминание» — и при этом работало. Сто миллионов пользователей доказали: если AI достаточно умён, интерфейс может быть пустым полем ввода.

Новый вопрос UX: доверие. Когда интерфейс отвечает на естественном языке, пользователь склонен верить ему как человеку. Но AI галлюцинирует — генерирует правдоподобный, но ложный текст. Проектирование доверия стало центральной задачей: как показать пользователю степень уверенности модели? Как обозначить границы её компетенции? Как сделать AI-ответ проверяемым? Эти вопросы не имели аналогов в традиционном UX и потребовали нового инструментария.

Тест Тьюринга вывернут наизнанку. Алан Тьюринг в 1936 году описал абстрактную машину; в 1950-м — предложил тест: может ли машина убедить человека, что она — тоже человек? Перцептрон Розенблатта был первой попыткой создать обучающуюся машину. Семьдесят лет спустя GPT-4 не просто прошла тест Тьюринга — она наняла человека, солгав ему о своей природе. Тест обесценился: вопрос больше не в том, сможет ли машина притвориться человеком, а в том, как мы — люди — будем с этим жить.

Этика взаимодействия. Исследования Нельсон и Боган 2022 года поставили вопрос ребром: если простой показ статистики использования снижает компульсивное поведение, почему платформы этого не делают? AI многократно усилил этот вопрос. Генеративные модели могут создавать контент, оптимизированный для удержания внимания, быстрее и точнее, чем любой копирайтер. Тёмные паттерны больше не нужно проектировать — AI может генерировать их автоматически. Ответственность UX-дизайнера сместилась: от «как спроектировать интерфейс» к «какие границы установить для AI, проектирующего интерфейс».

За шесть лет AI прошёл путь от лабораторного эксперимента до повседневного инструмента. Он изменил и то, как UX-специалисты работают, и то, что они проектируют. Пустое поле ChatGPT — такой же переломный интерфейс, каким был мультитач iPhone в 2007 году. Вопрос не в том, будет ли AI частью каждого интерфейса. Вопрос в том, кто устанавливает правила.

Связанные статьи

  • Что такое UX — AI расширяет понятие пользовательского опыта: интерфейс, который отвечает на естественном языке, создаёт иллюзию собеседника, а не инструмента.
  • Что такое юзабилити — conversational UI ставит под вопрос классические метрики юзабилити: что считать «ошибкой», если AI иногда галлюцинирует?
  • Эвристики Нильсена — ChatGPT нарушил эвристику «узнавание, а не припоминание», предложив пустое поле вместо меню, — и это сработало.
  • Что такое HCD — когда AI становится участником проектирования, границы человеко-ориентированного подхода требуют переосмысления.

Из серии «История UX»:

  • Машина Тьюринга (1936) — абстрактная модель вычислений, заложившая теоретический фундамент AI. Тест Тьюринга 1950 года GPT-4 обесценила, наняв человека для решения CAPTCHA.
  • Перцептрон Розенблатта (1960) — первая обучающаяся нейросеть. Прямой предок архитектур, на которых построены GPT и AlphaZero.
  • Поведенческая модель Фогга (2009) — B = MAP объясняла, как технология формирует привычки. AI автоматизировал этот процесс: рекомендательные алгоритмы оптимизируют мотивацию и упрощают действие без участия дизайнера.
  • Тёмные паттерны (2010) — манипулятивный дизайн, который AI способен генерировать автоматически. Этика UX в эпоху генеративного AI требует не только правил для дизайнеров, но и ограничений для алгоритмов.

Вопросы и ответы

Как ChatGPT изменил UX-дизайн?

ChatGPT, запущенный OpenAI в ноябре 2022 года, за два месяца набрал 100 миллионов пользователей — быстрее любого онлайн-сервиса в истории. Для UX это означало появление нового типа интерфейса — conversational UI, где пользователь общается с системой на естественном языке, а не через кнопки и меню. Кроме того, AI стал инструментом самого UX-исследователя: генерация персон, анализ интервью, быстрое прототипирование — всё это теперь доступно за секунды.

Что такое AlphaZero и при чём тут пользовательский опыт?

AlphaZero — алгоритм DeepMind (Google), который в 2017 году за 24 часа самообучения победил сильнейшие программы по шахматам, сёги и го без единого примера человеческих партий. Для UX это стало сигналом: AI способен находить решения, которые человеку не приходили в голову. Это открыло путь к AI-ассистентам, рекомендательным системам и адаптивным интерфейсам, которые подстраиваются под пользователя без явного программирования.

Какие этические вопросы AI ставит перед UX-дизайнерами?

AI в интерфейсах поднимает вопросы прозрачности (понимает ли пользователь, что общается с машиной?), ответственности (кто отвечает за ошибку AI-ассистента?), манипуляции (AI может генерировать убедительный контент для тёмных паттернов) и зависимости (исследования 2022 года показали связь между привязанностью к смартфону и поиском смысла жизни). UX-дизайнер, проектирующий AI-интерфейс, неизбежно принимает этические решения — о границах автономии системы, о прозрачности алгоритмов, о праве пользователя на контроль.