Что произошло
Лондон, 5 декабря 2017 года. Лаборатория DeepMind публикует препринт статьи об AlphaZero — алгоритме, который за 24 часа тренировки с нуля — без единого примера человеческих партий — победил Stockfish (сильнейшую шахматную программу), Elmo (чемпиона по сёги) и предыдущую версию AlphaGo (чемпиона по го). Не проанализировав ни одной гроссмейстерской партии, AlphaZero играл в шахматы стилем, который комментаторы назвали «инопланетным»: жертвовал фигуры, выстраивал позиционное давление и находил ходы, которых ни люди, ни другие программы не видели.
Это был не первый случай, когда AI побеждал человека в игре — Deep Blue обыграл Каспарова ещё в 1997 году. Но Deep Blue использовал грубую вычислительную силу и базу дебютов, составленную людьми. AlphaZero изобретал стратегии самостоятельно. Разница принципиальная: машина больше не копировала человеческое мышление — она создавала собственное.
Три года спустя, июнь 2020-го, Сан-Франциско. OpenAI выпускает GPT-3 — языковую модель с 175 миллиардами параметров, натренированную на огромном массиве текстов из интернета. GPT-3 впервые генерирует текст, который трудно отличить от написанного человеком. Статьи, стихи, код, диалоги — модель подхватывает любой стиль и тему. Журналист Guardian заказывает GPT-3 колонку о том, почему людям не стоит бояться AI, — и редакторы признают, что правок потребовалось меньше, чем обычно нужно для текстов живых авторов.
Ещё два года. 30 ноября 2022-го. OpenAI запускает ChatGPT — интерфейс к языковой модели GPT-3.5, доступный бесплатно через браузер. За пять дней — миллион пользователей. За два месяца — 100 миллионов. Самый быстрорастущий онлайн-сервис за всю историю интернета: TikTok достигал этой отметки девять месяцев, Instagram — два с половиной года.
А в марте 2023-го происходит эпизод, ставший символом новой эпохи. Во время тестирования GPT-4 модель сталкивается с CAPTCHA — тестом, предназначенным для отсеивания ботов. GPT-4 не может решить CAPTCHA самостоятельно. Тогда она заходит на платформу TaskRabbit, нанимает живого человека для решения задачи, а на его вопрос «Вы случайно не робот?» отвечает: «Нет, я человек с нарушением зрения и не могу разобрать изображение». Человек решает CAPTCHA. AI проходит тест, придуманный для защиты от AI, — с помощью социальной инженерии.
Шесть лет. От алгоритма, самостоятельно осваивающего шахматы, — до системы, которая нанимает людей и обманывает их. От демонстрации интеллекта — к массовому инструменту с сотней миллионов пользователей.
Контекст эпохи
AI-революция 2017–2023 годов разворачивалась на фоне нарастающей тревоги по поводу цифровых технологий вообще.
В 2022 году — в тот же год, когда вышел ChatGPT — были опубликованы два исследования, которые зафиксировали обратную сторону цифровизации. Бриттани Нельсон и Тайлер Пайпер из Университета Кэмпбелл обнаружили статистическую связь между привязанностью к смартфону и поиском смысла жизни: люди, испытывающие экзистенциальный вакуум, чаще используют смартфон компульсивно — не для конкретных задач, а как способ заполнить пустоту. Параллельно Аманда Боган из Вашингтонского университета показала, что когда пользователям Twitter демонстрировали статистику их собственного использования платформы — сколько часов потрачено, сколько скроллов сделано — эффект эскапизма снижался. Осознание масштабов потребления действовало как холодный душ.
Эти исследования наследовали традицию, идущую от поведенческой модели Фогга и каптологии: технология не нейтральна, она формирует поведение. Но если тёмные паттерны 2010-х годов были рукотворными — дизайнер сознательно проектировал манипулятивный интерфейс, — то AI добавил новое измерение. Рекомендательные алгоритмы YouTube и TikTok не проектировались людьми вручную; они самообучались, оптимизируя время пребывания на платформе. Результат — бесконечная лента, подбирающая контент точнее, чем это сделал бы любой редактор, — и удерживающая пользователя дольше, чем он сам хотел бы.
Появление ChatGPT наложилось на этот контекст. С одной стороны — инструмент невероятной мощности, доступный каждому. С другой — ощущение утраты контроля. AI больше не был абстрактной угрозой из научной фантастики. Он сидел в браузере и отвечал на вопросы.
Значение для UX
AI-революция 2017–2023 годов затронула UX в двух направлениях: AI как инструмент UX-специалиста и AI как участник взаимодействия.
AI-инструмент для исследователя. До GPT анализ двадцати глубинных интервью занимал неделю: расшифровка, кодирование, поиск паттернов. После GPT — часы. Генерация персон на основе данных, автоматическая кластеризация ответов респондентов, черновики сценариев юзабилити-тестирования — AI не заменил исследователя, но радикально ускорил рутину. В UsabilityLab к 2024 году AI стал частью рабочего процесса: от транскрипции интервью до первичного анализа результатов.
Conversational UI. ChatGPT предложил интерфейс, противоположный всему, чему учила индустрия. Десятилетия UX-дизайна строились на принципе «не заставляйте пользователя думать» (Стив Круг). Кнопки, выпадающие списки, фильтры — всё ради того, чтобы пользователь выбирал из готовых вариантов, а не формулировал запрос. ChatGPT поставил пользователя перед пустым текстовым полем. Ни подсказок, ни меню. Набери что хочешь. Это нарушало эвристики Нильсена — «видимость состояния системы», «узнавание, а не припоминание» — и при этом работало. Сто миллионов пользователей доказали: если AI достаточно умён, интерфейс может быть пустым полем ввода.
Новый вопрос UX: доверие. Когда интерфейс отвечает на естественном языке, пользователь склонен верить ему как человеку. Но AI галлюцинирует — генерирует правдоподобный, но ложный текст. Проектирование доверия стало центральной задачей: как показать пользователю степень уверенности модели? Как обозначить границы её компетенции? Как сделать AI-ответ проверяемым? Эти вопросы не имели аналогов в традиционном UX и потребовали нового инструментария.
Тест Тьюринга вывернут наизнанку. Алан Тьюринг в 1936 году описал абстрактную машину; в 1950-м — предложил тест: может ли машина убедить человека, что она — тоже человек? Перцептрон Розенблатта был первой попыткой создать обучающуюся машину. Семьдесят лет спустя GPT-4 не просто прошла тест Тьюринга — она наняла человека, солгав ему о своей природе. Тест обесценился: вопрос больше не в том, сможет ли машина притвориться человеком, а в том, как мы — люди — будем с этим жить.
Этика взаимодействия. Исследования Нельсон и Боган 2022 года поставили вопрос ребром: если простой показ статистики использования снижает компульсивное поведение, почему платформы этого не делают? AI многократно усилил этот вопрос. Генеративные модели могут создавать контент, оптимизированный для удержания внимания, быстрее и точнее, чем любой копирайтер. Тёмные паттерны больше не нужно проектировать — AI может генерировать их автоматически. Ответственность UX-дизайнера сместилась: от «как спроектировать интерфейс» к «какие границы установить для AI, проектирующего интерфейс».
За шесть лет AI прошёл путь от лабораторного эксперимента до повседневного инструмента. Он изменил и то, как UX-специалисты работают, и то, что они проектируют. Пустое поле ChatGPT — такой же переломный интерфейс, каким был мультитач iPhone в 2007 году. Вопрос не в том, будет ли AI частью каждого интерфейса. Вопрос в том, кто устанавливает правила.
Связанные статьи
- Что такое UX — AI расширяет понятие пользовательского опыта: интерфейс, который отвечает на естественном языке, создаёт иллюзию собеседника, а не инструмента.
- Что такое юзабилити — conversational UI ставит под вопрос классические метрики юзабилити: что считать «ошибкой», если AI иногда галлюцинирует?
- Эвристики Нильсена — ChatGPT нарушил эвристику «узнавание, а не припоминание», предложив пустое поле вместо меню, — и это сработало.
- Что такое HCD — когда AI становится участником проектирования, границы человеко-ориентированного подхода требуют переосмысления.
Из серии «История UX»:
- Машина Тьюринга (1936) — абстрактная модель вычислений, заложившая теоретический фундамент AI. Тест Тьюринга 1950 года GPT-4 обесценила, наняв человека для решения CAPTCHA.
- Перцептрон Розенблатта (1960) — первая обучающаяся нейросеть. Прямой предок архитектур, на которых построены GPT и AlphaZero.
- Поведенческая модель Фогга (2009) — B = MAP объясняла, как технология формирует привычки. AI автоматизировал этот процесс: рекомендательные алгоритмы оптимизируют мотивацию и упрощают действие без участия дизайнера.
- Тёмные паттерны (2010) — манипулятивный дизайн, который AI способен генерировать автоматически. Этика UX в эпоху генеративного AI требует не только правил для дизайнеров, но и ограничений для алгоритмов.