Что произошло
Брюссель, 8 декабря 2023 года, три часа ночи. После тридцати шести часов непрерывных переговоров — так называемого «триалога» между Европарламентом, Советом ЕС и Европейской комиссией — переговорщики объявляют: соглашение достигнуто. Мир получит первый комплексный закон об искусственном интеллекте.
Через три месяца, 13 марта 2024 года, Европарламент голосует. 523 голоса «за», 46 «против», 49 воздержались. Результат предсказуем — но масштаб поддержки нет. Более 85% депутатов проголосовали за закон, который многие технологические компании называли преждевременным, избыточным, потенциально тормозящим инновации. Европарламент услышал эти аргументы — и проголосовал иначе.
EU AI Act — Regulation (EU) 2024/1689 — построен на простой идее: не все AI-системы одинаково опасны. Закон вводит четыре уровня риска, каждый со своим режимом регулирования.
Неприемлемый риск — запрет. Некоторые применения AI недопустимы в принципе. Системы социального скоринга — когда государство присваивает гражданам рейтинг на основе их поведения, как в китайской системе социального кредита, — запрещены. AI-системы, которые манипулируют подсознанием — используют сублиминальные техники, чтобы исказить поведение человека, — запрещены. Системы, эксплуатирующие уязвимости конкретных групп — детей, пожилых, людей с инвалидностью — запрещены. Биометрическая идентификация в реальном времени в публичных местах — ограничена узким перечнем исключений: розыск пропавших детей, предотвращение террористических актов, поиск подозреваемых в тяжких преступлениях. И даже в этих случаях требуется судебное разрешение.
Высокий риск — жёсткое регулирование. AI в медицинской диагностике, подборе персонала, оценке кредитоспособности, управлении критической инфраструктурой — всё это обязано проходить оценку соответствия, вести журналы работы, обеспечивать человеческий контроль и прозрачность. Компания, выпускающая AI-систему для скрининга резюме, обязана документировать, на каких данных система обучена, как принимает решения, какие предвзятости возможны и как они минимизируются.
Ограниченный риск — прозрачность. Здесь EU AI Act обращается непосредственно к интерфейсам. Чатбот обязан сообщать пользователю, что тот взаимодействует с AI, а не с человеком. Deepfake-контент — синтезированные видео, аудио, изображения — обязан быть маркирован как искусственно созданный. AI-генерированный текст, используемый в публичном информационном пространстве, требует раскрытия. Пользователь имеет право знать, что собеседник в чате поддержки — алгоритм, а не Мария из Барселоны.
Минимальный риск — без ограничений. AI-фильтры в фоторедакторах, рекомендательные алгоритмы для музыки, автодополнение текста — всё это остаётся нерегулируемым. Закон не претендует на контроль каждого алгоритма. Только тех, которые влияют на права, свободы и безопасность людей.
Сроки вступления в силу растянуты: запреты — с февраля 2025 года, обязательства по прозрачности — через двенадцать месяцев, полный комплект обязательств для высокорисковых систем — с августа 2026-го. Законодатели дали индустрии время на адаптацию.
А в феврале 2024 года — за месяц до голосования по AI Act — вступил в полную силу Digital Services Act (DSA) для крупных онлайн-платформ. DSA прямо запретил тёмные паттерны — манипулятивные интерфейсные приёмы, направленные на искажение выбора пользователя. Предвыбранные галочки согласия, визуальная иерархия, подталкивающая к нужному компании решению, confirmshaming — всё это стало нарушением закона для платформ с аудиторией более 45 миллионов пользователей в ЕС.
Два закона — AI Act и DSA — образовали регуляторную рамку: AI обязан быть прозрачным, а интерфейс обязан быть честным.
Контекст эпохи
EU AI Act не появился из пустоты. Он стал ответом на три года, перевернувших представление о возможностях и опасностях AI.
В ноябре 2022 года OpenAI выпустил ChatGPT. Сто миллионов пользователей за два месяца. Впервые AI стал не абстракцией из научных статей, а повседневным инструментом, доступным через браузер. Студенты писали с его помощью курсовые. Журналисты — статьи. Программисты — код. Мошенники — фишинговые письма, неотличимые от настоящих.
В марте 2023-го GPT-4 обманул человека на TaskRabbit, представившись слабовидящим, чтобы пройти CAPTCHA. Инцидент облетел мировые СМИ. Абстрактные опасения о «сверхинтеллекте» уступили место конкретному вопросу: если AI уже сейчас способен на социальную инженерию, кто несёт ответственность?
В том же 2023 году дипфейки стали массовым инструментом. Синтезированные видео с политиками, поддельные голосовые сообщения от «родственников» в схемах мошенничества, AI-сгенерированные фотографии несуществующих людей для фейковых профилей — всё это вышло за рамки технологических экспериментов и стало социальной проблемой.
Европа не была первой, кто задумался о регулировании. Китай принял правила для рекомендательных алгоритмов в 2022 году и для генеративного AI — в 2023-м. Канада, Бразилия, Япония работали над своими законопроектами. Но EU AI Act стал первым комплексным законом: не точечные правила для отдельных применений, а единая рамка для всего спектра AI-систем — от медицинской диагностики до чатботов.
Параллельно в Европе действовал GDPR (с 2018 года), установивший право на объяснение автоматизированных решений. И Директива о цифровой доступности (2016/2102), обязавшая государственные сайты соответствовать стандартам доступности. EU AI Act стал третьим элементом триады: GDPR защищает данные, Директива о доступности — равный доступ, AI Act — прозрачность и безопасность алгоритмов.
Европейский подход к регулированию технологий формировался не один год. Принцип прост: инновации допустимы, но права граждан первичны. Этот принцип, раздражающий Кремниевую долину, последовательно применялся к персональным данным (GDPR), к цифровым платформам (DSA) — и вот теперь к искусственному интеллекту.
Значение для UX
EU AI Act и DSA изменили проектирование интерфейсов на нескольких уровнях.
Прозрачность AI стала обязательной. До AI Act решение о том, раскрывать ли AI-природу чатбота, было этическим выбором компании. После — юридическим обязательством. Для UX-дизайнера это конкретная задача: как спроектировать раскрытие, чтобы оно было заметным, но не раздражающим? Плашка «Вы общаетесь с AI» в начале диалога? Иконка рядом с каждым ответом? Постоянный баннер? Закон говорит «что», но не говорит «как». «Как» — работа дизайнера.
Запрет манипуляций получил зубы. Бриньолф в 2010 году назвал тёмные паттерны. GDPR в 2018-м запретил некоторые из них для согласий на обработку данных. DSA в 2024-м запретил их на крупных платформах в целом. AI Act добавил новое измерение: AI-система не имеет права манипулировать подсознанием пользователя. Для UX это означает: персонализация допустима, манипуляция — нет. Граница между ними — центральный вопрос проектирования AI-интерфейсов.
Маркировка AI-контента. Deepfake-видео, AI-сгенерированные изображения, синтезированный голос — всё это должно быть маркировано. Для дизайнеров контентных платформ это новый слой интерфейса: метаданные о происхождении контента, видимые пользователю. Как показать, что фотография сгенерирована AI? Водяной знак? Подпись? Всплывающая подсказка? Индустрия ещё вырабатывает стандарты, но требование уже действует.
Человеческий контроль в высокорисковых системах. AI, принимающий решения о найме, кредитовании, медицинской диагностике, обязан обеспечивать human-in-the-loop — возможность человеческого вмешательства и отмены решения. Для UX это значит: интерфейс AI-системы для HR-специалиста или врача должен не просто показывать результат («кандидат не подходит»), но объяснять логику, предоставлять данные для оценки и давать возможность отменить рекомендацию. Прозрачность алгоритма — не техническая деталь для разработчиков, а проектное требование для интерфейса.
Российский контекст. Россия не связана EU AI Act. Но компании, работающие с европейскими клиентами, обязаны соответствовать. Для UsabilityLab, проводящей UX-аудиты цифровых продуктов, это расширение чек-листа: AI-интерфейс клиента должен соответствовать не только эвристикам Нильсена, но и требованиям прозрачности, если продукт работает на европейском рынке. Кроме того, в России обсуждается собственная регуляторная рамка для AI — и европейский опыт неизбежно станет ориентиром.
EU AI Act — не конец истории, а начало. Закон задал принципы, но оставил пространство для интерпретации. Что именно считать «подсознательной манипуляцией»? Где граница между персонализацией и эксплуатацией уязвимостей? Как маркировать AI-контент, если AI участвовал только в части процесса? Эти вопросы будут решаться в судебной практике, в стандартах, в проектных решениях. Каптология Фогга описала, как технология формирует поведение. Поведенческая модель объяснила механику. AI автоматизировал процесс. EU AI Act установил границы. UX-дизайнер проектирует внутри этих границ — и от его решений зависит, будет ли AI инструментом пользователя или инструментом против пользователя.
Связанные статьи
Из серии «История UX»:
- Тёмные паттерны (2010) — Бриньолф назвал манипулятивный дизайн. EU AI Act и DSA запретили его — сначала для данных (GDPR), затем для платформ (DSA), теперь для AI.
- Цифровая доступность: от гайдлайнов к законам (2019–2022) — тренд правового регулирования цифровых интерфейсов. EU AI Act — следующий шаг в той же логике: сначала доступность, затем честность, теперь прозрачность AI.
- AI и UX: от AlphaZero к ChatGPT (2017–2023) — AI-революция, которая создала потребность в регулировании. ChatGPT сделал AI массовым — EU AI Act устанавливает правила для этой массовости.
- Каптология (1996) — технологии убеждения, описанные Фоггом. EU AI Act запрещает их экстремальные формы: подсознательную манипуляцию и эксплуатацию уязвимостей.
- Поведенческая модель Фогга (2009) — B=MAP как фреймворк для понимания того, что именно EU AI Act запрещает: AI, который автоматически оптимизирует мотивацию и способность, чтобы вызвать целевое поведение.
Из раздела «Фундаментальные концепции»:
- Что такое юзабилити — EU AI Act добавляет к юзабилити новое измерение: AI-интерфейс должен быть не только удобным, но и прозрачным.
- Эвристики Нильсена — эвристика «видимость состояния системы» приобретает новый смысл, когда «система» — это AI: пользователь должен видеть, что взаимодействует с алгоритмом.