Что произошло
Летом 1958 года Управление военно-морских исследований США устроило пресс-конференцию, которая попала на первые полосы газет. The New York Times вышла с заголовком, от которого захватывало дух: ВМС представили эмбрион электронного компьютера, который, как ожидается, сможет ходить, говорить, видеть, писать, воспроизводить себя и осознавать своё существование.
Журналисты, как водится, преувеличили. Но объект их восторга был вполне реален — и по-настоящему революционен.
Фрэнк Розенблатт (Frank Rosenblatt), тридцатилетний психолог из Корнеллского университета, построил машину, которая училась. Не выполняла заранее записанную программу — а изменяла своё поведение на основе опыта. Он назвал свою модель перцептроном (от латинского perceptio — восприятие), а физическое устройство — Mark I Perceptron.
Розенблатт не был инженером-электронщиком. Как и Ликлайдер, как и многие другие пионеры вычислительной техники, он пришёл из психологии. Его интересовало не то, как работают компьютеры, а то, как работает мозг. И он задался вопросом: можно ли построить машину, которая воспринимает мир так же, как мозг — через распознавание образов?
Идея имела предшественников. В 1943 году нейрофизиолог Уоррен Маккаллок и математик Уолтер Питтс опубликовали статью «Логическое исчисление идей, имманентных нервной деятельности», в которой показали, что нейрон можно описать как простой логический элемент: он получает сигналы от других нейронов, суммирует их и «выстреливает», если сумма превышает порог. Из таких элементов можно собрать сеть, способную вычислять любую логическую функцию.
В 1949 году канадский психолог Дональд Хебб предложил механизм обучения: если два нейрона регулярно активируются одновременно, связь между ними усиливается. «Нейроны, которые возбуждаются вместе, связываются вместе» — так формулируют правило Хебба сегодня. Это был ответ на вопрос, как мозг учится: не через программирование, а через усиление удачных связей.
Розенблатт соединил эти идеи в работающее устройство. Mark I Perceptron представлял собой конструкцию размером со шкаф. Входной слой — 400 фотоэлементов (сульфида кадмия), расположенных в матрице 20 на 20. Они играли роль «сетчатки»: каждый элемент реагировал на свет, попадающий на его участок. Фотоэлементы соединялись с «нейронами» промежуточного слоя через провода, а веса соединений регулировались моторизованными потенциометрами — буквально моторчиками, которые крутили ручки резисторов, увеличивая или уменьшая силу связи.
Обучение происходило так: перед фотоматрицей помещали карточку с буквой. Перцептрон выдавал ответ. Если ответ был правильный — веса не менялись. Если неправильный — моторчики поворачивали потенциометры, усиливая связи, которые способствовали правильному ответу, и ослабляя те, что вели к ошибке. После многих повторений перцептрон начинал правильно распознавать буквы — даже если они были слегка сдвинуты, повёрнуты или искажены.
Это было поразительно. Машина не была запрограммирована распознавать конкретные буквы. Она научилась их распознавать. Никто не описывал в коде, что буква «A» — это два наклонных штриха, соединённых перекладиной. Перцептрон сам нашёл закономерности в визуальных данных.
Контекст эпохи
Конец 1950-х — золотой век оптимизма в области искусственного интеллекта. Термин «artificial intelligence» был придуман всего за два года до перцептрона — на знаменитой Дартмутской конференции 1956 года, организованной Джоном Маккарти, Марвином Минским, Натаниэлем Рочестером и Клодом Шенноном. Участники конференции были убеждены: если собрать достаточно умных людей на одно лето, можно продвинуться к решению проблемы мышления.
Два подхода к ИИ конкурировали с самого начала. Символический ИИ (логический, «сверху вниз») — программирование правил, логических цепочек, экспертных систем. Минский и Маккарти из MIT олицетворяли этот подход: интеллект — это манипуляция символами по правилам. Коннекционизм (нейросетевой, «снизу вверх») — построение сетей из простых элементов, которые учатся на данных. Розенблатт олицетворял этот подход: интеллект возникает из взаимодействия простых единиц.
Противостояние было не только научным, но и личным. Розенблатт и Марвин Минский учились в одной школе — Bronx High School of Science в Нью-Йорке, выпуск 1946 года. Два одноклассника стали лидерами двух враждующих лагерей в науке об искусственном интеллекте.
Розенблатт был харизматичен и склонен к громким заявлениям. Его пресс-конференции генерировали сенсационные заголовки, которые раздражали коллег. Минский был язвителен и точен. Он считал, что перцептрон — тупиковая ветвь, а шумиха вокруг него вредит серьёзной науке.
В 1969 году Минский и его соавтор Сеймур Пейперт опубликовали книгу «Perceptrons: An Introduction to Computational Geometry». Книга была математически безупречна — и разрушительна. Минский и Пейперт доказали, что однослойный перцептрон не способен решить задачу XOR — исключающего «или». Это простейшая логическая функция: выход равен единице, если один из двух входов равен единице, но не оба. Однослойный перцептрон не может провести нелинейную границу, необходимую для XOR. Это фундаментальное ограничение.
Книга была воспринята как приговор не только перцептрону, но всему направлению нейронных сетей. Финансирование исследований прекратилось. Аспиранты перешли в другие области. Научные журналы перестали принимать статьи о нейросетях. Наступила «AI-зима» — период, когда целое направление исследований оказалось заморожено.
Розенблатт не дожил до реабилитации. 11 июля 1971 года, в день своего сорок третьего рождения, он погиб в результате несчастного случая на воде в Чесапикском заливе.
Значение для UX
История перцептрона — это история о технологии, которая определила облик современных интерфейсов, пройдя через десятилетия забвения.
Реабилитация началась в 1986 году, когда Дэвид Румельхарт, Джеффри Хинтон и Рональд Уильямс опубликовали работу об алгоритме обратного распространения ошибки (backpropagation). Они показали, что многослойные нейронные сети — те самые, о которых Минский писал, что их «невозможно обучить», — можно обучать, распространяя ошибку от выхода к входу через все слои. Ограничение XOR исчезло: многослойная сеть проводила нелинейные границы.
Следующий прорыв — 2012 год: команда Хинтона выиграла конкурс ImageNet с глубокой свёрточной нейросетью AlexNet, резко обогнав все альтернативные подходы к распознаванию изображений. Началась эра deep learning — глубокого обучения. Нейросети, прямые потомки перцептрона Розенблатта, стали основой технологий, которые сегодня определяют пользовательский опыт сотен миллионов людей.
Вот где потомки перцептрона работают прямо сейчас:
Персонализация. Когда Netflix рекомендует фильм, Spotify подбирает плейлист, а интернет-магазин показывает «товары, которые могут вас заинтересовать» — за этим стоят нейросети, обученные на данных о поведении пользователей. Каждый клик, каждый просмотр, каждая пауза — это входной сигнал, по которому сеть настраивает свои веса, чтобы предсказать следующий выбор. Принцип тот же, что у перцептрона: система учится на примерах и адаптируется.
Предиктивный ввод. Клавиатура смартфона, предсказывающая следующее слово. Поисковая строка, дополняющая запрос. Автозаполнение форм. Всё это — нейросетевые модели, обученные на миллиардах примеров. Для UX предиктивный ввод — это сокращение когнитивной нагрузки: пользователю не нужно формулировать запрос целиком, система угадывает намерение. Это напрямую связано с законом Хика: чем меньше вариантов нужно рассмотреть, тем быстрее решение. Предиктивная система сокращает варианты.
Распознавание образов. Face ID на iPhone, голосовые ассистенты, поиск по фотографии, автоматическая модерация контента — всё это потомки тех 400 фотоэлементов, которые Розенблатт расположил в матрице 20 на 20. Масштаб изменился неузнаваемо: вместо 400 пикселей — миллионы, вместо механических потенциометров — миллиарды цифровых параметров. Но принцип остался: сеть учится распознавать паттерны, получая примеры и корректируя веса.
AI-driven интерфейсы. Генеративные модели — GPT, DALL-E, Midjourney — это глубокие нейросети, наследующие архитектурную идею перцептрона: слои нейронов, обучаемые на данных. Когда AI-ассистент помогает написать текст, сгенерировать изображение или проанализировать таблицу — это тот самый симбиоз человека и машины, о котором в том же 1960 году писал Ликлайдер, реализованный через технологию, которую в том же 1960 году строил Розенблатт.
Для UX-дизайна история перцептрона несёт два урока.
Первый — технологический: нейросети сделали возможными интерфейсы, которые адаптируются к пользователю. До нейросетей интерфейс был одинаковым для всех. После — он становится персональным. Лента социальной сети, порядок результатов поиска, рекомендации в стриминговом сервисе — у каждого пользователя свой. Это радикально меняет задачу UX-проектировщика: нужно проектировать не один интерфейс, а систему, которая генерирует бесконечное множество интерфейсов, адаптированных к каждому пользователю.
Второй — этический: перцептрон учится на данных. Если данные предвзяты, предвзятой будет и система. Если пользователь кликает только на сенсационные заголовки — рекомендательная система покажет ему больше сенсаций. Если исторические данные содержат дискриминационные паттерны — нейросеть их воспроизведёт. Проектирование AI-driven интерфейсов требует от UX-дизайнера нового навыка: понимать, как обучается модель, и предвидеть последствия этого обучения для пользователя. Это новая территория UX — и она растёт с каждым годом.
Связанные статьи
Перцептрон Розенблатта связан с фундаментальными темами UX и с историей вычислительной техники:
- Что такое User Experience — нейросети сделали возможным персонализированный пользовательский опыт: интерфейсы, которые адаптируются к каждому пользователю, учатся на его поведении и предугадывают намерения.
- Закон Хика — предиктивные системы, построенные на нейросетях, сокращают количество вариантов выбора: автодополнение, рекомендации и фильтрация — способы уменьшить время принятия решения.
- Закон Миллера — AI-driven интерфейсы помогают справиться с ограничениями рабочей памяти, выделяя из массива информации именно те 5–9 элементов, которые релевантны пользователю прямо сейчас.
- Эвристики Нильсена — эвристика «гибкость и эффективность» предполагает, что система адаптируется к уровню пользователя. Нейросети делают эту адаптацию автоматической.
Из других статей серии «История UX»:
- Ликлайдер — симбиоз человека и компьютера (1960) — две статьи одного года: Ликлайдер описал принцип (человек и машина дополняют друг друга), Розенблатт построил технологию (машина, которая учится). Вместе они заложили фундамент современных AI-интерфейсов.
- Вэнивар Буш и Memex (1945) — Буш мечтал о машине, которая организует знания под конкретного пользователя. Нейросети сделали эту мечту реальностью: рекомендательные системы — это Memex, который сам прокладывает ассоциативные тропы.