Сотрудники

kostin

Эта непредсказуемая автоматизация

Что объединяет автомат Калашникова, компьютер Macintosh или iPod? В первую очередь, мировая популярность. А еще — приятная простота в использовании. Между этими фактами прямая зависимость. Бизнесмен, который задается вопросом, как сделать продукт удобным для пользователя, наверняка добьется успеха.

Считается, что автоматизация благо. Директора заводов хвастают: «Производство у нас роботизировано, только на пульте человек сидит». Любая техническая новинка, от станка до самолета, умнее предыдущей и требует от человека меньше усилий. Мир взял курс на автоматизацию и не видит ее опасности.

Главная беда автоматики — непредсказуемость. Создавая техническое устройство или компьютерную программу, разработчики руководствуются собственными представлениями о том, кто, как и в каких условиях будет ими пользоваться. Но в жизни не все укладывается в норму. И потому автоматика порой преподносит неприятные сюрпризы. Возьмем современный цифровой фотоаппарат. Человеку не надо ничего устанавливать вручную, но иногда сделать снимок не удается — жмешь «пуск», а аппарат не срабатывает. Автоматика посчитала: для съемки не обеспечены оптимальные условия. Но ведь бывает так, что нужно просто не упустить нужный ракурс! Это типичный пример непредсказуемости «умной техники».

А если речь об управлении самолетом? Мало кто знает: во время полета космического корабля «Буран» (проходившего в автоматическом режиме) случилось непредвиденное. Специалисты рассчитывали, что «Буран» при приземлении сделает правый разворот, но корабль неожиданно повернул налево и полетел поперек полосы. Растерялись и наземные службы, и испытатель Магомет Толбоев, сопровождавший «Буран» на МИГ-25. К счастью, самолет благополучно приземлился. Причиной странного маневра стал сильный боковой ветер, а позже разработчики заявили: вероятность такого случая не больше 3%. Но ведь она есть! А теперь допустим, что «Буран» пилотировал Толбоев. У него было бы два пути: взять управление на себя и отключить исправную автоматику или не вмешиваться и стать заложником автоматики. Но кто гарантирует, что самолет не улетит в степь и не разобьется? Как летчик ни поступи, он кругом «виноват».

У проблемы есть еще один аспект. В ситуациях, не предусмотренных разработчиками, автоматика может отключать исправную аппаратуру, корректировать или блокировать действия оператора, считая их ошибочными. Уже сейчас это нередко приводит к серьезным катастрофам.

Считается, что в случае отказа или поломки оператор должен взять управление на себя. Но перейти из автоматического режима в ручной психологически сложно: надо понять причину аварии и быстро перейти к активным действиям. В автоматическом режиме оператор — пассивный наблюдатель, сохранять бдительность ему трудно. Так возникают фатальные ошибки. И чем сложнее техника, тем тяжелее последствия. Мало того, что оператор — заложник автоматики, он еще и отвечает за то, чего не делает!

Автоматизация грозит не только катастрофами. Вот неприятности помельче:

  • автоматика требует специальных знаний, поэтому требования к квалификации персонала вырастут;
  • операторы будут медленно терять навыки ручного управления, в случае аварий они не смогут выполнять нужные действия;
  • отлучение специалистов от активного управления может вызывать у них неуверенность и снижать социальный статус.

Автоматика уже стала причиной многих авиакатастроф. И риски растут: создаются беспилотные самолеты, автопилоты для автомобилей, боевые роботы. Наши психологи еще в 1970-х годах предупреждали об опасности бездумной автоматизации. Они предложили решение: оптимальный режим управления техникой — полуавтоматический. Оператор играет ведущую роль, поддерживает уровень квалификации, а в случае отказа или аварии ему легче взять управление на себя. От разработчиков бытовой техники требуется немного: пользователь должен получить легкий доступ к «полуавтомату» (сейчас до него непросто добраться). С промышленными установками сложнее: полуавтомат здесь — первый этап решения. В нетипичной ситуации ошибаются даже профессионалы высокого класса. Снизить вероятность катастроф можно, опираясь на разработки инженерных психологов, к примеру, на средства активной помощи. Но для начала создатели и пользователи «умных машин» должны увидеть проблему.

Harvard Business Review Россия, ноябрь 2007, стр. 34