Умные программы и теория надежности

Беспилотный транспорт – это безопасно. Мы знаем эту аксиому, она не подлежит сомнению.  Чтобы сделать какой-то процесс безопасным, нужно его автоматизировать. Нужно разработать программное обеспечение, и оно не будет ошибаться, потому что не пьет и не курит, не отвлекается и не спит за рулем. (Здесь энтузиасты добавляют крайне несимпатичный образ какого-нибудь дяди Васи, не очень умного представителя рода человеческого, устаревшего и вышедшего в тираж рода человеческого, подлежащего списанию или переделке в биороботов).
               
Ну что ж, можно согласиться с необходимостью систем безопасности, предохранителей и отключателей.  Несомненна эффективность автоматических систем управления сложными производственными процессами.

Тем более что Искусственный Интеллект – это «чистый разум», в отличие от сложных и часто ломающихся механических устройств.  Он мыслит и посылает сигналы; причем здесь теория надежности?

Увы, она имеет прямое отношение к искусственному интеллекту. ИИ – это техническая система. И рост сложности ведет к снижению надежности. По экспоненте. Сперва медленно и незаметно, потом быстро и катастрофически.

Недавние аварии Боингов, оснащенных новыми автопилотами с усовершенствованными системами безопасности, произошли именно по вине автопилотов, направлявших самолеты в пике. Летчики отчаянно боролись, пытались взять управление на себя, выправить самолет, но на новых самолетах функция ручного управления крайне ограничена. Кстати, был и третий подобный случай, но там экипаж все же справился и победил сошедшего с ума автопилота, они смогли посадить самолет.

Среди причин катастроф называется и такая: датчик работал неправильно. Это плохо, за исправностью датчиков нужно следить. Сколько их добавилось, датчиков, в новой усовершенствованной системе?

Да, Искусственный интеллект получает информацию с приборов и датчиков. И его решения зависят от состояния приборов и датчиков. Не просто от их исправности или грубом отказе, но и от точности, от быстродействия. Все приборы должны регулярно проверяться, калиброваться, с ними много кропотливой работы.

Чем надежней хотим мы сделать систему управления, тем больше информации даем ей на обработку. И опять вмешивается демон сложности: система разрастается, выходит на грань надежности, ошибки происходят из-за досадных мелочей. Датчик, будь он неладен. Жара, при которой плывут показания прибора на роботе-автомобиле. Неизвестно откуда взявшееся мощное электромагнитное поле… Вот это, кстате – отдельная тема, с электромагнитным полем.

Но сама программа не виновата, правда? Да как сказать… Поговорим в другой раз.


Рецензии
Только мертвые многопроцессорные системы не ошибаются, как и жмурики не потеют.
Боинг мелочь, а вот Лошарик или Вундервафля пуйла - здесь "гений скрепный".
Но сама программа не виновата, правда?
С улыбкой.

Сергей Журавлёв   02.01.2020 19:15     Заявить о нарушении