Разум и искусственный интеллект

Разум и искусственный интеллект

      Начну, пожалуй, с заявления британского чипмейкера Arm Рене Хааса, который предупредил о «восстании машин». Arm Рене Хаас заявил, что его самый большой страх, касающийся развития искусственного интеллекта, состоит в том, что он получит контроль над человеком. Arm Рене Хаас призвал найти способ «отключить систему».
     Рассмотрим, насколько опасения Arm Рене Хааса оправданы.
     Сначала о том, что из себя представляет искусственный интеллект
— Искусственный интеллект (ИИ) - это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы связываем с разумом, — понимание языка, обучение, способность рассуждать, решать проблемы и т. д. ИИ является мощным инструментом разума, который он создал в ХХ веке.
     Кстати, информа;тика (фр. informatique; англ. computer science) — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации.
;     Термин ИИ употребляется уже 70 лет.
     ИИ используется:
     -в разработке программного обеспечения,
     для решения демографических проблем,
     в целях обороны и в военном деле,
     в образовании,
     в бизнесе,
     в квантовой физике,
     в борьбе с мошенничеством,
     в электроэнергетике,
     в производственной сфере,
     в банках,
     на транспорте,
     в логистике,
     в аудите,
     в торговле,
     в сельском хозяйстве,
     на рынке предметов и услуг роскоши,
     в ресторанах,
     в пивоварении,
     в юриспруденции,
     в госуправлении,
     в ЖКХ,
=  в криминалистике,
    в судебной системе,
    в спорте,
    в медицине (здравоохранении).
   Словом, ИИ задействован человечеством практически во всех сферах общественной жизни.
    ИИ является комплексом родственных технологий и процессов, развивающихся качественно и стремительно, например, в таких областях, как:
    обработка текста на естественном языке,
    машинное обучение,
    экспертные системы,
    виртуальные агенты (чат-боты и виртуальные помощники),
    системы рекомендаций.
    ИИ находит, отслеживает, классифицирует, идентифицирует объекты, анализирует полученную информацию.
    ИИ применяется для:
    -распознавания объектов,
    - аналитики,
    -описания содержания изображений и видео,
    -распознавания жестов и рукописного ввода,
    -интеллектуальной обработки изображений.
     При анализе данных ИИ находит закономерности и прогнозирует. При этом ИИ использует методы статистики и эконометрики.
      Теперь мы можем перейти к ответу на вопрос о том, какую угрозу представляет искусственный интеллект для человечества. Неужели он подобен ядерному оружию, также созданному разумом?
     Развитие технологий искусственного интеллекта в перспективе может нести не только пользу, но и вред.
     Известно, что администрация президента США выпустила инструкцию о защите людей от ИИ.
     7 октября 2022 года Управление по научно-технической политике (OSTP) Белого дома сформулировало пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем. Документ подготовлен на фоне того, как по мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными.
     Пользователь должен быть защищен от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться на основе консультаций с различными сообществами, заинтересованными сторонами и экспертами в данной области для определения проблем, рисков и потенциального воздействия системы. Системы должны проходить тестирование перед развертыванием для выявления и снижения рисков, а также постоянный мониторинг, который продемонстрирует их безопасность и эффективность.
     Пользователи не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на принципах равноправия. В зависимости от конкретных обстоятельств, алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны принимать проактивные и последовательные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем на основе равноправия.
     Пользователь должен быть защищен от неправомерного использования данных с помощью встроенных средств защиты, и он должен иметь право распоряжаться тем, как используются данные о нем. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны запрашивать у пользователя разрешение и уважать его решения относительно сбора, использования, доступа, передачи и удаления его данных соответствующими способами и в максимально возможной степени; если это невозможно, следует использовать альтернативные средства защиты конфиденциальности на основе дизайна.
     Пользователь должен знать, что автоматизированная система используется, и понимать, как и почему она способствует достижению результатов, которые влияют на него. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включающую четкое описание общего функционирования системы и роли, которую играет автоматизация, уведомление о том, что такие системы используются, о лице или организации, ответственной за систему, и объяснение результатов, которое должно быть четким, своевременным и доступным.
     Пользователь должен иметь возможность отказаться от услуг, где это необходимо, и иметь доступ к специалисту, который может быстро рассмотреть и устранить возникшие проблемы. Пользователь должен иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно.
     Кроме того 16 февраля 2022 года появилась информация о том, что бывший исполнительный директор Google Эрик Шмидт (Eric Schmidt) объявил о создании благотворительного фонда с общим капиталом 125 млн долларов, который будет оказывать содействие исследованиям в сфере искусственного интеллекта. Речь, в первую очередь, идёт об исследованиях, направленных на решение кардинальных проблем, проявляющихся при использовании технологий искусственного интеллекта, в том числе предвзятости (феномен AI bias - прим. TAdviser), возможности причинения вреда и злоупотреблений. В списке значатся также геополитические конфликты и научная ограниченность самой технологии.
При написании данной статьи автор использовал информацию из Википедии.


Рецензии