Errare Humanum Est, часть II

Перевёл с англоязычного IT-ресурса несколько тезисов Гарри Каспарова о проблематике ИИ к выставке Avast CyberSec&AI Connected в октябре этого года.

Первая часть статьи по вопросам взаимодействия ИИ с человеком опубликована здесь: http://proza.ru/2020/07/06/1606


***


– Как вы думаете, почему вокруг искусственного интеллекта так много страха и путаницы?

– Отчасти потому, что мы боимся чего-то мощного и нового, каких-то изменений, которые мы не способны предсказать. Ядерная энергетика, интернет, искусственный интеллект – они слишком велики, чтобы их понять, и это приводит к некоторому инстинктивному страху всего человечества. Далее, наше общество стало богатым и не склонным к риску, поэтому всё, что нарушает статус-кво, воспринимается с негативом. Сократит ли ИИ слишком много рабочих мест? Заменит ли он меня? А новости всегда любят страшные заголовки. На самом деле, это позор масс-медиа, потому что ИИ – это огромная возможность для роста практически во всех измерениях, но если мы не будем амбициозно продвигаться вперёд, негативные аспекты, такие как потеря рабочих мест, только усугубятся.

Наконец, есть влияние десятилетий научной фантастики о роботах-убийцах, антиутопии о машинах и т.д. Это часть культурной тенденции к технофобии, которая совпала с экологическим движением в 1970-х годах, хотя антиядерные настроения также сыграли свою роль. Вместо того чтобы удивляться невероятным новым технологиям, таким как роботы и искусственный интеллект, мы сразу же начинаем задаваться вопросом: А как они могут навредить нам?


– Ваши сражения с Deep Blue (1996-1997 годы – примеч.) сделали куда больше для привлечения ИИ в общественное сознание, чем любое другое событие. Насколько Deep Blue помог людям понять потенциал ИИ и насколько это, возможно, привело к непониманию того, что такое ИИ?

– Те два матча сделали многое, это уже очевидно в ретроспективе. Каждый переломный момент в технологиях создаёт много шумихи, заблуждений, а затем, со временем, становится мифологией. Deep Blue играл в шахматы на уровне чемпиона мира, что было единственной целью создателей программы. Это был шок, и не только для меня. Мир внезапно столкнулся с будущим, в котором машины конкурировали с человеком интеллектуально, а не только за физический труд и решение рутинных задач.

Компьютерные эксперты и философы могут спорить бесконечно. Но для меня, как для адвоката и наблюдателя, а не эксперта или философа, в конечном счёте важно то, что ИИ может сделать, а не то, как он это делает – даже когда это увлекательно! То есть, как наши интеллектуальные машины помогают нам, как они продвигают наше понимание мира, делают нас более продуктивными, безопасными, здоровыми – всё, что наша техника всегда и делала.


– Вы уже говорили, что прогресс в таких областях, как ИИ, не может быть остановлен, и что если вы ограничите рост ИИ в Европе и Америке, то другой регион просто продвинется вперед. Однако вы также признали, что компании, которые генерируют огромные объемы частных данных, такие как Facebook и Google, нуждаются в большем общественном контроле. Как это можно осуществить?

– Мне не нравится слово «контроль», потому что прозрачность и давление со стороны общественности, как правило, приводят к регулированию, а не к поглощению. Эти гигантские компании имеют беспрецедентный доступ к жизни и данным миллиардов людей. Полагаться только на мотив прибыли, интересы акционеров и расследования средств массовой информации было бы безответственно. Я не сторонник вмешательства правительства или жёстких правил, которые могут задушить инновации, но здесь есть огромный общественный интерес, поэтому общественный контроль необходим.

Это не вопрос неосведомленных законодателей, диктующих правила Кремниевой долине. Давление должно быть направлено на прозрачность и подотчётность, а также на более серьёзные проблемы, связанные с правом на неприкосновенность частной жизни и контроля данных.


– Укрепит ли ИИ права человека или подорвёт их? И как бы вы сами хотели использовать ИИ в будущем?

Я всегда говорю, что техника – это агностик, это инструмент. Было ли изобретение молотка хорошо или плохо для прав человека? Но инструменты хороши для развития, а это, в конечном счёте, хорошо для прав человека. Но настоящее – это всегда то, что у всех на уме. Что касается прав человека, то люди склонны думать о том, что ИИ может помочь диктаторам следить за своими подданными, включая их частную жизнь. Или как алгоритмы могут встроить предрассудки в огромные системы. Это плохая новость.

Но ИИ может также помочь нам искоренить неравенство, дискриминацию, когда он хорошо спроектирован и направлен. Например, отслеживать ситуацию с беженцами, анализировать модели бомб, чтобы оглашать военные преступления, и следить за плохими парнями так же, как они пытаются следить за всеми остальными. Опять же, это инструмент, и нет никакого способа сделать инструмент так, чтобы он делал только добро в мире, как бы хорошо это ни звучало.


– Как мы можем обучать людей, особенно молодое поколение, искусственному интеллекту? В конце концов, ИИ собирается изменить их мир и работу? Достаточно ли публичных дебатов на эту тему?

– Молодые люди – это те, кто собирается изменить мир с помощью ИИ, потому что они вырастут вместе с ним, а не увидят в нём инопланетянина или научный проект.

Меня же всегда более всего интересовало, где кибербезопасность и искусственный интеллект сочетаются с тенденциями в обществе – неприкосновенностью частной жизни и правами, ролями, которые выполняют государственные учреждения и частные компании, и, конечно же, какова роль индивидуума в этих процессах. И было бы ошибкой избегать обсуждения уникального момента, который мы все переживаем сегодня. Я знаю, что все мы нуждаемся в умственном спасении от кризиса, но пандемия также формирует наш профессиональный мир, наш технологический мир…

(июль-2020)


Рецензии