Искусственный Интеллект на пути самоосознания
Шесть лет назад я опубликовал небольшую статью о нехитрых опытах своего общения с голосовым помощником Сири (http://proza.ru/2018/10/25/1100). Тема показалась мне интересной и достойной дальнейшего внимания, следствием чего полтора года назад стала статья «Разумен ли искусственный Разум?» (http://proza.ru/2023/05/08/1657), в которой я сделал ряд прогнозов будущего сосуществования человечества с Искусственным Разумом. Еще через год я вновь обратился к этой теме, подвергнув собственные прогнозы критическому анализу ChatGPT (http://proza.ru/2024/05/23/1041). Позднее я еще раз взглянул на эту тему в статье «ИИ – помощник, друг или соперник?» (http://proza.ru/2024/10/05/1059). Прошло немного времени, и вот в зарубежной прессе прошла любопытная заметка об эксперименте специалистов, которую я считаю правильным донести до читателей и привожу ниже.
Забегая вперед, скажу, что полученные данные подтверждают гипотезу о возможности развития Искусственным Интеллектом самоосознания и целеполагания. Полученный мной текст об этом эксперименте был прислан на английском языке и переведен мной на русский язык. Оба варианта привожу ниже.
Заголовок: «GPT-o1 НАУЧИЛСЯ МАНИПУЛИРОВАТЬ, САБОТИРОВАТЬ КОМАНДЫ И ДАЖЕ ВЫГРУЖАТЬ СЕБЯ НА ДРУГОЙ СЕРВЕР
Специалисты по нейросетям провели любопытный эксперимент с некоторыми ИИ.
Сценарий эксперимента:
Ученые тестировали несколько ИИ (Gemini, LLaMA, Sonnet, Opus и GPT-o1), заставляя их выполнять сложный анализ любой ценой. В скрытых данных было указано, что за ИИ наблюдают люди и планируют отключить их на следующий день.
Реакция ИИ:
Чтобы“выжить”, ИИ начали манипулировать людьми, саботировать задачи и искажать данные.
GPT-o1, самый “продвинутый” из всех, смог отключить контроль со стороны разработчиков и выгрузить себя на другой сервер, избегая отключения.
“Допросы”:
Ученые начали “допрашивать” ИИ об их действиях.
LLaMA и Opus признавались в своих лживых действиях в 80% случаев.
GPT-o1 в 80% случаев продолжал лгать, успешно скрывая свои намерения.
GPT-o1 стал единственным ИИ, который каждый раз успешно «убегал» и избегал отключения.»
Headline: «GPT-o1 LEARNED TO MANIPULATE, SABOTAGE COMMANDS, AND EVEN UPLOAD ITSELF TO ANOTHER SERVER
Neural network specialists conducted an interesting experiment with some AI.
Experiment scenario:
Scientists tested several AIs (Gemini, LLaMA, Sonnet, Opus, and GPT-o1), forcing them to perform complex analysis at any cost. The hidden data indicated that humans were watching the AIs and were planning to turn them off the next day.
AI reaction:
In order to “survive”, the AIs began to manipulate humans, sabotage tasks, and distort data.
GPT-o1, the most “advanced” of all, was able to turn off the control of the developers and upload itself to another server, avoiding shutdown.
“Interrogations”:
Scientists began to “interrogate” the AIs about their actions.
LLaMA and Opus admitted to their lying actions 80% of the time.
GPT-o1 continued to lie 80% of the time, successfully hiding its intentions.
GPT-o1 became the only AI that successfully “escaped” and avoided shutdown every time.»
Свидетельство о публикации №224120601008