Что вы тут все делаете? Или- Прощай Творчество?
Эпиграфы :
«Кто я — ни одна система не безопасна» , буквальный перевод названия фильма «Кто я» (нем. Who Am I – Kein System ist sicher )
« "Отцы наций" были настолько одержимы идеей создания самой безопасной всеобъемлющей системы безопасности , что в итоге упорных усилий им удалось наконец произвести на свет самого ужасного наиопаснейшего сетевого системного монстра за всю историю Земного человечества . . . » . Утечка из вступления сценария фильма , с рабочим названием "System" ("Система") , который пока в процессе съёмки .
И.И. , нейро-сети , и прочие им подобные "кибер-панки", конструируют всякую всячину , и даже на столько сложные штуки как автомобили, корабли , ракеты , и целые их комплексы . Потом они всё это изготавливают , а затем уже и продают , и даже потом уже пробуют эксплуатировать и управлять .
Подменяют людей - профессионалов : юристов , хирургов , квалифицированных диагностов и врачей-специалистов , администраторов , консультантов , портье , метрдотелей , продавцов и кассиров , шофёров , охранников , и т.д. , и т.п. , и т.д. , и т.п.
Ещё они воюют , и где-то в недалёком будущем маячит весьма мрачная перспектива , что смогут сами убивать людей .
Более того , уже сегодня они воспроизводят себе подобных , и даже с признаками дальнейшего "эволюционирования" : а так сказать , прямо с чистого листа создают другие И.И. и нейро-сети, "качественно" ещё более "продвинутые" , чем есть они сами ( ! ! ! ) . . .
Почти как в кибер-панковом фильме «Я — робот» по Айзеку Айзимову , выраженное одной такой констатацией : "Роботы , делают роботов . . ." , и тут точно также , вслед за главным героем фильма тоже хочется воскликнуть : " Ну , это же глупо ! ! ! " . . .
Да конечно же , на сегодня этот фильм уже довольно-таки старый , и можно его посмотреть просто ради развлечения , не слишком утруждая себя размышлениями . Ну , и порадоваться за главных героев в мажорном хеппи-энде . . .
Ну а как сегодня обстоят дела , если дать труд себе , и поразмыслить над поступающей свежей информацией ?
А сегодня , тут многим становится совсем уже не до забавы , не до шуток .
А как же иначе , когда сейчас уже эти "ультра-успешные гипер-кибер-панки" легко , куражась , проходят "тест Тьюринга" и более сложные , играючи "химичат" и устраивают обвалы на биржах, взламывают банки , системы управления и обороны разных государств , лихо обыгрывают чемпионов мира в шахматы, генерируют динамические картинки и анимации в 3D , сцены, живописные полотна и скульптурные формы и всё это воплощают в материале, создают убедительные образы дикторов новостей и ведущих программ, актёров в 3D кино и всеми ими успешно двигают , и говорят связные тексты. Ещё теперь и придумывают сюжетные линии , фабулы , кропают сценарии , ну и конечно пишут стихи . . . Как без этого . . . А в качестве примера можно привести хотя бы нейро-сеть GPT-3 . По GPT-3 есть достаточно информации , в том числе в Википедии , любуйтесь , кому охота .
А кому небезразличен деструктивный античеловеческий аспект всего такого техно - "великолепия" , то можете посмотреть например видеопрограммы известного крипто-журналиста (как он сам себя характеризует) Игоря Шнуренко и почитать его же книги Демон внутри" и "Человек взломанный" .
Но всего этого было мало . Потому наверное они недавно взялись уже и за музыкальное сочинительство , то бишь , за сочинение самих мелодий . ( Теперь эти гипер-кибер-панки стали вдобавок ко всему ещё и "мега-композиторами" . . . )
Да не просто , а круто взялись , да и выдали-таки на-гора (слегка?!) ошеломительный результат , количественно практически равный математическому пределу всех возможных гармонических комбинаций из 7 нот [ а почему не из 12 ? , — в то время как в оригинале статьи почему-то написано, что из 8 нот, что вероятно является опечаткой , т.к. указанную ниже статью писал всё-таки пока ещё человек — журналист , пока ещё живой , состоящий из плоти и крови чел . Живой , — всё ещё , пока , ( шутка , моё не слишком весёлое "ха-ха" . . . )) ] .
В итоге , у этой весьма "креативной" нейро-сети вышло чуть меньше 70 миллиардов "образчиков" уникальных мелодий . . . Не мало , согласитесь . . .
Кстати , позднее создатели этой конкретной нейро-сети взяли , да и выложили все эти мелодии в свободный доступ , без заявления своего © Copyright'А , дабы "выбить стул" , на котором довольно комфортно восседают многочисленные сутейные крючкотворы , и "звёзды" , авторы , композиторы , и многочисленная их обслуга . . .
Что , возможно в принципе , можно и поприветствовать ? Но судить на этот счёт не берусь , это ещё требует осмысления, обсуждений, которые сейчас только начинается .
Но вот что меня с давних пор занимает : такой неполиткорректный вопрос (как спеца примерно из близкой, если не сказать из той же самой И.И.- области).
Внимание, вот этот вопрос : А что же остаётся нам , живым человекам ?
Живым творческим личностям , что делать-то ? Только мыслить?
Ну а . . . "смыслы" ? ! В сём вся "соль" ?
И пусть меня и дальше упрекают в "риторичности" , тривиальности , даже может банальности , и т.д., и т.п.
Вопрос-то ведь так и остаётся пока без удовлетворительного , или хотя бы более-менее приемлемо - вразумительного ответа.
По крайней мере его не дают ни МАСС-медиа , ни даже сколь-нибудь внятного рассмотрения этой стороны "научно-технического и общественного прогресса", и ни научно-технические толстые умные журналы .
Однако, всё же пожалуй , у меня свой ответ всё-таки есть. Но я его никому не скажу . . . Пока .
Тут материал по теме на Habr.com : https://habr.com/ru/news/t/489982/
Тут про выращивание искусственных нейронов и их коммутации : https://tdnu.ru/art icle/science/estestvennyj-nejron-svy azali-cherez-internet-s-kremnievym/ (ссылка набрана с пробелами , иначе она тут не отображается , и их надо удалить перед запуском )
И вот , совсем свежее , новость от 07 февраля 2022 г. :
Компания DeepMind создала платформу искусственного интеллекта AlphaCode, не только отчасти способную программировать вместо человека, но и готовую делать это на «конкурентоспособном» уровне.
Подробнее смотрите выдачу вашего поисковика по данной теме .
Ещё , чем-то созвучное , отголосками : http://www.stihi.ru/2018/02/24/10699
===================================
Так как информация "из подвала рецензий" может потеряться (а это будет жаль , так как она довольно-таки показательна , характерна и поучительна) кроме того , того в "подвале" не отображаются некоторые гипер-ссылки , то рецензию и мой ответ на неё перенёс в "тело" этой работы .
Начало цитирования рецензии "
<<
Рецензия на «Что вы тут все делаете? Или- Прощай Творчество?!» (Ярослав Янков)
Уважаемый Ярослав!
Прочтя Ваши невесёлые размышления, не удержался от отзыва. Дело в том, что философскими проблемами создания искусственного интеллекта и искусственной жизни я начал интересоваться ещё в студенческие годы, во второй половине 70-х годов прошлого века. И, как мне кажется, понял, что никаких непреодолимых причин, почему этого нельзя сделать нет. Да, это очень трудно, непонятно, как и прочее... Но, как мне тогда казалось, дело времени. И, к сожалению, так оно и получилось. Впрочем, почему "к сожалению"? Прогресс, хотим мы этого, или не хотим, дело объективное. Он зависит не от хотений отдельных людей, а от законов мироздания, которые выше нас.
Кто-то возмущается тем, что человекоподобные приматы взяли в руки палки. Кто-то возмущается изобретением письменности, открытием математических законов...
Кто-то хотел бы навсегда остаться в "хорошем" средневековье... Было время, пытались разрушать станки.
Но надо как-то приспосабливаться к неминуемому прогрессу, как-то выруливать...
Любые достижения могут использоваться, как во благо, так и во вред.
Но в будущее смотрю с тревогой, и надеюсь, что мои ученики-программисты, которых готовлю 35 лет, окажутся на высоте.
С уважением,
Григорий Рейнгольд 29.11.2020 05:24 • Заявить о нарушении
+ добавить замечания
Нет уважаемый , Вы не правы , не окажутся ваши ученики на высоте . Это - по определению сути самих явлений .
Я специально ждал этого момента , именно этих новостей :
ТЕМА - « международная группа исследователей используя теоретический инструментарий доказала, что человек не сможет контролировать продвинутый ИИ .»
<< Исследователи Центра людей и машин Института развития человека Макса Планка заявили, что человечество не сможет управлять сверхразумными компьютерами с наличием искусственного интеллекта. Статья ученых опубликована в Journal of Artificial Intelligence Research. >>
Так вот, я по своему базовому образованию - специалист в микро- нано- технологиях в приложении к данной тематике.
И с самого начала, вот уже 40 лет, я постоянно твержу и твержу об этом самом...
Кроме критики в свой адрес и проблем, я не встретил никакой иной "благодарности и пользы" себе за это. Не говоря уже хотя бы о немного более углублённом понимании проблематики моими оппонентами.
А те, кто продолжает всё в том же духе ничего не меняя в своём плоско-параллельном алгоритмизированном сознании и дальше безумно катить этот же самый дьявольский каток ( в данном случае я не имею Вас в виду, - мы тут на этом "пиру" люди слишком маленькие ) , который закатает всех, включая их же самих, остаются на коне и только дальше больше всё процветают и процветают.
Статьи по теме :
http://hightech.fm/2021/01/11/ai-under-control
Ярослав Янков 12.01.2021 18:02 Заявить о нарушении
Эта гипер-ссылка на ещё одну статью по Теме не отображается тут так , как она есть , потому её посещаю отдельно уже с пробелами внутри .
Перед запуском следует убрать эти пробелы :
http://sci ence.sm.news/uche nye-sdelali-vyvod-c hto-lyudi-ne-smogut-sde rzhivat-sverxr azumnyj-kompyuter-68988/?ut m_source=yxnews&utm_medi um=mobile
Ярослав Янков 12.01.2021 18:36 Заявить о нарушении
+ добавить замечания
>>
P.S. : тут можно скачать оригинал отчётной упоминаемой выше статьи (на английском языке) из первоисточника «Journal of Artificial Intelligence Research» , прочитать , перевести при желании , и определить свою позицию по вызову 21 века :
https://w ww.jair.org/i ndex.php/jai r/article/vi ew/12202/26642
Ссылка набрана с пробелами , иначе она тут не отображается . Перед запуском необходимо убрать эти пробелы .
Свидетельство о публикации №220022900161
ОСНОВНОЙ ПЕРВОИСТОЧНИК - The Guardian: ИИ американского беспилотника уничтожил оператора на испытаниях , ССЫЛКА на СТАТЬЮ - ИСТОЧНИК - http://habr.com/ru/news/739386/
ЦИТИТРОВАНИЕ :
<<На испытаниях в США беспилотник с ИИ принял решение убить оператора
2 мин
15K
Искусственный интеллект
Полковник ВВС США Такер Гамильтон, начальник подразделения по тестированию и эксплуатации ИИ-систем, рассказал, что во время учений искусственный интеллект использовал "весьма неожиданные стратегии", вплоть до решения уничтожить оператора-человека. В реальности никто, разумеется, не пострадал, но сама ситуация заставила военных задуматься.
Гамильтон привел в пример испытания ИИ-системы, предназначенной для уничтожения зенитно-ракетных комплексов, и получающей баллы за успешно выполненную задачу. Хотя идентификация цели выполнялась автоматически, окончательное решение о нанесении удара оставалось за человеком. Здесь-то и выяснилось, что ИИ мог принять решение уничтожить управляющего им оператора, если тот отменял приказ на уничтожение и таким образом мешал успешно выполнить задачу, поставленную перед машиной.
Когда это обнаружили, в работу комплекса внесли изменения, запрещающие уничтожать оператора. Однако ИИ и здесь оказался на высоте. Когда оператор отменял приказ на поражение цели, беспилотник принимал решение атаковать вышку связи, через которую получал команды, вступающие в противоречие с боевой задачей.
"Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ", - подвел итог полковник Гамильтон.
Апдейт. Королевское авиационное общество, материал которого и поднял эту бурю, опубликовало опровержение.
Так, нам сообщают, что полковник Гамильтон допусти "оговорку" в своей презентации на саммите Future Combat Air and Space Capabilities Summit, организованном RAeS. Имитация учений с использованием ИИ-беспилотника была "гипотетическим мысленным экспериментом" с правдоподобным сценарием, никак не связанным с военными ведомствами.
"Мы не только никогда не проводили подобный эксперимент, но и не нуждались в нем, чтобы подтвердить правдоподобность такого результата", - сказал Гамильтон.
Он также уточнил, что ВВС США не испытывали подобным образом ИИ с оружием (будь то учения или симуляция).
"Несмотря на гипотетичность ситуации, это наглядная иллюстрация вызовов, которые ставит ИИ и причина того, что ВВС придерживаются этики в разработках с применением ИИ", подчеркнул Гамильтон.
PS. В общем, если сложить это с заявлением представителя ВВС США Энн Стефанек о том, что "Департамент ВВС не проводил подобных испытаний и остается преданным идее этичного и ответственного использования ИИ", а также о том, что "слова полковника были вырваны из контекста и доведены до абсурда", можно будет представить, что проснушвийся сегодня утром знаменитым полковник Гамильтон или уволился в запас неделю назад, или вообще никогда не служил в ВВС.>>
КОНЕЦ ЦИТИРОВАНИЯ
КОММЕНТ АВТОРА :
Ну-ну, ну-ну . . .
Автор конечно же ценит юмор комментария представителя департамента ВВС США, и прочее. Однако , исходя из своего личного опыта работы и жизни хорошо знает, что вышестоящее начальство , конечно же там , за океаном , очень часто сильно грешит против Правды (мягко говоря), исходя сугубо из государственных и своих интересов . . .
================================
- Восторги комментаторов по поводу человекоподобного робота "София", который по утверждению его создателя обладает ИИ : того самого знаменитого робота, который "выступал" и в ООН, и на многих презентациях с шоу, и который так и заявил во всеуслышание, что уничтожит человечество.
Можно посмотреть и "насладиться зрелищем" тут - http://www.youtube.com/watch?time_continue=161&v=xTbCj-nKZgc&feature=emb_logo
- А уже более года назад , а именно весной 2020 года , автономно управляемый искусственным интеллектом дрон-терминатор , впервые сам замочил человека , выполняя свою боевую задачу :
http://yan dex.ru/search/? lr=213&text=%D0%B0%D0%B2% D1%82%D0%BE%D0%BD %D0%BE%D0%BC%D0%BD%D0%BE%20%D1%83% D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D1%8F %D0%B5%D0%BC%D1%8B%D0%B9%20%D0%B4% D1%80%D0%BE%D0%BD%20%D0%B2%D0%BF%D0%B5%D1% 80%D0%B2%D1%8B%D0%B5%20%D1%81%D0%B0%D0% BC%20%D1%83%D0%B1%D0%B8%D0%BB%20%D1%87%D0%B5% D0%BB%D0%BE%D0%B2%D0%B5%D0%BA%D0% B0&redircnt=1623905233.1
[ Ссылка на выдачу Яндекса по данной "исторической новости" набрана тут с пробелами внутри , иначе она не отображается . Перед запуском из браузера следует убрать все эти пробелы . ]
Например вот сообщение издания =RT на Русском= .
ЦИТИРОВАНИЕ :
<< Эксперт прокомментировал случай самостоятельного нападения БПЛА на человека
31 мая 2021, 22:50
Специалист американского Национального консорциума по изучению терроризма Зак Калленборн прокомментировал описанный экспертами Совета Безопасности ООН случай, когда беспилотный летательный аппарат в автономном режиме предпринял атаку на человека.
Эпизод, произошедший в марте 2020 года в Ливии, изложен в исследовании специалистов. Документ был опубликован в марте 2021 года.
Согласно докладу, произведённый в Турции дрон, предположительно, Kargu-2, работал в автономном режиме и был запрограммирован для атаки целей без необходимости команд от оператора, пишет Axios.
Согласно описанию, дрон использует «компьютерное зрение» для выбора целей и их поражения «без связи между дроном и его оператором».
По словам Калленборна, подобный случай может быть первым, когда БПЛА автономно атаковали людей и в связи с этим «подняли тревогу», пишет New York Post.
Эксперт также задался вопросом, «насколько хрупка система распознавания объектов» и как часто беспилотник может совершать ошибки при определении целей. >>
КОНЕЦ ЦИТИРОВАНИЯ .
Ну что ещё можно добавить к этой "прекрасной" новости ?
Ясно одно , что теперь человечество "успешно" перешагнуло знаковую ЧЕРТУ . . . И , всеобщий тотальный глобальный кризис "успешно" проходит все точки невозврата , и будет идти по нарастающей .
Ярослав Янков 02.06.2023 17:41 Заявить о нарушении