Что вы тут все делаете? Или- Прощай Творчество?

« "А что это вы тут все делаете ?" Или "Прощай , — Творчество" ? »

Эпиграфы :

«Кто я — ни одна система не безопасна» , буквальный  перевод   названия  фильма  «Кто я» (нем. Who Am I – Kein System ist sicher ) 

« "Отцы  наций"  были  настолько  одержимы   идеей   создания   самой   безопасной  всеобъемлющей   системы   безопасности ,  что  в  итоге  упорных   усилий   им  удалось   наконец   произвести  на  свет  самого  ужасного   наиопаснейшего   сетевого   системного   монстра   за  всю  историю   Земного  человечества . . . » .  Утечка   из   вступления  сценария    фильма ,  с  рабочим  названием  "System"  ("Система") ,   который   пока   в   процессе   съёмки .



И.И. , нейро-сети , и прочие им подобные "кибер-панки", конструируют всякую  всячину ,  и  даже  на  столько  сложные  штуки   как   автомобили, корабли ,  ракеты ,  и  целые  их  комплексы .  Потом   они  всё  это  изготавливают ,  а  затем   уже  и  продают , и  даже  потом   уже  пробуют   эксплуатировать   и   управлять .

Подменяют   людей - профессионалов :  юристов ,  хирургов ,  квалифицированных   диагностов  и  врачей-специалистов ,  администраторов ,  консультантов ,  портье ,  метрдотелей ,  продавцов  и  кассиров ,  шофёров ,  охранников ,  и  т.д. ,  и   т.п. ,   и   т.д. , и   т.п.
Ещё   они   воюют ,  и   где-то   в   недалёком    будущем    маячит   весьма   мрачная   перспектива ,  что   смогут    сами   убивать   людей .

Более того ,   уже   сегодня   они  воспроизводят  себе  подобных  ,  и  даже  с признаками  дальнейшего  "эволюционирования" :  а  так сказать ,  прямо  с чистого листа  создают  другие  И.И.  и   нейро-сети, "качественно"  ещё   более "продвинутые" , чем  есть  они сами  ( ! ! ! ) . . .

Почти  как  в  кибер-панковом    фильме  «Я — робот»   по   Айзеку   Айзимову ,   выраженное  одной  такой  констатацией  :    "Роботы  ,  делают  роботов . . ." ,  и   тут   точно   также ,  вслед  за   главным   героем   фильма   тоже   хочется     воскликнуть :  " Ну ,  это  же  глупо ! ! ! " . . .

Да   конечно  же ,  на  сегодня   этот  фильм   уже   довольно-таки   старый ,  и  можно   его   посмотреть   просто   ради   развлечения ,     не   слишком   утруждая   себя   размышлениями .  Ну ,  и  порадоваться  за  главных   героев   в   мажорном   хеппи-энде . . .

Ну  а  как  сегодня   обстоят   дела ,   если   дать  труд   себе ,  и   поразмыслить   над   поступающей    свежей     информацией ?

А     сегодня ,   тут   многим   становится   совсем   уже   не  до  забавы ,  не   до   шуток .
А   как   же   иначе ,   когда   сейчас  уже    эти   "ультра-успешные  гипер-кибер-панки"   легко ,  куражась ,  проходят  "тест  Тьюринга" и  более  сложные ,  играючи  "химичат"  и  устраивают  обвалы  на  биржах,  взламывают  банки ,  системы  управления  и  обороны  разных  государств ,  лихо обыгрывают чемпионов  мира  в шахматы, генерируют динамические  картинки  и  анимации  в  3D ,   сцены,  живописные  полотна   и  скульптурные   формы  и  всё   это  воплощают   в  материале, создают   убедительные  образы   дикторов    новостей  и   ведущих программ, актёров в 3D кино и всеми  ими   успешно   двигают ,  и  говорят связные тексты. Ещё  теперь  и  придумывают   сюжетные   линии , фабулы ,   кропают   сценарии ,  ну  и  конечно   пишут  стихи . . .  Как   без   этого . . .  А  в  качестве  примера  можно  привести  хотя  бы   нейро-сеть   GPT-3 .  По  GPT-3   есть  достаточно   информации ,   в  том  числе  в  Википедии ,  любуйтесь ,  кому  охота .
А  кому  небезразличен   деструктивный  античеловеческий   аспект  всего   такого   техно - "великолепия" ,  то  можете  посмотреть  например  видеопрограммы  известного   крипто-журналиста   (как   он   сам    себя   характеризует)  Игоря  Шнуренко  и  почитать  его  же  книги  Демон  внутри"  и  "Человек  взломанный" .

Но  всего  этого   было   мало .  Потому   наверное   они   недавно  взялись  уже  и  за  музыкальное  сочинительство , то бишь ,  за  сочинение  самих   мелодий . ( Теперь   эти  гипер-кибер-панки  стали  вдобавок   ко  всему   ещё   и    "мега-композиторами" . . . )

Да не просто ,  а круто взялись ,  да  и  выдали-таки  на-гора  (слегка?!)  ошеломительный   результат , количественно практически равный математическому пределу всех возможных гармонических комбинаций из 7 нот   [ а  почему   не   из  12 ? , —  в  то   время  как   в оригинале статьи почему-то написано, что из 8 нот, что  вероятно  является опечаткой , т.к. указанную   ниже    статью   писал всё-таки пока ещё человек —  журналист ,  пока  ещё  живой ,  состоящий  из  плоти  и  крови   чел .  Живой ,   —   всё   ещё ,  пока ,   ( шутка ,  моё   не  слишком   весёлое  "ха-ха" . . . ))   ] .

В итоге ,  у   этой   весьма   "креативной"   нейро-сети    вышло   чуть  меньше 70 миллиардов "образчиков"  уникальных  мелодий . . .  Не  мало ,  согласитесь . . .

Кстати ,  позднее   создатели   этой   конкретной   нейро-сети    взяли ,   да   и   выложили   все   эти  мелодии   в  свободный   доступ ,   без   заявления  своего  © Copyright'А ,  дабы   "выбить   стул" ,  на   котором   довольно   комфортно   восседают   многочисленные   сутейные   крючкотворы ,  и  "звёзды" ,  авторы ,  композиторы ,   и   многочисленная    их   обслуга . . .
Что ,    возможно  в   принципе ,  можно   и   поприветствовать ?   Но  судить  на  этот   счёт   не  берусь ,  это  ещё  требует  осмысления,  обсуждений,  которые   сейчас   только  начинается . 

Но вот что  меня с давних пор занимает :  такой   неполиткорректный  вопрос  (как спеца примерно из близкой, если   не   сказать   из   той   же  самой   И.И.- области).
Внимание, вот  этот   вопрос : А что же остаётся нам ,  живым  человекам ?

Живым творческим  личностям ,  что делать-то ?  Только  мыслить?

Ну  а  . . . "смыслы" ? !  В   сём  вся  "соль" ?

И пусть  меня  и  дальше  упрекают  в  "риторичности" ,  тривиальности ,  даже  может  банальности ,  и  т.д.,  и   т.п.

Вопрос-то  ведь  так  и  остаётся  пока   без   удовлетворительного ,  или   хотя  бы  более-менее   приемлемо - вразумительного  ответа.
По   крайней   мере   его   не   дают   ни   МАСС-медиа ,  ни   даже   сколь-нибудь   внятного   рассмотрения   этой   стороны   "научно-технического   и   общественного   прогресса",   и   ни   научно-технические   толстые   умные    журналы .

Однако,   всё   же  пожалуй ,   у  меня   свой   ответ  всё-таки   есть.   Но  я   его   никому   не   скажу . . .  Пока .

Тут  материал  по  теме  на  Habr.com  : https://habr.com/ru/news/t/489982/

Тут про выращивание искусственных  нейронов  и  их  коммутации  : https://tdnu.ru/art icle/science/estestvennyj-nejron-svy azali-cherez-internet-s-kremnievym/ (ссылка набрана с пробелами , иначе  она  тут  не  отображается ,  и  их надо удалить перед  запуском )

И вот , совсем свежее , новость от 07 февраля 2022 г. :
Компания DeepMind создала платформу искусственного интеллекта AlphaCode, не только отчасти способную программировать вместо человека, но и готовую делать это на «конкурентоспособном» уровне.
Подробнее смотрите выдачу вашего поисковика по данной теме .

Ещё ,  чем-то  созвучное ,   отголосками :  http://www.stihi.ru/2018/02/24/10699

===================================

Так как информация "из подвала рецензий" может потеряться (а это будет жаль , так как она довольно-таки показательна , характерна и поучительна) кроме того , того в "подвале"  не отображаются некоторые гипер-ссылки , то рецензию и мой ответ на неё перенёс в "тело" этой работы .

Начало цитирования рецензии "

<<
Рецензия на «Что вы тут все делаете? Или- Прощай Творчество?!» (Ярослав Янков)

Уважаемый Ярослав!
Прочтя Ваши невесёлые размышления, не удержался от отзыва. Дело в том, что философскими проблемами создания искусственного интеллекта и искусственной жизни я начал интересоваться ещё в студенческие годы, во второй половине 70-х годов прошлого века. И, как мне кажется, понял, что никаких непреодолимых причин, почему этого нельзя сделать нет. Да, это очень трудно, непонятно, как и прочее... Но, как мне тогда казалось, дело времени. И, к сожалению, так оно и получилось. Впрочем, почему "к сожалению"? Прогресс, хотим мы этого, или не хотим, дело объективное. Он зависит не от хотений отдельных людей, а от законов мироздания, которые выше нас.
Кто-то возмущается тем, что человекоподобные приматы взяли в руки палки. Кто-то возмущается изобретением письменности, открытием математических законов...
Кто-то хотел бы навсегда остаться в "хорошем" средневековье... Было время, пытались разрушать станки.
Но надо как-то приспосабливаться к неминуемому прогрессу, как-то выруливать...
Любые достижения могут использоваться, как во благо, так и во вред.

Но в будущее смотрю с тревогой, и надеюсь, что мои ученики-программисты, которых готовлю 35 лет, окажутся на высоте.

С уважением,


Григорий Рейнгольд   29.11.2020 05:24   •   Заявить о нарушении
+ добавить замечания


Нет уважаемый , Вы не правы , не окажутся ваши ученики на высоте . Это - по определению сути самих явлений .

Я специально ждал этого момента , именно этих новостей :

ТЕМА - « международная группа исследователей используя теоретический инструментарий доказала, что человек не сможет контролировать продвинутый ИИ .»

<< Исследователи Центра людей и машин Института развития человека Макса Планка заявили, что человечество не сможет управлять сверхразумными компьютерами с наличием искусственного интеллекта. Статья ученых опубликована в Journal of Artificial Intelligence Research. >>

Так вот, я по своему базовому образованию - специалист в микро- нано- технологиях в приложении к данной тематике.
И с самого начала, вот уже 40 лет, я постоянно твержу и твержу об этом самом...
Кроме критики в свой адрес и проблем, я не встретил никакой иной "благодарности и пользы" себе за это. Не говоря уже хотя бы о немного более углублённом понимании проблематики моими оппонентами.
А те, кто продолжает всё в том же духе ничего не меняя в своём плоско-параллельном алгоритмизированном сознании и дальше безумно катить этот же самый дьявольский каток ( в данном случае я не имею Вас в виду, - мы тут на этом "пиру" люди слишком маленькие ) , который закатает всех, включая их же самих, остаются на коне и только дальше больше всё процветают и процветают.

Статьи по теме :
http://hightech.fm/2021/01/11/ai-under-control

Ярослав Янков   12.01.2021 18:02   Заявить о нарушении


Эта гипер-ссылка на ещё одну статью по Теме не отображается тут так , как она есть , потому её посещаю отдельно уже с пробелами внутри .
Перед запуском следует убрать эти пробелы :

http://sci ence.sm.news/uche nye-sdelali-vyvod-c hto-lyudi-ne-smogut-sde rzhivat-sverxr azumnyj-kompyuter-68988/?ut m_source=yxnews&utm_medi um=mobile

Ярослав Янков   12.01.2021 18:36   Заявить о нарушении
+ добавить замечания
 
>>

P.S. : тут можно скачать оригинал  отчётной   упоминаемой  выше  статьи  (на  английском  языке)  из первоисточника  «Journal of Artificial Intelligence Research» ,    прочитать ,  перевести  при  желании ,  и  определить  свою  позицию   по  вызову  21  века :

https://w ww.jair.org/i ndex.php/jai r/article/vi ew/12202/26642

Ссылка  набрана  с  пробелами ,  иначе  она  тут  не  отображается .  Перед  запуском  необходимо  убрать  эти  пробелы .


Рецензии
ОТНОСИТЕЛЬНО "СВЕЖЕНЬКОЕ" на ТЕМУ ИИ .

ОСНОВНОЙ ПЕРВОИСТОЧНИК - The Guardian: ИИ американского беспилотника уничтожил оператора на испытаниях , ССЫЛКА на СТАТЬЮ - ИСТОЧНИК - http://habr.com/ru/news/739386/

ЦИТИТРОВАНИЕ :

<<На испытаниях в США беспилотник с ИИ принял решение убить оператора
2 мин
15K
Искусственный интеллект
Полковник ВВС США Такер Гамильтон, начальник подразделения по тестированию и эксплуатации ИИ-систем, рассказал, что во время учений искусственный интеллект использовал "весьма неожиданные стратегии", вплоть до решения уничтожить оператора-человека. В реальности никто, разумеется, не пострадал, но сама ситуация заставила военных задуматься.

Гамильтон привел в пример испытания ИИ-системы, предназначенной для уничтожения зенитно-ракетных комплексов, и получающей баллы за успешно выполненную задачу. Хотя идентификация цели выполнялась автоматически, окончательное решение о нанесении удара оставалось за человеком. Здесь-то и выяснилось, что ИИ мог принять решение уничтожить управляющего им оператора, если тот отменял приказ на уничтожение и таким образом мешал успешно выполнить задачу, поставленную перед машиной.

Когда это обнаружили, в работу комплекса внесли изменения, запрещающие уничтожать оператора. Однако ИИ и здесь оказался на высоте. Когда оператор отменял приказ на поражение цели, беспилотник принимал решение атаковать вышку связи, через которую получал команды, вступающие в противоречие с боевой задачей.

"Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ", - подвел итог полковник Гамильтон.

Апдейт. Королевское авиационное общество, материал которого и поднял эту бурю, опубликовало опровержение.

Так, нам сообщают, что полковник Гамильтон допусти "оговорку" в своей презентации на саммите Future Combat Air and Space Capabilities Summit, организованном RAeS. Имитация учений с использованием ИИ-беспилотника была "гипотетическим мысленным экспериментом" с правдоподобным сценарием, никак не связанным с военными ведомствами.

"Мы не только никогда не проводили подобный эксперимент, но и не нуждались в нем, чтобы подтвердить правдоподобность такого результата", - сказал Гамильтон.

Он также уточнил, что ВВС США не испытывали подобным образом ИИ с оружием (будь то учения или симуляция).

"Несмотря на гипотетичность ситуации, это наглядная иллюстрация вызовов, которые ставит ИИ и причина того, что ВВС придерживаются этики в разработках с применением ИИ", подчеркнул Гамильтон.

PS. В общем, если сложить это с заявлением представителя ВВС США Энн Стефанек о том, что "Департамент ВВС не проводил подобных испытаний и остается преданным идее этичного и ответственного использования ИИ", а также о том, что "слова полковника были вырваны из контекста и доведены до абсурда", можно будет представить, что проснушвийся сегодня утром знаменитым полковник Гамильтон или уволился в запас неделю назад, или вообще никогда не служил в ВВС.>>
КОНЕЦ ЦИТИРОВАНИЯ

КОММЕНТ АВТОРА :
Ну-ну, ну-ну . . .
Автор конечно же ценит юмор комментария представителя департамента ВВС США, и прочее. Однако , исходя из своего личного опыта работы и жизни хорошо знает, что вышестоящее начальство , конечно же там , за океаном , очень часто сильно грешит против Правды (мягко говоря), исходя сугубо из государственных и своих интересов . . .

================================

- Восторги комментаторов по поводу человекоподобного робота "София", который по утверждению его создателя обладает ИИ : того самого знаменитого робота, который "выступал" и в ООН, и на многих презентациях с шоу, и который так и заявил во всеуслышание, что уничтожит человечество.
Можно посмотреть и "насладиться зрелищем" тут - http://www.youtube.com/watch?time_continue=161&v=xTbCj-nKZgc&feature=emb_logo

- А уже более года назад , а именно весной 2020 года , автономно управляемый искусственным интеллектом дрон-терминатор , впервые сам замочил человека , выполняя свою боевую задачу :

http://yan dex.ru/search/? lr=213&text=%D0%B0%D0%B2% D1%82%D0%BE%D0%BD %D0%BE%D0%BC%D0%BD%D0%BE%20%D1%83% D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D1%8F %D0%B5%D0%BC%D1%8B%D0%B9%20%D0%B4% D1%80%D0%BE%D0%BD%20%D0%B2%D0%BF%D0%B5%D1% 80%D0%B2%D1%8B%D0%B5%20%D1%81%D0%B0%D0% BC%20%D1%83%D0%B1%D0%B8%D0%BB%20%D1%87%D0%B5% D0%BB%D0%BE%D0%B2%D0%B5%D0%BA%D0% B0&redircnt=1623905233.1

[ Ссылка на выдачу Яндекса по данной "исторической новости" набрана тут с пробелами внутри , иначе она не отображается . Перед запуском из браузера следует убрать все эти пробелы . ]

Например вот сообщение издания =RT на Русском= .

ЦИТИРОВАНИЕ :
<< Эксперт прокомментировал случай самостоятельного нападения БПЛА на человека
31 мая 2021, 22:50

Специалист американского Национального консорциума по изучению терроризма Зак Калленборн прокомментировал описанный экспертами Совета Безопасности ООН случай, когда беспилотный летательный аппарат в автономном режиме предпринял атаку на человека.

Эпизод, произошедший в марте 2020 года в Ливии, изложен в исследовании специалистов. Документ был опубликован в марте 2021 года.
Согласно докладу, произведённый в Турции дрон, предположительно, Kargu-2, работал в автономном режиме и был запрограммирован для атаки целей без необходимости команд от оператора, пишет Axios.
Согласно описанию, дрон использует «компьютерное зрение» для выбора целей и их поражения «без связи между дроном и его оператором».
По словам Калленборна, подобный случай может быть первым, когда БПЛА автономно атаковали людей и в связи с этим «подняли тревогу», пишет New York Post.
Эксперт также задался вопросом, «насколько хрупка система распознавания объектов» и как часто беспилотник может совершать ошибки при определении целей. >>
КОНЕЦ ЦИТИРОВАНИЯ .

Ну что ещё можно добавить к этой "прекрасной" новости ?

Ясно одно , что теперь человечество "успешно" перешагнуло знаковую ЧЕРТУ . . . И , всеобщий тотальный глобальный кризис "успешно" проходит все точки невозврата , и будет идти по нарастающей .

Ярослав Янков   02.06.2023 17:41     Заявить о нарушении
На это произведение написаны 4 рецензии, здесь отображается последняя, остальные - в полном списке.