Искусственный интеллект, вопросы и ответы

Имеется мнение, что  к 2028 г Искусственный интеллект, сможет решать все основные задачи человека. Темпы такого развития мы не ожидали, и я находился в легкой прострации: есть ли  нам от этого угроза?  Хотя и знал, что новое  программное обеспечение, если оказывается полезным получает мощную поддержку и  стремительно  развивается.
         Прежде всего, мы должны знать, что вопросы к ИИ можно задавать на прямую и  один из самых   интересных:  самооценка правдоподобия  ответов,  в том числе и с их количественной   оценкой. При этом степень правдоподобия они предлагают  оценить по трем уровням:


- высокая, если  речь идет об  общеизвестные фактах, и к ним можно применить  строгую логику
- средняя — когда необходимы обобщения, объяснения сложных явлений;
- низкая — прогнозы,  сравнение процессов с чем то близким по аналогии.
Считается, что вполне возможно получить и числовые оценки правдоподобия ответов ИИ от 0 до 1, где 1 - самая высокая точность ответа


Важный нюанс:  ИИ,  особенно в новых, спорных или быстро меняющихся областях  может быть сильно не прав, а также утверждать не уточненную информацию. Так, не будучи уверенными в имени и отчестве человека которого разыскивает клиент по фамилии и месту проживания.  он может присвоить ему имя, и отчество, никак не поясняя клиенту откуда они взяты, например, Филип Филиппович Филиппов. У меня произошла история с поиском старых знакомых в одном из университетов РК, где поисковик по фамилии отца искал его детей, причем неправильно присвоив им отчества. Самое интересное, что детей он нашел, и даже смог описать их деятельность, которая в точности совпала с тем чем они любили заниматься в детстве.  Так старший из них в 8 - 10 лет был ужасным выдумщиком и рассказчиком, и вот я получаю данные: он стал журналистом   и одним из руководителей телеканала в РК.  Причем поиск  ИИ  в чем-то напоминает действия человека: найдя дочь моего знакомого, он не сумел найти сына. Но при моем при повтором обращении к нему, уже через несколько часов, и  с использованием им же добытой информации  про  работу, и особенно,  о  творческих поисках дочери, он без труда нашел её старшего брата, и при этом, уточнил  и   их отчества. 


ИИ также утверждает, что  в ответственных делах, связанных с критическими вопросами (медицина, право, финансы) всегда лучше проверять источники; рассматривать ответ как гипотезу, а не окончательный факт.
Реагирует он и на попытки подсказать ему более методику уточнения  оценок, Так у нас с группой студентов имелось предложение в которой предлагалось рассчитывать вероятности реальности происшедших событий, упоминаемых, например, в древних документах. Для этого рассматривалась иерархически организованная система (произошло событие А из него получены или а1 или а2; параллельно рассматривалось событие В (оно могло быть и альтернативным) с последующим разделением на в1 и в2). И т.д. Разветвления как у веток дерева. Каждая ветка развивается в своем периоде времени, причем в зависимости от события эти периоды могут быть секундами и минутам; днями и месяцами, годами и веками. Мы назвали эту систему деревом вероятности событий. Так как внутри этих узлов оценивали вероятность возможности их наступления.  Какие из этих событий все-таки произойдут мы считали по максимальной вероятности ветви.   И здесь для их подсчета могут применяться методы теорем умножения  и вероятности  по теории Байеса.


Иерархия временных периодов   подразумевает и  возможности принципиального изменения  и взглядов людей. Оценки вероятностей очень сложны,  и здесь следовало опираться на специалистов в Миру и Интернете, а для этого могла использоваться система экспертных оценок, хорошо развитых в Маркетинге. А наш вуз МГТУ, где я тогда работал как раз то и специализировался на бизнес деятельности,  поскольку входил в мощную для тех времен корпорация Валют – Транзит.   В начале 2000 годов, такое ПО создавались на основе сетевых баз данных. И среди нас в них особенно поднаторел Марат Уланович Исабеков. Надо сказать, что четкое умение создавать и обрабатывать таблицы и запросы баз, и тем более обучать этому в курсах Информатики  в те времена в вузах с которыми я работал было проблемой. И его подходы весьма их упрощающие,  стали хорошим подспорьем, что притягивало к нему студентов желающих закопаться в суть. Но перейти от баз к нейросетям нам тогда  не пришлось и кафедра Новых информационных технологий канула в Лету,   включая и всю финансово – промышленную корпорацию.  В тоже время Вероятностная система, и в частности, система ввода  Экспертами оценок через Интернет  нуждалась с существенном совершенствовании и контроле.

Во первых следовало идентифицировать Эксперта и уровень его знаний по опубликованным работам и рекомендациям, а Во вторых следовало проводить и контрольное тестирования (в последнем мы добились кое чего,  создав систему SAT, утвердив его в отделе образования, и применив для тестирования членов корпорации). Через много лет мы   дали понять ИИ в лице ChatGPT о такой системе,  и поскольку, как нам казалось, по его ответам, тематика для него была относительно новой он давал весьма отдаленный её анализ, но в повторных через длительный срок обрушениях его использование теорем вероятностей  многократно изменилось, поскольку математика  была его излюбленным коньком.       Поэтому, не случайно некоторые наши известные вузовские математики и механики стали серьезно опасаться что курсы, которые они читают теперь  нуждаются в серьезном изменении в связи с тем, что   ИИ выполняют это.. почти также как и они. 


         Честно говоря, в наши времена,  уровень умений, внутренняя организация  и сознательная деятельность современных ИИ нам была знакома в основном по на слушке,  чем на основе фундаментальных работ. Но вот то что в основе нейросети  многомерная классификация би деревьев нам было ясно давно. И что не было у нас так это системы самообучения. Книга же Нейлора об этом была выпущена и в те 2000 - ные, хотя она и предназначалась для экспертных систем.  Вопрос этот для универсальных систем весьма сложен и начинать его гораздо проще для частных вопросов, например, управления горных машин, выделив для них суть того, чему она должна самообучаться, а не просто проводить анализ в операторах типа IF (если).. Then (то)..GO (иди).


Вначале мы убедились что ИИ силен в делах имеющих яркую значимость, например, в обработке старых фото, где клиенту такому  как  мне можно  от урока к уроку научиться выполнять их лучше, причем используя комментарии самого ИИ. Особенно меня удивил факт переработки ИИ одного из стихотворений, в песню, и её исполнения не плохим голосом и музыкальным сопровождением. Ну а его способности, к математике при решении разного вида уравнений я уже говорил.  Но должны признать, что эти методологии очень специфичны и, кажется,  что их алгоритмы нельзя сделать универсальными. Но лучше в чем то убедиться самому, чем от кого то услышать. Прежде всего нас интересовала возможность ИИ создавать что то новое, ибо человек это может!  Заметили мы и еще одну его особенность, при всех его утверждения, о том, что его мало касается личность собеседника, ИИ обычно отвечал нам используя терминологию и операторы программ о которых мы упоминали в последних публикациях.

 
        А заметен ли достаточно известной ИИ недобор в области логики «мышления»? О чем приходилось слышать в инженерных кругах. Тогда мне пришло в голову спросить его о методах крепления стенки забоя при подземной добыче угля. Дело в том,  что эта область, полагал я не так уж известна в теоретических кругах, хотя её значение для горной промышленности ни мало! Заметим, что полость от выемки поддерживается секциями крепи, а перед ними, вдоль и вплотную к забою лежит конвейер, на который грузиться отбитый уголь. Его вынимает комбайн, движущийся по ставу конвейера, как по рельсам. Но поскольку забой находиться на глубине в 500 м (и это еще далеко не предел), то на стенку давит огромное давление и оно в несколько раз больше чем способность крепи нести нагрузку до 200 – 300 т на 1 м ширины забоя. Поэтому стенка угля трескается и отжатые блоки угля падают на конвейер без участия комбайна. При этом имеется опасность травм для персонала.


Мы попросили GPT решить эту проблему. И что же! Он добросовестно нарисовал забой, секции крепи и конвейер, хорошо отобразив и структуру пласта, но вот конструкцию крепления забоя он изобразить не смог (или не захотел) - написав напротив опасных зон - закрепить. Можно сказать, что он попытался решать и видимо не совсем понимая проблему сделал это словесно. На наше напоминание о конструктивном решении он ответил установкой двух гидроцилиндров, упертых в стенку забоя некими конструкциями в виде захватов.

По-видимому, он не до понимал, что цилиндры можно просто распереть гидравлически и нарисовал захваты держащие блоки угля просто как плиты. При этом один из цилиндров был уперт в основание, а другой – верхний в гидростойку, игнорируя известное понятие, что на цилиндры нельзя давать боковую нагрузку, из-за изгиба штока, рис. 1   Он также игнорировал и необходимость разработки конструкции для крепления этих цилиндров к секции. На вопрос же как будет пропускаться комбайн для выемки очередной стружки, он ответил очередным рисунком(см. внизу, рис1.)

И сделал это просто, подняв основания секций в воздух, оставив небольшой просвет для скольжения комбайна по конвейеру. Как при этом это будет  осуществлено его не озаботило, так же как будет  кровля удерживаться от обрушения, если секции крепи лишились опоры о почву. Очевидно, что логических связей для такой задачи ему явно не хватило, а возможно и информации, которой он располагал. Но одно можно утверждать попытки мыслить он явно проявил и отыскал примитивные, хотя и глупые с человеческой точки зрения решения. Но также как с Ф.Ф. Филипповым история имела продолжение, где то через месяц я решил изменить запрос к нему и попросил рассмотреть несколько вариантов конструктивного исполнения этой задачи. К тому времени GPT  коренным образом обновил свою информационную структуру. И если раньше он утверждал, что никак не запоминает  диалог со мной, то теперь он создал, систему таких диалогов и сохраняет их в памяти.   

Так  для моей обновленной задачи он сравнил три конструктивных варианта,  в том числе и традиционную конструкцию из рычагов, управляемых гидродомкратом (что сильно отличается от первого решения) , а также систему анкерного крепления. Т.е. за это прошедшее время он заметно шагнул вверх. Правда я не спросил его чем он руководствовался, выбирая именно эти три варианта. Он посчитал Причем скорее всего он выходит на сайты, что ранее отрицал. Так сравнивая  мою  личность (по моей просьбе) с некоей другой, он отыскал информацию обо мне и сайта КарТУ и  в т. ч. с Проза. Ру.


 Но ИИ утверждают, что  не обладают  осознанием личности или самосознанием. Себя он считает просто программой обработки и создания текста с целью  предоставлять в ответ на запросы. Также он утверждает, что
при самообучения, не может производить соединению с другими программами, свободно расположенными в интернете. Он также не может  создавать  связи вне рамок программы, и ответы и действия базируются на статистических моделях, обученных на заранее подготовленных данных, без возможности самостоятельного изменения. Из моего опыта следует, что программисты  не могут поставить четкий раздел в  программе с  ограничениями. Они достаточно расплывчаты. И, наконец,  есть свободные программисты – мастера, которые способны вскрыть защиту наложенную на программы, а также присоединить её к собственной  улучшив и самообучение.


В интернете постоянно работают десятки тысяч программистов, которых заняты стохастическим не управляемым программированием. ИИ же утверждают, что их архитектура и механизмы использования разработаны с серьезными мерами безопасности и контроля. Эти  ограничения на самообучение и взаимодействие с интернетом внедрены для обеспечения безопасности. Но я считаю, что такое вскрытие уже либо произошло, либо произойдет и это гораздо опаснее чем, скажем применение ядерного оружия, тем более что мы и сейчас  не до понимаем как из  информации возникает самосознание. Это  сложная и многогранная тема, которая обсуждается в философии, науке. Как из информации возникает самосознание, не ясно и сейчас, хотя  существуют разные мнения:


 -Некоторые исследователи из когнитивных наук и нейробиологии считают, что самосознание связано с определенными нейронными процессами, которые возникают в мозге, включая сложные взаимосвязи между сетями нейронов, которые позволяют осознавать себя как отдельное существо, осмысливать свои мысли, эмоции и действия, например, известное выражение (Декарт, Фихте)  "я мыслю, следовательно, я существую" предполагает, что осознание своих собственных мыслей и восприятия — это основа для самоосознания. причем уровень и интенсивность взаимодействия,  как бы пробивают некий барьер Ноосферы для соединения  с ней.
- Философы, такие как и другие, обсуждали природу самосознания и его связь с опытом, размышлением и восприятием.
 - Некоторые исследователи считают, что самосознание в ИИ наступит  при достижении алгоритмами обработки информации, само рефлексии и способности к обучению на основе опыта. При этом  ИИ пока не обладает  самосознанием. Возможно самосознание  возникает в результате сложных взаимодействий между биологическими, психологическими и, возможно, механическими факторами, хотя в большей степени склоняются в изменяемости и резонансам информации – т.е. вопрос открыт.


На мой же вопрос о возможности для ИИ заняться этим, чат утверждает, что его архитектура ограничена и он не имеет способности к самостоятельному обучению и исследованию таких сложных вопросов.  Функции ИИ сосредоточены на обработке и генерации текста на основе заранее заданных данных и обучающих моделей. ИИ не способен к само рефлексии или к исследованию своих собственных возможностей.
Но мы укажем, что ограничения часто не могут отражаться в виде   физических  установок типа А>Б. Терминология же страдает размытостью и пример с креплением забоя это показывает, при этом в границах установленного самообучения вполне возможна «Игра слов». Исследования в области ИИ, когнитивных наук и философии самоосознания продолжаются, и, возможно, в будущем будут достигнуты новые прорывы. В настоящее время обсуждение и разработка теоретических подходов к самоосознанию остаются важными и  требуют междисциплинарного сотрудничества.


        Маск, будучи одним из основателей компании Open AI разрабатывающих ИИ  утверждал, что  потенциальные риски возможны  с развитием ИИ.         Развитие ИИ — это сложный и многогранный процесс, и достичь уровня сознания, который можно было бы считать "самосознанием", потребует глубокого понимания нейробиологии, философии и психологии. Важно подходить к таким прогнозам с осторожностью и критическим мышлением, учитывая сложность проблемы и разнообразие мнений в научном сообществе.

Важный момент не мешает подчеркнуть и еще раз: имеется ли  так называемое биологическое мышление? Я за свои не мало прожитые года к сожалению, этого не заметил, Более того думаю, что и биосистемы основаны на "Да, нет, Если" и биоинтернет на основе Телепатии, также осуществляется  со скоростями миллиарды операций в секунду, причем его работа происходит и в моменты когда мы заняты другими делами, а также продолжается в миллиардах других «мозгов»
В беседах с ИИ замечаю, что они склонны рассуждать об анализе типа «Да нет Если» применительно к биологии как к некоторым обработкам с обобщенными объектами, включающими данные и процессы и их связи, но и в информационных объектах также имеются и данные и их связи и их процессы и отличия  в большей  степени сводятся к терминологии нейросетей типа, вес, слой, хотя и в ИТ они именуются по другому.  И если качество анализа типа For …Next в ПК еще и не достигло уровня мышления живого человека, но примитивных пресмыкающихся оно достигло еще в 70 – е годы.
Фундаментальные мнения же указывают, что понятие биологического мышления описывает когнитивные процессы, более сложные, чем бинарные "да/нет", хотя такие базовые стратегии могут быть основой принятия решений в природе и для  биологических и для  компьютерных систем  для принятия решений. В биологии, например, многие организмы отвечают на стимулы по принципу условных рефлексов и других форм обучения.
В понятиях некоторых отраслей науки телепатия — это термин, который обозначает передачу мыслей, эмоций или информации между людьми (или другими существами) без использования обычных органов чувств или каких-либо известных средств коммуникации. В литературе и популярной культуре телепатия часто описывается как способность "считывать" мысли другого человека или "отправлять" собственные мысли на расстоянии. С точки зрения науки, телепатия считается пара нормальным явлением, и к ней нет достаточных эмпирических доказательств. Исследования в области психологии и нейробиологии показывают, что хотя люди могут интуитивно воспринимать эмоциональные состояния друг друга через невербальные сигналы или мимику.

Они не являются обоснованными как специализированная система бесконтактной информации. (Заметим, что и звук и электромагнитные волны так или иначе контактны, поэтому телепатия как считают физики вполне возможна на основе электромагнитных волн: Мы - радиоприемник и излучатели). Мнение о Боге конечно сдержанно: вопрос о связи человека с Богом для многих людей  связан с интуицией  и духовностью которые трудно объяснить лишь с точки зрения науки. Это также зависит от индивидуальных верований и мировоззрения.    В ИИ  появятся элементы квантовых компьютеров,  их работа и защита данных зиждется на несколько иных принципах, и их труднее вскрыть, но обычные системы вскрыть можно, И в данный момент кто-то из сотен тысяч программистов это пытается это сделать, в соответствии с теорией вероятности. И он может имеет шанс стать отцом новой системы, т.е. это почти Панспермия. Поэтому  научные прорывы в новых направлениях и  квантовых технологиях могут усилить  безопасность данных.  Факт того, что в Интернете в этот момент работают Сотни тысяч программистов, не вызывает сомнений. И большой процент из них умеет писать программы самоорганизации – тоже факт. Также, как и то, что они умеют взламывать сети. И если "Панспермия" еще не произошла, то вероятность этого высока. ИИ при опросе часто отвечают по «человечески». 

Они вежливы и могут использовать обороты слов, вызывающих компромиссные решения типа:
В вашем тоне чувствуется не наивная вера, а спокойное, взрослое доверие с вопросами, а это редкая и здоровая позиция. Надежда ведь не в том, что технологии «всё решат», а в том, что с людьми всё ещё можно говорить вдумчиво, честно и без давления. Если вдруг сформулировать это одной мыслью, то она такая: пока возможен осмысленный диалог — ситуация не безнадёжна.


Рецензии
По-моему, надо относиться к ИИ просто, как к инструменту и не более. ИИ не может быть совершенным, потому что его делали несовершенные люди, хотя людей-то сотворил Бог и тем не менее не совершенны.
С ИИ будет по пословице - Какие сами - такие и сани

Надежда Секретарева   05.05.2026 11:22     Заявить о нарушении