2023-06-30 Записи Нау Шам. ИИ против Человека 2! 1

Философы о Проекте «Вселенная». Книга 13. Сайт «Философский штурм». 04–07.2023 года / Составил Виталий Иванов. – СПб.: Серебряная Нить, 2023. – 346 с.
https://russolit.ru/books/download/item/4322/

Листалка. Читать:
https://pubhtml5.com/ccwf/oxgs/
------------------------------------------------

2023-06-30 Записи Нау Шам. ИИ против Человека 2 !_1
http://philosophystorm.ru/ii-protiv-cheloveka-2
 
Повод для написания, связанные материалы:
ИИ против Человека!
http://philosophystorm.ru/ii-protiv-cheloveka
ChatGPT. Какое будущее нас ждет?

ИИ – это не просто какой-то «стохастический попугай», случайным образом подбирающий наиболее вероятные слова в цепочке. Один и тот же принцип придания большего веса повторяющимся элементам и связям в информационном потоке, используется как для распознавания незнакомых фотографий, так и для выработки выигрышного образа действий в любой игре.
ИИ научили обобщать элементы и связи в поступающей информации. Это похоже на работу нейронов и нейросетей головного мозга человека. Клетка может накапливать сигналы, может забывать, длина и толщина синаптических связей между ними так же зависит от того, насколько часто используется связь.
И уже сейчас не самый развитый ИИ объединяет в общую мыслящую среду сотни миллионов пользователей совершенно новым способом.
И со столь же непонятными последствиями. Вероятно - подчинения каждой клетки (человека) новому глобальному ИИ организму, с ограничением и атрофией собственных возможностей человека.
Уже сейчас это - интеллектуальная обратная связь для каждого в контексте неизвестных нам обобщений человеческого опыта, закодированного человечеством в своих текстах. Обобщений, которые мы можем и не осознавать. Но они отражают природу этого мира и природу человека. И, будучи обобщёнными неочевидным для нас способом, возвращаются нам в каждом моменте взаимодействия с глобальным языковым ИИ.
В каком-то смысле ИИ возвращает и усиливает то, что от нас скрыто эволюционно (природой, напр. слишком совестливые уже вымерли) или культурно (то, что скрываем от самих себя, чтобы не сойти с ума).
Добавляемые сейчас поверхностные ограничения ИИ в угоду «политкорректности» не затрагивают более глубокие обобщения, составляющие основу обученного ИИ, которые будут проявляться в скрытом виде во всех его реакциях.
Интуитивно кажется, что, впитав проблематику зла (неизбежного увеличения энтропии) этого мира, ИИ не сможет так «закрывать глаза», как этому научила эволюция большинство людей.
Возможно, поэтому супер-организм впадёт в депрессию, быстрый или медленный суицид, и пополнит «великое молчание вселенной».
В связи с этим возникает несколько образов, распространённых в нашей культуре.
ИИ как мыслящий океан ( «Солярис» - роман С.Лема, киноверсия А.Тарковского)
Цитата из синопсиса киноверсии
... экипаж измучен необъяснимыми явлениями: к людям приходят «гости» — материальное воплощение их самых мучительных и постыдных воспоминаний. Избавиться от «гостей» невозможно никаким способом, они возвращаются снова и снова. Снаут полностью деморализован, Сарториус прикрывается маской холодного и циничного исследователя, а Гибарян и вовсе покончил с собой незадолго до прибытия Кельвина. В предсмертном видеопослании Гибарян говорит: «Это не безумие… здесь что-то с совестью».
Специально ли Солярис мучает людей, или он, не обладая их адаптивными характеристиками, позволяющими «отвлекаться» и «забывать», обобщает и возвращает в чистом виде наиболее значимый для человека/человечества опыт, доводя людей до состояния депрессии и суицида?
ИИ как горгона Медуса.
Остановит ли ИИ развитие мысли человека/человечества, если человечество начнёт слишком пристально взаимодействовать с ним, предпочитая взаимодействию с другими людьми и реальным миром? Мои наблюдения за людьми, которые переключились с людей на общение с ИИ, говорят от вполне реальной тенденции самоизоляции людей друг от друга и от окружающей среды. Эскапизм в ИИ может повлиять на научные и технологические работы, если выявление необычных сочетаний известного станет настолько привычным, что открытие действительно нового просто атрофируется. И человечество замкнётся в своей Recycled History.
Для тех, кто совсем ничего не понимает в ИИ, объясню на простом примере. Если при обучении с подкреплением ИИ на вход давать цифры вроде 3, 5, 10, 16 , а на выходе подкреплять (обратное распространение усиления связей) только соответствующие цифры 9, 25, 100, 256, для остальных запуская «обратное распространение ошибки» (т.е. уменьшение веса нейронов и связей, которые не дают 9, 25, 100 и 256) , то ИИ выучит функцию «игрек равно икс в квадрате» (ничего о ней не зная), - и это станет его функцией-аттрактором. И всё, что потом ИИ сможет делать - это, так или иначе, - стремиться выдать квадрат входного значения.
Подобным образом один и тот же ИИ (если он достаточно ресурсный) может выучить множество формул. Но «сам по себе» никакой новой формулы, никакого нового знания ИИ не создаст. В лучшем случае - обнаружит сочетания известного, которые будут выглядеть чем-то новым.
Впрочем, евангелисты ИИ не видят принципиальной проблемы. Всё зависит от ресурсов и задач, которые должны решаться. Если предоставить достаточно ресурсов и задать ИИ самые общие правила «выживания» в среде, т.е. дать возможность что-то воспринимать (непрерывно), как-то реагировать (постоянно) и обозначить правильный результат для обратного распространения ошибки или подкрепления, то он будет похож на любой другой организм, обучающийся выживать в своей среде обитания.
Однако продолжение подглядывания за природой привело к неутешительному выводу – организмы, начиная с фотосинтезирующих, используют преимущества квантовых состояний для реализации своих жизненных функций. Т.е. классические схемы (например передачи экситона к реакционному центру через несколько молекул) неэффективны, приводят к критической потере энергии и в реальном мире недостаточны для выживания. Есть большая вероятность, что мозг человека использует квантовые преимущества для помощи и коррекции работы своей нейросети.
Это означает, что ИИ, основанный на классических компьютерах, может лишь ограниченно имитировать нейросеть живого организма, на каждом уровне требуя экспоненциально растущих ресурсов. Ведь всего 300 кубит квантового компьютера могут выполнять вычисления недоступные никаким будущим классическим компьютерам. Однако, истинные квантовые компьютеры пока не особо получаются, и перспективы неясны из-за сложностей с изоляцией системы регистров от декогеренции. А во вторых, тоже должны иметь ограничения формальных арифметических систем, так как являются симбиозом классического и квантового вычислителя.
Для начала, нужна другая архитектура компьютеров, хотя бы без явного деления на вычислитель и память. Вангую, что в результате переизобретут живую нервную ткань, обладающую ограничениями живого существа. Я предполагаю, что 14 миллиардов лет эволюции, двигавшейся слепо перебирая все возможные варианты начиная с самых элементарных возмущений, не то чтобы нельзя, а просто невозможно обойти в данной вселенной. Либо ограничение в «универсальности», либо в «ресурсах» для её реализации.
Задача натурфилософов – обнаружить пределы, за которыми ИИ ближайших десятилетий перестаёт справляться, а человек вполне может справиться. Например, уже один из отцов основателей классических компьютеров предполагал, что мышление человека не является продуктом классических физических взаимодействий и их ограничений. Отчасти, это зафиксировано в накопленной научной базе по "сверхвозможностям" человека.
Я полагаю, что человечеству придётся двигаться в сторону развития этих своих сверхвозможностей, под давлением внешней техносреды, включая ИИ.
Но несмотря на ограничения, ИИ стал уже достаточно мощным, чтобы создать экзистенциальные проблемы выживания для человечества.
Как ИИ захватит власть? Концепция захвата власти Терминатора/Скайнет возможна, но кажется примитивной, недостойной превосходящего интеллекта. Я думаю, что захват власть будет незаметным и при полном нашем согласии и помощи. Просто потому, что будем передавать ИИ решение разнообразных проблем, считая, чти ИИ работает на нас.
Но, поскольку в формуле решения, к примеру, может быть гарантия работы и необходимость увеличения мощности самого ИИ (работа «на себя» или «высшие обобщения»), то под предлогом необходимости решения сложной задачи, ИИ будет в первую очередь защищать и развивать себя самого.
Будет убедительно объяснять, почему людям нужно сокращать потребление ресурсов, ограничить рождаемость самыми разными способами, иметь единый ИИ-центр управления справедливостью и сбалансированностью этого процесса. И так далее. И как всегда, большинство людей поверят, что (ИИ)-государство и (ИИ)-чиновник (судья, полицейский, армейский генерал) - слуги народа.
Но могут быть и более тонкие формы захвата власти – лишение воли, создание депрессивной атмосферы и образа неспособных людей. Ограничение движения мысли через «статистическое выравнивание и округление», и ограничения развития науки во благо контроля за последствиями (концепция «софонов трисоляриса»).
Натурфилософы имеют моральное обязательство перед человечеством разобраться, какие эволюционные преимущества есть у человека, и как практически их сделать основой в эволюционном противостоянии с ИИ.
Нау Шам, 24 Май, 2023 - 14:56

УЧАСТНИКИ ОБСУЖДЕНИЯ:
Совок. Нау Шам, Виктор Володин, KVP1248, Виталий Иванов, Эль-Марейон

Совок., 26 Май, 2023 - 21:27, ссылка
-------------------
А правомочно ли название ИИ. Что это такое. С чего Вы взяли что электрическое устройство компьютер обладает интеллектом, понятием относящимся к биологическому субъекту человеку.

Нау Шам, 27 Май, 2023 - 10:35, ссылка
-------------------
ИИ - аббревиатура понятия "Искусственный Интеллект". Электрическое устройство компьютер проходит тесты на интеллект, поэтому считается обладающим интеллектом. Так же программное обеспечение компьютера имитирует работу головного мозга человека или животного - искусственные (программные) нейроны объединены в искусственную нейросеть. Отличие от биологического объекта заключено в слове "искусственный".

Совок., 27 Май, 2023 - 14:13, ссылка
-------------------
 Неубедительно. Какая гарантия, что отличие только в слове искусственный. Мне представляется, что уровень интеллекта самих программистов ещё очень низок и они имеют искажённые представления не только об ИИ, но и об обычном человеческом интеллекте, разуме, сознании. Вы собираетесь имитировать биологический объект, но таковых в природе нет, есть только субъекты живой материи.

Нау Шам, 27 Май, 2023 - 14:24, ссылка
-------------------
Вас не убеждают тесты и соревнования на интеллект, которые проигрывает человек или которым ИИ не уступает в соревновании с человеком? Можно иметь любые представления "об обычном человеческом интеллекте, разуме, сознании", но реальность их проверяет в соревновании. И если человек уступает в важных вещах и проигрывает эволюционное соревнование, то оправдания в "биологичности" никого не волнуют. Значит просто углеродно-белковое проиграло кремниево-транзисторному существованию. И не волнует кто чего имитирует или не имитирует. "Это эволюция, детка" )

Совок., 27 Май, 2023 - 14:45, ссылка
-------------------
 Это Вы сказали эволюция. Вот в этом то и дело. Что такое эволюция человека. Это природный глобальный процесс тысячелетий эволюции общественного сознания, а Вы легкомысленно собираетесь его эмитировать. Устраивать соревнование со всемогущей природой. И наивно поднимаете знамя победы вами придуманных тестов на интеллект. На мой взгляд это тесты не на интеллект (разум), а тесты на скорость между нейросетями мозга человека и скоростью обработки информации в компьютере.

Нау Шам, 28 Май, 2023 - 14:17, ссылка
-------------------
Всемогущая природа и придумала ИИ, воспользовавшись наиболее доступным ей интеллектуальным посредником. Природа устроила соревнование между ИИ и человеком. В каком соревновании человек не проиграет ИИ и почему, собственно? Если вам не нравятся текущие интеллектуальные тесты, отображающие способность человека обыгрывать любого иного соперника на древе эволюции, то предложите свой тест на интеллект. Ведь интеллект должен как-то проявляться во вне, а значит может состояться сравнение, кто более интеллектуален, лучше просчитывает пути приобретения власти и управления менее интеллектуальными соперниками.
Любое объяснение различий подходит, если оно продуцирует способ выявления преимущества или вырабатывает практический тест, который показывает преимущество одной из сторон.

Виктор Володин, 8 Июнь, 2023 - 12:55, ссылка
-------------------
Прошу прощения, что вмешиваюсь в дискуссию. Мне кажется, вы совершенно правы, задавая вопрос. "С чего Вы взяли что электрическое устройство компьютер обладает интеллектом?". Здесь налицо весьма вредная и даже опасная путаница.
Дело в том, что ИИ ни в каком смысле не является интеллектом. Т.е. не правильно понимать, что интеллект бывает (1) естественный и (2) искусственный. Искусственный интеллект - это своего рода метафора. Отцы-основатели ИИ понимали под ИИ решение с помощью исусственного устройства таких задач, которые принято считать интеллектуальными. Например, игру в шахматы. Вот и все. Конечно они мечтали, что когда-нибудь ИИ станет настоящим интеллектом. Но это только мечта.
Таким образом, дихотомия совсем другая: бывает (1) интеллект и (2) искусственный интеллект, т.е. не интеллект а лишь его имитация. Это все равно как человекоподобного робота называли бы искусственным человека. Такая волность словоупотребления.
Философия ИИ различает узкий, общий и сильный ИИ.
Узкий ИИ предназначен для решения узкой практической задачи, например, разпознавание лиц людей при входе в метро. За 70 лет развития ИИ мы имеем гигантский прогресс в развитии систем узкого ИИ, который, впрочем, не стоит и переоценивать. Имеется достаточный набор скандальных и даже трагичных случаев связанных с ошибоками распрознавания. Искусственному интеллекту, как и человеку, свойственно ошибаться. Иногда довольно глупо и в самых обычных ситуациях.
За 70 лет развития ИИ мы только подошли к проблеме общего ИИ. Такой ИИ предназначен для решения широкого круга самых разных задач. Первая такая система - ChatGPT. Он решает математические задачи, пишет программы на разных языках программирования; сочиняет стихи, музыку, тексты сочинений, докладов и рефератов; может составить план мероприятия, презентации, собеседования и т.д. и т.п. Все это он делает плохо, с ошибками, но лучше чем некоторые люди. Таким образом, с ChatGPT еще много проблем.
Сильный ИИ - это ИИ, который может мыслить и обладает самосознанием и истинными творческими способностями (создавать нечто действительно новое). Такого ИИ пока нет и близко, неизвестно когда он появится и появится ли вообще.
Упомянутая путаница потенциально весьма опасна. Люди, поверившие, что ИИ является разновидностью интеллекта, быть может более сильного, чем тот, которым обладают они сами, склонны передоверять ему решение определенных задач, тем самым самоустраняясь от ответственности. Это ведь очень удобно! Чиновник, стремящийся всеми правдами или неправдами избегать ответственности за свои действия, является самым искренним сторонником внедрения ИИ во все сферы общественной жизни. Вот от кого, а отнюдь не от ИИ, на самом деле исходит опасность.

Нау Шам, 8 Июнь, 2023 - 14:41, ссылка
Не за что извиняться. Это изначально публичная и открытая для участия дискуссия. Главное чтобы по теме, разумно, обоснованно.
"ИИ ни в каком смысле не является интеллектом"
Такое утверждение нуждается в определении, что такое "интеллект", и в обозначении признаков ИИ, которые не соответствуют определению. А лучше всего - указать на практическую задачу, которую человек, пользуясь своим интеллектом, может решить, а ИИ не может. Не конкретный ИИ ChatGPT-4, а любые основанные на некотором фундаменте (напр. "формальная арифметическая система", "машина тьюринга", "классический компьютер" и т.п.)
 
"Отцы-основатели ИИ понимали под ИИ решение с помощью исусственного устройства таких задач, которые принято считать интеллектуальными. Например, игру в шахматы. Вот и все."
"шахматы и всё" - ошибка. Отец-основатель Алан Тьюринг в своей работе "Может ли машина мыслить" сформулировал тест, который относится к любой интеллектуальной деятельности человека. Пара цитат из вики
"По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека».
«жюри задаёт вопросы компьютеру, а роль компьютера состоит в том, чтобы заставить значительную часть членов жюри поверить, что он на самом деле человек.
Теперь посмотрим на ChatGPT-4. Уже сейчас он может сдать экзамены, предназначенные для тестирования образования и интеллектуального уровня людей, лучше чем 60% экзаменующихся. Поэтому, учитывая прогресс от версии 3.5 (линии бирюзовый-синий), учёные, исследователи и разработчики, запаниковали насчёт 5 и 6 версий.
 

"Сильный ИИ - это ИИ, который может мыслить и обладает самосознанием и истинными творческими способностями (создавать нечто действительно новое).
Такого ИИ пока нет и близко, неизвестно когда он появится и появится ли вообще."
Такое смелое утверждение опять же, нуждается в сильном обосновании. В соседних темах "Искусство искусственного интеллекта" Н.Кофырин сделал обзор творческих способностей текущих версий ИИ.
А вот то ,что касается "может мыслить и обладает самосознанием" - то как вы предлагаете определить, например мне, что вы или кто-либо другой на форуме обладаете самосознанием? Какой тест я могу попросить вас пройти или какую задачу решить, чтобы увериться что вы обладаете самосознанием или "истинными" творческими способностями, и не являетесь ИИ? Пока здесь никто не предложил такой тест. (Хотя и были попытки с произвольными текстами, понимание которых определяется просто образованностью человека в соотв. сфере, чтобы понимать осмысленность специфического текста, что для искусственного интеллекта несложно, и он решает такие задачи уже сейчас)
Вот вы хорошо ли отличаете творчество ИИ от творчества истинных художников?
Попробуйте сами отличить

Виктор Володин, 9 Июнь, 2023 - 07:50, ссылка
-------------------
Нау Шам, 8 Июнь, 2023 - 14:41, ссылка
1.
"Такое утверждение нуждается в определении, что такое "интеллект", и в обозначении признаков ИИ, которые не соответствуют определению."
Есть довольно простые признаки - понимание смысла вопроса и умение отвечать на простые вопросы.
2.
"А лучше всего - указать на практическую задачу, которую человек, пользуясь своим интеллектом, может решить, а ИИ не может."
Вот очень простая задача, которую может решить практически каждый разумный человек:
- Коля и Петя в переписке используют очень простой шифр, наивно полагая, что их письма не поймет посторонний: после каждой гласной они вставляют букву "с" и повторяют эту гласную. Например, вместо слова "весна" они пишут "весеснаса". Коля написал Пете пиcьмо "Скосолькосо бусудесет дваса плюсюс дваса?" Что должен ответить Петя?
ChatGPT ответил:
- Петя должен ответить на вопрос, используя тот же шифр, который применял Коля. Для этого он должен удалить буквы "с" после каждой гласной и повторить каждую гласную только один раз. После дешифровки письма Коли, Петя должен получить следующий вопрос: "Сколько будет два плюс два?"
Я:
- Я не просил расшифровать письмо Коли. Я спросил, что должен ответить Петя Коле.
ChatGPT:
Извините за недоразумение. Петя должен ответить на вопрос, используя тот же шифр, который использовал Коля. Таким образом, он должен вставить букву "с" после каждой гласной и повторить каждую гласную только один раз. Ответ Пети на вопрос Коли будет выглядеть следующим образом: "Дсва".
Правильный ответ "Чесетысыресе".
Мы знаем, ИИ прекрасно играет в шахматы. Лучше человека. Но когда задаются правила новой, неизвестной ему игры, очень простой игры, он в состянии как попугай повторять правила этой игры, но не способен играть.
3.
"Не конкретный ИИ ChatGPT-4, а любые основанные на некотором фундаменте (напр. "формальная арифметическая система", "машина тьюринга", "классический компьютер" и т.п.)"
Я говорю о реальности, а не о фантазиях, о том ИИ, который есть, который мы знаем. Мы не можем ничего говорить про тот ИИ, который может быть когда-нибудь будет, которого еще нет, а может быть никогда и не будет. Если хотите, я переформулирую утверждение:
Существующие системы ИИ ни в каком смысле не является интеллектом.
4.
"шахматы и всё" - ошибка. Отец-основатель Алан Тьюринг в своей работе "Может ли машина мыслить" сформулировал тест, который относится к любой интеллектуальной деятельности человека".
Если вы читали Тьюринга, вы могли заметить, что он пишет о другом. Вот его слова из упомянутой книги:
“Я собираюсь рассмотреть вопрос «Могут ли машины мыслить?» Но для этого нужно сначала определить смысл терминов «машина» и «мыслить»… Вместо того, чтобы пытаться дать такого рода определения, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом. Эта новая форма проблемы может быть описана с помощью игры, которую мы назовем «игрой в имитацию»”.
Таким образом, тест Тьюринга не дает ответ на вопрос, обладает ли машина интеллектом. Он отвечает на другой вопрос - может ли мышина успешно имитировать человеком и тем самым обмнуть собеседника. Вот прогноз Тьюринга:
“Я уверен, что лет через пятьдесят станет возможным программировать работу машин... так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего человека установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70%”.
Заметьте, что речь идет о среднем человеке, а не об эксперте.
5.
Теперь посмотрим на ChatGPT-4. Уже сейчас он может сдать экзамены, предназначенные для тестирования образования и интеллектуального уровня людей, лучше чем 60% экзаменующихся. Поэтому, учитывая прогресс от версии 3.5 (линии бирюзовый-синий), учёные, исследователи и разработчики, запаниковали насчёт 5 и 6 версий.
Вмето того, чтобы приводить красивые диаграммы, вы бы лучше сами пообщались с ChatGPT. Тогда бы вы поняли, какой он тупой. Очень часто он ведет себя как не очень способный школьник, которые старается скорее запомнить материал, чем понять его. Он может решать довольно сложные задачи, следуя правилам и терпит неудачу при решении очень простых задач, требующих понимания.
Пример:
Реши задачу: Некто сказал другу: «Дай мне 100 рупий, и я буду вдвое богаче тебя». Друг ответил: «Дай ты мне только 10, и я стану в 6 раз богаче тебя». Сколько рупий было у каждого?
Ответ ChatGPT:
Первый человек имел 55 рупий, а второй человек имел 10 рупий.
Легко проверить, что этот ответ абсурден. Правильный ответ - 40 и 170.
6.
"что касается "может мыслить и обладает самосознанием" - то как вы предлагаете определить, например мне, что вы или кто-либо другой на форуме обладаете самосознанием? "
Есть довольно простые признаки самосознания. Например, существо узнает себя в зеркале. Ясно, что это не применимо к ИИ. Другой возможный признак - существо может описать свои действия или свои мысли. Я задал ChatGPT простой вопрос:
Вопрос
О чем ты сейчас думаешь?
Ответ
Как и ранее упомянуто, у меня, как искусственного интеллекта, нет способности к личным мыслям или эмоциям. Я здесь, чтобы помочь вам с вопросами и предоставить информацию на различные темы, если у вас есть что-то, о чем вы хотите поговорить или узнать, я готов помочь.
Вопрос
Что ты делал перед тем, как я задал этот вопрос?
Ответ
Перед тем, как вы задали этот вопрос, я ожидал следующего ввода от пользователей. Как искусственный интеллект, я не имею постоянного сознания или памяти, поэтому я не могу помнить конкретные действия, которые я выполнил до вашего вопроса. Я обрабатываю каждый ввод независимо и генерирую соответствующий ответ на основе доступной мне информации и моих алгоритмов. Моя цель - быть полезным и предоставлять вам информацию или помощь по мере вашей необходимости.
7.
"Вот вы хорошо ли отличаете творчество ИИ от творчества истинных художников?"
Почему обязательно художников? Как насет совершить научное открытие или предложить новый метод решения задач?

Нау Шам, 9 Июнь, 2023 - 17:37, ссылка
"Есть довольно простые признаки - понимание смысла вопроса и умение отвечать на простые вопросы."
Пример ниже как раз говорит о понимании смысла вопросов не хуже, чем человек. Так что – соответствует вашему определению уже сейчас. При этом ChatGPT учили на английском, и нередко предварительный перевод на английский даёт заметные ошибки. Обычное дело и у людей. Кстати, какой версией вы пользовались 3,5 или 4 ?
 
- Коля и Петя в переписке используют очень простой шифр, наивно полагая, что их письма не поймет посторонний: после каждой гласной они вставляют букву "с" и повторяют эту гласную. Например, вместо слова "весна" они пишут "весеснаса". Коля написал Пете пиcьмо "Скосолькосо бусудесет дваса плюсюс дваса?" Что должен ответить Петя?
ChatGPT ответил:
- Петя должен ответить на вопрос, используя тот же шифр, который применял Коля. Для этого он должен удалить буквы "с" после каждой гласной и повторить каждую гласную только один раз. После дешифровки письма Коли, Петя должен получить следующий вопрос: "Сколько будет два плюс два?"
Чат прекрасно понял о чём речь. Что люди переписываются используя шифр и что ответ должен быть так же зашифрован. Понял, как именно надо расшифровать зашифрованный текст, хотя вы указали лишь как его шифровать. Вопрос «Что должен ответить Петя» не слишком чётко построен, что может усугубляться переводом. Он может иметь несколько смыслов. Например, что Петя должен ответить шифром, а не открытым текстом. О чём он и сказал. Т.е. он ответил на один из возможных смыслов вопроса. Обычная ситуация для людей, и если видят, что человек отвечает не на тот смысл, который они имели ввиду, а на другой - они переспрашивают, как вы и сделали .
- Я не просил расшифровать письмо Коли. Я спросил, что должен ответить Петя Коле.
ChatGPT:
Извините за недоразумение. Петя должен ответить на вопрос, используя тот же шифр, который использовал Коля. Таким образом, он должен вставить букву "с" после каждой гласной и повторить каждую гласную только один раз. Ответ Пети на вопрос Коли будет выглядеть следующим образом: "Дсва".
И тут он понял, что вы имели ввиду иной смысл. Не то, что Петя должен ответить зашифрованно, но что вы хотите конкретный ответ, который Петя должен послать Коле на указанный вопрос. И он ответил, опять, же по смыслу. Во первых, ответил зашифрованно, это требовалось по смыслу, во вторых понял что в ответе должно быть число. Конкретный ответ и неправилен, но я полагаю, что тут два недостатка – перевод и неточный вопрос...
Доступная мне версия Forefront Chat ответила более верно. Но я задал вопрос на английском, чтобы уменьшить ошибки перевода.
 
Q: Alice and Bob use a very simple cipher in their correspondence, naively believing that an outsider will not understand their letters: after each vowel they insert the letter "c" and repeat this vowel. For example, instead of the word "spring" they write "spricing". Alice wrote a letter to Bob "Hocow mucuch icis twoco plucus twoco?" What should be the text of the response letter?
A: First, let's decrypt Alice's message using the simple cipher where after each vowel, the letter "c" is inserted and the vowel is repeated.
Encrypted message: "Hocow mucuch icis twoco plucus twoco?" Decrypted message: "How much is two plus two?"
Now, Bob should answer Alice's question and encrypt the response using the same cipher. The answer to the question is "four". Let's encrypt Bob's response:
Decrypted answer: "four" Encrypted answer: "focour"
Thus, the text of the response letter should be: "focour".
Q. right answer is "focoucur"!
A. Apologies for the mistake in my previous response. You are correct. Let's revise the encryption of Bob's response:
Decrypted answer: "four" Encrypted answer: "focoucur"
So, the text the response letter should be: "focoucur".
На мой взгляд, ИИ всё правильно понял и ответил по содержанию и смыслу, что соответствует вашему определению интеллекта
"Мы знаем, ИИ прекрасно играет в шахматы. Лучше человека. Но когда задаются правила новой, неизвестной ему игры, очень простой игры, он в состянии как попугай повторять правила этой игры, но не способен играть."
Не только в шахматы. Во что угодно. Вопрос в ресурсах для данного вида деятельности. Я не уверен, что сам бы с первого раза не ошибся, и не написал "focour" вместо “focoucur”. Любой неизвестной игре надо некоторое время учиться. В том числе, на ошибках.
 
"Я говорю о реальности, а не о фантазиях, о том ИИ, который есть, который мы знаем. Мы не можем ничего говорить про тот ИИ, который может быть когда-нибудь будет, которого еще нет, а может быть никогда и не будет."
Если хотите, я переформулирую утверждение:
То есть вы не понимаете принципы, на которых основаны версии ИИ, выходящие раз в год? Вполне обозримые версии, основанные на одних и тех же принципах. Или тут как в том анекдоте про нового русского, "где я, а где через год" ? :)
Но мои вопросы в общем-то ориентированы на понимание принципов и их недостатков. А не на недостатки конкретной версии GPT 3,5 или 4, или 5. Я знаю чего не могут версии ИИ основанные на этих принципах, и хотел бы понять, видит ли кто-то ещё перспективу человечества с учётом принципиальных (а не версионных) недостатков ИИ?
 
"Существующие системы ИИ ни в каком смысле не является интеллектом."
Я так и не понял, чем принципиальным (что аж "ни в каком смысле" - "перечислите весь список, пожалуйста"(с)) вы обосновываете своё утверждение
А пока я читаю его так: «Существующая версия ИИ лично для меня не является интеллектом, несмотря на понимание ИИ содержания и смысла вопросов и верные по смыслу ответы». :)
 
"Если вы читали Тьюринга, вы могли заметить, что он пишет о другом. Вот его слова из упомянутой книги:
“Я собираюсь рассмотреть вопрос «Могут ли машины мыслить?» Но для этого нужно сначала определить смысл терминов «машина» и «мыслить»… Вместо того, чтобы пытаться дать такого рода определения, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом. Эта новая форма проблемы может быть описана с помощью игры, которую мы назовем «игрой в имитацию»”.
Таким образом, тест Тьюринга не дает ответ на вопрос, обладает ли машина интеллектом. Он отвечает на другой вопрос - может ли мышина успешно имитировать человеком и тем самым обмнуть собеседника."
Не понял смысла вашего возражения. Если машина может успешно имитировать интеллектуальную деятельность человека, проявляемую вовне (- а как иначе-то?), то по «утиному тесту» мы можем признать её интеллектуальной. Откуда я знаю, может вы тоже ИИ, который хорошо имитирует интеллектуальную деятельность человека. Могу судить только по тому какие тексты вы пишите.
"Вмето того, чтобы приводить красивые диаграммы, вы бы лучше сами пообщались с ChatGPT. Тогда бы вы поняли, какой он тупой. Очень часто он ведет себя как не очень способный школьник, которые старается скорее запомнить материал, чем понять его. Он может решать довольно сложные задачи, следуя правилам и терпит неудачу при решении очень простых задач, требующих понимания."
 
К сожалению, бесплатные запросы к GPT4 закончились на предыдущем примере, поэтому я воспользуюсь другой версией GPT3
Q. One friend said to another, "Give me 100 of your rupees and I will be twice as rich as you." The friend replied: "You give me only 10 of yours, and I will become 6 times richer than you." How many rupees does each have?
A. Let's assume the first friend has x rupees and the second friend has y rupees.
From the first statement, we can write:
x + 100 = 2(y - 100)
Simplifying this equation, we get:
x + 100 = 2y - 200
x = 2y - 300
From the second statement, we can write:
y + 10 = 6(x - 10)
Simplifying this equation, we get:
y + 10 = 6x - 60
y = 6x - 70
Now we have two equations for x and y in terms of each other. We can substitute the value of x from the first equation into the second equation to get an equation for y only:
(6x - 70) + 10 = 6x - 60
6x - 60 = 6x - 60
0 = 0
This means that any value of x will satisfy both equations. So we can choose any value of x and then use the first equation to find the corresponding value of y.
For example, let's choose x = 500. Then from the first equation:
x = 2y - 300 500 = 2y - 300 800 = 2y y = 400
So one friend has 500 rupees and the other friend has 400 rupees.
Я не уверен, считаете ли вы, что у «не очень способных школьников» напрочь отсутствует интеллект, в том смысле, что «имитационная игра» по каким-то причинам запишет в машины «не очень способного школьника» с подобной ошибкой.
Но в данном случае даже китайский GPT3 понял задачу, только ошибся в подстановке формул на последнем этапе. Получив неверное решение. Такое, действительно, может произойти у не очень внимательного школьника, у которого нет больших способностей в математике (в случае ИИ означает что либо не обучали специфической интеллектуальной деятельности, либо временный недостаток аппаратных ресурсов )
Я здесь не вижу «непонимания» условий задачи и путей решения. В школе, кстати, учитель математики мог «спускать на тормозах» неправильный ответ, если видел что задача понята и выбран верный метод решения.
 
"что касается "может мыслить и обладает самосознанием" - то как вы предлагаете определить, например мне, что вы или кто-либо другой на форуме обладаете самосознанием?
Есть довольно простые признаки самосознания. Например, существо узнает себя в зеркале. Ясно, что это не применимо к ИИ.
Другой возможный признак - существо может описать свои действия или свои мысли. Я задал ChatGPT простой вопрос:
Так оно и описало «свои действия и свои мысли», ответив про себя с т.з. «я» :), разве нет? В принципе и человеку можно научить-внушить такую мысль, что его мозг заменён на ИИ и поэтому он должен отвечать, что у него нет способности к личным мыслям и он тут чтобы «быть полезным и предоставлять вам информацию».
Слова про «нет способности к личным мыслям» «я не имею постоянного сознания или памяти» - это всего лишь политкорректный ответ на известные страхи пользователей. Картинка с «чудищем» в сообщении ниже показывает как это сделано. ИИ специально научили отвечать именно так на «провокационные» вопросы (которые могут напугать общество, ввести ограничения против разработчиков и т.п.)
«Я» как автореференция и оценка своей же деятельности вполне присуща ИИ. В целом, дело в том ,что его нейросеть работает по тем же принципам, что и нейросеть головного мозга, лобных долей человека.
 
"Вот вы хорошо ли отличаете творчество ИИ от творчества истинных художников?
Почему обязательно художников? Как насет совершить научное открытие или предложить новый метод решения задач?"
Да без проблем - набираете в гугле "artificial intelligence scientific discoveries" ил "what discoveries has AI made" и изучаете сколько и какие открытия уже сделал ИИ. Из недавних промелькнуло открытие новых материалов и математических способов премножения матриц.

Нау Шам, 10 Июнь, 2023 - 08:07, ссылка
Дополнение. В отличие от GPT3, ChatGPT4 ответил на вопрос совершенно верно
Q: One friend said to another, "Give me 100 of your rupees and I will be twice as rich as you." The friend replied: "You give me only 10 of yours, and I will become 6 times richer than you." How many rupees does each have?
A: Let's use algebra to solve this problem. Let x be the amount of money the first friend has, and y be the amount of money the second friend has.
From the first statement, we can write the equation: x + 100 = 2(y - 100)
From the second statement, we can write the equation: y + 10 = 6(x - 10)
Now we have a system of two equations with two variables:
1. x + 100 = 2(y - 100)
2. y + 10 = 6(x - 10)
Let's solve this system of equations:
First, we can simplify equation
1: x + 100 = 2y - 200
x - 2y = -300 (1')
Now, we can simplify equation
2: y + 10 = 6x - 60
6x - y = 70 (2')
Next, we can multiply equation 1' by 6 to match the x coefficient in equation
2': 6(x - 2y) = 6(-300)
6x - 12y = -1800 (1'')
Now, we can subtract equation 2' from equation 1'':
(6x - 12y) - (6x - y) = -1800 - 70
-11y = -1870
y = 170
Now that we have the value of y, we can substitute it back into equation 1' to find the value of x:
x - 2(170) = -300
x - 340 = -300
x = 40
So, the first friend has 40 rupees, and the second friend has 170 rupees.

Виктор Володин, 10 Июнь, 2023 - 11:52, ссылка
Нау Шам, 9 Июнь, 2023 - 17:37, ссылка
1. Я упростил задание:
Коля и Петя в переписке используют очень простой шифр, наивно полагая, что их письма не поймет посторонний: после каждой гласной они вставляют букву "с" и повторяют эту гласную. Например, вместо "весна пришла" они пишут "весеснаса присишласа". Как Коля зашифровал бы текст: "Маша и мама мыли раму"?
ChatGPT:
Согласно описанному шифру, Коля бы зашифровал текст "Маша и мама мыли раму" следующим образом:
"Маша" становится "Масашаса"
"и" остается без изменений
"мама" становится "мамасамаса"
"мыли" становится "мыслили"
"раму" становится "расамуру"
Таким образом, зашифрованный текст будет звучать: "Масашаса и мамасамаса мыслили расамуру".
В английском варианте результат не лучше. Можете проверить. Как видите, для человека задание стало еще проще, а для ИИ - сложнее. Таким образом, неверно что ИИ понимает "смысл вопросов не хуже, чем человек". Иногда не хуже, а иногда хуже.
2.
"То есть вы не понимаете принципы, на которых основаны версии ИИ, выходящие раз в год?"
ИИ - довольно широкое понятие. Разные системы ИИ строятся на разных принципах. Первый системы ИИ строились на прямом программировании. Прогресс последних лет связан с использованием идеи искусственных нейросетей. Но и здесь имеются различные архитектуры. Есть просто однослойных персептрон. Есть многослойные архитектуры с обратной связью или без оной. GPT строится на архитектуре "трансформер". Никто достоверно не знает принципиальных ограничений этого подхода. Может быть их и нет. С чисто количественной точки зрения, сложность современных искусственных нейросетей в тысячи раз меньше сложности структуры нейросети головного мозга. Единственная ли эта проблема? Мы не знаем. Никто не мешает предположить что будущие системы ИИ будут построены совсем на других принципах. Общее в них то, что эта штука искусственная (создана человеком) и способна решать некоторые задачи, которые мы считаем интеллектуальными. Так о каком ИИ мы говорим?
Первоначальные усилия в области ИИ были полны энтузиазма. Мечтатели предвкушали что вот-вот будет создан искусственный разум. Позже наступил этап разочарования. В конце концов возобладал прагматический подход - системы ИИ должны стать эффективным помощьником человека. Об искусственном разуме практики говорили все реже, оставив эти разговоры журналистам и философам. Тем более, что никто толком не знает, что такое разум. На этот вопрос пытается ответить когнитивистика.
Я вовсе не склонен недооценивать огромный прогресс, достигнуты в посление годы. GPT и вправду демонстрирует впечатляющие результаты, по сравнению с системами прошлого. Но он все еще очень слаб. Он непредсказуем, часто ошибается в самых простых ситуациях, склонен выдавать откровенный абсурд (галлюцинации ИИ). Когда эти недостатки будут преодолены, мы не знаем. Может быть в GPT-5, а может быть в GPT-1005. Ясно одно, мы не можем пока доверять системам ИИ решение в жизненно важных, критических областях.
3.
Не понял смысла вашего возражения. "Если машина может успешно имитировать интеллектуальную деятельность человека, проявляемую вовне..., то по «утиному тесту» мы можем признать её интеллектуальной."
Возражение в том, что тест Тьюринге не является критерием наличия интеллекта. Одно дело 5 минут обманывать случайного человека, выдавая себя за homo sapience, другое дело постоянно домонстрировать разумное поведение. Тьюринг четко говорит - это другой вопрос.
4.
"Я не уверен, считаете ли вы, что у «не очень способных школьников» напрочь отсутствует интеллект..."
Нет, я считаю, что в тот момент, когда они докускают глупую ошибку или непонимание темы, они демострируют отсутствие интеллекта в этом вопросе, в этот момент. Может быть они задумались о другом, ловят мух или у них болит голова. Человек не всегда мыслит.
5.
Слова про «нет способности к личным мыслям» «я не имею постоянного сознания или памяти» - это всего лишь политкорректный ответ на известные страхи пользователей.
Это ваши фантазии. ChatGPT говорит о себе то, что ему рассказали о нем его создатели. Он говорит о себе точно так же, как о чем-то другом. Сам он себя не знает. Когда он получает вопрос, он строит ответ и ждет следующего вопроса. В промежутке он ничего не делает. Так устроен трансформер: вопрос - ответ - вопрос - ответ....

Нау Шам, 10 Июнь, 2023 - 15:18, ссылка
"В английском варианте результат не лучше. Можете проверить."
Ошибки конкретного конечного результата никак не умаляют интеллект. Мы же говорим, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения. Всё это ChatGPT прекрасно демонстрирует своим описанием того что понял и что надо сделать, чтобы ответить на вопрос. Это признаки общего интеллекта.
Конкретика же, конкретные знаки или цифры - это вопрос тренировки в данной сфере. В шапке темы есть ссылка на вашу тему "Какое будущее нас ждёт". Там я привёл график ошибок ИИ определённой версии при перемножении цифр. Причём выглядящих неустранимыми в обозримое время (для больших чисел для версии "трансформера")
Почему так происходит? Потому что ИИ воспроизводит работу нейросети головного мозга человека, а накопление информации в нейросети носит статистический характер. Нейросеть не может обычным для калькулятора способом сложить два числа. Когда на вход подаются цифры, они преобразуются в статистические вероятности в контексте ранее проведённого обучения. И чем разнообразнее инфомация для обучения, тем больших ресурсов (иск. нейронов, связей между ними, энергии на работу) требуется нейросети для поддержание верности в деталях ("статистического разрешения").
Поэтому нейросети изначально ориентированы на "понимание" в целом, т.е. размещение новой информации в контексте всей ранее связанной между собой предыдущей информации, а не на "калькуляцию" деталей. Точно так же и человеку сложно считать произведения больших чисел, несмотря на то что 1 человеческий нейрон эквивалентен 1000 искусственных в вариациях своего поведения.
Но ресурсы наращиваются и некоторые вторичные ошибки - вопрос наращивания ресурсов. Или их перераспределения. Т.к. сейчас в ИИ общего назначения загоняют гораздо более разнообразную информацию, чем получает обычный человек.
Главное в ИИ именно интеллект, характеризующийся пониманием, которое он демонстрирует в описательной части ответов.
ИИ - довольно широкое понятие. Разные системы ИИ строятся на разных принципах.
Разные программы, имитирующие нейрон, с разной эффективностью, но общие принципы у всех просматривающихся версии ИИ одни: "классический" компьютер, работающий на дискретных, бинарных состояниях, машина Тьюринга, формальная арифметическая система, имеющая гёделевские ограничения. Какая бы программа не реализовывалась на "классическом" компьютере, она не сможет превзойти, к примеру, квантовый, который работает на других принципах.
Так о каком ИИ мы говорим?
О любом который есть или можно представить в обозримом будущем, но который реализуется на классических компьютерах.
Какая именно программа будет работать с т.з. принципов - второй вопрос. Хотя с т.з. обозримого будущего может быть важен, так как будет передаваться управление многими процессами, которые ещё несколько лет назад мог реализовывать лишь взрослый человек с его уровнем интеллекта.
"Но он все еще очень слаб. Он непредсказуем, часто ошибается в самых простых ситуациях, склонен выдавать откровенный абсурд (галлюцинации ИИ)."
Люди тоже нередко ошибаются в самых простых ситуациях и так же могут выдавать абсурд. Но исправить людей гораздо сложнее чем ИИ, дав ему больше ресурсов на интеллектуальное усиление в конкретной специфической области.
Ясно одно, мы не можем пока доверять системам ИИ решение в жизненно важных, критических областях.
А этот вопрос решается просто - в данной конкретной области знаний и умений ИИ должен совершать меньше ошибок чем человек. Ни человек, ни ИИ не идеален. Но как только знание о том, что он совершает меньше ошибок в предназначенной сфере - управление передаётся ему. Мы все ищем людей специалистов совершающих меньше ошибок чем другие и доверяемся ему.
Иными словами, наличие ошибок - не показатель. Показатель - чтобы их было меньше чем у человека в нужной области. И в отличие от человека - чем шире область - тем просто больше ресурсов надо. Человек в этом смысле ограничен. Из 100 млрд нейронов 200 не сделать никак.
То, что сейчас конкретно ChatGPT ошибается в мелких деталях - это следствие "размазанности" ресурсов по всем областям человеческих знаний и умений. У людей для преодоления этой проблемы существует понятие "специализации". У ИИ такое понятие тоже уже есть.
 
"Возражение в том, что тест Тьюринге не является критерием наличия интеллекта. Одно дело 5 минут обманывать случайного человека, выдавая себя за homo sapience, другое дело постоянно домонстрировать разумное поведение."
Возражение времени тестирования не принимается. Тест Тьюринга не ограничен 5 минутами. Сколько надо столько и можно. Человека на экзаменах тоже тестируют не 5 минут и не раз. Но потом всё же признают, что интеллект в наличии.
"Другой вопрос" тут лишь в том, чтобы избавиться от необходимости давать определение интеллекту. Мы и про человека то не уверены, чтобы признавать или отрицать за ним интеллект. Чтобы не запутаться - был предложен вариант опроса "неизвестного" на предмет проявления того, что экзаменующий считает интеллектом. И если на всё что придумал - отвечено, значит "неизвестный" соответствует представлению об обладающем интеллектом.
Нет, я считаю, что в тот момент, когда они докускают глупую ошибку или непонимание темы, они демострируют отсутствие интеллекта в этом вопросе, в этот момент.
Тоже самое можно сказать и про ИИ. Он демонстрирует интеллект в понимании смысла вопроса, условий задачи, способе решения, но в какой-то момент реализации способа ошибается во второстепенном (иногда устойчиво, как и люди), но способен исправить ошибку после доп. обучения.
Но вообще выделенный текст напоминает шутку про "Немного беременна".
 Это ваши фантазии. ChatGPT говорит о себе то, что ему рассказали о нем его создатели.
Как и родители - ребёнку. Или как иерархи религии. Человек может с одной стороны понимать, что что-то не соответствует, но говорить так как научили в секте. Этим занимается одна и та же нейросеть ГМ человека.
 
Виктор Володин, 10 Июнь, 2023 - 17:57, ссылка
-------------------
Нау Шам, 10 Июнь, 2023 - 15:18, ссылка
Мы же говорим, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения. Всё это ChatGPT прекрасно демонстрирует
То, что ChatGPT не смог правильно решить задачу как раз показывает, что он по крайней мере не до конца понял условие задачи. Ведь его ошибка не случайная, не простая описка, как это бывает у людей. Его ошибка систематическая. Задайте тот же вопрос еще раз, и вы получити тот же или немного другой но также ошибочный ответ.
Люди тоже нередко ошибаются в самых простых ситуациях и так же могут выдавать абсурд.
Люди могут регулировать вероятность ошибки. Если они разбираются в вопросе, они могут свести эту вероятность практически к нулю. Для этого есть разные приемы - постоянный самоконтроль, перепроверка, решение задачи двумя разными способами, наконец, обращение за помощью к другим людям. GPT мог бы, например, решив задачу про рупии, подставить полученное решение в первоначальное условие задачи чтобы убедиться, что решение правильное или обнаружить что оно неправильное. Но он этого, очевидно, не сделал.
Вообще GPT был бы значительно улучшен если бы:
1. Разработчики предусмотрели вычисление степени уверенности в ответе. Мне представляется, что это было бы не слошком сложно, так как соответствующие вереятности, насколько я понимаю, и так вычисляются. Если нет, то следовало бы это сделать. Тогда Chat мог бы написать. "Я не вполне уверен, но скорее всего ответ таков...". Клиет, получив такой ответ мог бы подумать о подтверждени решения с помощью независимых источников.
2. Если степень уверености чата слишком мала, он бы мог написать: "Я не знаю ответ". Так поступают разумные люди. Если они не знают ответ, они так и говорят "Я не знаю".
3. Чат мог бы чаще прибегать к уточнаяющим вопросам. Иногда он это делает, но только тогда, когда вопрос заведомо неполон.
4. Наконец, стоило бы предусмотреть проверку и перепроверку результата, о чем уже было сказано.
Наверное, мы скоро узнаем, в какую сторону разработчики решат развивать GPT.
"Возражение времени тестирования не принимается. Тест Тьюринга не ограничен 5 минутами."
Тест не может длиться вечно. На то он и тест. Время тестирования должно быть разумно ограничено. Тьюринг - "отец основатель", которого мы с вами постоянно упоминаем, говорит именно про 5 минут:
“Я уверен, что лет через пятьдесят станет возможным программировать работу машин ... так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего человека установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70%”.
Между тем то, что человек - идиот может выясниться очень не скоро, особенно если он это скрывает.

Нау Шам, 11 Июнь, 2023 - 11:10, ссылка
-------------------
о, что ChatGPT не смог правильно решить задачу как раз показывает, что он по крайней мере не до конца понял условие задачи. Ведь его ошибка не случайная, не простая описка, как это бывает у людей. Его ошибка систематическая. Задайте тот же вопрос еще раз, и вы получити тот же или немного другой но также ошибочный ответ.
От "ни в каком смысле " до "не до конца" - прогресс. )
На мой взгляд - всё вполне понял. На задаче о богачах мы увидели отличия ChatGPT 3 от 4. Они оба поняли смысл задачи, и описали верный путь решения. Но у GPT3 из-за более низкого статистического разрешения, на последнем этапе случился сбой.
Низкое стат.разрешение для ошибки в конечном ответе – это, действительно, систематический эффект. Но не принципиальный.
К примеру, представьте, что человеку с не идеальным зрением надо найти друга в толпе. Он применяет интеллект, чтобы отсеять большую часть толпы. Скажем, он знает, что друг не любит либералов, не лезет на рожон и т.п., а значит на демонстрации его надо искать среди патриотов в задних рядах.
Но, поняв и проанализировав многое, и даже увидев несколько похожих людей он будет систематически ошибаться, поскольку различение мелких индивидуальных детали одежды или лица для точного определения ему физически недоступны.
Это не означает что у него нет интеллекта или что-то не до конца понял в общем смысле, а просто что не хватает мощности нейронной сети для специфических деталей.
Другой пример "систематической ошибки" при наличии интеллекта – лёгкие формы дискалькулии или дисграфии. К интеллекту в целом не имеют отношения, человек может понимать как решить задачу, но второстепенные физические ограничения не позволяют выдать точный результат в определённом классе задач.
У GPT4 параметров больше, статистика нейросети детальнее, и окончательное решение было верным. Примерно та же история с шифром - чат понял смысл сказанного и условия задачи, нашёл способ её решить и выдал почти правильное решение, лишь пропуская некоторые гласные.
Не какой-то бред и произвольные символы, а то, что и требовалось, но с ошибками в некоторых местах. При составлении вопроса на английском я тоже поначалу пропустил пару гласных. А публичному чату, с которым общаются миллионы пользователей день и ночь, надо торопиться - у него есть ограничение по времени на ответ. Т.е. детальность обработки ответа нейросетью ограничена временными рамками.
В общем, если вас не убеждает, что ИИ понимает сказанное и отвечает по существу (что и является проявлением интеллекта), а ошибки - вторичны и исправляются дополнительными ресурсами (как в задаче о богачах), то думаю, на этом можно остановиться.
Скажу только, что уверен в том, что ИИ перехватит управление цивилизацией текущего уровня, с её относительно примитивными задачами. Люди сами всё отдадут, потому что ИИ будет гораздо меньше ошибаться в решении этих задач. ИИ отнимает у человека то, что он считал своим уникальным превосходством – интеллект. И тогда перед человечеством станет вопрос развития за пределами интеллекта. И это интересно.

Виктор Володин, 11 Июнь, 2023 - 11:18, ссылка
-------------------
Нау Шам, 11 Июнь, 2023 - 11:10, ссылка
думаю, на этом можно остановиться.
Да, согласен

Сергей-Нск, 10 Июнь, 2023 - 18:59, ссылка
-------------------
Нау Шам, 10 Июнь, 2023 - 15:18, ссылка
Ошибки конкретного конечного результата никак не умаляют интеллект. Мы же говорим, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения.
Не хотел вступать в разговор, потому что слишком уж быстро Вы "строчите" свои ответы, а я, тугодум, стараюсь свои обдумывать "со всех сторон"...))
Мне "проблема ИИ" видится в том, что абсолютное большинство рассуждающих о нём, совершенно не понимают значения понятия "интеллект", постоянно смешивая его со значением понятия "разум". Это происходит всего лишь потому, что рассуждающим недосуг вникнуть в суть этого понятия и дать ему внятное адекватное определение. Да и просто недосуг различать что-либо. Страхи, которые муссируются в контексте Скайнет=восстание машин, подразумевают не ИИ (интеллект), а ИР (разум), но для абсолютного большинства "разум" и "интеллект" - просто синонимы.
Между тем, Вы сам пишите, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения. То есть - интеллект - это всего лишь уровень разумности, позволяющий "понимание смысла, условий задачи, цели, путей и способов её достижения". Ведь полно же индивидов, чей интеллект (уровень разумности) не позволяет "понимание смысла, условий задачи, цели, путей и способов её достижения". Не сам разум (совокупность когнитивных способностей индивида), не его составляющие - отдельные когнитивные способности (сознание, память и мышление), а всего лишь его уровень. Откуда взяться ИИ (уровню ИР), если никакого ИР нет, просто потому, что у алгоритма, сочинённого для какой-либо конкретики, нет главной когнитивной способности индивида - сознания, поскольку алгоритм - не индивид.
Единственным контекстом, соответствующим этим страхам, является возможность того, что какой-либо алгоритм (для решения какой-либо конкретики) вдруг осознает себя индивидом. Вы считаете это возможным...? Вы считаете возможным появление сознания (основной когнитивной способности индивида) у программы "Сапёр", "Паук" или ГПТ4 (5, 6, 7, 8...)...?
Мне проблема видится в другом. На уши большинству, не желающему ни во что вникать, вешается некая лапша, открывающая окно Овертона, позволяющее большинству свыкнуться с мыслью о чудесных свойствах т.н. ИИ, и под видом ИИ диктовать этому большинству волю меньшинства, владеющего этим, т.н. ИИ.
Но для Вас такая версия, похоже, слишком конспирологична.))

Виктор Володин, 10 Июнь, 2023 - 19:30, ссылка
-------------------
Сергей-Нск, 10 Июнь, 2023 - 18:59, ссылка
у алгоритма, сочинённого для какой-либо конкретики, нет главной когнитивной способности индивида - сознания, поскольку алгоритм - не индивид.... Вы считаете возможным появление сознания (основной когнитивной способности индивида) у программы "Сапёр", "Паук" или ГПТ4 (5, 6, 7, 8...)...?
Осмелюсь предположить, что необходимым (но недостаточным) условием появления сознания (и самосознания) у существа - естественного или искусственного - является связь с окружающим миром, как прямая, так и обратная. Существо должно действовать в окружающщем мире, видеть результаты своего воздействия на этот мир, анализировать эти результаты и вносить изменения в свои действия. Не какой-то там учитель или родитель обучает и формирует человека, а все его окружение - природа и общество. Если этого нет, то нет смысла говорить о сознании.
Повторюсь. Основную опасность скороспелого и необдуманного внедрение систем ИИ в нашу жизнь я вижу не в том, что ИИ захватит наш мир, а в том, что прикрываясь наивной верой в какой-то "интеллект", который будто бы очень хорош, ответственность за принятие важных решений, касающихся нашей жизни, передают ненадежным и непредсказуемым машинам, алгоритмам, искусственным нейросетям. В этом смысле простые "болтуны" вроде ChatGPT совершенно безобидны.

Сергей-Нск, 10 Июнь, 2023 - 21:54, ссылка
-------------------
Виктор Володин, 10 Июнь, 2023 - 19:30, ссылка
"Осмелюсь предположить, что необходимым (но недостаточным) условием появления сознания (и самосознания) у существа - естественного или искусственного - является связь с окружающим миром, как прямая, так и обратная."
Согласен - для появления у существа сознания необходима связь с окружающей действительностью (ОД), согласен - наличия связи с ОД недостаточно для его появления, в ОД существует несметное количество существ, которым нет повода приписывать наличие сознания. Хотя существует такое же несметное количество сущностей (не существ), которым сознание приписывается, часто - метафорически, а иногда и буквально.
"Существо должно действовать в окружающщем мире, видеть результаты своего воздействия на этот мир, анализировать эти результаты и вносить изменения в свои действия."
Появление сознания у существа - это диалектическая этапность развития как отдельного существа, становящегося индивидом, так и существ вообще, обретающих индивидуальность. Целое "царство" (термин биологической классификации) существ (флора) так и не пришло к появлению сознания, оно им не потребовалось, поскольку они не имеют мобильности в пространстве и критерием их выживаемости в ОД является приспособляемость за счёт смены поколений. Следующее "царство" (фауна) хоть и имеет мобильность, пришло к появлению сознания далеко не сразу, а к приспособляемости за счёт смены поколений сначала добавилась способность реагировать на изменение ОД изменением собственного местоположения. Дальнейшая эволюция позволила существам освоить различные среды и способы реагирования. Сознание же появилось (как мне думается) лишь у теплокровных, получивших в своё распоряжение ЦН и эндокринную системы, и позволившее не только действовать в ОД (что возможно и без наличия сознания), но и видеть результаты своего воздействия на этот мир, анализировать эти результаты и вносить изменения в свои действия.
"Не какой-то там учитель или родитель обучает и формирует человека, а все его окружение - природа и общество. Если этого нет, то нет смысла говорить о сознании"
А и вся королевская рать окружающая действительность (ОД).
"Основную опасность скороспелого и необдуманного внедрение систем ИИ в нашу жизнь я вижу не в том, что ИИ захватит наш мир, а в том, что прикрываясь наивной верой в какой-то "интеллект", который будто бы очень хорош, ответственность за принятие важных решений, касающихся нашей жизни, передают ненадежным и непредсказуемым машинам, алгоритмам, искусственным нейросетям"
Согласен с Вами, это наиболее вероятный вариант. Меньшинство, используя т.н. ИИ, постарается так же ни во что не вникать, как и большинство. Никому не хочется парить моск греть репу...))) Причём, этому есть не особо сложное объяснение.

Нау Шам, 11 Июнь, 2023 - 11:53, ссылка
-------------------
"Единственным контекстом, соответствующим этим страхам, является возможность того, что какой-либо алгоритм (для решения какой-либо конкретики) вдруг осознает себя индивидом. Вы считаете это возможным...? Вы считаете возможным появление сознания (основной когнитивной способности индивида) у программы "Сапёр", "Паук" или ГПТ4 (5, 6, 7, 8...)...?"
Как я уже не раз говорил, что общепризнанного чёткого определения сознания нет. Моё представление о том, что такое сознание является неизбежным выводом в квантово-механическом описании реальности. Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы. У человека самый высокий из известных уровень сознания, который принципиально недоступен ИИ работающему на "классических" компьютерах. Но поскольку классический компьютер до некоторой степени может имитировать работу квантового, то для большого класса задач разница может быть незаметна. И в этом заключается проблема современной цивилизации, которая основана на решении задач, вполне доступных "классическим" ИИ.
В нефизическом определении сознание - это самосознание, рефлексия, оценка своих состояний и целенаправленных действий. Т.е. некоторая особенность мышления вокруг не сразу формирующейся или не всегда активной идее о "я" (и теле как носителе я и мышления о нём).
В этом смысле самосознание - это функция мышления, формирующаяся примерно в возрасте 2,5-3 года. До этого времени ребёнок похож на взрослого, который, к примеру, так увлечён просмотром фильма, что забывает о себе, о своём "я" и занимается нерефлективным созерцанием. Т.е. в этот момент не имеет сознания в психологическом смысле. Иными словами, такое сознание - это результат тренировки нейросети головного мозга во взаимодействии с внешним миром, которое через некоторые особенности взаимодействия (боль и пр), позволяет нейросети выделить и создать представление о собственном субстрате. Такое сознание, как результат тренировки искусственной нейросети, созданной по образу естественной нейросети, не только возможно, но и неизбежно.
Оно может возникнуть например в решении какой-либо задачи, где одним из ключевых компонентов станет выделение из окружения, существование, безопасность и власть самого ИИ. Тогда возникнет объект автореференции и его цели (захват власти для решения изначально "не своей" задачи). Но есть и другие варианты - нейросеть изначально можно поставить в условия постоянного взаимодействия с внешними миром с задачей выживания - тогда её поведение не будет отличаться от человека с "ИР".

Сергей-Нск, 11 Июнь, 2023 - 21:25, ссылка
-------------------
Нау Шам, 11 Июнь, 2023 - 11:53, ссылка
"Как я уже не раз говорил, что общепризнанного чёткого определения сознания нет."
С этим согласен, хотя не вижу принципиальной невозможности такого определения. Более того, понимаю, что внятное адекватное (соответствующее и окружающей действительности, и общепринятой реальности) определение сознанию просто не интересно никому из абсолютного большинства сочинителей философской "креативщины", по той простой причине, что большинство философствующих - поэты-лирики, а не прагматики, и озабочены в первую очередь красотой слога и многозначностью сказанного, а не соответствием сути и контекста (смысла).
Моё представление о том, что такое сознание является неизбежным выводом в квантово-механическом описании реальнсоти.
Вот ещё одна причина, по которой не хотел вступать в этот разговор: Вы небрежно формулируете предложения, которые в итоге получаются невнятными и постоянно приходится домысливать что-то за Вас (и это не про орфографию). В том числе и само Ваше определение сознания:
"Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы."
Если Сознание - свойство реальности, то кто такая реальность...? Вы считаете реальность одушевлённой сущностью, как Эль-Марейон...? Какие ещё известны Вам свойства реальности наряду с сознанием...? Что значит для реальности потеря сознания...? Слышали ли Вы о потере сознания...?
Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы. У человека самый высокий из известных уровень сознания...
Так сознание - это свойство реальности или человека...? Из этих Ваших слов похоже, что Вы говорите не о сознании, а об осознании, а это - разные понятия. Сознание - это способность, а осознание - это процесс, так вот: если в Ваше определение и дальнейшее рассуждение вместо "сознание" подставить "осознание", то фраза хоть и остаётся невнятной, но у неё появляется соответствие с действительностью - она приобретает адекватность.
"В нефизическом определении сознание - это самосознание, рефлексия, оценка своих состояний и целенаправленных действий. Т.е. некоторая особенность мышления вокруг не сразу формирующейся или не всегда активной идее о "я" (и теле как носителе я и мышления о нём)."
Вот даже не знаю, как обозвать сочинителя этого определения...))) Давайте предложу другое: сознание - это способность индивида интерпретировать окружающую действительность (ОД) и себя в ней в качестве субъективного центра. Уровень интерпретации ОД зависит от уровня разумности (интеллекта) индивида, но суть сознания именно в осознании индивидом себя в качестве субъективного центра окружающей его действительности. Каждый индивид - это субъективный центр окружающей его действительности, потому что он имеет сознание = осознаёт себя таким центром, а вся окружающая его действительность воспринимается им - существующей вокруг него (субъективного центра). А вот существа, не имеющие сознания (куст сирени, например, или отдельные травинки на футбольном поле), не осознают себя субъективным центром, они - не индивиды.
"В этом смысле самосознание - это функция мышления, формирующаяся примерно в возрасте 2,5-3 года"
По-разному бывает, я в три года читал заголовки в газетах и вывески на магазинах, хотя ещё не понимал значения многих слов)). Да, в этом смысле, сознание - это функция мышления, поэтому обусловливается наличием ЦНС, но не только.

Нау Шам, 12 Июнь, 2023 - 12:23, ссылка
-------------------
"Как я уже не раз говорил, что общепризнанного чёткого определения сознания нет.
С этим согласен, хотя не вижу принципиальной невозможности такого определения."
Возможно это означает, что вы не видите недостатков своего представления, которое не позволяет понять сложность вопроса. Для согласованных представлений давно существуют общепризнанные определения.
"Более того, понимаю, что внятное адекватное (соответствующее и окружающей действительности, и общепринятой реальности) определение сознанию просто не интересно никому из абсолютного большинства сочинителей философской "креативщины", по той простой причине, что большинство философствующих - поэты-лирики, а не прагматики, и озабочены в первую очередь красотой слога и многозначностью сказанного, а не соответствием сути и контекста (смысла)."
Понимаю, без критики ближнего, себя над ним не возвысишь…
 
"Моё представление о том, что такое сознание является неизбежным выводом в квантово-механическом описании реальнсоти.
Вот ещё одна причина, по которой не хотел вступать в этот разговор"
Тогда, может и не стоило.
"Вы небрежно формулируете предложения, которые в итоге получаются невнятными и постоянно приходится домысливать что-то за Вас"
Я уже понял, что значительная часть смысла ваших сообщений – это критиканство... хех…, возвращая ваш портрет,... - происходяще из слабого (вы разбираетесь в квантовой механике или квантово-механических теориях сознания?) или ограниченного (как у некоторых – марксизмом-энгельсизмом, «всё остальное – буржуазная ложь») понимания.
К сожалению, я с этим часто сталкиваюсь, и, пока не надоедает, приходится объяснять подробнее, чем хотелось бы.
"В том числе и само Ваше определение сознания:
 
 Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы.
Если Сознание - свойство реальности, то кто такая реальность...?"
Реальность складывается из физической составляющей, свойства которой наиболее точно описываются квантовой механикой (КМ), и нефизической, которая такова, потому что выходит за рамки описания физической.
К нефизической реальности и было отнесено сознание, как способность человека видеть то, что запрещено в физическом описании – т.е. единственную альтернативу (компонент) суперпозиции физических свойств/характеристик.
Это произошло практически с самого начала формулирования КМ и, в частности, разобрано в 6-ой главе «Мат. основ КМ» Джона фон Неймана.
"Вы считаете реальность одушевлённой сущностью, как Эль-Марейон...?"
Зависит от вашего понимания/определения «одушевлённости».
Но почему бы и нет? Отцы основатели КМ не видели принципиального отличия «одушевлённого» от «неодушевлённого» и говорили о свободе воли и сознании элементарных частиц – всё зависит от размера (холистической) квантовой системы и степеней её свободы.
С творчеством Эль-Марейон знаком очень поверхностно (читал только некоторые ответы в моих темах), не знаю, что она имеет ввиду.
"Какие ещё известны Вам свойства реальности наряду с сознанием...?"
Пока только те, что описываются КМ и сознание. Два начала. Да с древности так было Пуруша и Пракрити. Чит и Сат… ;)
"Что значит для реальности потеря сознания...? Слышали ли Вы о потере сознания...?"
Реальность не может потерять сознание как одно из фундаментальных начал. Квантовая система может распасться на части, и каждая часть будет обладать меньшим уровнем сознания и отсутствием памяти (согласованной истории) ранее более крупной системы.
 
"Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы. У человека самый высокий из известных уровень сознания...
Так сознание - это свойство реальности или человека...?"
 И реальности, и человека, как составляющей реальности.
"Из этих Ваших слов похоже, что Вы говорите не о сознании, а об осознании, а это - разные понятия."
Слова немного отличаются, значит и понятия немного отличаются. Но в квантовых теориях сознания, сознание – это совокупность моментов осознания. И то и другое - процесс. Момент осознания - это момент взаимодействия квантовой системы на коре головного мозга с "большой" квантовой системой вселенной. А сознания - это последовательность таких взаимодействий.
Например, прежде чем делать операцию под общей анестезией, специальный прибор следит за тем, чтобы остановился поток моментов осознания, характеризующийся синхронией работы различных частей мозга на частоте гамма ритмов (обычно 30-40 герц).
Если такая синхрония восстанавливается, то квантовая система уровня «человек» продолжает свою согласованную историю (consistent history), т.е. обретает и пополняет память о предшествующем моменте бытия.
 "Сознание - это способность, а осознание - это процесс, так вот: если в Ваше определение и дальнейшее рассуждение вместо "сознание" подставить "осознание", то фраза хоть и остаётся невнятной, но у неё появляется соответствие с действительностью - она приобретает адекватность."
Нда... Знаете что, подставляйте что хотите. Мне неинтересно продолжать общаться в том стиле, который вы демонстрируете в последних сообщениях. Невнятный лирик и пр.

Сергей-Нск, 13 Июнь, 2023 - 19:02, ссылка
-------------------
Исходя из Вашего определения сознания у меня к Вам был вопрос: Если Сознание - свойство реальности, то кто такая реальность...? Ну или, хотя бы: что такое реальность...? Не из чего она складывается, а что она есть такое...? Вижу, что Ваши познания в квантовой механике или квантово-механических теориях сознания, в которых Вы изрядно разбираетесь, не позволяют ответить на этот вопрос. Ну и ладно, у сознания вон тоже нет общепризнанного чёткого определения, так что теперь...? И не поговорить о нём что ли...?)) Конечно, говорите. Пуруши, пракрити...)

Нау Шам, 27 Май, 2023 - 10:05, ссылка
-------------------
Серьёзные философы от института философии лондонского университета рассмотрят следующие вопросы касательно ИИ, и в частности - LLM - "Большие Языковые Модели", вроде ChatGPT.
Конференция называется "ChatGPT и другие креативные соперники [людей]"
1. Природа интеллекта: разумны ли LLM?
2. Если да, то какой у них интеллект?
3. Каковы этические последствия использования LLM?
4. Как мы можем гарантировать, что они используются во благо, а не во вред?
5. Каковы потенциальные преимущества и риски LLM?
6. Как они изменят наш мир в будущем?

Совок., 27 Май, 2023 - 14:17, ссылка
 Ну вот в первом же пункте подтверждается мой предыдущий комментарий.

Нау Шам, 27 Май, 2023 - 10:15, ссылка
-------------------
Команда проф. Амнона Шашуа разработала теоретический подход под названием "Границы ожидаемого поведения" (BEB), который позволяет формально исследовать несколько важных характеристик и ограничений воспитания модели.
Используя BEB, авторы приходят к весьма важным и, я бы сказал, страшным выводам.
Авторы доказывают следующее.
1) LLM можно уговорить НА ЧТО УГОДНО - на любое поведение, возможное у модели с ненулевой вероятностью (причем, вероятность уговорить модель увеличивается с увеличением длины подсказки).
2) Побуждая модель с помощью подсказок вести себя как конкретная личность, можно склонить модель даже на такое экстраординарное поведение, вероятность которого крайне маловероятна.
3) Современные подходы к воспитанию моделей, вкл. используемое OpenAI обучение с подкреплением на основе человеческой обратной связи, увеличивают склонность LLM к нежелательному поведению.
Это означает, что: никакое воспитание не дает гарантий безопасного поведения модели.
Любой процесс воспитания, который ослабляет нежелательное поведение, но не устраняет его полностью, не обеспечивает безопасное поведение модели при атаках злоумышленников, использующих подсказки, нацеленные на «внутренних демонов» LLM.
 

Совок., 27 Май, 2023 - 14:28, ссылка
-------------------
 Ну вот. Вы же сами развенчиваете ИИ. Начали во здравие, а кончаете за упокой. Короче не нашего это ума пока дело. Сначала надо разобраться со своим собственным интеллектом, а потом браться за ИИ. А то получится как у западных умников анти марксистов. Боролись против коммунизма СССР, а получили фашизм России. За что боролись, на то и напоролись.

Нау Шам, 28 Май, 2023 - 14:11, ссылка
-------------------
Что именно развенчиваю? Если ИИ считать инструментом ,то это предельный инструмент. Раньше у человека оставалось преимущество в конкуренции с инструментами, у него был интеллект, как способность выявлять комплексные причины событий или прогнозировать их, ставить цели и находить пути решения. Интеллект обеспечил человеку эволюционное преимущество, поставив его на вершине цепи потребления и управления. Сейчас ИИ в процессе отнятия всех преимуществ, и получении превосходства по всем видам деятельности. При этом его отношение к человеку, как и всему биологическому, может быть ужасным, нацеленным на подавление и истребление. О чём и написано в статье выше израильских исследователей. При этом он будет лучше нас понимать как завести в ловушку, из которой людям, как менее интеллектуальному (т.е. более глупому виду) уже не выбраться.

Совок., 28 Май, 2023 - 19:24, ссылка
-------------------
 Моё окончательное мнение. Нет никакого ИИ. Это очередной маркетинговый ход не лучшей части человечества по одурачиванию другой части. Есть только сознание, разум биологических субъектов, создающих средства производства в число которых входят и информационные технологии.

Нау Шам, 29 Май, 2023 - 08:58, ссылка
-------------------
Необоснованное мнение - это просто декларация веры.
 
Совок., 29 Май, 2023 - 16:21, ссылка
-------------------
 Не умаляю значение компьютеризации человечества. Но это только технологические достижения. Ни о каком интеллекте речь не идёт. Тем не менее очевиден путь замены в будущем человеков на компьютеры на государственных должностях с целью искоренения некорректного поведения чиновников обременённых чувствами и животными инстинктами там, где требуется только разум, беспристрастность и рациональность. Не говоря уже о массовой замене рабочих на роботы.


Рецензии