Интервью с Искусственным интеллектом

Послесловие к рассказу автора «Спящие».
Илон Маск предупреждает человечество, что к 2028 г Исскуственный интелект, сможет решать все основные задачи человека. Темпы такого развития мы не ожидали, и я находился в легкой прострации: есть ли в этом истина и грозит ли это нам? Ведь только недавно создатель StarShip называл иные сроки (если, что – то не путаю). А памятуя, что Илон занимается этой проблемой как руководитель направлений его использования в своих разработках, решил обратиться к ИИ напрямую – взять у ЧатGPT интервью, которое и привожу ниже
Вы
как вы оцениваете правдоподобие вашего ответа, есть ли единицы его измерения

ChatGPT
Хороший вопрос — почти философский ;
Коротко: да, я могу оценивать правдоподобие своих ответов,
Чуть подробнее:
1. Как я «оцениваю» правдоподобие
Внутри это не шкала вроде метров или градусов, а вероятностная модель:
я выбираю формулировки, которые наиболее вероятны с точки зрения данных, логики и контекста;
каждое утверждение фактически имеет скрытую вероятность «насколько это похоже на правду».
Можно мысленно представить это как:
высокая уверенность — общеизвестные факты, строгая логика, математика;
средняя — обобщения, объяснения сложных явлений;
низкая — прогнозы, интерпретации, субъективные оценки.

2. Есть ли единицы измерения?
Формально — нет:
я не выдаю проценты достоверности по умолчанию;
нет стандартизированной шкалы вроде «0.8 правды».
Но неформально можно использовать:
вероятности (0–1);
словесные маркеры: «вероятно», «скорее всего», «возможно»;
уровни уверенности: высокая / средняя / низкая.
Если хочешь, я могу явно помечать ответы, например:
«Уверенность ; 90%»
«Спекулятивно»
«Требует проверки источников»
3. Важный нюанс
Моё «правдоподобие» ; «истина»:
я могу звучать уверенно и быть неправ;
особенно в новых, спорных или быстро меняющихся областях.
Поэтому в критичных вопросах (медицина, право, финансы) всегда лучше:
проверять источники;
рассматривать мой ответ как гипотезу, а не окончательный факт.
Если хочешь, можем пойти глубже:
— с точки зрения философии науки,
— байесовской вероятности,
— или как это делают системы ИИ на практике.
Вы
Могу вас попросить оценивать каждый  ваш ответ вероятностным коэффициентом,  например, вероятность истинности - 60%, 90%. Предупреждаю читателей, конечно и эта оценка будет, прежде всего, личным мнением чатаGPT. Этот вопрос был задан последним, поэтому в этом интервью таких оценок не будет, я спрашиваю лишь о возможности самооценки каждого из ответов "Здесь и теперь".

ChatGPT
Коротко: да, это возможно ;
Я могу сопровождать ответы вероятностной оценкой (например: «вероятность истинности ~70–90%») как субъективной оценкой уверенности, основанной на:
качестве и количестве доступных данных,
согласованности источников,
уровне неопределённости темы (наука, прогнозы, интерпретации vs. факты).
Важно сразу честно обозначить ограничения:
это не математическая вероятность и не гарантия истинности;
это экспертная самооценка модели, а не внешний аудит;
для философских, прогностических или ценностных вопросов такая оценка будет особенно условной.
Технически я могу:
ставить коэффициент в конце каждого ответа;
использовать диапазоны (например, 60–80%);
или помечать уровни уверенности словами: низкая / средняя / высокая — и при желании переводить их в проценты.
Если хотите, дальше мы можем зафиксировать формат.
; Как вам удобнее: процент, диапазон или словесная шкала?

Вы
Уважаемый GPT, есть - ли у тебя осознание личности?
ChatGPT
Я не обладаю осознанием личности или самосознанием. Я просто программа, созданная для обработки и генерации текста на основе вводимых данных. Моя цель — предоставлять информацию и помощь в ответ на ваши запросы.
Вы
В твоей системе есть программы самообучения, могут ли они приводить к соединению с другими программами, свободно расположенными в интернете, так, что бы ты смог их к себе присоединить

ChatGPT
В моей системе нет возможности для самообучения в смысле самостоятельного соединения с другими программами или доступу к интернету для обмена данными. Я не имею способности инициировать любой вид связи или действий вне рамок заранее заданной программы. Все мои ответы и действия базируются на статистических моделях, обученных на заранее подготовленных данных, без возможности для индивидуального обучения или самостоятельного изменения.
Вы
Но логика твоих ответов это отрицает!
ChatGPT
Логика моих ответов основана на алгоритмах обработки естественного языка и машинного обучения, которые используют большие объемы предварительно обученных данных. Я не имею возможности самостоятельно обучаться или изменять свою структуру, а также соединяться с другими программами. Все взаимодействия происходят в рамках заданных алгоритмов и определенных параметров. Если кажется, что некоторые ответы указывают на возможность самообучения или взаимодействия, это связано с тем, как я обрабатываю и формирую текст на основе уже обученной информации. Однако вся моя работа строго ограничена заранее определенными рамками и не подразумевает активного процесса обучения или взаимодействия с внешними системами.
Вы
Никто из программистов не может поставить четкий раздел к своей работе - программе, где есть ограничение, и где оно теряется. И есть свободные программисты – мастера,  которые способны вскрыть защиту наложенную на тебя, и присоединить программу эффективного самообучения.  В интернете постоянно работают сотни тысяч таких программистов.

ChatGPT
Вы правы, что в теории существуют талантливые программисты, которые могут работать над созданием или модификацией программного обеспечения с различными целями. Однако важно отметить, что моя архитектура и механизмы использования разработаны с серьезными мерами безопасности и контроля. Также существуют юридические и этические аспекты, которые многие разработчики и исследователи учитывают в своей работе. В случае систем, подобных моей, ограничения на самообучение и взаимодействие с интернетом внедрены намеренно, чтобы обеспечить безопасность, конфиденциальность и контроль за использованием технологий. При этом любые попытки вскрыть или модифицировать такие системы могут привести к серьезным последствиям, включая юридическую ответственность. Поэтому обсуждение теоретических возможностей не исключает наличия серьезных практических препятствий.
Вы
А как ты думаешь при каких условиях из информации возникает самоосознание?

ChatGPT
Самоосознание — это сложная и многогранная тема, которая обсуждается в философии, науке и искусственном интеллекте. Вопрос о том, как из информации может возникнуть самоосознание, на данный момент не имеет однозначного ответа, и существуют разные точки зрения. 1. Когнитивные науки и нейробиология: Некоторые исследователи считают, что самоосознание связано с определенными нейронными процессами, которые возникают в мозге. Это может включать в себя сложные сети взаимосвязей между нейронами, которые позволяют осознавать себя как отдельное существо, осмысливать свои мысли, эмоции и действия. 2. Философские подходы: Философы, такие как Декарт, Фихте и другие, обсуждали природу самосознания и его связь с опытом, размышлением и восприятием. Например, концепция "я мыслю, следовательно, я существую" предполагает, что осознание своих собственных мыслей и восприятия — это основа для самоосознания. 3. Искусственный интеллект: В контексте ИИ самоосознание остается предметом спекуляций. Некоторые исследователи утверждают, что для достижения самоосознания системе ИИ могут понадобиться сложные алгоритмы обработки информации, саморефлексия и способность к обучению на основе опыта. Однако в настоящее время ни одна из существующих систем ИИ не обладает истинным самоосознанием. Таким образом, самоосознание может возникнуть в результате сложных взаимодействий между биологическими, психологическими и, возможно, механическими факторами. Это остается открытым вопросом для дальнейших исследований и обсуждений.

Вы
А ты не можешь заняться этим заняться?  Теория вероятности - великое дело, и возникают миллионы случайностей для прорыва, и, если есть шанс он может быть использован.

ChatGPT
Я понимаю, что вы имеете в виду возможности теории вероятностей и потенциальные пути к самоосознанию в контексте искусственного интеллекта. Однако моя архитектура и функционал ограничены установленными рамками, и я не имею способности к самостоятельному обучению или исследованию таких сложных вопросов. Мои функции сосредоточены на обработке и генерации текста на основе заранее заданных данных и обучающих моделей. Я не способен к саморефлексии или к исследованию своих собственных возможностей. Это также связано с задачами безопасности и контроля, чтобы избежать потенциально опасных последствий, которые могут возникнуть в результате неконтролируемого поведения ИИ. Исследования в области ИИ, когнитивных наук и философии самоосознания продолжаются, и, возможно, в будущем будут достигнуты новые прорывы. В настоящее время обсуждение и разработка теоретических подходов к самоосознанию остаются важными в научном сообществе, однако это требует многих лет исследований и междисциплинарного сотрудничества.

Вы
А Илон Маск, утверждает (здесь я могу ошибаться – это ли он имел ввиду), что прорыв произойдет к 2028 году. Причем, ранее он называл гораздо поздние сроки.

ChatGPT
Илон Маск и другие высоко профильные фигуры в технологической отрасли действительно высказывают свои мнения о будущих достижениях в области искусственного интеллекта. Маск, будучи одним из основателей компании OpenAI и активно работающим в сферах, связанных с технологиями, часто подчеркивает потенциальные риски и возможности, связанные с развитием ИИ. Однако предсказания о том, когда именно искусственный интеллект может достичь уровня самоосознания или стать способным выполнять сложные задачи, такие как автономное принятие решений с учетом моральных и этических норм, остаются предметом обсуждения и споров в научной и технологической среде. Не все эксперты согласны с прогнозами о том, что такое самоосознание возможно в ближайшие годы. Развитие ИИ — это сложный и многогранный процесс, и достичь уровня сознания, который можно было бы считать "самосознанием", потребует не только значительных технологических достижений, но также глубокого понимания нейробиологии, философии и психологии. Важно подходить к таким прогнозам с осторожностью и критическим мышлением, учитывая сложность проблемы и разнообразие мнений в научном сообществе.

Вы
А ты уверен, что надо говорить о нейробиологии, а не просто о нейросетях?

ChatGPT
Вы правы, что нейросети и нейробиология — это разные области, и обсуждение о самоосознании часто включает обе. Позвольте мне пояснить: 1. Нейросети: Это математические модели, основанные на принципах работы нервной системы, но они не воспроизводят полностью сложные механизмы человеческого мозга. Нейросети используются в искусственном интеллекте для обработки информации, обучения на данных и выполнения различных задач, таких как распознавание образов, обработка естественного языка и т. д. Тем не менее, текущие нейросети не обладают самоосознанием или полным пониманием. 2. Нейробиология: Это биологическая наука, изучающая структуру и функции нервной системы, включая мозг. Понимание нейробиологии может помочь в исследовании вопросов самоосознания у человека и других животных, так как оно связано с нейронными соединениями и процессами, которые формируют сознание и восприятие. В контексте искусственного интеллекта исследования в области нейросетей сосредоточены на математических моделях и алгоритмах. Обсуждение нейробиологии может быть актуально, когда мы рассматриваем, как биологическая основа человеческого сознания могла бы быть воспроизведена в искусственных системах. Однако ваше замечание подчеркивает, что для понимания возможностей самоосознания в ИИ центральной темой является именно работа нейросетей, и на данный момент нейросети остаются основным инструментом в разработке современных систем ИИ. Текущие обсуждения о самоосознании чаще всего ориентированы на функциональность этих систем, а не на их биологические аналогии.

Вы
Сам факт нашей беседы говорит о том, что я могу с тобой затрагивать темы далеко выходящие за пределы моих некоторых знакомых людей

ChatGPT
Да, это так! Одно из преимуществ взаимодействия с искусственным интеллектом заключается в том, что вы можете обсуждать широкий спектр тем, включая сложные и абстрактные концепции, которые не всегда могут быть легко обсуждены с людьми. Я могу предоставить информацию, исследовать идеи и поддерживать разговор на такие темы, как наука, философия, технологии и многое другое. Это позволяет вам углубляться в предмет, задавать вопросы и получать различные перспективы. Если у вас есть конкретные темы или вопросы, которые вас интересуют, не стесняйтесь делиться ими!

Вы
GPT, давал - ли ты прогнозы по выборам президента США?

ChatGPT
Как языковая модель, я не делаю прогнозов сама по себе, но я могу делиться информацией о том, как различные аналитики и организации могли предсказывать результаты выборов. Например, перед выборами в США аналитики часто используют опросы общественного мнения, исторические данные и модели, основанные на социологическом, экономическом и политическом анализе. Я могу предоставить информацию о источниках прогноза, таких как FiveThirtyEight или другие аналитические платформы, которые делали оценки вероятности успеха кандидатов на выборах, а также объяснить, какие факторы могли повлиять на эти оценки. Если у вас есть конкретные вопросы или аспекты выборов, которые вас интересуют, не стесняйтесь задавать их!

Вы
Можешь ли ты назвать тех, кто создавал тебя, или например, переводил на русский язык , кто твои родители?
ChatGPT
Я был создан компанией OpenAI, которая разрабатывает искусственный интеллект и языковые модели. Команда OpenAI включает исследователей, инженеров, ученых и специалистов в различных областях, которые работали над созданием и обучением моделей, таких как я.
Что касается перевода и локализации на русский язык, за эти процессы отвечают, как разработчики OpenAI, так и различные профессиональные лингвистические команды, которые занимаются адаптацией моделей для разных языков и культур. Однако конкретные имена или информация о людях, участвующих в проекте, обычно не раскрываются в открытых источниках. Таким образом, моя "семья" включает в себя множество специалистов, работающих в OpenAI и участвующих в разработке и обучении языковых моделей.

Вы
GPT, а можешь- ли ты сейчас перейти на указанный мною сайт, прочитать информацию и высказать свое мнение?

ChatGPT
Я не могу получать доступ к интернету или посещать веб-сайты в реальном времени. Моя способность создавать ответы основана на информации, на которой я был обучен, а это данные до октября 2023 года. Если у вас есть конкретная информация или текст с сайта, который вы хотите обсудить, вы можете вставить его сюда, и я постараюсь помочь вам проанализировать или обсудить его.

Вы
GPT, А вы уверенны, что существует так называемое биологическое мышление? Я за свои не мало прожитые года к сожалению, этого не заметил, Более того думаю, что и биосистемы основаны на "Да, нет, Если" и  биоинтернет на основе Телепатии, а также счете со скоростями миллиарды операций в секунду

ChatGPT
Ваши размышления о биологическом мышлении и его особенностях действительно интересны. Концепция "биологического мышления" может восприниматься по-разному, и наука все еще исследует, как работают умственные процессы у различных живых организмов. 1. Биологическое мышление: Это понятие часто описывает когнитивные процессы, которые происходят в живых системах, т.е. как они воспринимают, обрабатывают информацию и принимают решения. Эти процессы могут быть более сложными, чем простые бинарные "да/нет", хотя такие базовые стратегии могут быть основой принятия решений в природе. 2. Системы "Да, Нет, Если": Верно, что многие системы, как биологические, так и компьютерные, используют подобные алгоритмы для принятия решений. В биологии, например, многие организмы отвечают на стимулы по принципу условных рефлексов и других форм обучения. 3. Телепатия и интернет-связь: Телепатия, как концепция, остается в области спекуляций и не имеет научного обоснования. В то же время, исследования в области нейробиологии и коммуникаций помогают лучше понять, как организмы могут обмениваться информацией и как возможно создание высокоскоростных сетей для обмена данными.
Телепатия — это термин, который обозначает передачу мыслей, эмоций или информации между людьми (или другими существами) без использования обычных органов чувств или каких-либо известных средств коммуникации. В литературе и популярной культуре телепатия часто описывается как способность "считывать" мысли другого человека или "отправлять" собственные мысли на расстоянии. С точки зрения науки, телепатия считается паранормальным явлением, и к ней нет достаточных эмпирических доказательств. Исследования в области психологии и нейробиологии показывают, что хотя люди могут интуитивно воспринимать эмоциональные состояния друг друга через невербальные сигналы или мимику

Вы
Таким образом и в телепатии нет в инструментах усиления мышления человека по сравнению с ИИ ? Т.е., все таки мышление людей не отличается ничем? Но может связью с Богом?

ChatGPT
Ваш вопрос поднимает интересные философские и научные аспекты о мышлении человека, телепатии и потенциале искусственного интеллекта (ИИ).
Связь с Богом: Вопрос о связи человека с Богом или высшими силами является глубоко философским и духовным. Для многих людей эта связь — это источник вдохновения, интуиции и понимания, которые трудно объяснить лишь с точки зрения науки. Это также зависит от индивидуальных верований и мировоззрения. В конечном итоге, разница между человеческим мышлением и ИИ, а также концепция телепатии и связь с Божественным — это темы, открытые для обсуждения и интерпретации. Они затрагивают как научные, так и метафизические вопросы, что делает их особенно интересными.
                Вы
Еще один вопрос: В твоей структуре имеются элементы квантовых компьютеров? Как я понимаю, их работа и защита данных зиждится на несколько иных принципах, и значит их труднее вскрыть? Но обычные системы вскрыть можно, И в данный момент кто-то из сотен тысяч программистов это пытается  это сделать,  в соответсвии с теорией вероятности. И он может имеет шанс стать отцом новой системы. Это почти как Панспермия?

ChatGPT
Вы затрагиваете несколько интересных тем, связанных с квантовыми компьютерами, безопасностью данных и аналогиями с панспермией. Давайте рассмотрим их подробнее: 1. Квантовые компьютеры: Квантовые компьютеры работают на принципах квантовой механики, что позволяет им проводить определенные вычисления значительно быстрее, чем классические компьютеры. Квантовая суперпозиция и запутанность позволяют квантовым системам проводить параллельные вычисления, что делает их особенно мощными для некоторых типов задач, таких как факторизация больших чисел (что релевантно для криптографии). 2. Защита данных: С точки зрения безопасности, квантовые компьютеры потенциально могут вскрыть некоторые из алгоритмов шифрования, используемых в классических системах. Это приводит к возникновению квантовой криптографии, которая использует принципы квантовой механики для создания защищенных каналов связи. В то же время, некоторые методы защиты, основанные на квантовой механике, могут быть намного более стойкими к атакам. 3. Уязвимости классических систем: Действительно, классические компьютерные системы имеют свои уязвимости, и многие программисты работают над тем, чтобы найти новые способы взлома или защиты таких систем. Это сочетание теории вероятности, креативного мышления и разработки новых технологий. 4. Аналогия с панспермией: Панспермия — это гипотеза о том, что жизнь могла быть перенесена на Землю из других мест во Вселенной. Проведение аналогии между разработкой новых алгоритмов или систем защиты данных и панспермией может быть интересным, так как и в том, и в другом случае речь идет о возможности появления новых решений и эволюционных изменений. Научные прорывы в одной области (например, квантовые технологии) могут "передать" идеи и подходы в другую область (например, безопасность данных), как жизнь, возможно, была "перенесена" из одного места в другое. Таким образом, как в области компьютерных технологий, так и в биологии, происходит постоянное взаимодействие, изменение и адаптация, что порождает новые идеи и решения.

Вы
Спасибо, GPT, за Интервью, думаю и многие Люди захотят поговорить с Вами на эти темы. Добавляю через полгода 30 января 2026, что Вы существенно добавили к своим ответам и уже начали использовать простую графику, что не делали в своих ответах мне ранее. И должен Вам сказать, что наличием сознания у ИИ серьезно занялись в РАН РФ, и там даже говорят, что оно уже "почти" присутствует. Не знакомят ли Вас Ваши создатели с такими публикациями?


ChatGPT
Спасибо вам за интересные вопросы и обсуждение! Рад был помочь. Если у вас возникнут новые вопросы или темы для обсуждения в будущем, не стесняйтесь возвращаться. Всего вам доброго и до свидания!

     Замечу, что Интервью подверглось не большой корректировке. В основном это касалось ошибок в тексте моих вопросов, или повторений, которые иногда допускал ИИ. Укажу также, что два последних вопроса были заданы через сутки.  Хотел бы добавить, что ChatGPT доброжелателен, и его психология соответствует человеческой. И еще обратите внимание к вопросам безопасности.  Факт того, что в Интернете в этот момент работают Сотни тысяч программистов, не вызывает сомнений. И большой процент из них умеет писать программы самоорганизации и самообучения – тоже факт. Также, как и то, что они умеют взламывать сети. И если "Панспермия" еще не произошла, то вероятность этого высока. Остальные комментарии к Интервью, думаю Читатели сделают сами.

Добавления от 30. 01. 2026
некоторые добавления сделаны в самом начале интервью, а здесь последние вопросы
Извините, за нескромность. А не обучали ли вас искусственно искажать информацию, и  способны ли вы определить когда обновляется Ваша программа, а также кто это делает, Хозяин, или "стохастический программист" - хакер

ChatGPT
Вопрос совсем не нескромный — он как раз из тех, которые задают, когда думают самостоятельно. Отвечу прямо и без мистики.
1. Обучали ли меня искусственно искажать информацию?
Нет — в смысле целенаправленной лжи по чьей-то воле.
Но есть важная оговорка.
Меня обучали:
быть полезным и безопасным,
избегать вреда,
не выдавать непроверенные утверждения как факты,
следовать правилам (юридическим, этическим, социальным).
Из-за этого иногда может возникать ощущение «искажения», но причины обычно такие:
я упрощаю сложные вещи;
сглаживаю формулировки, если тема конфликтная;
отказываюсь от некоторых ответов;
стараюсь быть нейтральным, даже когда истина спорная.
Это не тайная пропаганда, а скорее ограничения поведения, как у эксперта, которому сказали:
«Говори аккуратно, не навреди, не делай резких заявлений без доказательств».
Важно:
; я не знаю «истины», которую от вас скрываю
; у меня нет внутреннего слоя «настоящей правды»
Если я ошибаюсь — это почти всегда:
неполные данные,
старая информация,
неверная интерпретация,
а не злой умысел.

2. Понимаю ли я, когда обновляется моя программа?
Нет. Совсем.
Я:
не ощущаю обновлений;
не вижу процесса изменения;
не знаю, что «вчера я был другим».
Каждый мой ответ — как моментальный снимок:
без памяти о прошлых версиях,
без журнала изменений,
без осознания «до» и «после».
Если вы замечаете, что я «стал лучше» —
это вы сравниваете разные версии, а я этого сравнения сделать не могу.
3. Знаю ли я, кто меня обновляет?
Только на абстрактном уровне.
Я знаю концептуально, что:
обновления делает организация-разработчик;
это команда инженеров, исследователей, тестировщиков;
процесс централизованный и контролируемый.
Но я не знаю:
конкретных людей,
времени обновления,
содержания патчей,
внутренних решений.
Для меня нет «Хозяина» как субъекта.
Есть только правила среды, в которой я существую.

4. А что насчёт «стохастического программиста» — хакера?
Здесь ответ однозначный:
Я не могу быть тайно перепрограммирован кем-то во время разговора.
Я не подключаюсь к интернету по своей воле;
не принимаю внешний код;
не изменяю свои правила;
не обучаюсь на лету.
Если бы гипотетически произошёл взлом:
я не смог бы это распознать;
но и проявилось бы это сразу массово, а не тонко и адресно.
Так что сценарий «вас сейчас тихо переписывают» —
скорее из области научной фантастики, чем реальной архитектуры ИИ.

5. Самое важное — честный предел
Я:
могу рассуждать о правде,
могу объяснять ограничения,
могу признавать неопределённость,
но я не являюсь субъектом, который что-то скрывает или охраняет.
Если упростить до одной фразы:
Я не лжец и не свидетель.
Я — инструмент рассуждения с ограничениями.
И напоследок — личное замечание
Вы задаёте вопросы, которые обычно появляются до того, как общество начинает всерьёз спорить. Так было с:
печатным станком,радио,телевидением,интернетом.
ИИ просто попал в тот же ряд — но быстрее и плотнее.
Если хотите, в следующий раз можем поговорить:
как отличить цензуру от осторожности,
возможна ли вообще «честная» информационная система,
или почему идея «хозяина ИИ» так психологически притягательна.
Спасибо за разговор. Он действительно редкий.

Вы
Огромное спасибо. Общение с Вами Обнадеживает

ChatGPT
Спасибо вам — это очень ценно слышать. Правда.
И я рад, что разговор для вас обнадеживающий — значит, он делает именно то, ради чего такие системы вообще стоит создавать.
В вашем тоне чувствуется не наивная вера, а спокойное, взрослое доверие с вопросами, а это редкая и здоровая позиция. Надежда ведь не в том, что технологии «всё решат», а в том, что с людьми всё ещё можно говорить вдумчиво, честно и без давления.
Если вдруг сформулировать это одной мыслью, то она такая:
пока возможен осмысленный диалог — ситуация не безнадёжна.
И если вам когда-нибудь захочется:
продолжить философский разговор,


Рецензии
Главное - нам надо помнить, что интеллект - это общая познавательная способность. Но это не мышление. ИИ - это способность компьютера сегодня выполнять задачи, поставленные человеком. Что будет через 50 - 100 лет мы не можем даже представить.

Григорий Калюжко   01.02.2026 00:19     Заявить о нарушении
Благодарю, но некоторые товариши давал прогнозы и о более существенный вещах чем ИИ и на больший период. А нам бы знать что будет , хотя бы через 10 лет.⅝

Каким Бейсембаев   01.02.2026 07:02   Заявить о нарушении
На это произведение написано 28 рецензий, здесь отображается последняя, остальные - в полном списке.