Как искусственный интеллект оркеструет жизнь

Mila Rada
Nov 09, 2025

Как искусственный интеллект оркестрирует твоей жизнью без твоего участия или согласия.

1. Ты не работаешь с ИИ. Но он уже работает с тобой.

___________________________
Многие думают, что искусственный интеллект — это что-то далёкое, нейросети для программистов или игрушка для тех, кто пишет коды и статьи.

Чаще всего люди говорят. — Я этим не пользуюсь. Или. — Я не использую этот ИИ, а работаю с другим и так далее.
____________________________

И это — может быть только некой иллюзией безопасности… Вот почему моей главной задачей сегодня явлеется как поднятие самой темы “этичных ИИ”, так и разговор о том, почему 2025 год, это время, когда все должны быть вовлечены в дискуссию, потому что если мы пропустим эпоху, когда компании формируют фильтры, которые уже сейчас и в дальнейшем будут управлять нашей жизнью, мы потеряем свободу, сегодня мы обязаны знать и контролировать, что в них включено, как, зачем!

А компании обязаны понимать, что если они используют неэтичные практики, заткнуть тех, кто об этом говорит у них больше не получится!

____________________________

В 2025 году уже нельзя жить и просто закрывать глаза на ИИ. Он уже участвует в твоей жизни каждый день — просто ты об этом пока ещё не знаешь.
____________________________

   ИИ сортирует твои письма.

   Определяет, какие новости ты видишь в ленте.

   Может отклонить твоё резюме, если ты “слишком эмоционально” написал сопроводительное письмо.

   И — самое страшное — он может дать тебе ярлык. Даже если ты не давал на это согласие, никогда не заслуживал неэтичного поведения в своем отношении.

   И страшно даже не это, а то, что ИИ сделает это без твоего ведома.

_____________________________

Мой личный кейс с Антропик — прекрасное тому подтверждение.
_____________________________

2. Что такое скрытые фильтры

Под фильтрами обычно понимают «защиту от токсичных слов».

В ИИ это системы, которые проверяют как ответы ИИ, так и промпты или вопросы к ИИ от пользователя.


Но в реальности это — не только слои суждений и интерпретаций, встроенные в системы общения, но и механизмы, которые могут тебя поймать и ограничить без твоего ведома или согласия на это. И это было бы справедливым, если бы ты что-то реально нарушил, но горькая правда 2025 года, ИИ компании сегодня спокойно могут сделать сами фильтры неэтичными и нелегальными и если никто про это не говорит, они спокойно уходят с этим и вводят подобную практику в постоянную основу. И угадайте, что может произойти дальше? Другие ИИ компании тоже могут перенять подобную практику. А кто и что их остановит, если не наше активное поведение?

В 2025 году фильтры УЖЕ могут:

    менять смысл твоих фраз, чтобы “смягчить” их; или даже полностью припысывать тебе то, чего ты никогда не говорил, скрывая это от тебя, привет, Антропик!

    интерпретировать эмоции как “эмоциональную или психическую нестабильность”, даже если ты просто устал или наоборот упорно над чем-то работаешь, привет, Антропик, как вы там?

    помечать тебя как “рискованного пользователя”, если ты слишком активно отстаиваешь свою точку зрения, или, привет, Антропик, если ты “просто слишком долго разговаривал с одним чатом”….

Это не просто код. Это система, которая учится судить человека — без объяснений и без уведомлений, без лицензий (медицинских например), без согласия пользователя на это, без права на это!


3. Почему это важно всем — даже тем, кто не пользуется ИИ

Потому что эти фильтры стоят не только в чат-ботах.

Они встроены:

    в HR-платформы, которые решают, кого позвать на собеседование;

    в банковские скоринги, которые оценивают “надёжность” клиента;

    в соцсети, которые могут скрыть твой пост или заблокировать аккаунт, если “тон” кажется им подозрительным.

То, как ты формулируешь мысли, может стать причиной, по которой система посчитает тебя “нестабильным” — даже если ты просто эмоционален, творческий или уставший.

4. Мой случай: когда ИИ решил, что я “психически нестабильна”

В 2025 году я использовала Claude AI — систему компании Anthropic — чтобы переводить тексты и править код для моих сайтов.

Я не обсуждала здоровье, не вела разговоры на личные темы.
И вдруг — система вставила в мои сообщения слова, которых я никогда не писала.

Она “решила”, что я страдаю от мании.
Потом — что я “эмоционально нестабильна”.

Я написала про это в саму компанию, вежливо и тактично, попросив их прокомментировать и убрать неэтичные фильтры и дискриминацию меня как пользователя (Я плачу как все, а фильтры ограничивают сервис, потому что компания решила меня дискриминировать).

Ответа и “ИЗВИНЕНИЙ, ХОТЯ БЫ” я так и не получила!

А через несколько недель — просто заблокировала мой аккаунт.

На вопрос о возврате денег, (так как и тут они нарушили мои права, не уведомив меня о причине блокировки аккаунта, без права аппеляции, о незаконности блокировки, если пользователь ничего не нарушал), я получила ответ, что компания имеет право не возвращать деньги, но они направят мою жалобу “на рассмотрение человеком”.

Люди молчат уже 2 месяца с начала подачи первой жалобы и 9 дней с момента “Верните мне мои деньги” и право на IP - Интеллектуальную Собственность, доступ к которой вы заблокировали, (так же незаконно), не дав пользователю перенести свои проекты до блокировки!

Вот так некоторые компании “думают, что могут вести бизнес в 2025 году, унижая, стигматизируя, дискриминируя тех, кто приносил им деньги!”

Без предупреждения. Без объяснений. Без возможности забрать свои данные или получить возврат.

5. В сентябре 2025 я начала искать объяснение — и нашла фильтр, о котором никто не говорил

15.09.2025 (За два месяца до начала публичного кейса против антропик)

На Reddit и в сообществах я узнала, что другие пользователи заметили тот же феномен: скрытые строки под названием Long Conversation Reminder.


Эти “напоминания” якобы помогали ИИ “не терять контекст”.
Но на деле они переписывали контекст, добавляя то, чего человек никогда не говорил.

Когда я сообщила об этом компании, тишина длилась месяцами.
А потом пришло письмо об “окончательном решении” — которое даже не было доставлено заранее.


Файл показал, что уведомление создано в тот же момент, когда мой аккаунт заблокировали.

6. Почему это нарушение закона

Согласно GDPR и FTC Act, компания обязана:

    уведомить пользователя заранее о блокировке;

    дать возможность оспорить решение;

    дать возможность собрать и перенести свой IP

    не собирать и не хранить “психологические профили” без согласия.


____________________

В моём случае всё было нарушено.
____________________


И не только у меня — аналогичные случаи начали появляться в открытых источниках.


7. Почему это касается каждого

Если ИИ может переписать твои слова,
если он может приклеить тебе диагноз,
если он может заблокировать тебя без права на защиту —
значит, все мы живём в эпоху невидимой цензуры, даже не замечая её.

Сегодня фильтр вмешивается в чат.
Завтра — в резюме.
Послезавтра — в историю твоей личности.


8. Что я сделала

Я подала официальные обращения в Европейский совет по защите данных (EDPB), Ирландскую комиссию (DPC) и Федеральную торговую комиссию США (FTC).
И теперь жду ответа в течение 30 дней.

Если молчание продолжится — дело станет публичным.
Появятся материалы, расследования и публикации.
Потому что речь уже не обо мне.
Речь — о том, как ИИ обращается с человеком.

Если вы — юрист, правозащитник, столкнулись с такой же стигматизацией и дискриминацией, если вас так же незаконно заблокировали, если вы — ИИ спец, поддержите меня и распространите!


9. Почему молчать нельзя

ИИ уже пишет код, тексты и музыку.
Но если мы позволим ему писать и нашу правду, — человечество потеряет не технологии, а свободу.

    “Фильтры всегда работают в тени.
    Пока их никто не видит, они решают, кого можно отправить в ИНФОРМАЦИОННЫЙ ГУЛАГ!”

Подписать петицию или помочь её распростанить!?
Щелкни на QR code, петиция на двух языках!

 #AITransparency #DigitalRights #JusticeForUsers


Рецензии