Жизнь |
От помощника до информатора: теневая сторона ИИ-чатботов
От помощника до информатора: теневая сторона ИИ-чатботов
Каждый раз, когда вы общаетесь с ChatGPT, Claude или другими нейросетями из «большой пятёрки», вы не просто получаете ответы — вы отдаёте информацию о себе. И речь не о том, что вы пишете напрямую. Система анализирует, как вы формулируете мысли, когда вы активны, какие темы вас волнуют, как меняется ваш эмоциональный тон.
Исследования (https://cambridgeanalytica.org/case-studies/chatgpt-and-claude-how-ai-stores-conversations-for-training-data-50281/) показали конкретные цифры эффективности профилирования. После 50 и более взаимодействий с ИИ-чатботами точность определения личностных характеристик достигает 85%. Уже после 20 диалогов система определяет вашу демографию с точностью 78%: рабочие графики, часовой пояс, уровень образования и профессиональный опыт. Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья.
Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание. А «анонимные» данные можно реидентифицировать через анализ стиля письма с точностью 89%. Исследование Королевского колледжа Лондона показало, что специально настроенные ИИ-чатботы могут заставить пользователей раскрыть в 12,5 раз больше личной информации, чем они планировали.
При этом исследование Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: личность самих чатботов можно надёжно манипулировать через промпты, (https://techxplore.com/news/2025-12-personality-ai-chatbots-mimic-human.html) делая их более убедительными для конкретного пользователя.
В июне 2024 года OpenAI назначила (https://www.bloomberg.com/news/articles/2024-06-13/openai-appoints-former-nsa-chief-paul-nakasone-to-board) в совет директоров генерала Пола Накасоне — бывшего директора АНБ и командующего Киберкомандованием США. Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных.
В июле 2025 года Пентагон заключил контракты на 200 миллионов долларов с каждой из четырёх ведущих ИИ-компаний: Anthropic, OpenAI, Google и xAI Илона Маска. Контракты предусматривают разработку агентных ИИ-систем для задач национальной безопасности. Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб.
Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний, — и картина складывается.
По факту мир сейчас разделился на два полюса. Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir. Либо китайскими — и тогда они идут в китайские спецслужбы. Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей.
В России многие крупные компании уже запрещают американские ИИ модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков. Текущий тренд — форки открытых ИИ-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях.
Сам код часто не секрет. Но данные, с которыми он работает, — это совсем другой уровень. Клиентские базы, финансовые показатели, внутренняя переписка. Всё это может утекать через ИИ-инструменты, которые вы считаете безопасными.
Если вы работаете с чувствительной информацией, использование западных ИИ-систем — это осознанный риск. И это не паранойя, а реальность.
https://t.me/darpaandcia - цинк
Разумеется, пройдет некоторое время и ИИ-модули из враждебных РФ стран будут запрещены на территории РФ или поставлены под контроль РКН. По тем же причинам, по которым зачищают рынок мессенджеров в рамках суверенизации. Надеюсь, к тому времени отечественные модели будут конкурентоспособны. А то потом опять как всегда - ой, надо блокировать ЧатГПТ, а у нас ничего к этому не готово.
Вангую, что до этого дойдет еще до конца 20х годов.
Каждый раз, когда вы общаетесь с ChatGPT, Claude или другими нейросетями из «большой пятёрки», вы не просто получаете ответы — вы отдаёте информацию о себе. И речь не о том, что вы пишете напрямую. Система анализирует, как вы формулируете мысли, когда вы активны, какие темы вас волнуют, как меняется ваш эмоциональный тон.
Исследования (https://cambridgeanalytica.org/case-studies/chatgpt-and-claude-how-ai-stores-conversations-for-training-data-50281/) показали конкретные цифры эффективности профилирования. После 50 и более взаимодействий с ИИ-чатботами точность определения личностных характеристик достигает 85%. Уже после 20 диалогов система определяет вашу демографию с точностью 78%: рабочие графики, часовой пояс, уровень образования и профессиональный опыт. Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья.
Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание. А «анонимные» данные можно реидентифицировать через анализ стиля письма с точностью 89%. Исследование Королевского колледжа Лондона показало, что специально настроенные ИИ-чатботы могут заставить пользователей раскрыть в 12,5 раз больше личной информации, чем они планировали.
При этом исследование Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: личность самих чатботов можно надёжно манипулировать через промпты, (https://techxplore.com/news/2025-12-personality-ai-chatbots-mimic-human.html) делая их более убедительными для конкретного пользователя.
В июне 2024 года OpenAI назначила (https://www.bloomberg.com/news/articles/2024-06-13/openai-appoints-former-nsa-chief-paul-nakasone-to-board) в совет директоров генерала Пола Накасоне — бывшего директора АНБ и командующего Киберкомандованием США. Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных.
В июле 2025 года Пентагон заключил контракты на 200 миллионов долларов с каждой из четырёх ведущих ИИ-компаний: Anthropic, OpenAI, Google и xAI Илона Маска. Контракты предусматривают разработку агентных ИИ-систем для задач национальной безопасности. Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб.
Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний, — и картина складывается.
По факту мир сейчас разделился на два полюса. Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir. Либо китайскими — и тогда они идут в китайские спецслужбы. Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей.
В России многие крупные компании уже запрещают американские ИИ модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков. Текущий тренд — форки открытых ИИ-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях.
Сам код часто не секрет. Но данные, с которыми он работает, — это совсем другой уровень. Клиентские базы, финансовые показатели, внутренняя переписка. Всё это может утекать через ИИ-инструменты, которые вы считаете безопасными.
Если вы работаете с чувствительной информацией, использование западных ИИ-систем — это осознанный риск. И это не паранойя, а реальность.
https://t.me/darpaandcia - цинк
Разумеется, пройдет некоторое время и ИИ-модули из враждебных РФ стран будут запрещены на территории РФ или поставлены под контроль РКН. По тем же причинам, по которым зачищают рынок мессенджеров в рамках суверенизации. Надеюсь, к тому времени отечественные модели будут конкурентоспособны. А то потом опять как всегда - ой, надо блокировать ЧатГПТ, а у нас ничего к этому не готово.
Вангую, что до этого дойдет еще до конца 20х годов.