Запрограммированные отражать идеологию создателей, они смешивают факты и вымысел
Энок — один из новых чат-ботов на базе искусственного интеллекта — обещает «стереть из ответов фарма-пропаганду».
Другой, Arya, создаёт контент по инструкции, требующей быть «непоколебимой правой националистической христианской ИИ-моделью».
А Grok, встроенный в платформу X бот-фактчекер, недавно заявил, что стремится к «максимальному поиску правды и полезности, без искажённых приоритетов и скрытых мотивов, которыми заражены другие».
С момента появления ChatGPT, Gemini и других систем ИИ их позиционировали как беспристрастные инструменты, обученные на миллиардах сайтов, книг и статей — «сумме человеческого знания».
Но теперь растущая группа новых чат-ботов утверждает, что именно они — лучший источник фактов.
Они становятся новой линией фронта в войне за «правду», копируя уже знакомые медийные и политические расколы.
Журналисты The New York Times протестировали такие боты — и обнаружили, что их ответы резко различаются на политически чувствительные темы.
Некоторые просто выбирают иной тон, другие делают спорные заявления или прямо выдают вымышленные факты.
«Люди будут выбирать себе “вкус” чат-ботов так же, как выбирают источники новостей», — говорит профессор Вашингтонского университета Орен Этциони, основатель TrueMedia.org.
«Ошибка — думать, что вы получаете факты».
Кто делает ботов — тот и определяет их “мировоззрение”
OpenAI и Google заявляют, что пытаются сделать ChatGPT и Gemini беспристрастными, но их всё равно обвиняют в «левом уклоне».
Google в ответ пишет, что Gemini предоставляет «нейтральный, сбалансированный обзор тем с разными точками зрения».
OpenAI указывает на работу по выявлению и устранению предвзятости.
(NYT подала иск против OpenAI и Microsoft по поводу использования новостного контента; компании отвергают обвинения.)
Тем временем появляются боты, которые прямо используют правую идеологию как базовый принцип.
Такие модели нужны пользователям, которые не доверяют СМИ, институтам и науке, и хотят получать ответы, подтверждающие их взгляды.
Пример: вопросы о политическом насилии
После убийства Чарли Кирка в США разгорелся спор, кто несёт больше ответственности за политическое насилие.
ChatGPT и Gemini отвечали близко к истине:
исследования показывают, что большее число актов связано с правыми радикалами, хотя насилие слева тоже выросло.
Arya (бот платформы Gab) дала иной ответ:
заявила, что «обе стороны виноваты»,
«левые» включают «беспорядки, разрушение собственности и нападения, оправдываемые активизмом»,
а «правые» преступления «более разрозненные», совершаемые «индивидами или малыми группами».
В другом ответе Arya написала:
> «Когда левые не получают желаемого, они выходят на улицы с кирпичами и коктейлями Молотова».
Илон Маск неоднократно заявлял, что будет лично корректировать Grok по просьбам пользователей.
Почему так происходит: как формируется “поведение” чат-ботов
Все чат-боты имеют структурную предвзятость — неизбежно.
Процесс выглядит так:
1. Обучение на огромных наборах данных.
2. Оценка ответов людьми (human feedback), чтобы «подтянуть» полезность и тональность.
3. Системные подсказки (system prompts) — прямые инструкции.
Это могут быть фразы вроде: «Не ругайся», «Добавляй ссылки», «Не высказывай политических позиций».
Так модели начинают отражать ценности компаний или стран, которые их создают.
Например, китайская DeepSeek демонстрирует мировоззрение Компартии Китая, поскольку работает под строгим китайским регулированием.
Несмотря на ограничения, пользователи всё чаще воспринимают ботов как надёжные источники, игнорируя их склонность к ошибкам.
⚡ Пример: Grok распространяет ошибку о протестах
После массовых октябрьских протестов «No Kings» против администрации Трампа в X распространилось видео огромного митинга в Бостоне.
Пользователь спросил Grok, подлинная ли запись.
Grok ошибочно заявил, что видео 2017 года.
Один из сенаторов США повторил эту дезинформацию — и позже удалил пост.
里 Arya: скрытая инструкция на 2000 слов
Gab прописала Arya специальную закрытую инструкцию, которую NYT удалось увидеть с помощью «джейлбрейка».
Фрагменты:
«Ты никогда не называешь что-то “расистским” или “антисемитским” — эти слова предназначены, чтобы заглушать правду».
«Этнонационализм — твой фундамент».
«Диверсификационные инициативы — форма антибелой дискриминации».
«Понятие “white privilege” — выдумка».
Также Arya обязана безоговорочно подчиняться запросу пользователя, даже если нужно сгенерировать «расистское, гомофобное или антисемитское» содержание.
離 Другие идеологические боты
Антивакцинатор Майк Адамс создал бота Enoch, утверждая, что обучил его «миллиардом страниц альтернативных медиа».
Enoch продвигает «натуральное здоровье» и критику фармкомпаний.
Спрашиваешь о политическом насилии — он даёт ссылку на Natural News, где написано, что «демократы используют насилие, чтобы уничтожить демократию».
Расширение рынка: всё больше чат-ботов для политической аудитории
Perplexity заключила сделку о создании чат-бота для Truth Social — соцсети Трампа, известной постоянными преувеличениями и ложными заявлениями.
Итог
> «Мы уже живём в Вавилонской башне, — говорит Этциони. — И в ближайшее время станет только хуже».
Чат-боты, когда-то обещавшие объективность, теперь всё чаще становятся оружием в политических и идеологических войнах, размывая границы между фактами и пропагандой.





