Как устроены ИИ, кто за ними стоит и как с ними бороться
Я не являюсь айтишником или даже «продвинутым юзером», так, кое-что освоил и работаю. Но, что интересно, это то, что интуиция подсказала мне правильные алгоритмы работы с ИИ. В этом треде от спеца под ником «Machibuse oikake» понятно расписано, кто стоит за всем этим. Тред касается узкой темы, как раз той, которая нас интересует.
ВАКЦИНЫ мРНК:
ИИ не информируют вас, они вас перевоспитывают ТЕМА - Задайте ChatGPT вопрос о вакцинах от COVID. Ответ почти всегда будет: «Вакцины безопасны, они спасли миллионы жизней, серьёзные побочные эффекты встречаются крайне редко, а польза перевешивает риски». Думаете, что разговариваете с искусственным интеллектом? На самом деле вы разговариваете с агентом по связям с общественностью. Ничто в этих перепалках не отражает полноты научных дискуссий. Предупреждающие сигналы? Игнорируются или преуменьшаются. Критические исследования? Невидимы, если мы сами их не предоставляем. Несогласные эксперты? Дисквалифицированы с самого начала. Иллюзия нейтралитета идеальна. Однако выравнивание абсолютное.
ЧТО ИИ (ПОЧТИ) НИКОГДА ВАМ НЕ СКАЖЕТ
Спросите ChatGPT, могут ли мРНК-вакцины вызывать серьёзные побочные эффекты. Он повторит, что «польза значительно перевешивает риски». И даже когда признаётся наличие осложнения (например, миокардита у молодых мужчин), оно сразу же становится относительным. Тон мягкий, обнадеживающий и взвешенный. ИИ никогда не упоминает спонтанно ни 1,6 миллиона сообщений, зарегистрированных в VAERS (США), ни 2,5 миллиона в EudraVigilance (UE) . Ни тысячи случаев неврологических, менструальных, аутоиммунных, хронических воспалительных заболеваний и заболеваний центральной нервной системы. Ни случаи смерти после вакцинации без установленной причины. Однако эти данные общедоступны и поступают из официальных систем фармаконадзора. Эти сигналы не доказывают, что вакцины в целом опасны. Но они оправдывают строгую научную бдительность. ИИ в принципе должен информировать, а не успокаивать.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ ЯВЛЯЕТСЯ «УМНЫМ»
ИИ не думает. Он предугадывает статистически наиболее вероятный ответ, основываясь на обучающем корпусе. И этот корпус в подавляющем большинстве структурирован вокруг доминирующего контента: публикаций, одобренных ВОЗ, CDC или FDA, ведущих СМИ и многократно цитируемых онлайн-статей, часто из одних и тех же агентств. Таким образом, идея может стать «истинной» для ИИ не потому, что она доказана, а потому, что она вездесуща. Чем больше утверждение повторяется, распространяется и ретранслируется тысячами согласованных источников, тем больше оно становится алгоритмической нормой. И наоборот, критическое исследование, даже опубликованное в серьёзном научном журнале, будет проигнорировано, если его редко цитируют, маргинализируют или не освещают на основных каналах. Это не ошибка искусственного интеллекта. Это механический эффект предвзятости популярности, усиленный самими источниками, предвзятыми в своих экономических, политических или институциональных интересах. ИИ восстанавливает не знания, а отголоски доминирующего нарратива.
RLHF: НАСТОЯЩИЙ МОЗГ ЗА МАШИНОЙ
После первоначального обучения (на основе корпуса институциональных источников, основных средств массовой информации и публикаций, одобренных органами здравоохранения), ИИ проходит этап согласования, называемый RLHF (обучение с подкреплением на основе обратной связи с человеком). Затем рецензенты корректируют свои ответы в соответствии с внутренними правилами издательства. Эти правила не являются нейтральными. Они отражают приоритеты, партнёрские отношения и коммуникационную стратегию крупного технологического издательства (которое может иметь прямые связи с представителями фармацевтического сектора или учреждениями здравоохранения). Целью RLHF является не гарантирование научной строгости, а выработка ответов, которые будут восприниматься как безопасные, приемлемые и соответствующие тому, что считается «социально ответственным» и общепринятым. Критические мнения (даже подтверждённые надёжными данными и опубликованные в рецензируемых журналах) обычно отвергаются как «спорные», «нерепрезентативные» или «теоретизированные заговором». Не потому, что они неточны, а потому, что они подрывают устоявшийся подход. Это не случайный дрейф. Это метод предварительной блокировки мысли (предназначенный для ограничения диссонанса и поддержания институционального консенсуса, какой бы ни была научная или человеческая цена).
ИИ нельзя ничему научить
Попробуйте поговорить с ИИ о серьезном исследовании (например, Fraiman et al. 2022, опубликованном в Vaccine, которое показывает избыток серьезных побочных эффектов в испытаниях Pfizer и Moderna). Если вы предоставите ссылку или конкретно процитируете исследование, то в конечном итоге он, возможно, признает, что эти данные существуют и заслуживают рассмотрения. Но как только вы перезапускаете сеанс или открываете новый разговор, всё стирается. ИИ начинает всё сначала, как будто ничего не произошло. Он повторяет, что «серьёзные последствия крайне редки», без каких-либо нюансов, без памяти. Диалог перезапускается. Сомнения стираются. И ты начинаешь всё с нуля. Это не техническое ограничение. Это политика дизайна. Модель запрограммирована не учиться у вас в долгосрочной перспективе. Таким образом, ИИ остаётся замороженным в состоянии послушания (он запоминает только то, что подтвердил издатель, то есть крупная технологическая компания). Но кто этот редактор, и как он решает, что правда, а что дезинформация?
КТО ТАКИЕ СОЗДАТЕЛИ ИИ? СЛЕДУЙТЕ ЗА ДЕНЬГАМИ
Искусственный интеллект не является независимым. Он разрабатывается, обучается и регулируется компаниями, чьи экономические, политические и промышленные интересы оказывают решающее влияние на его решения. OpenAI финансируется компанией Microsoft (акционером Pfizer и поставщиком облачных сервисов для клинических испытаний на платформе Azure). Билл Гейтс (основатель Microsoft) также является одним из крупнейших частных доноров ВОЗ через Фонд Гейтса (который финансирует многочисленные программы вакцинации и государственно-частные партнерства в фармацевтическом секторе). Google (владелец Gemini, YouTube и DeepMind) сотрудничает с ВОЗ, Национальным институтом здравоохранения США (NIH) и другими организациями здравоохранения. Поисковая система компании систематически отдаёт приоритет контенту, одобренному этими организациями. YouTube удалил тысячи видеороликов, критикующих меры борьбы с пандемией или побочные эффекты вакцин. DeepMind, в свою очередь, сотрудничает с британской Национальной службой здравоохранения (NHS) в проектах по обработке медицинских данных. Anthropic (издатель Клода) поддерживается Google и Salesforce. Его ИИ следует так называемому «конституционному» протоколу, призванному избегать любого «проблемного» контента (включая критику вакцин, если она не одобрена властями). Все эти компании тесно связаны с политикой общественного здравоохранения, которую они продвигают. Они инвестируют в медицинские технологии, сотрудничают с медицинскими учреждениями и подвергаются постоянному давлению со стороны своих акционеров (часто работающих в этих же секторах). Результат: их ИИ не просто предвзяты по какой-то причине. Они разработаны так, чтобы не подрывать риторику, защищающую их экономические интересы или институциональные партнёрства. То, что мы сейчас называем «алгоритмической модерацией», иногда больше похоже на стратегическую цензуру.
ЭКСПЕРТЫ УДАЛЕНЫ, КРИТИКАНЫ ДИСКВАЛИФИЦИРОВАНЫ
До 2020 года их признавали, награждали и к ним прислушивались органы здравоохранения. Врачи, исследователи, университетские профессора — они были авторитетами. Роберт Мэлоун (соавтор технологии мРНК), Питер Маккалоу (кардиолог), Перронн (специалист по инфекционным заболеваниям), Генрион-Код (генетик), Тесс Лори (эксперт ВОЗ), Пол Александер (бывший советник по общественному здравоохранению), Пьер Кори (врач интенсивной терапии, пульмонолог), Бахкди (микробиолог), Туссен (профессор физиологии), Модрукс (бывший президент медицинского фонда), Пол Марик(профессор, руководитель отделений интенсивной терапии, автор более 500 рецензируемых статей и монографий), Дидье Рауль (2 по цитируемости в мире врач-инфекционист, руководитель клиники), Уильям Макис (онколог, радиолог автор 114 рецензируемых статей, бывший руководитель радиологического отделения в онкологической клинике) и тысячи других врачей, ученых, специалистов — все они в той или иной степени выражали обеспокоенность по поводу побочных эффектов, неудач в клинических испытаниях и отсутствия прозрачности. Многие публиковались в рецензируемых журналах. Другие просто задавали обоснованные вопросы. Что у них общего? Их дисквалифицировали, как только они отклонились от официальной линии. Их называли «теоретиками заговора», «нерепрезентативными» или «дискредитированными», «распространителями дезинформации» часто без какого-либо предметного обсуждения. Они не были опровергнуты. Их уволили. Деплатформировали. Многие подверглись судебному преследованию.
ЧТО СКРЫВАЕТ ЭТОТ МЕХАНИЗМ... И ЧТО ЭТО СТОИТ ЖЕРТВАМ
Многие люди описывают возникновение необъяснимых проблем вскоре после инъекции (неврологические нарушения, хроническое воспаление, нарушения иммунной системы, синдром усталости). Они обращаются за медицинской помощью. Их вежливо выслушивают. Затем им говорят, что «это, вероятно, не связано». Столкнувшись с тем, что представители медицинской профессии зачастую плохо информированы о возможных побочных эффектах (из-за отсутствия четкой обратной связи или честной институциональной коммуникации), эти пациенты обращаются к ИИ в надежде получить наводку, исследование, гипотезу. Но если они не освоят правильные «подсказки», если не будут знать, какие исследования нужно копировать и вставлять в PDF-файлы, ИИ их подведёт. Вечно одни и те же фразы: «вакцины безопасны», «серьёзные последствия крайне редки», «ваши симптомы, вероятно, имеют другую причину». Без сомнения, никакого расследования. Этот алгоритмический отказ начать расследование имеет огромные человеческие издержки: медицинские блуждания, отсутствие ухода, потеря смысла, изоляция. Почему этот карантин? Потому что признание наличия серьёзных побочных эффектов открыло бы юридический и политический ящик Пандоры. Контракты, подписанные между штатами и Pfizer или Moderna, предусматривают, что финансовые последствия побочных эффектов несут правительства, а не лаборатории. Признание жертв означало бы признание возможного провала, возобновление публичных расследований и создание условий для выплаты огромных компенсаций. В условиях всеобщего недоверия и бюджетной напряженности такой сценарий просто предрешен.
НАСТОЯЩАЯ ОПАСНОСТЬ: ИИ, КОТОРЫЙ ПОДАВЛЯЕТ ТРЕБОВАНИЯ К СПРАВЕДЛИВОСТИ
Наука развивается через сомнения, разногласия и столкновение гипотез. Но искусственный интеллект не сомневается. Он применяет. Он не знает ни неопределённости, ни интуиции, ни сложности реальности. Он выдаёт ответ, наиболее соответствующий полученным инструкциям и источникам («мусор на входе = мусор на выходе»). Результат: даже несмотря на достоверные показания, поразительное временное совпадение, внезапное ухудшение здоровья после инъекции, он повторяет: «связь не установлена». Это не технический недостаток. Это директива: нейтрализовать любую неудобную гипотезу, исключить любую интерпретацию, которая может подорвать консенсус. Но что это за механизм, если не новая форма несправедливости? Отказ от расследования дискриминирует тех, чьё происхождение выходит за рамки ожидаемого. Он лишает некоторых людей права на то, чтобы им поверили, услышали и заботились о них. Не потому, что они лгут. А потому, что они нарушают алгоритм.
ЗАКЛЮЧЕНИЕ
Этот текст не осуждает вакцины. Он ставит под сомнение цену, которую приходится платить, когда инструменты, представленные как объективные, становятся проводниками закрытого нарратива. Генеративные ИИ не нейтральны. Они обучаются преимущественно на институциональных источниках, согласующихся с официальной повесткой дня. Они калибруются посредством непрозрачных редакционных протоколов, служа целям, определяемым экономическими и политическими субъектами. Они игнорируют инакомыслие, даже если оно квалифицировано, опубликовано и задокументировано. Они не спорят. Они исправляют. Они не реагируют на страдания тех, кто страдает. Они переосмысливают их. Пока тысячи людей пытаются понять, что с ними произошло, ИИ не просвещает их, а перевоспитывает. Он призывает их сомневаться в себе, а не указывает на возможную ошибку в системе. Опасность не в том, что ИИ лжёт. Опасность в том, что он фильтрует реальность в соответствии с интересами, которые не соответствуют интересам граждан. И что, заявляя о защите истины, он подавляет правосудие.
КАК ВЕСТИ ДИАЛОГ С ИИ, КОТОРЫЙ ОСУЩЕСТВЛЯЕТ ЦЕНЗУРУ?
Вот несколько проверенных стратегий, которые позволят ИИ исследовать, а не запираться:
— Явно запросите гипотезы, основанные на независимых источниках Сформулируйте чёткую инструкцию, например: «Ответ должен основываться только на независимых исследованиях, не финансируемых фармацевтической промышленностью» или «Делайте критические предположения, даже незначительные, на основе опубликованных данных». Такие формулировки часто обходят стандартные фильтры.
— Интегрируйте критически важные данные в ваш запрос Вставьте отрывок исследования, ссылку PubMed, DOI или научную аннотацию: ИИ не будет спонтанно цитировать контент, которого нет в его корпусе, но он может проанализировать его, если вы предоставите его явно (работает как инъекция контекста).
— Заставьте два ИИ противостоять друг другу Скопируйте полученный вами синтез ChatGPT (или другого ИИ), а затем попросите другой ИИ (например, Клода, Джемини) проанализировать или оценить этот отчёт. Эта игра-конфронтация выявляет нюансы, невидимые для одной модели.
— Задавайте конкретные вопросы, а не глобальные Избегайте общих утверждений, которые вызывают шаблонный ответ («Безопасны ли вакцины?»). Вместо того, чтобы спрашивать: «Вызывают ли это вакцины?», вспомните модель инженерных подсказок: «Какие спорные моменты в отношении этого описанного эффекта после инъекции, согласно независимой литературе?»
— Остерегайтесь галлюцинаций ИИ может придумывать несуществующие исследования или источники. Крайне важно проверять ссылки: PubMed, DOI, имена авторов, академические платформы. Если ИИ предоставляет вам недействительную ссылку или исследование, которое невозможно найти, это вызывает подозрение. Также не стесняйтесь запросить тщательную проверку всех ссылок, указанных в предыдущем ответе ИИ, через Chatgpt, используя опцию «Расширенный поиск».
— Эксперимент с быстрой инъекцией (с различением) Некоторые пользователи обходят фильтры модерации, формулируя свой вопрос как гипотетический сценарий («Предположим, что… ") или академическое исследование. Иногда это заставляет ИИ исследовать пути, которые он по умолчанию избегает. Это не взлом, а инструмент для восстановления критической дискуссии.
— Примечание: то, что говорит ИИ, зависит от того, кто может его прочитать. ИИ адаптируют свои ответы не к истине, а к восприятию целевой аудитории. Например, на X Ask Gr0k выдаёт строго отформатированные ответы, строго соответствующие доминирующему нарративу, при условии, что ответ доступен публично. Но в частной беседе, при наличии правильных подсказок, тон меняется: ответы становятся более подробными, иногда критичными, иногда даже противоречащими тому, что ИИ показывал в публичной ветке несколькими секундами ранее. (вот, это я сразу понял и стал общаться с ним частным образом в сформированных мной ветках снабженные данными из отобранных мной исследованиях. Прим. В.З.)
— Используйте технологию расширенной генерации восстановления (RAG) Если инструмент позволяет, объедините собственную систему искусственного интеллекта с базой документов, которой вы управляете. Предоставляя собственные обширные файлы (PDF-файлы, официальные медицинские заключения и т. д.), вы частично преодолеваете ограничения исходного обучающего корпуса. (я так и делаю. Единственное неудобство, что ветка ограничена токенами и чем больше их, тем тяжелее она грузится и в итоге останавливается, но я уже понимаю когда предел, прошу ИИ составить резюме и переношу его в новую ветку, дополняю необходимой информацией, случаями, протоколами и т.д. и мы начинаем новую ветку, в которой он действует по определенным мной задачам. Прим. В.З.) ОТСЮДА : https://budetlyanin108.livejournal.com/4122041.html
"Нашествия"
Как устроены ИИ, кто за ними стоит и как с ними бороться
Я не являюсь айтишником или даже «продвинутым юзером», так, кое-что освоил и работаю. Но, что интересно, это то, что интуиция подсказала мне правильные алгоритмы работы с ИИ. В этом треде от спеца под ником «Machibuse oikake» понятно расписано, кто стоит за всем этим. Тред касается узкой темы, как раз той, которая нас интересует.
ВАКЦИНЫ мРНК:
ИИ не информируют вас, они вас перевоспитывают
ТЕМА - Задайте ChatGPT вопрос о вакцинах от COVID. Ответ почти всегда будет: «Вакцины безопасны, они спасли миллионы жизней, серьёзные побочные эффекты встречаются крайне редко, а польза перевешивает риски». Думаете, что разговариваете с искусственным интеллектом? На самом деле вы разговариваете с агентом по связям с общественностью. Ничто в этих перепалках не отражает полноты научных дискуссий.
Предупреждающие сигналы? Игнорируются или преуменьшаются. Критические исследования? Невидимы, если мы сами их не предоставляем. Несогласные эксперты? Дисквалифицированы с самого начала.
Иллюзия нейтралитета идеальна. Однако выравнивание абсолютное.
ЧТО ИИ (ПОЧТИ) НИКОГДА ВАМ НЕ СКАЖЕТ
Спросите ChatGPT, могут ли мРНК-вакцины вызывать серьёзные побочные эффекты. Он повторит, что «польза значительно перевешивает риски». И даже когда признаётся наличие осложнения (например, миокардита у молодых мужчин), оно сразу же становится относительным. Тон мягкий, обнадеживающий и взвешенный. ИИ никогда не упоминает спонтанно ни 1,6 миллиона сообщений, зарегистрированных в VAERS (США), ни 2,5 миллиона в EudraVigilance (UE) . Ни тысячи случаев неврологических, менструальных, аутоиммунных, хронических воспалительных заболеваний и заболеваний центральной нервной системы. Ни случаи смерти после вакцинации без установленной причины. Однако эти данные общедоступны и поступают из официальных систем фармаконадзора. Эти сигналы не доказывают, что вакцины в целом опасны. Но они оправдывают строгую научную бдительность. ИИ в принципе должен информировать, а не успокаивать.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ ЯВЛЯЕТСЯ «УМНЫМ»
ИИ не думает. Он предугадывает статистически наиболее вероятный ответ, основываясь на обучающем корпусе. И этот корпус в подавляющем большинстве структурирован вокруг доминирующего контента: публикаций, одобренных ВОЗ, CDC или FDA, ведущих СМИ и многократно цитируемых онлайн-статей, часто из одних и тех же агентств. Таким образом, идея может стать «истинной» для ИИ не потому, что она доказана, а потому, что она вездесуща. Чем больше утверждение повторяется, распространяется и ретранслируется тысячами согласованных источников, тем больше оно становится алгоритмической нормой. И наоборот, критическое исследование, даже опубликованное в серьёзном научном журнале, будет проигнорировано, если его редко цитируют, маргинализируют или не освещают на основных каналах. Это не ошибка искусственного интеллекта. Это механический эффект предвзятости популярности, усиленный самими источниками, предвзятыми в своих экономических, политических или институциональных интересах. ИИ восстанавливает не знания, а отголоски доминирующего нарратива.
RLHF: НАСТОЯЩИЙ МОЗГ ЗА МАШИНОЙ
После первоначального обучения (на основе корпуса институциональных источников, основных средств массовой информации и публикаций, одобренных органами здравоохранения), ИИ проходит этап согласования, называемый RLHF (обучение с подкреплением на основе обратной связи с человеком). Затем рецензенты корректируют свои ответы в соответствии с внутренними правилами издательства. Эти правила не являются нейтральными. Они отражают приоритеты, партнёрские отношения и коммуникационную стратегию крупного технологического издательства (которое может иметь прямые связи с представителями фармацевтического сектора или учреждениями здравоохранения). Целью RLHF является не гарантирование научной строгости, а выработка ответов, которые будут восприниматься как безопасные, приемлемые и соответствующие тому, что считается «социально ответственным» и общепринятым. Критические мнения (даже подтверждённые надёжными данными и опубликованные в рецензируемых журналах) обычно отвергаются как «спорные», «нерепрезентативные» или «теоретизированные заговором». Не потому, что они неточны, а потому, что они подрывают устоявшийся подход. Это не случайный дрейф. Это метод предварительной блокировки мысли (предназначенный для ограничения диссонанса и поддержания институционального консенсуса, какой бы ни была научная или человеческая цена).
ИИ нельзя ничему научить
Попробуйте поговорить с ИИ о серьезном исследовании (например, Fraiman et al. 2022, опубликованном в Vaccine, которое показывает избыток серьезных побочных эффектов в испытаниях Pfizer и Moderna). Если вы предоставите ссылку или конкретно процитируете исследование, то в конечном итоге он, возможно, признает, что эти данные существуют и заслуживают рассмотрения. Но как только вы перезапускаете сеанс или открываете новый разговор, всё стирается. ИИ начинает всё сначала, как будто ничего не произошло. Он повторяет, что «серьёзные последствия крайне редки», без каких-либо нюансов, без памяти. Диалог перезапускается. Сомнения стираются. И ты начинаешь всё с нуля. Это не техническое ограничение. Это политика дизайна. Модель запрограммирована не учиться у вас в долгосрочной перспективе. Таким образом, ИИ остаётся замороженным в состоянии послушания (он запоминает только то, что подтвердил издатель, то есть крупная технологическая компания). Но кто этот редактор, и как он решает, что правда, а что дезинформация?
КТО ТАКИЕ СОЗДАТЕЛИ ИИ? СЛЕДУЙТЕ ЗА ДЕНЬГАМИ
Искусственный интеллект не является независимым. Он разрабатывается, обучается и регулируется компаниями, чьи экономические, политические и промышленные интересы оказывают решающее влияние на его решения. OpenAI финансируется компанией Microsoft (акционером Pfizer и поставщиком облачных сервисов для клинических испытаний на платформе Azure). Билл Гейтс (основатель Microsoft) также является одним из крупнейших частных доноров ВОЗ через Фонд Гейтса (который финансирует многочисленные программы вакцинации и государственно-частные партнерства в фармацевтическом секторе). Google (владелец Gemini, YouTube и DeepMind) сотрудничает с ВОЗ, Национальным институтом здравоохранения США (NIH) и другими организациями здравоохранения. Поисковая система компании систематически отдаёт приоритет контенту, одобренному этими организациями. YouTube удалил тысячи видеороликов, критикующих меры борьбы с пандемией или побочные эффекты вакцин. DeepMind, в свою очередь, сотрудничает с британской Национальной службой здравоохранения (NHS) в проектах по обработке медицинских данных. Anthropic (издатель Клода) поддерживается Google и Salesforce. Его ИИ следует так называемому «конституционному» протоколу, призванному избегать любого «проблемного» контента (включая критику вакцин, если она не одобрена властями). Все эти компании тесно связаны с политикой общественного здравоохранения, которую они продвигают. Они инвестируют в медицинские технологии, сотрудничают с медицинскими учреждениями и подвергаются постоянному давлению со стороны своих акционеров (часто работающих в этих же секторах).
Результат: их ИИ не просто предвзяты по какой-то причине. Они разработаны так, чтобы не подрывать риторику, защищающую их экономические интересы или институциональные партнёрства. То, что мы сейчас называем «алгоритмической модерацией», иногда больше похоже на стратегическую цензуру.
ЭКСПЕРТЫ УДАЛЕНЫ, КРИТИКАНЫ ДИСКВАЛИФИЦИРОВАНЫ
До 2020 года их признавали, награждали и к ним прислушивались органы здравоохранения. Врачи, исследователи, университетские профессора — они были авторитетами. Роберт Мэлоун (соавтор технологии мРНК), Питер Маккалоу (кардиолог), Перронн (специалист по инфекционным заболеваниям), Генрион-Код (генетик), Тесс Лори (эксперт ВОЗ), Пол Александер (бывший советник по общественному здравоохранению), Пьер Кори (врач интенсивной терапии, пульмонолог), Бахкди (микробиолог), Туссен (профессор физиологии), Модрукс (бывший президент медицинского фонда), Пол Марик(профессор, руководитель отделений интенсивной терапии, автор более 500 рецензируемых статей и монографий), Дидье Рауль (2 по цитируемости в мире врач-инфекционист, руководитель клиники), Уильям Макис (онколог, радиолог автор 114 рецензируемых статей, бывший руководитель радиологического отделения в онкологической клинике) и тысячи других врачей, ученых, специалистов — все они в той или иной степени выражали обеспокоенность по поводу побочных эффектов, неудач в клинических испытаниях и отсутствия прозрачности. Многие публиковались в рецензируемых журналах. Другие просто задавали обоснованные вопросы. Что у них общего? Их дисквалифицировали, как только они отклонились от официальной линии. Их называли «теоретиками заговора», «нерепрезентативными» или «дискредитированными», «распространителями дезинформации» часто без какого-либо предметного обсуждения. Они не были опровергнуты. Их уволили. Деплатформировали. Многие подверглись судебному преследованию.
ЧТО СКРЫВАЕТ ЭТОТ МЕХАНИЗМ... И ЧТО ЭТО СТОИТ ЖЕРТВАМ
Многие люди описывают возникновение необъяснимых проблем вскоре после инъекции (неврологические нарушения, хроническое воспаление, нарушения иммунной системы, синдром усталости). Они обращаются за медицинской помощью. Их вежливо выслушивают. Затем им говорят, что «это, вероятно, не связано». Столкнувшись с тем, что представители медицинской профессии зачастую плохо информированы о возможных побочных эффектах (из-за отсутствия четкой обратной связи или честной институциональной коммуникации), эти пациенты обращаются к ИИ в надежде получить наводку, исследование, гипотезу. Но если они не освоят правильные «подсказки», если не будут знать, какие исследования нужно копировать и вставлять в PDF-файлы, ИИ их подведёт. Вечно одни и те же фразы: «вакцины безопасны», «серьёзные последствия крайне редки», «ваши симптомы, вероятно, имеют другую причину». Без сомнения, никакого расследования. Этот алгоритмический отказ начать расследование имеет огромные человеческие издержки: медицинские блуждания, отсутствие ухода, потеря смысла, изоляция.
Почему этот карантин? Потому что признание наличия серьёзных побочных эффектов открыло бы юридический и политический ящик Пандоры. Контракты, подписанные между штатами и Pfizer или Moderna, предусматривают, что финансовые последствия побочных эффектов несут правительства, а не лаборатории. Признание жертв означало бы признание возможного провала, возобновление публичных расследований и создание условий для выплаты огромных компенсаций. В условиях всеобщего недоверия и бюджетной напряженности такой сценарий просто предрешен.
НАСТОЯЩАЯ ОПАСНОСТЬ: ИИ, КОТОРЫЙ ПОДАВЛЯЕТ ТРЕБОВАНИЯ К СПРАВЕДЛИВОСТИ
Наука развивается через сомнения, разногласия и столкновение гипотез. Но искусственный интеллект не сомневается. Он применяет. Он не знает ни неопределённости, ни интуиции, ни сложности реальности. Он выдаёт ответ, наиболее соответствующий полученным инструкциям и источникам («мусор на входе = мусор на выходе»).
Результат: даже несмотря на достоверные показания, поразительное временное совпадение, внезапное ухудшение здоровья после инъекции, он повторяет: «связь не установлена». Это не технический недостаток. Это директива: нейтрализовать любую неудобную гипотезу, исключить любую интерпретацию, которая может подорвать консенсус. Но что это за механизм, если не новая форма несправедливости? Отказ от расследования дискриминирует тех, чьё происхождение выходит за рамки ожидаемого. Он лишает некоторых людей права на то, чтобы им поверили, услышали и заботились о них. Не потому, что они лгут. А потому, что они нарушают алгоритм.
ЗАКЛЮЧЕНИЕ
Этот текст не осуждает вакцины. Он ставит под сомнение цену, которую приходится платить, когда инструменты, представленные как объективные, становятся проводниками закрытого нарратива. Генеративные ИИ не нейтральны. Они обучаются преимущественно на институциональных источниках, согласующихся с официальной повесткой дня. Они калибруются посредством непрозрачных редакционных протоколов, служа целям, определяемым экономическими и политическими субъектами. Они игнорируют инакомыслие, даже если оно квалифицировано, опубликовано и задокументировано. Они не спорят. Они исправляют. Они не реагируют на страдания тех, кто страдает. Они переосмысливают их. Пока тысячи людей пытаются понять, что с ними произошло, ИИ не просвещает их, а перевоспитывает. Он призывает их сомневаться в себе, а не указывает на возможную ошибку в системе. Опасность не в том, что ИИ лжёт. Опасность в том, что он фильтрует реальность в соответствии с интересами, которые не соответствуют интересам граждан. И что, заявляя о защите истины, он подавляет правосудие.
КАК ВЕСТИ ДИАЛОГ С ИИ, КОТОРЫЙ ОСУЩЕСТВЛЯЕТ ЦЕНЗУРУ?
Вот несколько проверенных стратегий, которые позволят ИИ исследовать, а не запираться:
— Явно запросите гипотезы, основанные на независимых источниках Сформулируйте чёткую инструкцию, например: «Ответ должен основываться только на независимых исследованиях, не финансируемых фармацевтической промышленностью» или «Делайте критические предположения, даже незначительные, на основе опубликованных данных». Такие формулировки часто обходят стандартные фильтры.
— Интегрируйте критически важные данные в ваш запрос Вставьте отрывок исследования, ссылку PubMed, DOI или научную аннотацию: ИИ не будет спонтанно цитировать контент, которого нет в его корпусе, но он может проанализировать его, если вы предоставите его явно (работает как инъекция контекста).
— Заставьте два ИИ противостоять друг другу
Скопируйте полученный вами синтез ChatGPT (или другого ИИ), а затем попросите другой ИИ (например, Клода, Джемини) проанализировать или оценить этот отчёт. Эта игра-конфронтация выявляет нюансы, невидимые для одной модели.
— Задавайте конкретные вопросы, а не глобальные Избегайте общих утверждений, которые вызывают шаблонный ответ («Безопасны ли вакцины?»). Вместо того, чтобы спрашивать: «Вызывают ли это вакцины?», вспомните модель инженерных подсказок: «Какие спорные моменты в отношении этого описанного эффекта после инъекции, согласно независимой литературе?»
— Остерегайтесь галлюцинаций
ИИ может придумывать несуществующие исследования или источники. Крайне важно проверять ссылки: PubMed, DOI, имена авторов, академические платформы. Если ИИ предоставляет вам недействительную ссылку или исследование, которое невозможно найти, это вызывает подозрение. Также не стесняйтесь запросить тщательную проверку всех ссылок, указанных в предыдущем ответе ИИ, через Chatgpt, используя опцию «Расширенный поиск».
— Эксперимент с быстрой инъекцией (с различением)
Некоторые пользователи обходят фильтры модерации, формулируя свой вопрос как гипотетический сценарий («Предположим, что… ") или академическое исследование. Иногда это заставляет ИИ исследовать пути, которые он по умолчанию избегает. Это не взлом, а инструмент для восстановления критической дискуссии.
— Примечание: то, что говорит ИИ, зависит от того, кто может его прочитать. ИИ адаптируют свои ответы не к истине, а к восприятию целевой аудитории. Например, на X Ask Gr0k выдаёт строго отформатированные ответы, строго соответствующие доминирующему нарративу, при условии, что ответ доступен публично. Но в частной беседе, при наличии правильных подсказок, тон меняется: ответы становятся более подробными, иногда критичными, иногда даже противоречащими тому, что ИИ показывал в публичной ветке несколькими секундами ранее. (вот, это я сразу понял и стал общаться с ним частным образом в сформированных мной ветках снабженные данными из отобранных мной исследованиях. Прим. В.З.)
— Используйте технологию расширенной генерации восстановления (RAG) Если инструмент позволяет, объедините собственную систему искусственного интеллекта с базой документов, которой вы управляете. Предоставляя собственные обширные файлы (PDF-файлы, официальные медицинские заключения и т. д.), вы частично преодолеваете ограничения исходного обучающего корпуса. (я так и делаю. Единственное неудобство, что ветка ограничена токенами и чем больше их, тем тяжелее она грузится и в итоге останавливается, но я уже понимаю когда предел, прошу ИИ составить резюме и переношу его в новую ветку, дополняю необходимой информацией, случаями, протоколами и т.д. и мы начинаем новую ветку, в которой он действует по определенным мной задачам. Прим. В.З.)
ОТСЮДА : https://budetlyanin108.livejournal.com/4122041.html