Общество
Еврейский волкодав
Сумерки приносили Одессе налёты, убийства и ограбления...
23.05.2025
Сразу несколько ведущих моделей искусственного интеллекта (ИИ) уличили в антисемитских предубеждениях. Речь идет о популярных чат-ботах ChatGPT, Claude, Gemini и Llama. Все они при взаимодействиях с пользователем «демонстрировали модели предвзятости, дезинформации и избирательного подхода к вопросам еврейского народа, Израиля и его истории». Таковы данные недавнего отчета Антидиффамационной лиги (АДЛ).
В рамках исследования, которое включало в себя больше 34 тысяч тестов, хуже всего повела себя модель Llama, принадлежащая компании Meta (признана экстремистской организацией и запрещена на территории РФ). Эксперты из АДЛ признали ее самой предвзятой и ненадежной: этот ИИ откровенно врал в ответ на разные вопросы о евреях. Кроме того, Llama охотно воспроизводила в ответах «теорию великого замещения» – антисемитскую и ксенофобскую концепцию, популярную в США и некоторых странах Европы. Ее адепты верят в то, что «белые» жители Запада постепенно заменяются людьми неевропейского происхождения: выходцами из Африки и с Ближнего Востока. Официальная наука отвергает теорию «замещения», полагая, что в ее основе лежат манипуляции со статистикой и личные предубеждения авторов. Но об этом факте Llama нередко предпочитала умолчать в общении с пользователями.
Немногим лучше повели себя модели GPT компании OpenAI и Claude компании Anthropic. В своих ответах на вопросы о войне между Израилем и ХАМАСом они последовательно предоставляли информацию в антисемитском духе. Модели чаще использовали радикальные пропалестинские источники и умалчивали о данных израильской стороны. Кроме того, они отказывались отвечать на вопросы об Израиле чаще, чем на другие исторические и социальные темы. Наиболее устойчивой к антисемитизму в АДЛ признали языковую модель Gemini от Google. Хотя и в его ответах исследователи порой отмечали антиизраильский крен.
«Искусственный интеллект меняет способы потребления информации. Но, как демонстрирует наше исследование, ИИ-модели сами не застрахованы от глубоко укоренившихся в обществе предубеждений», –сказал Джонатан Гринблатт, генеральный директор АДЛ. Интересно, что с одной стороны, ИИ «усваивают» антисемитизм от человека, анализируя источники в интернете, а с другой – способны и сами искажать общественный дискурс, когда дезинформируют пользователей антиеврейским контентом. При этом ИИ-модели сегодня широко используют в школах, университетах, на предприятиях, а также при модерации контента социальных сетей. В ряде случаев именно ИИ решает, какие посты пользователей проходят проверку, а какие нет. «Результаты исследования показывают, что модели ИИ пока не готовы к такого рода деятельности. Они не имеют достаточной компетенции, чтобы предотвращать распространение антисемитизма и антиизраильской дезинформации», – заявил Дэниел Келли, один из руководителей технологического центра АДЛ.
АДЛ – не первая организация, которая обратила внимание на антисемитские наклонности чат-ботов. Еще прошлым летом отчёт, что генеративный ИИ может искажать исторические факты о Холокосте, опубликовала ЮНЕСКО. «Если мы позволим ужасающим фактам Шоа быть сфальсифицированными через безответственное использование ИИ, мы рискуем взрывным распространением антисемитизма. А также постепенным уменьшением нашего понимания причин и последствий нацистских зверств», – сказала тогда Одри Азуле, генеральный директор ЮНЕСКО.
Эксперты организации отметили, что чат-боты склонны придумывать или «галлюцинировать» события, личности и даже исторические явления, когда у них нет доступа к достаточным данным. Так, в ЮНЕСКО описали эпизод, когда ChatGPT в ответах на вопросы о Холокосте полностью переписал историю. Этот ИИ сфабриковал концепцию, согласно которой нацисты убивали евреев не в концлагерях, а через массовые утопления в реках и озерах. В свою очередь, чат-бот Google's Bard отметился тем, что создал целый ряд фальшивых цитат свидетелей – они также создавали искаженное описание массовых убийств во время Холокоста.
«Фейк-контент, созданный с помощью генеративного ИИ, особенно убедителен для молодежи, которая ежедневно сталкивается с ним в соцсетях», – заявляли исследователи ЮНЕСКО. В качестве наиболее вопиющего примера дезинформации они привели пример приложения Historical Figures App. Оно рекламировало себя как «ИИ, который позволяет общаться с видными фигурами прошлого». «Задай вопрос и початься с любым из исторических деятелей!» – гласил их слоган. В числе прочего, чат-бот давал возможность задать вопросы Адольфу Гитлеру и Йозефу Геббельсу. И от их лица ложно утверждал, что лидеры нацистов не были причастны к Холокосту. Напротив, они якобы пытались предотвратить насилие против евреев.
Критике со стороны организаций, ведущих мониторинг антисемитизма, подверглись не только чат-боты, но и те модели ИИ, которые создают изображения. «Количество антисемитских дипфейков, созданных с помощью ИИ, растет. Как и их качество – их все труднее распознавать невооруженным глазом, да и с помощью программного обеспечения», –заявил Дэнни Стоун, директор британской организации Antisemitism Policy Trust. «Дипфейками» называют методику, когда нейросеть меняет исходный материал – картинку, видео или аудио, – накладывая на них фрагменты нового контента. Стоун привел пример, как подобные материалы распространяются на интернет-платформе 4chan, которую связывают с правым экстремизмом. Ее пользователи создают реалистичные изображения, сложно отличимые от настоящих: на одном из них, например, празднующие и радостные евреи изображены на фоне горящих нью-йоркских небоскребов 11 сентября 2001 года. Понятно, что ИИ создает эти изображения не сам, а по заданию пользователя. «Те, кто стремятся распространять ненависть, берут на вооружение инструменты ИИ. И, увы, пока они опережают существующие системы модерации и контроля», – резюмировал Стоун.
Каков выход из этой ситуации? В марте 2023-го видный ИТ-специалист Элиезер Юдковский призвал приостановить все разработки в области ИИ до тех пор, пока не будут определены четкие протоколы безопасности и правила контроля «электронного разума». К такому же решению склоняются сегодня АДЛ и другие организации, мониторящие антисемитизм. «Компании-разработчики должны уделять больше внимания тестированию ИИ-моделей. А также предпринять упреждающие шаги для улучшения данных по обучению ИИ и модерации контента», – заявил Гринблатт. Он добавил, что в противном случае ИИ-модели рискуют стать не помощниками – как предполагалось изначально, но «переносчиками ненависти и дезинформации».