США заинтересованы в приобретении технологий машинного обучения для проведения пропагандистских кампаний с использованием искусственного интеллекта за рубежом.
Соединенные Штаты надеются использовать машинное обучение для создания и распространения пропаганды за рубежом, стремясь «влиять на зарубежную целевую аудиторию» и «подавлять несогласные аргументы», согласно документу Командования специальных операций США, рассмотренному The Intercept.
Документ, своего рода список пожеланий для специальных операций по военным технологиям ближайшего будущего, раскрывает новые подробности о широком спектре возможностей, которые SOCOM надеется приобрести в течение следующих пяти-семи лет, включая современные камеры, датчики, оружие направленной энергии и другие гаджеты, которые помогут операторам найти и уничтожить свою жертву. Среди технологий, которые он хочет приобрести, — программное обеспечение для машинного обучения, которое можно использовать для ведения информационной войны.
«Информационная среда меняется слишком быстро, чтобы военные помнили [так в оригинале] и могли адекватно вовлекать и влиять на аудиторию в Интернете», — отмечается в документе. «Наличие программы, созданной для достижения наших целей, может позволить нам контролировать повествования и влиять на аудиторию в режиме реального времени».
Законы и политика Пентагона обычно запрещают военным пропагандистским кампаниям ориентироваться на американскую аудиторию, но пористая природа Интернета затрудняет обеспечение этого.
В своем заявлении представитель SOCOM Дэн Лессард признал, что SOCOM реализует «передовые возможности с поддержкой искусственного интеллекта».
«Все возможности искусственного интеллекта разрабатываются и используются в рамках концепции ответственного искусственного интеллекта Министерства обороны, которая обеспечивает подотчетность и прозрачность, требуя человеческого надзора и принятия решений», — сказал он The Intercept. "Интернет-усилия USSOCOM по MISO соответствуют законодательству и политике США. Эти операции не нацелены на американское общество и предназначены для поддержки целей национальной безопасности перед лицом все более сложных глобальных проблем".
Такие инструменты, как ChatGPT от OpenAI или Gemini от Google, приобрели популярность, несмотря на их склонность к фактическим ошибкам и другим ошибочным выводам. Но их способность мгновенно генерировать текст практически на любую тему, написанный практически в любом тоне — от обычного троллинга до псевдоакадемического — может стать большим шагом вперед для интернет-пропагандистов. Эти инструменты дают пользователям возможность точно настроить обмен сообщениями для любого количества аудиторий без затрат времени и человеческого труда.
Работает ли пропаганда, создаваемая ИИ, остается открытым вопросом, но эта практика уже широко задокументирована. В мае 2024 года OpenAI опубликовала отчет, раскрывающий попытки иранских, китайских и российских субъектов использовать инструменты компании для участия в тайных кампаниях влияния, но обнаружила, что ни одна из них не увенчалась особым успехом. В комментариях перед сенатским форумом AI Insight Forum 2023 года Джессика Брандт из Брукингского института предупредила, что «магистры права могут повысить персонализацию и, следовательно, убедительность информационных кампаний». В онлайн-экосистеме, наполненной кампаниями информационной войны с использованием искусственного интеллекта, «скептицизм в отношении существования объективной истины, вероятно, будет возрастать», предупредила она. Исследование 2024 года, опубликованное в академическом журнале PNAS Nexus, показало, что «языковые модели могут генерировать текст, который почти так же убедителен для американской аудитории, как и контент, который мы получили из реальных зарубежных тайных пропагандистских кампаний».