Google разрешил военным использовать ИИ Gemini. Самое страшное — мелкий шрифт
Google подписал соглашение с Пентагоном: американские военные смогут использовать ИИ-модели компании, включая Gemini, в закрытых правительственных сетях. Формально звучит почти скучно — очередной контракт большого технологического гиганта с государством.
Но вся соль не в самом факте сделки, а в формулировках.
По данным Reuters со ссылкой на The Information, в договоре говорится, что ИИ Google можно использовать для "любой законной государственной цели". И вот эта фраза — тот самый мелкий шрифт, из-за которого история становится неприятной.
В соглашении есть успокаивающая оговорка: технологии Google не предназначены для внутренней массовой слежки и автономного оружия без человеческого контроля. То есть не так, что Gemini завтра сам выбирает цель и нажимает красную кнопку.
Но дальше идет важный нюанс: Google не получает права контролировать или блокировать законные решения правительства. Проще говоря, компания может написать красивые принципы, но если государство решит, что конкретное применение законно, последнее слово будет не за Google.
Именно этого боялись сотрудники компании. Более 600 работников Google, включая сотрудников DeepMind, написали письмо Сундару Пичаи и попросили не отдавать ИИ в секретные военные проекты. Их аргумент понятен: когда проект засекречен, общество не может проверить, где заканчивается "помощь с документами" и начинается реальное военное применение.
У Google уже была похожая история. В 2018 году после протестов сотрудников компания обещала не разрабатывать ИИ для оружия и некоторых видов слежки. Но в 2025 году эти жесткие запреты из принципов Google исчезли. Остались более мягкие слова про ответственность, надзор и права человека.
И в этом, кажется, весь нерв эпохи. Для обычных пользователей ИИ продают как доброго помощника: написать письмо, собрать таблицу, объяснить сложный текст. Для государства та же самая технология превращается в инструмент разведки, анализа, планирования и войны.
Самое тревожное здесь не то, что Пентагон заинтересовался ИИ. Это было неизбежно. Самое тревожное — что граница между "мы не делаем ИИ для опасных вещей" и "мы не можем запретить государству законно использовать наш ИИ" оказалась очень тонкой.
А вы как думаете: технологические компании должны иметь право сказать государству "нет", если речь идет о военных задачах? Или если технология уже создана, армия все равно рано или поздно ее заберет?
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Искусственный интеллект
5.7K пост11.9K подписчика
Правила сообщества
ВНИМАНИЕ! В сообществе запрещена публикация генеративного контента без детального описания промтов и процесса получения публикуемого результата.
Разрешено:
- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.
- Делиться статьями, понятными большинству аудитории Пикабу.
- Делиться опытом создания моделей машинного обучения.
- Рассказывать, как работает та или иная фиговина в анализе данных.
- Век жить, век учиться.
Запрещено:
I) Невостребованный контент
I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.
I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.
I.3) Добавлять посты, которые содержат лишь генеративный контент или нейросетевой Арт без какой-то дополнительной полезной или интересной информации по теме, без промтов или описания методик создания и т.д.
II) Нетематический контент
II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.
II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".
II.3) Создавать контент, входящий в противоречие с правилами Пикабу.
III) Непотребный контент
III.1) Эротика, порнография (даже с NSFW).
III.2) Жесть.
За нарушение I - предупреждение
За нарушение II - предупреждение и перемещение поста в общую ленту
За нарушение III - бан