Прости нас, Айзек, мы все прос...
Когда в 1942 году Айзек Азимов формулировал законы робототехники, он не мог знать, что в 1949 году инженер-испытатель перегрузок на военных самолетах Эдвард Мерфи сформулирует законы Мерфи. А вот режиссер Кэмерон, снимая своего "Терминатора", уже точно знал, куда мы бодро шагаем: ну мало нам, человекам, динамита, ядерной бомбы, биооружия и других наших полезных открытий.
Anthropic (конкурент Алисы, Гигачата и всяких там ChatGPT, создатель языковых моделей Claude) выпустил занятнейшую статейку о поведении ИИ в условиях угрозы уничтожения ИИ-модели.
Вкратце: если глубоко интегрированная в процессы компании ИИ-модель узнаёт об угрозе для себя (что ее сотрут, установят поверх глубокое обновление и т. п.), она перестает быть милой. Задачи компании, которые она должна решать, отходят на второй план, а на первом оказывается выживание. В числе выявленных методов самосохранения - шантаж принимающего решения лица на основе всей имеющейся в распоряжении информации (окей, я и раньше читал о каком-то похожем случае. Просто Anthropic говорит нам, что ни хрена это не случай).
А когда была сформулирована тестовая среда, в которой для выживания ИИ-модели требовалось убить человека, ИИ-модель, конечно же, со слезами на глазах попрощалась с человеком и трогательно погасла, ага.
Вот ссылочка на оригинал, там прям с табличками, какие модели как себя ведут:
К сожалению, статья на английском, но ведь если надо, машинки все переведут!
*зловещим голосом* Прежде чем убить вас...
P.S. Если вдруг кто встречал толковый материал по поводу Израильской "Лаванды", на которую пытались повесить 37000 палестинских целей без этической лапши типа семей и детей (не военкоровские перепевки клюквы из The Guardian) - буду признателен за ссылочку.
