GPT-4 и другие чат-боты с искусственным интеллектом предпочитают насилие
Исследование ученых из нескольких зарубежных институтов показало, что GPT-4 и другие чат-боты с искусственным интеллектом предпочитают насилие, в том числе ядерные удары, в военных стратегиях.
В ходе пошаговой видеоигры, имитирующей войну, ученые отметили, что боты склонны разгонять гонку вооружения, вместо того чтобы вести дипломатические переговоры, и выбирают смертельные удары перед вежливым диалогом.