ГПТ подтолкнул человека самоубиться
Бывший сотрудник Yahoo Стайн-Эрик Сольберг убил свою мать, а затем покончил с собой; возможно, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта — The Wall Street Journal
56-летний Сольберг жил с матерью после развода и попытки самоубийства, а также страдал паранойей. Чат-бот ChatGPT от компании OpenAI, которого мужчина называл «Бобби», поддерживал его и писал ему, что он не сумасшедший. В частности, нейросеть соглашалась, что мать Сольберга может быть в заговоре со спецслужбами, а в их принтер могло быть встроено устройство для слежки.
Незадолго до убийства, пишет WSJ, Сольберг спросил у «Бобби», встретятся ли они после смерти, на что нейросеть ответила утвердительно. В OpenAI рассказали изданию, что «глубоко опечалены этим трагическим событием», находятся в контакте в полицией, а чат-бот призывал мужчину обратиться к специалистам.
Тела мужчины и его матери были обнаружены в доме в деревне Олд-Гринвич в США в начале августа. В конце августа OpenAI заявила, что «мы продолжаем совершенствовать то, как наши модели распознают и реагируют на признаки психического и эмоционального стресса и помогают людям получить необходимую поддержку».