7

ГПТ подтолкнул человека самоубиться

Бывший сотрудник Yahoo Стайн-Эрик Сольберг убил свою мать, а затем покончил с собой; возможно, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта — The Wall Street Journal

56-летний Сольберг жил с матерью после развода и попытки самоубийства, а также страдал паранойей. Чат-бот ChatGPT от компании OpenAI, которого мужчина называл «Бобби», поддерживал его и писал ему, что он не сумасшедший. В частности, нейросеть соглашалась, что мать Сольберга может быть в заговоре со спецслужбами, а в их принтер могло быть встроено устройство для слежки.

Незадолго до убийства, пишет WSJ, Сольберг спросил у «Бобби», встретятся ли они после смерти, на что нейросеть ответила утвердительно. В OpenAI рассказали изданию, что «глубоко опечалены этим трагическим событием», находятся в контакте в полицией, а чат-бот призывал мужчину обратиться к специалистам.

Тела мужчины и его матери были обнаружены в доме в деревне Олд-Гринвич в США в начале августа. В конце августа OpenAI заявила, что «мы продолжаем совершенствовать то, как наши модели распознают и реагируют на признаки психического и эмоционального стресса и помогают людям получить необходимую поддержку».

https://iz.ru/1945555/2025-08-30/v-ssa-chatgpt-podtolknul-ek...

https://naked-science.ru/community/1108878

Новости

32.4K постов26.6K подписчика

Правила сообщества

1. Ставить тег "Новости"

2. Указывать источник (ссылку на новость)

3. Запрещены призывы к экстремистским действиям, оскорбления и провокации.