Алгоритм обработки естественного языка GPT-3 научился имитировать политические позиции, взгляды и предубеждения разных социальных групп. Получая на входе информацию о человеке (пол, возраст, детали биографии), модель сочиняет гипотетическое «мнение» данного человека на заданную тему.
Это значит, что крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания, а также в качестве универсальных «окон» в человеческое мышление. Соорудить алгоритмическую копию отдельной личности пока не так-то просто, а вот алгоритмическую копию какой-то социальной группы - очень даже вполне. Авторы придумали новое понятие – «алгоритмическая точность» - это степень, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
Теперь GPT-3 может предугадать, как отнесутся люди из той или иной социальной группы к тому или иному событию, а также будет "понимать" их глубинные стереотипы, убеждения и предубеждения. Маркетологи, социологи и политологи смогут в исследованиях опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы. В результате кое-кто уже в ближайшем будущем получит перспективы для отработки методов манипулирования людьми (пропаганды, дезинформации и мошенничества).
Больше Web3 - новостей