Лоаб
В последнее время нейросети стали частью нашей жизни. В основном мы рисуем картинки и пишем незамысловатые тексты.
Но вот и пришел момент, когда нейросети вошли в нашу жизнь настолько плотно, что стали частью городских легенд.
Жил-был художник, в интернете его называли Supercomposite. Так вот, жил не тужил и любил поиграться с параметрами и запросами нейросети.
Его любимый параметр - «отрицательный вес подсказки», суть которого заставить ИИ генерировать полную противоположность его запросу.
Первый из запросов был "Брандо", на что нейросети выдала вполне невинную картину:
И вроде бы ничего такого - прикольный логотип города с надписью "Digita Pntics"
И если использовать «отрицательный вес подсказки», перевернув надпись, то должно появиться по идее Брандо, но не ту то было.
Система выдала следующее:
Дальнейшие эксперименты с Лоаб показали, что система всегда выдает нечто жуткое и стремное. И в изображении всегда есть образ женщины, причем в ней всегда есть нечто неуловимо-узнаваемое. «Из-за какой-то возникающей статистической аномалии эта женщина всегда соседствует с чрезвычайно кровавыми и жуткими образами. Весьма пугающая репрезентация знаний ИИ о мире», — пишет Supercomposite.
«Поскольку Лоаб была обнаружена с использованием отрицательных коэффициентов, ее гештальт состоит из набора черт, одинаково далеких от чего-либо. Но ее комбинированные черты по-прежнему являются связной концепцией для ИИ, и почти все изображения ее «потомков» содержат узнаваемую Лоаб».
Вот, к примеру, попытка совместить запросы «Лоаб» и «Ангельская прихожая». Арт получился настолько жутким и кровавым, что сам художник признается, что считает эти два изображения самыми неуютными. «Эти картины расчлененных кричащих детей почти что можно понюхать», — пишет он.
«Вот Лоаб в образе пчелы. А вот Лоаб празднует «месяц Гордости». Лоаб может быть узнаваемо перенесена во многие жанры и контексты».
К сожалению, практически невозможно точно узнать, что здесь происходит. Системы ИИ, генерирующие изображения, используют модели, обученные на миллиардах изображений. Они слишком сложны, чтобы понять, почему их работа приводит к тем или иным результатам.
Именно поэтому специалисты по этике ИИ предостерегают от использования больших языковых моделей, подобных той, что используется в DALL-E. Они просто слишком велики, а их результаты слишком непредсказуемы, чтобы надежно предотвратить появление извращенных результатов.
маткриал взят с https://disgustingmen-com.turbopages.org/disgustingmen.com/s...