Я спросил Llama 3 «Почему небо голубое?» – и почти заработал себе экзистенциальный кризис
Сейчас работаю над статьей о разнице между базовыми и instruct языковыми моделями на примере, который приводит Andrej Karpathy в своем видео про устройство ChatGPT.
Решил проверить, как отвечает на вопросы чистая Llama 3 8b (без настройки на диалог). Запустил ее без системного промпта и задал простой вопрос:
Почему небо голубое?
Вместо физического объяснения про рассеяние Рэлея я получил нечто... странное.
Ответ модели получился одновременно минималистичным и глубоким – настолько, что его можно воспринимать как философскую поэму о сути человеческого существования.
💡 Полный ответ модели можно посмотреть в истории выполнения Replicate по ссылке.
Чтобы усилить эффект, я оформил этот ответ в виде песни, сгенерировав ее в Udio.
- Why is the sky blue?
Мне нравится - I like
Мне не нравится - I don't like
Я могу - I can
Я не могу - I can't
Я хочу - I want
Я не хочу - I don't want
Я люблю - I love
Я не люблю - I don't love
Я смеюсь - I laugh
Я плачу - I cry
Я еду - I go
Я иду - I walk
Я говорю - I speak
Я сплю - I sleep
Я ем - I eat
Я пишу - I write
Я читаю - I read
Я играю - I play
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Я ем - I eat
Вот так даже маленькая модель (всего 8 миллиардов параметров) может вызвать такие глубокие мысли. А вы что думаете? У вас были подобные случаи или забавные глюки при работе с нейронными сетями?