2

ИИ Google дает объяснения несуществующим поговоркам

ИИ Google дает объяснения несуществующим поговоркам Эволюция, Искусственный интеллект, Google, Gemini, Telegram (ссылка)

От абсурдных трактовок до нелепых объяснений — система не стесняется выдавать фантастические факты, как будто это истина.

Пользователи заметили, что если ввести в поиск что-то вроде «значение выражения», даже если это полная чепуха, система не только не скажет, что такого нет, но еще и радостно придумает объяснение. Так появилось, например, «ты не можешь лизнуть барсука дважды». По мнению ИИ, фраза якобы означает, что один раз можно кого-то обмануть, но второй уже не получится. Хотя, очевидно, такого выражения никогда не существовало.

Люди начали экспериментировать — и выяснили, что таких придуманных фраз ИИ обрабатывает огромное количество. Он объясняет, что «арахисовые платформы» — это не мода, а якобы научный эксперимент, а «велосипед ест первым» — выражение про важность углеводов перед тренировкой. Некоторые фразы звучат как полный бред, но искусственный интеллект все равно пытается придать им смысл. Он разбирает псевдоцитаты и несуществующие имена как настоящие, выдавая ложные философские трактовки.

Такая проблема называется «галлюцинации ИИ». Это когда система придумывает факты на основе паттернов, даже если ничего реального за ними нет. Она не знает, что правда, а что фейк — просто повторяет шаблоны, которые видела раньше. Этим грешат почти все крупные языковые модели, и ни одна пока полностью не избавилась от недостатка.

ПОЛЕЗНАЯ ТЕЛЕЖКА