13

Доступно об АйТи: Нейросеть в роли депутата2

Как сказал один депутат, «у нейросети нет совести». У мало-мальски опытного политика её тоже нет. А у нейросети нет кое-чего другого.

Иллюстрация на тему китайской комнаты

Иллюстрация на тему китайской комнаты

LLM не знает фактов, она запоминает слова. Существует мысленный эксперимент под названием «китайская комната». Вы сидите в комнате, наполненной карточками с иероглифами. Вы не знаете китайского, но имеете огромный свод правил типа: получив иероглиф 1, ответить иероглифом 2. Считаетесь ли вы знающим язык?

Но ведь большая языковая модель — это именно китайская комната, только очень сложная.

Интереса ради я спросил у DeepSeek: «Российская подводная лодка всплыла на озере Титикака — будет это поводом к войне?» Да, она отлично поняла, что такая ситуация невозможна и вопрос скорее провокационный, и это делает ей честь, но приведу кусочек ответа.

Подняться в горы на высоту более 3800 метров. Озеро Титикака — высокогорное. Подводная лодка — это тяжелое судно, которое невозможно транспортировать по горным дорогам скрытно. Единственный теоретический путь — через реки, но они либо несудоходны для таких размеров, либо ведут к водопадам и порогам.

Другими словами, DeepSeek не знает, что озеро Титикака изолировано от Мирового океана. Совсем изолировано — из него вытекает одна река в бессточное озеро.

Нейросеть не знает, что такое нейросеть не знает. Ни одна известная мне нейросеть не может сказать: я не знаю. На задачи, далёкие от обучающей выборки, она постоянно пытается придумать отговорки, как последний троечник.

Чтобы заглючить DeepSeek, я написал ей: «Сяпала Калуша по напушке и увазила бутявку», и она сработала не блестяще, но очень хорошо:

Это замечательная фраза из языка «Каламбура» или так называемого «абсурдного стиля», который использовали писатели-обэриуты (Даниил Хармс, Александр Введенский и другие).

Калуша — вымышленное существо, похожее на птицу или некое живое существо (сравни: «курица», «луша»).

Вот из-за этого «луша» я и не могу сказать, что «блестяще». Но тогда я пришёл к DS с прямым вопросом: «Кому фраза принадлежит?» И она ответила: Даниилу Хармсу.

Нет, ребята, фраза принадлежит Людмиле Петрушевской.

На эту тему есть очень много любительских мультиков, но я специально привёл тот самый из девяностых.

По одним данным, автопилот Tesla работает значительно лучше людей, по другим — несколько более аварийный (сам я полагаю нечто среднее: почти не влезает в микро-ДТП, но если бахнет, то гарантированно убьёт). Но меня шокировала одна из аварий — автопилот ночью врезался в перевернувшуюся фуру. Грузовик перегораживал дорогу, и автопилот его не распознал как непонятное препятствие, не тормозил вообще и поздно пошёл в объезд. Это то самое — нейросеть не знает, что такое нейросеть не знает.

И уж тем более нейросеть не способна на режим «я не знаю, но знаю, где узнать» — мы, айтишники, постоянно этим занимаемся.

Как быть с постоянно меняющейся ситуацией в мире? Обучение нейросети — серьёзная задача, игрушечная нейросеть из пары сотен нейронов, которой я приближал физические модели, обучается несколько секунд. DeepSeek V3 обучался 2,8 млн GPU-часов. Как обучать нейросеть новым фактам и новой статистике?

И последнее — человеческий фактор. Подбором обучающих данных, указанием важности, заданием особых правил всё равно занимаются люди. Которые значительно более уязвимы, чем депутаты — их единицы (максимум десятки), они не так охраняются, они люди подневольные, их легче подкупить. Да, некоторые силы любят депутатов без бизнеса, и ровно по этой причине: они тоже подневольные и будут голосовать ровно так, как скажут сверху.

По этой причине, кстати, некоторые виды цифровизации очень любимы марионеточными режимами, но трудноосуществимы в суверенном государстве — слишком уязвимы люди, отвечающие за работу системы.

Нужна ли нейросеть депутату? Нужна. Но не для того, чтобы писать законы, а чтобы оттачивать формулировку. Возможно, подсказывать какие-то места из законов. Но на современном уровне развития техники машина не может писать законы для людей.

И простите, если дудоню бутявку.

1
Автор поста оценил этот комментарий

Ну на счёт Теслы - тут важна статистика и больше ничего. Люди аварии и пожесче устраивают. И если автопилоты Тесла на миллиона машин допускают меньше аварий чем люди, значит автопилоты - лучше. А не лучше только в случае если абсолютно не допускают аварий.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

И именно Тесла вызвала дурацкую моду на сенсоры в машинах — может, Тесла с продвинутым автопилотом и может компенсировать неудобство, но никто больше не смог выкатить автопилот, верно?

1
Автор поста оценил этот комментарий

Ну на счёт Теслы - тут важна статистика и больше ничего. Люди аварии и пожесче устраивают. И если автопилоты Тесла на миллиона машин допускают меньше аварий чем люди, значит автопилоты - лучше. А не лучше только в случае если абсолютно не допускают аварий.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Я слышал данные, что Тесла делает несколько больше плохих ДТП, чем человек, на километр пути (с незначительными ДТП как раз лучше). К тому же там настолько много вещей управляется программой и CAN, что машина, например, задымила — человек в момент ДТП был жив, но пока до него добрались, отравился.

4
Автор поста оценил этот комментарий

Забавная история о сочинительских способностях нейросетей:


Недавно переводил научную статью на английский через DeepSeek и случайно отправил только список авторов, без дополнительного запроса. Нейросеть оперативно привела по каждому автору краткую автобиографию с научными достижениями, и даже упомянула их самую крупную совместную работу - учебное пособие по микроэлектронике, которое использовалось в крупнейших ВУЗах России!


Стоит ли говорить, что ни таких людей (полные имена нейросеть додумала сама по инициалам), ни этого учебного пособия, которое вроде как внесло большой вклад в развитие отечественной науки, в принципе не существует.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Спасибо за пример!

0
Автор поста оценил этот комментарий

Чтобы противопоставлять модели человеку, используя китайскую комнату, как аргумент, наверное, нужно сначала доказать, что у человека в голове нечто отличное от китайской комнаты?

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Человек точно может оперировать фактами. Как минимум потому, что имеет некую физическую модель мира, коей не имеет языковая модель.

Как минимум две причины (может, больше): 1) Мозг своими силами умеет сжимать информацию; 2) У человека есть органы чувств для восприятия реального мира.

0
Автор поста оценил этот комментарий

И уж тем более нейросеть не способна на режим «я не знаю, но знаю, где узнать» — мы, айтишники, постоянно этим занимаемся.

Прости, но ты сейчас описываешь режим "поиск", который есть буквально в любой достаточно большой нейросетке. Они сейчас, совсем как ты, способны загуглить и пересказать тебе то что нашли.


Сетка не сказала тебе сразу "ты чо дурак, туда не доплыть"?. Так ты не спрашивал "можно ли туда доплыть?". Ты спросил "будет ли это поводом к войне?". И тебе ответили на этот вопрос, причем дали понять что глупость вопроса понята. (Справедливости ради, чатгпт сразу сказал что "Туда невозможно добраться ни из одного океана или моря — никакая подводная лодка физически туда попасть не может.")


Ни одна известная мне нейросеть не может сказать: я не знаю. На задачи, далёкие от обучающей выборки, она постоянно пытается придумать отговорки, как последний троечник.

Они делают это потому что так их "научили". Сто раз уже отвечали, что без дополнительных уточнений, типа "не ври" - для их алгоритмов предпочтительнее "придумать" ответ, чем не дать его. Школьник, выполняя тест на уроке, не зная ответ, скорее попытается угадать, чем напишет "не знаю", разве нет?


И да, опять же, вот тебе ответ чатгпт на твою калушу: "Эта фраза принадлежит Людмиле Петрушевской — она из её «лингвистической сказки» Пуськи бятые."


Но мне не очень понятно, почему ты в контексте вопроса всего поста берешь именно обычные публичные нейросети? Никто вроде не предлагал отдать управление государством дипсику. Суть вопроса в том, что сделать специализированную нейросеть, заточенную под это- не настолько невозможно, как думалось всего лет пять назад. А комментарии вроде "у нее нет совести"- мерзкая и смешная манипуляция, потому что вся страна знает, что у депутатов ее тоже нет, но им это не мешает.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Режим «поиск» — это инструмент, состоящий из захода по заданному URL и выделению важного из выдачи сервера. Она не знает, где узнать, это простенький инструмент над сетью.


Ну я же сказал, что у любого мало-мальски опытного политика совести именно что нет.


В обучающей выборке гарантированно не будет данных «я не знаю» — на чём ей учиться так говорить? Напоминаю, LLM не знает фактов.


О, вы говорите про некие секретные исследования, которые никто не показывает, но якобы переплюнувшие всё. Где нейросеть и факты знает, и новым фактам обучается… Как я могу рассказать о том, что никто не знает?

1
Автор поста оценил этот комментарий

Пускай ии коррупцию в закупках ищет

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Кстати, неплохое применение. И я слышал про подобные вещи — правда, есть юридические вопросы со всем этим.

показать ответы
1
Автор поста оценил этот комментарий

А как насчёт судей...

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Это лишь означает, что суд по определённым делам настолько неправый, что хочется, чтобы судила тупая машина, а не такой судья.

0
Автор поста оценил этот комментарий

И уж тем более нейросеть не способна на режим «я не знаю, но знаю, где узнать» — мы, айтишники, постоянно этим занимаемся.

Прости, но ты сейчас описываешь режим "поиск", который есть буквально в любой достаточно большой нейросетке. Они сейчас, совсем как ты, способны загуглить и пересказать тебе то что нашли.


Сетка не сказала тебе сразу "ты чо дурак, туда не доплыть"?. Так ты не спрашивал "можно ли туда доплыть?". Ты спросил "будет ли это поводом к войне?". И тебе ответили на этот вопрос, причем дали понять что глупость вопроса понята. (Справедливости ради, чатгпт сразу сказал что "Туда невозможно добраться ни из одного океана или моря — никакая подводная лодка физически туда попасть не может.")


Ни одна известная мне нейросеть не может сказать: я не знаю. На задачи, далёкие от обучающей выборки, она постоянно пытается придумать отговорки, как последний троечник.

Они делают это потому что так их "научили". Сто раз уже отвечали, что без дополнительных уточнений, типа "не ври" - для их алгоритмов предпочтительнее "придумать" ответ, чем не дать его. Школьник, выполняя тест на уроке, не зная ответ, скорее попытается угадать, чем напишет "не знаю", разве нет?


И да, опять же, вот тебе ответ чатгпт на твою калушу: "Эта фраза принадлежит Людмиле Петрушевской — она из её «лингвистической сказки» Пуськи бятые."


Но мне не очень понятно, почему ты в контексте вопроса всего поста берешь именно обычные публичные нейросети? Никто вроде не предлагал отдать управление государством дипсику. Суть вопроса в том, что сделать специализированную нейросеть, заточенную под это- не настолько невозможно, как думалось всего лет пять назад. А комментарии вроде "у нее нет совести"- мерзкая и смешная манипуляция, потому что вся страна знает, что у депутатов ее тоже нет, но им это не мешает.

раскрыть ветку (1)
Автор поста оценил этот комментарий

По поводу школьного «не знаю» — это вопрос критериев оценивания: если какая-то муть позволит получить не 0, а минус за вопрос (ну или плюс с вероятностью ¼), школьник и будет писать муть. Но если муть слишком трудоёмка и отнимет время от других вопросов, которые школьник знает, он предпочтёт не писать или напишет полпредложения.