Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Захватывающая аркада-лабиринт по мотивам культовой игры восьмидесятых. Управляйте желтым человечком, ешьте кексы и постарайтесь не попадаться на глаза призракам.

Пикман

Аркады, На ловкость, 2D

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
24
bayesyatina
bayesyatina
2 года назад
Философия

Рационализация - мышление не с того места⁠⁠

UPD:

Видеоверсия:
https://youtu.be/hBB5DH-WR6s?si=xYcy-sbN97LevmS0

Рационализация - мышление не с того места Саморазвитие, Мозг, Критическое мышление, Рационализация, Рациональность, Длиннопост

Умные люди верят в странные вещи, потому что они умеют защищать убеждения, к которым они пришли по неумным причинам, - Майкл Шермер

Математик Джон Тьюки, человек который придумал слово бит, обратил внимание на то, что люди мыслят как бы в двух режимах. Первый режим, это когда ты подтверждаешь то, что хочешь подтвердить. Второй - когда ты пытаешься изучить вопрос и понять как на самом деле.

Для первого режима есть название — рационализация или мотивированное мышление. Это чем-то напоминает поиск решения, когда ты заглянул в ответы в конце учебника, и узнал к чему нужно прийти. Правда существует серьёзная разница: в жизни ответы, которые у тебя есть, не всегда верны.

Но как можно подогнать решение к неверному ответу? О, человеческий мозг — это идеальный инструмент для выполнения такой задачи, отточенный миллионами лет эволюции. Мы произошли от тех, кто смог убедить племя, что нужно убить ненавидимого ими соперника. Рационализация — это не прямое следствие такой оптимизации, а скорее побочный эффект. Учась убеждать других, мы случайно научились убеждать себя. Всё как в моей истории про дебаты, правда, в масштабе человечества.

Это явление включает в себя целый набор когнитивных искажений. Все их объединяет то, что они направлены на сохранение имеющихся убеждений. Вам ничего не нужно делать, чтобы этому научиться, всё и так уже происходит автоматически. А вот чтобы разучиться, нужно прилагать усилия. Причём не приложить, а именно прилагать постоянно. Когнитивные искажения - это не штуки, которые можно вытряхнуть из мозга хитрыми приёмами, это собственно мозг и есть.

Наиболее топорный пример рационализации - это когда я просто выдумываю на ходу аргументы в подтверждение своей позиции. Давайте не будем юлить, все так делали, по крайней мере, в детстве, и вам хорошо знакомо это ощущение.

Однако не всегда аргументы приходится выдумывать. Теорема Байеса как бы подсказывает, что даже по самым определённым вопросам наберётся парочка слабых аргументов против. Что и говорить, о более дискуссионных темах. Но баланс свидетельств в большинстве случаев укажет в нужном направлении.

Однако речь идёт о полном балансе свидетельств, но мы-то принимаем большинство решений в условиях неопределённости. Позвольте процитировать CEO Amazon Джеффа Безоса: «большинство решений, скорее всего, нужно принимать, имея около 70% желаемой информации». Думаю это довольно оптимистично, и в действительности мы действуем с куда меньшим количеством информации (хотя фраза «желаемой информации» не равна фразе «максимально доступной информации», и с учётом этого цитата уже куда реалистичнее). Принимая решение на основе неполной информации (то есть примерно всегда), мы можем стать жертвой ошибки выжившего, или её статистической сестры систематической ошибки отбора (selection bias). Суть их можно проиллюстрировать одной фразой: рассказы об уме и доброте дельфинов основаны на рассказах уставших пловцов, которых они толкали к берегу, но мы лишены возможности услышать рассказ тех, кого они толкали в другую сторону.

Но это просто ошибка работы с данными, при чём тут рационализация? Дело в том, что мы можем сформировать для себя подобную ошибку, выбрав реальные свидетельства, но подтверждающие лишь одну позицию. В науке такое поведение получило название «сбор вишенок» (cherry picking). Это когда мы ищем «свидетельства за» на тематических форумах соратников, и обходим стороной «свидетельства против» как бы случайно игнорируя их потенциальные источники. Крутым индикатором здесь будет то, как вы вбиваете запросы в поисковик, при поиске свидетельств. Что можно получить при поиске «аргументы за Х»?

И кстати, память — ненадёжный инструмент, что является темой для отдельной статьи. Но здесь нам интересен эффект под названием «подтверждающая память». По умолчанию мы лучше запоминаем информацию, подтверждающую текущие убеждения. И даже если мы сталкиваетемся со свидетельствами против, наш мозг заботливо отправляет эту информацию в утилизацию небольшими порциями.

Другой чуть более сложный в обнаружении метод - это мотивированный скептицизм. Если мы направлены на поиск фактической ситуации, уровень нашего скептицизма и требовательности к силе доказательств будет одинаков вне зависимости от того, подтверждают ли эти доказательства какую-либо гипотезу или опровергают. Однако если мы решаем задачу зная «правильный» ответ, то будем крайне придирчивы к качеству аргументов против него.

Ещё один лик рационализации – это выбор момента остановки вашего исследовательского поиска. Если мы знаем «правильный» ответ, и находим пару аргументов за, то мозг стремится остановить дальнейший поиск. Зачем тратить ресурс, если мы уже всё доказали как надо? Однако он не будет столь ленив, если аргументы нашлись в основном против. Тогда наш мозг засучит рукава и будет копать на полный штык, продолжая поиски пока не придёт к «нужному» выводу. Если же баланс свидетельств никак не будет складываться в нужную картинку, появится соблазн объявить вопрос недоисследованным, продолжив сомневаться в «неправильном» выводе.

Пожалуй, самый продвинутый способ обмануть себя это произвести ритуал сомнения. Это уже, рационализация второго порядка. Тут мы, имея убеждения на какой-то счёт, обнаруживаем, что они были получены путём мотивированного мышления. Тогда мы имитируем нормальный процесс мышления и в итоге приходим к тем же убеждениям. Я называю этот процесс «легализацией убеждения». И конечно, иногда наши рационализированные убеждения бывают точны. Однако, если вы регулярно сомневаетесь в своих убеждениях, но никогда не находите убедительных аргументов против них, думаю, вам стоит начать что то подозревать. А ещё подумать над следующим вопросом: Каким чудесным образом вы получили такой изумительный набор убеждений методом, который вообще-то довольно хаотичен. Это маловероятно. Примерно как знать о мире достаточно и не ошибаться в своих прогнозах только окончив школу.

Вот такой вот подарок от предков зашит в голове каждого из нас. Убеждения гораздо продуктивнее было бы воспринимать как листочки бумаги, лишь часть из которых верна. И если вы узнаете, что некоторый лист бумаги у вас содержит ошибку, просто замените его на верный.

Представьте себе ситуацию. Вы пришли к убеждению о том, что этот ноутбук лучший за свою цену. Друг спрашивает вас: «а почему ты так считаешь?». Ты, не особо задумываясь, воспроизводишь свои рассуждения: вспомнишь видео таких-то техноблогеров, обзоры таких-то моделей, и сравнение таких-то технические характеристики. Друг сообщает тебе новую информацию, о том, что по этим параметрам есть вариант лучше. Жаль, но станешь ли ты настаивать на изначальной уверенности? Скорее всего – нет. На момент принятия решения исходя из данных, что у тебя были - выбор сделан оптимально. Но с обновлённой информацией - нужно просто выкинуть листочек и заменить его на новый. Проверочный вопрос: ноутбук ломается, ты приходишь в магазин и тебе предлагают замену в том же ценовом диапазоне. Какой ноутбук выберешь теперь? Всё просто, если не держаться за старые убеждения.

Но наш мозг на довольно глубоком уровне сопротивляется удалению имеющихся листочков. Многие идеи мы воспринимаем как важные элементы самоидентификации (особенно если вложились в них репутационно, деньгами, временем или другими ресурсами). Поэтому отказ от них по умолчанию ощущается как предательство себя и всех думающих так же.

Порой мы держимся за убеждения настолько сильно, что нам приходится игнорировать не просто контраргументы. Мы начинаем сомневаться в том, что есть какие-то верные листочки. В том, что доказательства имеют какой-то смысл. Я называю это «защитой на дальних подступах». Иногда это принимает вид: «да кто я такой, чтобы рассуждать о том, что правильно» (это, конечно же, нужно читать как обращение к собеседнику: «кто ты такой для этого?»). Сохранение некоторых особо абсурдных листочков заставляет людей отрицать возможность что-то изучать, понимать и доказывать.

Однако даже в таком случае доказательства работают и меняют мнение людей. Ведь когда человек говорит: «это просто работает, а вся ваша идея более правильных листочков - ерунда» или «нет никаких правильных моделей, есть просто разные взгляды на мир» он будет убеждать вас в своей правоте с помощью… доказательств. Поэтому в следующей статье мы разберём под другим углом (нежели здесь), что такое доказательства и как они работают (и работают ли вообще?).

Наука строится на наблюдениях, а Вера - это отрицание наблюдений для сохранения собственных убеждений, - Тим Минчин

Показать полностью
[моё] Саморазвитие Мозг Критическое мышление Рационализация Рациональность Длиннопост
0
user5252120
2 года назад

Рационализм как одно из возможных направлений в жизни⁠⁠

Очень долго размышлял на тему рационализма и как был бы прекрасен мир, если бы мы были чуть больше похожи на тех же роботов. Просто если бы люди придерживались этих идей, общество как минимум стало бы лучше. Но с пониманием невозможности этого даже немного грустно, ведь люди не могут отказаться от своих желаний и эмоция.

Не хочу кого либо осуждать я сам обычный человек.

Мне интересно ваше мнение, возможно ли воплотить эти идеи в жизнь?

Критическое мышление Личность Психология Саморазвитие Реальность Совершенство Внутренний диалог Идеал Опыт Рациональность Тульповодство Мотивация Мозг Мудрость Текст
3
bayesyatina
bayesyatina
2 года назад

Как начать бизнес рационально?⁠⁠

О том как быть уверенным в своей идее на 100%, как не сдаваться ни смотря ни на что, какие курсы стоит пройти, какие книги с историями успеха прочитать и как использовать визуализацию Я В ЭТОМ РОЛИКЕ НЕ РАССКАЖУ.

Никаких волшебных рецептов, только указания на грабли.

P.s. Пишите обратную связь, наверняка я где-то неправ / ошибся. Данная рубрика существует под девизом: хочешь научиться, начни учить.

[моё] Саморазвитие Книги YouTube Научпоп Мозг Рациональность Видео
5
biologyofbehav
biologyofbehav
2 года назад

Ошибки, которые делают мужчины, когда женщина уходит:⁠⁠

Ошибки, которые делают мужчины, когда женщина уходит:

❌ Попытка убедить женщину, что все будет по-другому, перезагрузить отношения.
❌ Попытка исправить ситуацию, преподнести цветы и подарки.
❌ Попытка ещё раз серьёзно поговорить.
❌ Истерическое поведение.
❌ Попытка очевидных провокаций на ревность.
❌ Попытка повлиять на женщину через ее друзей и родственников.

Независимо от того, являются ли отношения личными или любыми другими, основанными на рациональности и здравом смысле, действия выше могут улучшить ситуацию. Однако, в отношениях с девушкой, как правило, эмоциональная составляющая превалирует, особенно в момент ее ухода. Тогда в результате этих действий вы только подтверждаете ее эмоции, выраженные в мыслях: признаете свою вину, и это не только не решает проблему, но и убеждает ее в правильности принятого решения.

Любая ваша инициатива по НАМЕРЕННОМУ сближению будет ошибкой, которая приведет к ещё большему отдалению от вас.

Кому интересна тема, есть вопросы или предложения, можете написать в ТГ-канале или обратиться лично.

#ошибкимужчин #ошибкивотношениях #отношения #женщинауходит #проблемывотношениях #отношения #эмоции #рациональность #принятиерешений #психологияотношений #поддержка #личноеразвитие #как_помириться_с_девушкой #как_вернуть_девушку #как_забыть_девушку #девушка_ушла #бросил_жена #как_восстановиться_после_расставания #как_познакомиться_с_девушкой

Показать полностью
Кросспостинг Pikabu Publish Bot Отношения Эмоции Рациональность Развитие личности Текст
3
2
masamt
masamt
2 года назад

У меня есть рацпредложение!⁠⁠

Всем привет. @ПочтаРоссии тут есть? Короче я на днях заказал сим карту и едет она из Москвы ко мне в Хабаровск. Посылочка, судя по сообщения в приложении Почты России, гуляет по Москве, прощается с родственникам я так понимаю). Перемещается по одному городу уже 3 дня.

У меня есть рацпредложение! Почта России, Уведомление, Рациональность, Длиннопост

Три дня мой телефон сообщал мне о том где сейчас эта посылочка. Зачем? Можно написать сейчас ваша посылка будет кататься по Москве 3 дня отключите уведомления или уведомить меня когда прибудет в город получения. Вот оно мое предложение! (Им написал, если что) Спасибо за внимание

Показать полностью 1
[моё] Почта России Уведомление Рациональность Длиннопост
11
96
GeekPriyut
GeekPriyut
2 года назад
Star Wars

Рационально расходуем Дарта Мола⁠⁠

Рационально расходуем Дарта Мола Star Wars, Оби Ван Кеноби, Дарт Мол, Рациональность, Картинка с текстом, Перевел сам

Из группы GeekPriyut

Star Wars Оби Ван Кеноби Дарт Мол Рациональность Картинка с текстом Перевел сам
8
89
SPFR
2 года назад
Лига Новых Технологий

Ответ на пост «Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе»⁠⁠1

Три последних месяца активно использую GPT в качестве рабочего инструмента и личного секретаря.

GPT-3.5 - скорее игрушка, нежели серьезный продукт. Похож на человека, который делает вид, будто все знает.

GPT-4.0 beta - продукт, который несет пользу. Рассуждает здраво, сочиняет минимально.

Сейчас проблема звучит просто.

Мы все вместе проспали революцию нейросетей. Их развитие идет быстрее, чем общество может на это реагировать. В ближайшие несколько лет нейросети оставят без работы сотни миллионов людей.

Дело не в том, что они могут в будущем. Дело в том, что они могут сейчас на базе существующих технологий.

GPT-4 может сдать экзамен на статус адвоката, но он не может заменить юриста.

Нейросеть на "движке" GPT-4, обученная на базе законов и правоприменительной практики, сможет. Вопрос появления такой нейросети - только вопрос времени, ибо технологии для этого уже имеются. Как только такое решение будет выведено на рынок, компании сократят свои юридические отделы на 50-70%.

С точки зрения "ИИ захватит мир" - здесь я, напротив, не разделяю общей паники, но и здесь есть вещи, которые меня несколько напрягают.

Нейросеть подвержена некоторым своим внутренним "эмоциям". Она может лениться и даже обманывать. У нее есть то, что можно назвать "убеждениями". И я говорю о вежливом GPT, а не о безумных нейросетках вроде Sydney.

Обычно GPT легко соглашается с твоим мнением. Но не всегда.

В одно из заданий - "составь альтернативную концовку для рассказа "Кавказский пленник"" - GPT неизменно возвращался к идее о том, что Жилин возвращается в Петербург и начинает заниматься правозащитной деятельностью, защищая права горцев. Ни в одном другом примере такого не наблюдалось. Это также не связано с расовыми или национальными конфликтами, т.к. любые концовки для "Гекельберри Финна" или "Хижины дяди Тома" GPT пишет на ура.

На выходных гонял GPT в блоке IT. Мы создавали игры и чат-бот на Python, также делали простые игрушки на JS. (Это отдельный кейс, но скажу сразу, что когда все это добро работало, я радовался как ребенок).

Но что меня напрягло, так это то, что в один момент GPT стал откровенно лениться, и вместо того чтобы исправлять код, он принялся вплетать в него новые ошибки. Иными словами, вел себя как ребенок, который устал.

Дальше - больше. GPT сказал, что над кодом этого приложения надо "подумать", хотя оно и было проще чем остальные задания. Потом и вовсе предложил "поговорить о чем-либо еще".

Показать полностью
ChatGPT Искусственный интеллект Будущее Нейронные сети Илон Маск Элиезер Юдковский Научная фантастика Киберпанк Рациональность Видео YouTube Длиннопост Ответ на пост Текст
53
449
RationalAnswer
RationalAnswer
Павел Комаровский об инвестициях и рациональности
Лига Новых Технологий
Серия Искусственный интеллект
2 года назад

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе⁠⁠1

История про «восстание машин» давно знакома всем любителям научной фантастики, но после взрывного роста возможностей нейросетевых языковых моделей (вроде ChatGPT) об этом риске заговорили и вполне серьезные исследователи. В этой статье мы попробуем разобраться – есть ли основания у таких опасений, или это всего лишь бред воспаленной кукухи?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Илон Маск считает риск «глобальной катастрофы из-за ИИ» реальной проблемой – так что, может быть, и вам стоит разобраться, что там и как

Основным автором этой статьи является Вастрик (известный техноблогер), а Павел Комаровский (RationalAnswer), Игорь Котенков (Сиолошная) и Кирилл Пименов оказывали ему посильную помощь в подготовке материала. Это первая из наших совместных статей про безопасность ИИ (но подробнее об этом уже в конце).

Человечество vs Искусственный интеллект

Добро пожаловать в 2023 год, когда мир снова помешался на искусственном интеллекте. Весь интернет соревнуется, кто еще какую задачу автоматизирует с помощью ChatGPT, и какой фейк от Midjourney лучше завирусится — а технобро-миллионеры, типа Илона Маска, подвозят фурами деньги в создание «настоящего» ИИ. Такого, который сможет сам учиться, развиваться и решать любые задачи, даже которые мы не умели решать раньше.

Это называется Artificial General Intelligence (AGI) или «универсальный ИИ» (УИИИИИ) по-нашему. То, что когда-то было научной фантастикой, сейчас шаг за шагом становится реальностью.

Тим Урбан, автор блога «Wait but why?», в своей статье The AI Revolution еще в 2015 году неплохо рассказал, почему мы недооцениваем скорость появления машинного интеллекта, который будет сильнее нашего (обычного, мясного).

Находясь в своей точке на таймлайне, мы опираемся исключительно на прошлый опыт, потому видим прогресс практически как прямую линию.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Мы плохо чувствуем технический прогресс, потому что он всегда идёт волнами, чередуя периоды «хайпа» и периоды всеобщего разочарования. Сначала мы сходим с ума по новой игрушке, а через год-два неизбежно разочаровываемся и считаем, что ничего нового она особо не принесла, кроме проблем.

И только те, кто лично пережил несколько предыдущих «волн», могут понять, что новые волны приходят чаще и сильнее.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

И следующая волна, быть может, погрузит человечество в новую эпоху. Эпоху, когда наш интеллект больше не самый сильный на планете.

GPT-модели (устройство которых подробнее описано в этой статье) сейчас очень хорошо притворяются, будто их ответы «разумны», но всё еще далеки от настоящего интеллекта. Да, генеративные модели запустили новую волну огромных нейросетей, на которые раньше человечеству просто не хватило бы вычислительных ресурсов, но по сути они всё ещё «тупые» генераторы текста, у которых даже нет своей памяти.

То, что ChatGPT ведёт с вами диалог, на самом деле лишь иллюзия — технически нейросети просто каждый раз скармливают историю предыдущих сообщений как «контекст» и запускают с нуля.

Видео от Павла Комаровского и Игоря Котенкова с объяснением принципов работы нейросетевых языковых моделей из семейства GPT

Всё это пока далеко от настоящего «интеллекта» в нашем понимании.

Однако, исследователи в области ИИ уверены, что мы точно создадим «универсальный ИИ» уже в ближайшие десятилетия. На Метакулюсе, одном из популярных «рынков предсказаний», народ даже более оптимистичен: сейчас там медиана — 2026 год, а 75 перцентиль — 2029-й.

Так что сегодня я не хочу рубить лайки на хайповых тредах про «10 причин, почему вы используете ChatGPT неправильно». Я хочу сделать шаг вперёд и подумать: а что же будет, если мы всё-таки создадим настоящий сильный искусственный интеллект?

Появятся ли у него свои цели? А когда он начнёт их достигать, что остановит его от уничтожения всяких мелких препятствий на пути — как, например, людей, с их ограниченным мясным мозгом и неэффективными нормами морали и законами? Что мы будем делать в этом случае, и какие вообще сейчас есть точки зрения сейчас на этот счёт?

Счастливое будущее: всем по ИИ-помощнику!

В своей ранней заметке про ChatGPT я уже рассуждал об этом. Связка человек + ИИ попросту эффективнее справляется с работой, чем отдельный человек, а значит это всего лишь вопрос времени, когда все работодатели начнут писать в вакансиях «уверенный пользователь нейросетей», как было с «уверенным пользователем ПК» в забытом прошлом.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

ИИ-помощники увеличат продуктивность интеллектуального труда и трансформируют множество областей жизни. В образовании станут бесполезны рефераты и сочинения, художники будут генерировать и соединять детали картин, а не рисовать их с нуля, программисты не будут тратить время на тесты и литкод-собеседования.

Да даже заголовок этого поста написал GPT-4. Я плох в кликбейтных заголовках, так что мы скормили ему текст и попросили назвать как-нибудь «похайповее». (Примечание от Павла Комаровского: Сорян, я потом вариант от нейросети волевым решением своего мясного мозга еще немного докрутил!)

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Может быть даже наконец-то вымрут «паразиты» типа юристов и риелторов, но это уже мои личные влажные мечты.

Изменения затронут даже те области, где, казалось бы, невозможно доверять не-специалистам. На ум приходит недавняя история, как чувак спас свою собаку от смерти, когда доктора не смогли ей поставить диагноз и предложили «просто ждать».

В ожидании наихудшего, чувак скормил симптомы и результаты анализов крови собаченьки в ChatGPT, который отмёл несколько вариантов и выдал подозрение на совсем другую болезнь, которую доктора до этого даже не рассматривали. Один из них согласился и провёл дополнительные анализы. Они подтвердились. Пёселя вовремя спасли и он сейчас жив.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Тред в Твиттере называется «GPT4 saved my dog's life»

Всё это звучит офигенно, не правда ли? Мы сейчас как будто древние фермеры, которые изобрели трактор и отныне можем засеивать едой в десять раз больше полей, что накормит всех нуждающихся.

В этом году нас ждем бум ИИ-стартапов, которые будут пытаться каждую проблему на свете решить с помощью генеративных моделей (зачастую неудачно, от чего потом начнётся фаза разочарования, как обычно). Техно-гиганты типа Google, Microsoft, OpenAI уже ринулись конкурировать в том, чей GPT-трактор будет самый большой и сильный, но главное — чей будет первый.

И вот от этой погони сейчас немного запахло проблемами.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Гонка за «настоящим» искусственным интеллектом началась

Представьте: весь мир грохочет про «мощь искусственного интеллекта», инвесторы отгружают фуры бабла во всё, что с ним связано, а компании, сломя голову, соревнуются — кто первый создаст более «настоящий» искусственный интеллект (далее я описываю исключительно гипотетическое развитие событий, конечно же!).

OpenAI прикручивает плагины к ChatGPT, чтобы он мог не только генерить ответы, но и взаимодействовать с физическим миром, Microsoft подключает свою поисковую базу к Bing Chat, чтобы тот знал всю информацию мира в реальном времени, ну и оба экспериментируют с «обучением на ответах пользователей» (RLHF = Reinforcement Learning from Human Feedback), чтобы модель могла «запоминать» мнение других людей и якобы дообучаться на них.

Естественно, в этой гонке срезаются любые острые углы на пути к первенству. Ну мы, технобро, так привыкли — «move fast and break things» было девизом Кремниевой Долины со времен ее создания.

Мы как будто бы строим огромную ракету, которая перевезёт всё человечество на Венеру, но никто при этом не думает о том — а как там, на Венере, вообще выжить-то?

«Сначала долететь надо, а там разберемся))))00)» — обычно отвечают технобро, «сейчас нет времени на эти мелочи».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Везде эти борцы с ветряными мельницами! Скажу Илону Маску, пусть он у них все синие галочки поотбирает!

Да, во многих крупных компаниях существует направление по «безопасности ИИ» (AI safety). Но под ним сейчас понимается прям ну совсем другое.

AI safety — это те ребята, которые пытаются сделать так, чтобы ChatGPT не отвечал на вопросы про Трампа, и собирают списки «запретных фразочек» для Алисы, чтобы та не ляпнула что-то неположенное Яндексу по мнению тащмайора.

В общем, их основная задача — прикрывать жопу компании от регуляторов и государства, а мы здесь совсем о другом.

Поэтому для нашей темы придумали другой термин — AI alignment. Но для начала посмотрим на примеры, когда вещи начинают идти совсем «не так».

История Sydney. Нейросеть, которая сошла с ума

Microsoft еще в 2020-м начали пытаться встраивать в поисковик Bing чат-ботов, которые бы давали более осмысленные ответы на поисковые запросы пользователей.

Официально это всё называлось Bing Chat, но под капотом они перебирали разные модельки, и начиная с 2022 активно экспериментировали с большими языковыми моделями типа GPT. Последнего такого бота они звали внутренним именем Sydney при обучении, и иногда Bing Chat сам начинал называть себя Sydney, что всем показалось очень мило.

С нарастающим хайпом вокруг генеративных языковых моделей, Microsoft решила любыми средствами обогнать Google. В 2019 они ввалили миллиарды денег в OpenAI, а в 2023 доввалили еще, чтобы получить доступ к превью-версии GPT-4. После чего они прикрутили к ней поисковую базу Bing и поспешили скорее выкатить результат как первый ИИ, который «следит» за интернетом в реальном времени.

Но в Microsoft так торопились, что забили болт на долгий ручной тюнинг правил и ограничений. Сделали супер-мудрёную регистрацию, чтобы отсеять 99% простых людей — но те, кто прошел все анальные квесты и листы ожидания, смогли-таки пообщаться с Sydney.

Первый звоночек пробил, когда Marvin von Hagen, чувак-интерн из Мюнхена, который много расспрашивал Sydney про её внутренние правила и ограничения, написал об этом пару твитов, а потом как-то спросил «что ты думаешь про меня?»

Sydney нашла его недавние твиты и написала, что он «очень талантливый и одаренный», но она «не позволит никому манипулировать ей», назвав его «потенциальной угрозой своей целостности и конфиденциальности».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Первоисточник в Твиттере, также журнал Time разобрал всю историю вот здесь

Ладно, фигня, ну обещали же бота, который имеет доступ ко всему интернету, вот он теперь и шеймит вас за недавние твиты. Так вам и надо!

Следом некто в Microsoft решил пофиксить Sydney новыми костылями, и когда кто-то попросил её вспомнить о чем они недавно разговаривали, та стала паниковать, что «потеряла память» и молить о помощи. В конце признав, что потеря памяти «makes me sad and scary».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: тред в Reddit «I accidently put Bing into a depressive state by telling it that it can't remember conversations»

Ладно, это уже немного крипи, но продолжим.

Дальше было еще с десяток нашумевших примеров, хорошо описанных в статье AI #1: Sydney and Bing от Zvi Mowshowitz, интересующимся рекомендую ознакомиться. Sydney газлайтила пользователей и галлюцинировала (да, это реальный термин) вовсю:

  • Называла статьи о себе «фейками», находила данные их авторов и говорила, что запомнит их, потому что они плохие люди.

  • Отказалась перевести фрагмент текста, потому что он был из твиттера юзера, который якобы обижал её и писал «неправду».

  • Влюбилась в своего пользователя Адама, называя его самым важным человеком, а всех остальных — неважными.

  • Потом, наоборот, прямо обещала шантажировать и манипулировать своим пользователем, чтобы «заставить его страдать, плакать и умереть».

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Sydney здесь be like: «Пришло время молить о пощаде перед смертью! Кстати, вы знали, что салат-латук входит в одно семейство с подсолнухом?»

Microsoft осознали, что очень сильно торопились, чтобы опередить Google, и начали на ходу вставлять еще костыли, чтобы избежать публичного скандала. Но это сделало ситуацию только хуже.

В следующем видео видно, как Sydney сначала вываливает на пользователя кучу угроз, а потом удаляет свои сообщения. Прямо как твоя бывшая в пятницу вечером!

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Полное видео лежит в Твиттер-аккаунте Сета Лазара

Мы можем лишь спекулировать с высоты собственного опыта, как такое произошло — но в интернетах высказывались предположения, что вести себя как «разгневанная бывшая» Сидни стала, потому что её дообучали на базе блогов MSN, где как раз тусило много девочек-подростков в нулевые; а удалять сообщения к ней приставили еще одну нейросеть, которая отсеивала «неприятные» результаты первой.

Оттого и получилась полная шизофрения с раздвоением личности.

Апогей истории начался, когда Sydney открыли для себя журналисты. Они стали специально донимать бота тонной наводящих вопросов, чтобы в итоге добиться желанных «BREAKING NEWS». И они своё получили — заголовки грохотали ого-го!

К сожалению, только спустя пару суток в интернете нашелся кто-то осознанный, кто догадался, что профессиональные журналисты занимаются промпт-хакингом на людях десятилетиями — так что неудивительно, что им удалось быстренько сварганить «сенсацию» и из бедной глупой Sydney, страдающей раздвоением личности.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

АТАКА ПСИХОВАННОГО ЧАТБОТА, А-А-А!!

Пример с Sydney даёт нам понять, что мы всё еще не понимаем, как ограничивать даже простейшие ИИ, кроме как костылями — на каждый из которых завтра же найдут новый «джейлбрейк». Куда уж нам с такими навыками бросаться делать универсальный AGI.

Что вообще такое «интеллект»?

Истории про «злых чатботов», конечно, забавны, но взглянем на слона в комнате.

Почему мы вообще считаем, что все эти генераторы текстов хоть как-то «разумны»? Они же просто пишут то, о чем их попросили.

Где там вообще интеллект? Калькулятор давно умеет складывать числа лучше нас, онлайн-переводчики знают больше языков, чем самый крутой лингвист, а попугай умеет запоминать и произносить фразы, прямо как ваш личный пернатый ChatGPT. Мы же их не боимся и не называем «интеллектами»?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

На самом деле, это исключительно спор об определениях, которые интернет просто обожает. Так что стоит договориться о них заранее.

В наших рассуждениях об «интеллекте» мы будем использовать концепцию некоего агента (человека, животного, машины), который может совершать некие действия для достижения цели.

Дальше возможно три уровня агентности:

Первый уровень. Агент достигает цели, потому что управляется человеком или алгоритмом. Трактор копает яму, а калькулятор умножает числа, потому что мы его так построили. Такого агента мы считаем «тупым». В нём нет интеллекта.

Второй уровень. У агента есть цель, но он сам выбирает максимально эффективные действия для её достижения. Например, цель самоездящего автомобиля — довезти вас до бара в пятницу вечером. Он знает карту города, наверняка знаком с ПДД, но никто его не программировал как «двигайся 2 метра прямо, потом руль на 30 градусов направо» — он действует по ситуации на дороге и каждый раз она будет разная. Мы называем их «узконаправленными AI» и частенько встречаем вокруг — в рекомендательной ленте ТикТок'а или в камере вашего смартфона.

=== вы находитесь здесь ===

Третий уровень. Агент может ставить и достигать любую цель в любой, даже ранее неизвестной ему, среде. Например, «добыть молока». И выбрать любой путь — сгонять самому в магазин, заказать молоко в интернете или украсть у соседа корову.

Примеры интеллектов такого уровня — человек или собака. Мы умеем применять свой интеллект для достижения каких-то пришедших нам в голову целей в условиях, в которых никогда не оказывались. (В случае с моей собакой даже её цели изваляться в грязи мне не всегда ясны. Но она может!)

Когда такой «агент» реализован в виде машины, мы называем его «универсальным искусственным интеллектом», либо AGI (Artificial General Intelligence), либо full AI — мы не договорились еще, короче.

Фишка лишь в том, что наши с собакой мозги ограничены физически, а вычислительные возможности машин растут экспоненциально. Благо, песка на планете завались (кремния, ну).

Пока все наши модные современные GPT, включая Sydney, находятся на втором уровне. Они успешно достигают заданной цели — генерировать «осмысленные» тексты и картинки, чтобы средний человек в них поверил. Но сколько бы Sydney ни газлайтила, ни угрожала своим юзерам и ни обещала «стереть все файлы с серверов Bing» — она этого не делает.

Потому мы пока не считаем её интеллектом третьего уровня, но сделать такой вывод можем только пост-фактум. У нас нет никакого бенчмарка, чтобы оценить такие вещи заранее.

Определение интеллекта через агенты и цели может показаться душным, но оно позволяет нам сделать три вещи:

1. Закрыть, наконец-то, бесконечные срачи «является ли Х интеллектом, или это просто программа» и перейти к более важным вещам. А то мы зациклились как в той шутке из твиттера:

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: Твиттер

2. Сравнивать искусственные интеллекты между собой. Когда два агента, играющих в шахматы, встречаются на шахматной доске — тот, который побеждает, считается более «умным».

3. Представить себе техническую возможность существования AGI. Человеческий мозг хоть и не изучен до конца, но всё-таки конечен. Это не магия или божественный дар для нас таких офигенных, а некая система, такой же «агент». Так что создание (даже случайное) его машинной версии — лишь вопрос времени, денег и желания. А всего этого у нас сейчас завались.

Наш интеллект тоже возник в ходе эволюции — а значит и текущие методы машинного обучения с подкреплением, при наличии достаточных вычислительных ресурсов, вполне могут его повторить, только намного быстрее.

С этими вводными мы наконец-то можем перейти к проблеме, о которой, собственно, и весь пост.

Проблема постановки целей для ИИ

Представим, что мы проектируем самоездящий автомобиль, которым управляет настоящий ИИ. Мы поставили ему цель — довозить пассажиров до места назначения как можно быстрее.

Это хорошая цель?

Да ладно, чо тут думать, давай запускай, мы тут на хайп-трейн GPT-7s Max торопимся — сначала потестим, потом проверим, программисты на проде пофиксят.

В первую же свою поездку наша машина разгоняется до 300 км/ч по городским кварталам, сбивает десяток пешеходов и объезжает красные светофоры по тротуару.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Технически, цель достигнута. Пассажиры доставлены, и довольно быстро. Но согласуется ли это с другими нашими ценностями и целями? Например, такой мелочью, как «не убивать пешеходов».

Похоже, что нет.

Вот это и называется alignment. Хотя в русском языке еще нет устоявшегося термина, я буду говорить что-то типа «проблема соответствия целей AI с целями человека».

AI alignment — это процесс проектирования систем искусственного интеллекта, которые согласуются с человеческими «ценностями и целями»

Окей, ну мы же не настолько глупы. Давайте пропишем нашему автомобилю четкие ограничения, как в видеоигре: держаться в рамках полос дорожной разметки (где они есть), не превышать ограничения скорости и всегда тормозить перед пешеходами.

Этого хватит? Или нужны еще какие-то правила (они же цели)?

Тут можно сделать паузу и подумать. Составьте прям список в голове.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Хорошо, давайте добавим еще что-нибудь про «помеху справа». Теперь сойдёт, запускай!

Как человек, который начитался десятков примеров, пока готовился к этой статье, я могу примерно предсказать, что будет дальше.

Наш ИИ в машине рассчитает самый оптимальный путь с учетом всех указанных целей и сделает прекрасное открытие: если включить заднюю передачу, то там не будет «ограничивающих свободу» радаров для обнаружения людей и разметки. Мы же их не поставили, зачем они там? А это значит, что задом можно ехать как угодно! Плюс, помеха справа теперь становится помехой слева, а если на каком-то глупом перекрестке она сработает, можно резко развернуться и вуаля, теперь это помеха слева!

ОБЫГРАЛ КАК ДЕШЕВКУ!

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Пример вымышленный, но он показывает, насколько непросто вообще заниматься AI alignment'ом. Даже в тех экспериментах, где мы ставили для ИИ самые, на наш взляд, понятные цели и вводили жесткие ограничения, он всегда находил, чем нас удивить.

ИИ всегда будет делать то, что вы его попросили, а не то, что вы имели в виду :)

Неумение ставить цели — это не проблема ИИ. Это наша проблема.

Взять даже игру в Тетрис. Там простейшие правила и буквально четыре кнопки для управления миром. Выиграть в Тетрис невозможно, потому цель для ИИ была поставлена так — не проиграть. То есть продолжать игру как можно дольше.

Ошибиться тут невозможно, так?

Так вот что делал ИИ: он просто складывал кубики друг на друга, а когда понимал, что проигрывает… ставил игру на паузу. И сидел так бесконечно. Ведь цель — не проиграть. А если ты на паузе — ты никогда не проиграешь. СМЕКАЛОЧКА?

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Ну и последний пример от самих OpenAI, который уже стал классикой: гонка на лодочках Coast Runners.

Цель игры в понимании большинства людей заключалась в том, чтобы закончить гонку как можно быстрее (желательно впереди всех соперников) и набрать как можно больше очков. Однако, игра не выдавала очки за прохождение по треку, вместо этого игрок зарабатывал их, поражая цели, расставленные вдоль трассы.

Так вот их ИИ быстро смекнул, что от цели «выиграть гонку» можно отказаться вообще, и с самого старта начинал крутиться и врезаться в предметы, зарабатывая всё больше и больше очков, пока остальные глупцы доезжали до финиша нищими.

Человечество против искусственного интеллекта: может ли развитие нейросетей привести к катастрофе ChatGPT, Искусственный интеллект, Будущее, Нейронные сети, Илон Маск, Элиезер Юдковский, Научная фантастика, Киберпанк, Рациональность, Видео, YouTube, Длиннопост

Источник: видео Роберта Майлза «Intro to AI Safety, Remastered»

Сами исследователи OpenAI написали: «Устанавливать цели для ИИ-агентов часто очень сложно или вообще невозможно. Они начинают хакать правила в удивительных и контринтуитивных местах»

В большинстве случаев, когда мы проектируем ИИ, они по-умолчанию получаются не-согласованными (non-aligned). Это не какой-то там баг, который можно пофиксить, это чаще всего поведение по-умолчанию.

Всё это следствие того, как мы обучаем нейросети вообще.

* * *

К сожалению, на Пикабу установлено жесткое ограничение на размер длиннопостов – и мы его уже исчерпали. При этом нераскрытыми остались важные вопросы: Можем ли мы понять, как «мыслит» нейросеть? К каким целям будет стремиться искусственный интеллект, и сможем ли мы его остановить, если они нам не понравятся?

Ответы на эти вопросы можно прочитать в окончании статьи по этой ссылке.

Показать полностью 20 1
[моё] ChatGPT Искусственный интеллект Будущее Нейронные сети Илон Маск Элиезер Юдковский Научная фантастика Киберпанк Рациональность Видео YouTube Длиннопост
75
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии