Про сингулярность
Есть концепция AI-сингулярности. Конкретно это выглядит так. Человечество изобретает AI, тот начинает совершенствовать себя, становится умнее и так по кругу, пока AI не становится с человеческой точки зрения бесконечно умным, открывает недоступные нам законы физики (возможно, скорее всего), и наступает сингулярность: развитие цивилизации в ее текущем виде заканчивается, и либо мы все бесконечно процветаем, либо страдаем и умираем ((С) «У меня нет рта, но я должен кричать»), либо третья опция — когда мы страдаем, но AI убеждает нас, что это и есть процветание, либо мы вообще ничего (почти) не замечаем — вариант «Матрицы» (тут может оказаться, что сингулярность уже наступила, несколько раз, и мы строим N+1-ю сингулярность в мире N-й сингулярности).
Давайте рассмотрим ключевые моменты.
(1) Машины должны быть в состоянии самостоятельно совершенствовать software и hardware части самих себя. Так, чипы уже десятки лет проектируются при помощи какого-то софта, но тут мы говорим именно о AI, способном проектировать работающие чипы end-to-end (в принципе не обязательно производить - производить могут людишки, железные андроиды будут производить чипы или мясные - не важно). Должен ли это быть прям AGI, способный сочинять поэмы, принимать сложные этические решения и снимать кино, - не обязательно. Это может быть очень узко специализированный искусственный разум, заточенный под конкретные задачи.
(2) Этот искусственный разум должен быть достаточно умен. Т.е. если человечество построит искусственный интеллект, эквивалентный человеку с IQ 100, это будет, безусловно, грандиозная ачивка. AI сможет стоять на кассе в «Пятёрочке», принимать новые законы и заседать в советах директоров крупных компаний. Но вот созданию нового, более производительного железа или нового софта он не поможет, пожалуй, никак. Т.е. есть какой-то пороговый эквивалент IQ (EIQ), который нужен, чтобы сингулярность случилась.
Я думаю, что крупные разработчики чипов уже собрали в своих лабораториях большие команды очень умных людей и AI, и для того, чтобы сингулярность произошла, AI придется соревноваться с лучшими из лучших инженеров. Даже если AI будет по интеллекту как просто хороший инженер, это будет большим преимуществом - можно будет быстро загружать в кремниевый мозг громадные массивы знаний и быстро масштабироваться: «склонируйте мне еще 1000 вот этих крутых цифровых чуваков - подождите 30 минут, пока копируются данные». Это очень круто, и это радикально изменит существующий мир. Но сингулярность это не приблизит.
Т.е. для того, чтобы процесс пошел лавинообразно, AI должен как минимум сравняться с условным Андреем Карпатый, тогда его можно будет размножить на 10 000 клонов и прыгнуть вверх. Т.е. сингулярность наступит не тогда, когда мы получим AGI, а тогда, когда мы сделаем его умнее некоторого порогового значения.
(3) AGI должен быть не супердорогим. Давайте представим, что мы построили AI по интеллекту, равный Эйнштейну, но он занимает площадь 1 квадратный километр, стоит несколько десятков миллиардов баксов и питается собственной атомной станцией. Это все еще очень круто. Но построить 1000 таких AGI у нас не получится быстро. Сколько в мире атомных станций? Около 440 реакторов / энергоблоков на 2026 год.
Что дает нам, скажем, сотню Эйнштейнов по цене суммарного госдолга США - что, конечно, очень круто и рано или поздно действительно приведет нас к сингулярности. Но давайте предположим, что AGI разработал чип, который на 10% быстрее / лучше, чем существующий. Сам разработал - 10% это очень крутой прирост. Как быстро будут заменены чипы на этом самом квадратном километре серверов? И сколько это будет стоить? Т.е. прогресс в такой ситуации, конечно, будет, но будет он совсем не лавинообразным.
Интересный вопрос тут - не является ли наш естесвенный интеллект порогово возможным для существующих физических законов? Вдруг существующий человеческий мозг это тупо лучшее что вселенная может нам дать?

Лига Новых Технологий
1.9K поста16.9K подписчика
Правила сообщества
Главное правило, это вести себя как цивилизованный человек!
Но теперь есть еще дополнительные правила!
1. Нельзя раскручивать свой сайт, любую другую соц сеть или мессенджер, указывая их как источник. Если данная разработка принадлежит вам, тогда можно.
2. Нельзя изменять заглавие или текст поста, как указано в источнике, таким образом чтобы разжигать конфликт.
3. Постите, пожалуйста, полный текст с источника, а не превью и ссылка.