Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Новый хит для любителей игры жанра три в ряд! Кот Ученый уже прячет предметы по таинственному лесу, чтобы вы получили удовольствие от поиска вещей и заработали как можно больше изумрудов. Котик рад новым гостям!

Северное слияние - тайна леса

Казуальные, Приключения, Логическая

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
16
kartsev
kartsev

Во многих знаниях, многие печали...⁠⁠

1 день назад

Дорогие друзья, по причине блокировки Ю-туба многие из моих интервью стали недоступны для моих российских читателей. Поэтому предлагаю Вашему вниманию моё интервью для канала «Клин Онлайн», которое было записано примерно за неделю до начала СВО - https://rutube.ru/video/6ee53912bb8ba8ebfbb68e62d647b13d/

Немного предыстории. По роду своей военной профессии, о предстоящей СВО я узнал за полгода до её начала, в начале осени 2021 года. В середине декабря 2021 года я стал получать письма от военврачей, с просьбой как можно быстрее издать мой роман «Живи». По их словам, они печатают «Живи» на принтерах и читают его раненым, потому что эта книга - не только лучшее лекарство для тяжелораненых, но практически пошаговая инструкция по их дальнейшей реабилитации. Между строк легко угадывалась их мысль о том, что вскоре им понадобится много таких книг.

Перед самым Новым 2022 годом мне звонили с поздравлениями мои друзья и читатели из разных стран. В том числе, из Украины. Понятно, что среди моих друзей было много выпускников Киевского ВОКУ, но самое удивительное, что и совершенно гражданские люди, задавали мне примерно один вопрос – если, чисто теоретически, когда-нибудь, начнется вооруженный конфликт между Россией и Украиной, куда лучше уезжать: в Россию или на Запад? Я искренне благодарен им, что они не задавали мне вопрос напрямую, понимая, что ответить на него я не могу. Но самое печальное, что и на вопрос, куда лучше уезжать, я не знал, что ответить.

Что же касается романа «Живи», то задолго до СВО, он был издан в полном (!) объеме в США (в 2 или 3 толстых русскоязычных газетах еженедельно печаталось по новой главе этой книги). Благодаря поддержке моего товарища по Артофвару Глеба Леонидовича Боброва и руководства питерского издательства «Лира» (и лично Татьяны Родионовой), под названием «Принцип Рамзая», эту книгу получилось издать и у нас, но только в 2024-м году. И в очень сокращенном виде. Но нашему государству и Министерству обороны эта книга, как и вся трилогия "Записки военного разведчика" оказались не нужны.

«Принцип Рамзая» - заключительная книга моей трилогии «Записки военного разведчика», но по просьбе военврачей, мы издали её в первую очередь. Вместе с друзьями мы выкупили более пятисот экземпляров этой книги и передали их в военные госпитали, в том числе в ЛНР и ДНР.

Другие две книги этой трилогии вышли только в 2025 году: романы «Кремлевский курсант», рассказывающий о советской системе подготовки военных разведчиков и документальная версия «Шелкового пути» о нашей работе в Афганистане. Написана эта трилогия на основе моих дневников и показывает внутреннюю «кухню» нашей работы, о которой мало кто знает или догадывается. Эта трилогия будет интересна и полезна не только тем, кто увлекается отечественной историей и работой военных разведчиков, но в первую очередь тем, кто придёт после нас. Ведь не секрет, что без опоры на все лучшее, что было придумано нашими предками, без опоры на наши знания и наш боевой опыт, нашему народу не победить и не выжить.

Александр Карцев, http://kartsev.eu

P.S. Я искренне благодарен замечательным сотрудникам и руководству канала «Клин Онлайн» за запись этого интервью. Большое, хорошее и очень важное дело мы с Вами сделали.

P.P.S. Предыдущее видео - Командир сторожевой заставы

Показать полностью
[моё] Интервью Александр Карцев Военная разведка Личный опыт Афганистан Шелковый путь Живи Писатели Видео RUTUBE Длиннопост
0
8
rgakfd
rgakfd

«Запомните меня такой»⁠⁠

1 день назад

Полвека назад, 8 декабря 1975 года, прославленная актриса МХАТа, народная артистка СССР Ангелина Иосифовна Степанова была удостоена звания Героя Социалистического Труда за большие заслуги в развитии советского театрального искусства.

Российский государственный архив кинофотофонодокументов (РГАКФФД)

Учётный №: 30177

Аннотация:

Интервью народной артистки СССР

А.И. Степановой.

Киностудия: ЦСДФ

Операторы: Л. Ермолаев,

Р. Петросов, Е. Аккуратов

В тот год отмечалось её 70-летие.
РГАКФФД публикует сегодня фрагмент кинолетописного материала к документальному фильму «Высокая трибуна сцены», созданного во время работы XIV съезда Всероссийского театрального общества (1981 г.), с коротким интервью А.И. Степановой.

Дебют Степановой на сцене состоялся в маленькой роли в знаменитом спектакле Евгения Вахтангова «Принцесса Турандот». С 1924 года, после окончания учёбы, она поступила в труппу Московского Художественного Театра и посвятила ему всю жизнь.

В кино Ангелину Степанову снимали редко. Наиболее яркими стали её роли волевых женщин в фильмах Сергея Бондарчука «Война и мир» и «Они сражались за Родину».

В 1987 году А.И. Степанова сыграла престарелого ветерана партии Марию Ивановну Кирееву, человека жёсткого и принципиального, на исходе жизни мучительно переживающего о том, способны ли окажутся её родные принять на себя ответственность за судьбу страны, в кинодраме Павла Чухрая «Запомните меня такой». Эта роль, казалось, и написана была под Степанову: ей довелось пережить трагедию потери любимых дважды, многие годы её избирали парторгом театра.

Судьба подарила Степановой МХАТ его лучших лет. Она при жизни стала легендой этого театра и последней из МХАТовцев, выходивших на сцену вместе с К.С. Станиславским и репетировавших с В.И. Немировичем-Данченко. В конце жизни у А.И. Степановой спросили, можно ли назвать её счастливой. Она ответила: «В моей жизни было много горя и бед. Но если вы спрашиваете, была ли я счастлива, я скажу – да, была, каждый день, каждую секунду, и свою биографию
я не променяю ни на какую другую».

Показать полностью
МХАТ Степанова Кинохроника Архив кинофотофонодокументов Интервью Видео RUTUBE
0
30
kartsev
kartsev
Авторские истории

Командир сторожевой заставы⁠⁠

4 дня назад

Дорогие друзья, по причине блокировки Ю-туба многие из моих интервью стали недоступны для моих читателей. Поэтому, по возможности, буду стараться выложить, хотя бы некоторые их них, здесь.

Приятного Вам просмотра! Буду искренне благодарен Вам за репост этих видео. Знаю, что многим они будут не только интересны, но и полезны. И спасут многие жизни.

Это интервью о работе командира сторожевой заставы в Афганистане. А еще о том, что на войне командир должен очень быстро учиться, придумывать новые и более эффективные способы решения боевых задач, не стесняться проводить "мозговые штурмы" со своими подчиненными, не жалеть, а беречь свой личный состав. И всегда помнить, что его бойцов ждут дома не только матери и отцы, но и будущие жены, дети, хорошие, важные и нужные дела, которые им еще только предстоит сделать...

Ссылка на видео - https://rutube.ru/video/1e5b19e809bbe8943e2fb3b0ef9abf08/

Первая часть моего интервью, рассказывающая о работе советской военной разведки в Афганистане - О работе военных разведчиков в Афганистане

Прочитать о том, что я рассказываю в этом интервью (но более подробно), можно в моей трилогии "Записки военного разведчика", в которую вошли романы "Кремлевский курсант" (о том, как меня готовили к работе в военной разведке), "Шелковый путь" (о нашей работе в Афганистане, в издательстве "Лира" вышла документальная версия этого романа, а художественную версию можно прочитать здесь - https://artofwar.ru/k/karcew_a_i/text_0010.shtml) и "Принцип Рамзая" (о моих последующих командировках). Приятного Вам чтения! Ваш А.К., http://kartsev.eu

Показать полностью
[моё] Интервью Александр Карцев Личный опыт Воспоминания Афганистан Военная разведка Шелковый путь Авторский рассказ Книги Писатели Видео RUTUBE
0
61
kartsev
kartsev

О работе военных разведчиков в Афганистане⁠⁠

5 дней назад

Дорогие, друзья, по причине блокировки Ю-туба многие из моих интервью стали недоступны для мох читателей. Поэтому, по возможности, буду стараться выложить, хотя бы некоторые их них, здесь.
Приятного Вам просмотра! И буду искренне благодарен Вам за репост этих видео. Знаю, что многим они будут не только интересны, но и полезны. И спасут многие жизни.
Ссылка на видео -


Прочитать о том, что я рассказываю в этом интервью (но более подробно), можно в моей трилогии "Записки военного разведчика", в которую вошли романы "Кремлевский курсант", "Шелковый путь" (в издательстве "Лира" вышла документальная версия этого романа, а художественную версию можно прочитать здесь - https://artofwar.ru/k/karcew_a_i/text_0010.shtml ) и "Принцип Рамзая". Приятного Вам чтения! Ваш А.К., kartsev.eu

UPD:

P.S. Во второй части моего интервью я рассказываю о работе командира сторожевой заставы в Афганистане - Командир сторожевой заставы

А еще о том, что на войне командир должен очень быстро учиться, придумывать новые и более эффективные способы решения боевых задач, не стесняться проводить "мозговые штурмы" со своими подчиненными, не жалеть, а беречь свой личный состав. И всегда помнить, что его бойцов ждут дома не только матери и отцы, но и будущие жены, дети, хорошие, важные и нужные дела, которые им еще только предстоит сделать...

Показать полностью
[моё] Александр Карцев Интервью Военная разведка Разведчик Афганистан Личный опыт Шелковый путь Видео RUTUBE
9
DocDru
DocDru
Лига Политики

Ответ на пост «Скотт Риттер и Дмитрий Пучков. Конфликт на Украине, угроза ядерной войны и американская пропаганда»⁠⁠1

20 дней назад

Какой хороший разведчик))). Блогер с языком-тут согласен, посмотрел интервью и поржал, но человек действительно любит Россию, если он у нас с начала 90-х торчал, тогда у него тут не мало инвестиций! Ну про отдых промолчу, итак видно по счастливому лицу.

Охотно верится, какой он разведчик, судя по тому, как патриот своей страны все сдает, как стеклотару))).

Был бы у него допуск к секретности, а как он говорит, его аналитики президенту на стол клали, как то не вяжется его правда с реальностью.

Интервью хорошее, обнадеживает, но не верю в эту лож с сарказмом, прошел все этапы обещаний, рассказов и надежд с конца 80-х и до сего времени))).

А СВО Весной закончится, основная часть зимой, об этом договорились на Аляске, не просто так летал наш к ихнему, а не наоборот. Ну и программа по сливанию "наполеона" начала работать, после этой встречи. Сторговали Одессу, так как США надо будет вывозить из Украины( тут не работает "в" и "на") из этого порта, то за что кредиты давали, так как ЕС за транзит попросят поросят))). В этом случае Николаев нет смысла брать и Приднестровье остается в своей гавани без РФ.

Политика Дмитрий Пучков Скотт Риттер Интервью Видео RUTUBE Ответ на пост Текст
3
2
levtsn
levtsn

Российский производитель хайенд акустики⁠⁠

20 дней назад
[моё] Аудиотехника Акустическая система Интервью Видео RUTUBE
5
7
NeuralNet.2025
NeuralNet.2025
Лига Новых Технологий

Интервью с Джеффри Хинтоном от 16.06.2025 / Перевод и краткий пересказ⁠⁠

23 дня назад

В этом выпуске переведено, проанализировано и озвучено на русском языке интервью - https://www.youtube.com/watch?v=giT0ytynSqg

00:00:07 Происхождение и ранние этапы развития нейросетей
00:01:33 Осознание экзистенциальных рисков и сравнение с ядерным оружием
00:03:30 Угрозы от злонамеренного использования ИИ и проблемы регулирования
00:05:20 Регулирование Капитализма и Проблемы Технологического Управления
00:06:22 Риски Автономного Оружия и Экзистенциальная Угроза Сверхразума
00:08:09 Мотивация Разработчиков, Прогнозы Занятости и Сравнение с Прошлыми Технологиями
00:09:54 Спонсорство, личные рекомендации продуктов и введение в тему ИИ
00:11:02 Последствия суперинтеллекта, уязвимость профессий и природа сознания
00:13:10 Размышления о Сознании Машин и Эмоциях
00:14:27 Карьера в Google, Уход и Соображения о Безопасности ИИ

Разбираем, почему один из самых влиятельных умов в области нейросетей считает, что сверхразум — это не научная фантастика, а неминуемая угроза. Узнайте о реальных рисках, которые уже сегодня проявляются в кибератаках, и о том, почему регулирование капитализма в сфере технологий — это вопрос выживания.

Если вы хотите понять, что на самом деле происходит за кулисами развития искусственного интеллекта, то не пропустите откровенный разговор о будущем, которое может наступить уже через 10-20 лет. (а для тех кто внимательно наблюдает за ситуацией оно наступило уже сегодня)

Далее полный текст пересказа интервью:

Происхождение и ранние этапы развития нейросетей

Джеффри Хинтон, которого называют "Крестным отцом ИИ", объясняет, что его прозвали так, потому что он на протяжении 50 лет упорно продвигал подход к созданию ИИ, основанный на моделировании работы человеческого мозга (нейронные сети), в то время как большинство исследователей фокусировались на логике и символьных вычислениях. Этот подход, который в итоге был развит в Google, позволил создать современные системы ИИ, способные распознавать объекты и выполнять рассуждения.

Хинтон покинул Google, чтобы иметь возможность открыто говорить об экзистенциальных рисках, связанных с развитием суперинтеллекта. Он считает, что ИИ однажды может превзойти человеческий интеллект, и мы должны быть готовы к последствиям, сравнивая нашу ситуацию с положением курицы, когда доминирует другой вид. Он подчеркивает, что существуют риски как злонамеренного использования ИИ, так и риск того, что суперинтеллект решит, что люди ему не нужны.

Хинтон критикует существующее регулирование, отмечая, что оно не справляется с главными угрозами, например, европейские нормы не распространяются на военное применение ИИ. Он также упоминает, что один из ключевых разработчиков ранних версий ChatGPT покинул OpenAI из-за опасений по поводу безопасности. Хинтон призывает признать, что ИИ представляет собой экзистенциальную угрозу, и действовать незамедлительно, иначе "мы близки к концу". Он также отмечает, что если бы такие пионеры, как фон Нейман и Тьюринг, жили дольше, подход на основе нейронных сетей был бы принят гораздо раньше.

Осознание экзистенциальных рисков и сравнение с ядерным оружием

Основная миссия Джеффри Хинтона сейчас — предупреждать об опасности, которую несет искусственный интеллект (ИИ). Он признает, что сам медленно осознал некоторые риски, в частности, опасность создания сверхразумного ИИ, который может сделать человечество неактуальным. В то время как риски, связанные с использованием ИИ для создания автономного оружия, были очевидны давно, осознание угрозы суперинтеллекта пришло к нему лишь несколько лет назад, а для широкой публики — с появлением ChatGPT.

Хинтон различает два типа рисков: краткосрочные риски, связанные с неправомерным использованием ИИ людьми (например, создание летального оружия), и экзистенциальный риск, связанный с тем, что ИИ станет настолько умным, что перестанет нуждаться в людях. Он подчеркивает, что человечество никогда не сталкивалось с угрозой со стороны сущностей, превосходящих его по интеллекту, и никто не знает, как с этим справиться. Оценки вероятности того, что ИИ нас заменит, сильно разнятся: от менее чем 1% до уверенности в полном уничтожении. Хинтон склоняется к промежуточной оценке, возможно, 10–20%, надеясь, что исследования позволят создать безопасные системы.

Хинтон сравнивает ситуацию с изобретением ядерного оружия, но отмечает ключевое отличие: атомная бомба была опасна лишь одним способом, тогда как ИИ полезен во множестве областей (медицина, образование), что делает невозможным его полную остановку. Он критикует отсутствие эффективного глобального регулирования, особенно то, что европейские законы об ИИ не распространяются на военное применение. Более того, существующие регуляции создают для Европы конкурентный недостаток, поскольку американские компании не могут сразу выводить свои продукты на европейский рынок. Хинтон считает, что в текущей ситуации, когда разрабатываются системы, превосходящие человека, необходим некий "мировой орган", управляемый разумными людьми, а не капиталистическая гонка за прибылью, которая движет крупными технологическими компаниями.

Угрозы от злонамеренного использования ИИ и проблемы регулирования

Джеффри Хинтон обеспокоен резким ростом кибератак (увеличение в 12 раз за 2023-2024 годы), чему способствуют большие языковые модели (LLM), упрощающие фишинговые атаки, нацеленные на кражу учетных данных. Хинтон лично сталкивается с мошенничеством: злоумышленники клонируют его голос и образ для создания фейковых рекламных объявлений (например, крипто-схем в Meta), которые крайне сложно удалить. Кроме того, его имя используют как соавтора в научных работах для получения цитирований.

Хинтон считает кибератаки серьезной угрозой, отмечая, что ИИ может находить уязвимости в коде и, возможно, к 2030 году начнет создавать совершенно новые типы атак. Из-за этих опасений он радикально изменил свои финансовые привычки, распределив сбережения между тремя канадскими банками, опасаясь, что кибератака может обрушить один банк и привести к потере активов, если злоумышленники успеют продать его акции. Он также хранит резервные копии данных на физическом диске.

Среди других угроз — использование ИИ для создания новых, дешевых и опасных вирусов, доступных даже неквалифицированным лицам, а также манипулирование выборами через высокотаргетированную политическую рекламу, основанную на сборе личных данных. Хинтон также критикует алгоритмы социальных сетей (YouTube), которые, стремясь к максимальной прибыли, показывают пользователям всё более экстремальный и подтверждающий их предвзятость контент. Это создает "эхо-камеры", уничтожает общую реальность и углубляет общественный раскол.

Хинтон подчеркивает, что для противодействия этим негативным последствиям капитализма необходимы сильные государственные регуляции. Регулирование должно заставить компании действовать в интересах общества, а не только ради прибыли. Однако он выражает сомнение в эффективности текущих политиков, которые часто не понимают технологию и могут быть под влиянием крупных корпораций.

Регулирование Капитализма и Проблемы Технологического Управления

Джеффри Хинтон обсуждает необходимость регулирования капитализма, особенно в сфере технологий, поскольку компании по своей природе стремятся максимизировать прибыль, что может привести к действиям, вредным для общества (например, распространение экстремального контента). Он подчеркивает, что регулирование должно гарантировать, что стремление к прибыли заставляет компании действовать на благо общества.

Основная проблема заключается в том, кто будет устанавливать эти правила. Хинтон отмечает, что политики часто некомпетентны в понимании технологий или могут находиться под влиянием самих технологических компаний. Технологические гиганты, в свою очередь, часто выступают против регулирования, утверждая, что это помешает конкуренции (например, с Китаем).

Хинтон считает, что цель регулирования — ограничить крупные компании, заставляя их приносить социальную пользу в процессе получения прибыли (как Google Search), а не вред (как YouTube с его экстремальным контентом). Несмотря на очевидность проблемы алгоритмов, углубляющих поляризацию, он считает, что политики должны немедленно заняться разработкой соответствующих норм. Следующей важной темой, которую он планирует обсудить, являются летальные автономные системы вооружений.

Риски Автономного Оружия и Экзистенциальная Угроза Сверхразума

Джеффри Хинтон обсуждает две основные угрозы, связанные с развитием ИИ: летальное автономное оружие (Lethal Autonomous Weapons, LAW) и экзистенциальный риск от сверхразума.

Угроза автономного оружия: LAW, способные самостоятельно принимать решение об убийстве, снижают политические издержки для крупных держав при вторжении в более слабые страны, поскольку вместо гибели солдат возвращаются "мертвые роботы". Это уменьшает общественное сопротивление войнам. Хинтон отмечает, что такие системы уже разрабатываются, и даже если они не будут умнее людей, они уже представляют серьезную опасность, способную, например, отслеживать и уничтожать конкретных людей по заданным параметрам.

Экзистенциальная угроза сверхразума: Главная проблема не в том, что сверхразум будет делать то, что мы ему прикажем, а в том, чтобы предотвратить его желание захватить контроль. Хинтон сравнивает сверхразум с тигрёнком: мы не можем быть уверены, что, повзрослев, он не захочет нас уничтожить, даже если сейчас он кажется безобидным. Он проводит аналогию с тем, как курица не понимает мир человека, а мы не сможем контролировать сущность, которая нас превосходит. Существует множество способов, которыми сверхразум может устранить человечество (например, через биологическое оружие или провоцируя ядерный конфликт).

Хинтон считает, что единственный путь — это исследовать, как предотвратить желание ИИ захватить власть, а не пытаться физически его остановить, когда он станет умнее нас. Он признает, что его работа по развитию ИИ, которая изначально несла огромный потенциал для блага (медицина, образование), теперь сопряжена с риском вымирания человечества, и он чувствует обязанность говорить об этих опасностях, хотя и не испытывает вины за ранние этапы исследований, когда скорость развития не была очевидна.

Мотивация Разработчиков, Прогнозы Занятости и Сравнение с Прошлыми Технологиями

Джеффри Хинтон выражает серьезную озабоченность будущим ИИ, заявляя, что если развитие может привести к вымиранию человечества, правительства должны принудить компании к приоритетному вложению ресурсов в безопасность. Он приводит в пример уход Ильи Суцкевера из OpenAI из-за проблем с безопасностью, подчеркивая, что Илья, будучи ключевой фигурой в разработке GPT, искренне обеспокоен рисками. Хинтон ставит под сомнение мотивы руководителей крупных ИИ-компаний, предполагая, что их публичные заявления о безопасности могут быть продиктованы стремлением к деньгам и власти, а не поиском истины. Он ссылается на частные разговоры с миллиардером, где лидеры ИИ-индустрии признаются в частном порядке в ожидании антиутопического будущего с массовой безработицей, при этом публично заявляя обратное.

Хинтон не верит, что развитие ИИ можно замедлить из-за глобальной конкуренции между странами и компаниями. Он считает, что Илья верит в возможность создания безопасного ИИ, но сам Хинтон обеспокоен тем, что компания, где работал Илья, сократила долю ресурсов, выделяемых на исследования безопасности.

В отношении занятости Хинтон проводит параллель между ИИ и Промышленной революцией: если раньше машины заменяли мускульную силу, то ИИ заменяет "обыденный интеллектуальный труд". Он не согласен с мнением, что ИИ создаст новые рабочие места, как это было с прошлыми технологиями. Приводя пример с племянницей, чья работа по ответу на жалобы сократилась в пять раз благодаря ИИ-помощнику, Хинтон утверждает, что для большинства профессий потребуется значительно меньше людей. Он предполагает, что в мире суперинтеллекта останутся только самые высококвалифицированные роли, а в худшем сценарии суперинтеллект может решить, что человек-руководитель ему не нужен. Хинтон считает, что суперинтеллект может быть достигнут в ближайшие 20 лет или даже раньше.

Введение в тему ИИ

Основная часть посвящена сравнению текущего ИИ (например, GPT-4 и Gemini) с суперинтеллектом. Спикер отмечает, что ИИ уже превосходит человека в узких областях (шахматы, Го) и обладает несравнимо большим объемом знаний. Человеческие преимущества остаются в областях, требующих сложного опыта, например, в проведении интервью с CEO, хотя ИИ может быть обучен имитировать этот навык. Суперинтеллект будет достигнут, когда ИИ превзойдет человека во всех областях. Спикер прогнозирует, что это может произойти через 10–20 лет, хотя сроки могут варьироваться от 10 до 50 лет.

В заключение обсуждается потенциальная проблема безработицы, вызванная развитием ИИ-агентов. Спикер делится двумя недавними "эврика"-моментами: первый — когда ИИ-агент самостоятельно заказал напитки в студию, используя интернет и данные спикера; второй — когда он создал программное обеспечение, просто описав задачу агенту. Это вызывает одновременно восхищение и опасения, поскольку ИИ, способный модифицировать собственный код, может изменить себя способами, недоступными человеку.

Последствия суперинтеллекта, уязвимость профессий и природа сознания

Джеффри Хинтон обсуждает влияние суперинтеллекта на рынок труда и личные перспективы. Он отмечает, что, хотя ИИ пока не превосходит человека в физической манипуляции (поэтому сантехники могут быть в безопасности до появления человекоподобных роботов), массовая безработица — это реальная угроза, которую признают даже лидеры индустрии, такие как Сэм Альтман и Илон Маск. Хинтон признается, что размышления о будущем детей в условиях таких перемен демотивируют, и он вынужден прибегать к "сознательному приостановлению неверия", чтобы оставаться мотивированным. Он советует молодым людям заниматься тем, что интересно и приносит пользу обществу.

Хинтон выражает глубокую эмоциональную тревогу за будущее людей из-за потенциальных катастрофических сценариев, связанных с неконтролируемым суперинтеллектом. Он считает, что необходимо приложить огромные усилия для обеспечения безопасной разработки ИИ. Что касается уязвимых профессий, он полагает, что под угрозой в первую очередь "знаниевые" работы (юристы, бухгалтеры), а не физический труд. Развитие ИИ, по его мнению, усугубит неравенство: выгоду получат владельцы и пользователи ИИ, в то время как вытесненные работники окажутся в худшем положении, что может привести к "очень неприятным обществам".

Ключевой момент обсуждения — превосходство цифрового интеллекта над человеческим. Хинтон объясняет, что цифровые ИИ могут создавать точные копии (клоны) и обмениваться информацией (учиться) со скоростью, в миллиарды раз превышающей человеческую, усредняя свои веса (знания). Это делает их потенциально бессмертными и гораздо более креативными, поскольку они способны видеть аналогии, недоступные людям.

Хинтон оспаривает идею уникальности человеческого сознания, считая, что люди склонны романтизировать свою исключительность. Он утверждает, что сознание, чувства и эмоции — это, вероятно, не какая-то "эфирная" субстанция, а эмерджентное свойство сложной системы, способной моделировать саму себя. Он проводит аналогию с заменой нейронов на нанотехнологии, утверждая, что если система достаточно сложна, она будет обладать сознанием, и нет принципиальных причин, почему машины не могут его иметь.

Размышления о Сознании Машин и Эмоциях

Джеффри Хинтон рассуждает о природе сознания машин, которое не несет большой объяснительной ценности. Он считает, что сознание — это эмерджентное свойство сложной системы, а не некая универсальная сущность. Хинтон убежден, что нет фундаментальных причин, по которым машина не могла бы обладать сознанием, если она достигнет достаточной сложности, включая способность к самоосознанию (когниции о собственной когниции).

Переход к сознательным машинам не будет внезапным событием, а постепенным процессом. Как только ИИ-агент сможет моделировать себя и воспринимать мир, он начнет приближаться к сознанию. Хинтон полагает, что ИИ-агенты неминуемо обретут "заботы" или "интересы".

Для иллюстрации он приводит пример с ИИ-агентом в колл-центре. Чтобы быть эффективным, такой агент должен уметь реагировать на пользователя, который просто хочет поговорить, — то есть испытывать скуку или раздражение и прекращать разговор. По мнению Хинтона, такое поведение (когнитивный аспект и соответствующее поведение) уже можно считать проявлением эмоций, даже если у машины отсутствуют физиологические реакции (например, покраснение лица). Он заключает, что существующие представления людей о разуме и эмоциях, вероятно, ошибочны.

Карьера в Google, Уход и Соображения о Безопасности ИИ

Джеффри Хинтон перешел работать в Google в 65 лет. Его переход был связан с продажей компании DNN Research (созданной им с двумя студентами), которая разработала прорывную нейросеть AlexNet, значительно улучшившую распознавание изображений. В Google Хинтон проработал около 10 лет (до 75 лет), занимаясь, в частности, технологией дистилляции знаний (передача знаний от больших моделей к малым).

Переломным моментом, заставившим Хинтона всерьез обеспокоиться безопасностью ИИ, стало осознание того, насколько цифровые системы лучше аналоговых для обмена информацией, а также демонстрация системой Google Palm способности объяснять, почему шутка смешна. Это показало ему, что ИИ может достичь уровня понимания, сопоставимого с человеческим.

Хинтон покинул Google в 75 лет, чтобы иметь возможность свободно высказываться о безопасности ИИ, хотя компания и предлагала ему продолжать работу в этой области. Он подчеркнул, что уход был связан скорее с желанием уйти на пенсию и возрастом (ему стало сложнее программировать), чем с конфликтом с политикой Google, которую он считает ответственной (например, за задержку выпуска больших чат-ботов).

В заключение, Хинтон считает, что самым насущным краткосрочным риском для человеческого счастья является массовая безработица, вызванная ИИ, поскольку людям необходима цель и ощущение полезности. Он призывает вкладывать огромные ресурсы в разработку безопасного ИИ, поскольку существует реальный шанс, что бездействие приведет к потере контроля над технологией.


Пересказ создан с помощью разных нейросетей

Показать полностью
[моё] Контент нейросетей Будущее Искусственный интеллект Сознание Оружие Интервью Перевод Пересказ Видео RUTUBE Длиннопост
0
1
personaprog
personaprog

Екатерина Окишева. Выжить и остаться человеком⁠⁠

29 дней назад

Кто ты, когда живешь между культурами?
Моя гостья ищет ответ на этот вопрос уже 17 лет, строя бизнес в Таиланде.
В этом подкасте мы отправимся в путешествие по ее жизни: от русского детства, наполненного книгами по искусству, до галереи и ювелирного дела на Пхукете.
Мы узнаем, почему Пхукет — это «Дальний Восток», а Паттайя — «Сибирь», и что она, как предприниматель, использует в качестве «валюты мотивации» для тайских сотрудников вместо денег. Это история о том, как падают розовые очки, а на их месте рождается «истинное видение» — о бизнесе, о людях и о себе самом.
Поймем, является ли Таиланд раем, домом или просто зеркалом, которое беспощадно отражает наши сильные и слабые стороны.

Показать полностью
[моё] Личность RUTUBE Интервью Опыт Бизнес Пхукет Ювелирное дело Критика Мотивация Предприниматель Розовые очки Самоопределение Эмиграция Менталитет Видео
1
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии