Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Поднимайтесь как можно выше по дереву, собирайте цветы и дарите их близким.
Вас ждут уникальные награды и 22 выгодных промокода!

Пикаджамп

Аркады, Казуальные, На ловкость

Играть

Топ прошлой недели

  • Animalrescueed Animalrescueed 43 поста
  • XCVmind XCVmind 7 постов
  • tablepedia tablepedia 43 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
1
RealDodo
RealDodo
Все о медицине
Серия Спорт типа

Олег Газманов про здоровье + волю⁠⁠

3 дня назад

Не совсем стандартная тема для беседы с Олегом Газмановым... В Москве, в Хорошёво-Мнёвниках, располагается городская клиническая больница № 67 имени Леонида Ворохобова

Этот ТВ-сюжет полностью.

Олег Газманов: Известные персоны [раскритиковали происходящее и уехали] — это же не вся страна.

Показать полностью
[моё] Интервью Здоровье Медицина Медицинские истории Яндекс Дзен (ссылка) Олег Газманов Воспоминания Видео Видео ВК ЗОЖ
0
7
NeuralNet.2025
NeuralNet.2025
Лига Новых Технологий

Интервью с Джеффри Хинтоном от 16.06.2025 / Перевод и краткий пересказ⁠⁠

4 дня назад

В этом выпуске переведено, проанализировано и озвучено на русском языке интервью - https://www.youtube.com/watch?v=giT0ytynSqg

00:00:07 Происхождение и ранние этапы развития нейросетей
00:01:33 Осознание экзистенциальных рисков и сравнение с ядерным оружием
00:03:30 Угрозы от злонамеренного использования ИИ и проблемы регулирования
00:05:20 Регулирование Капитализма и Проблемы Технологического Управления
00:06:22 Риски Автономного Оружия и Экзистенциальная Угроза Сверхразума
00:08:09 Мотивация Разработчиков, Прогнозы Занятости и Сравнение с Прошлыми Технологиями
00:09:54 Спонсорство, личные рекомендации продуктов и введение в тему ИИ
00:11:02 Последствия суперинтеллекта, уязвимость профессий и природа сознания
00:13:10 Размышления о Сознании Машин и Эмоциях
00:14:27 Карьера в Google, Уход и Соображения о Безопасности ИИ

Разбираем, почему один из самых влиятельных умов в области нейросетей считает, что сверхразум — это не научная фантастика, а неминуемая угроза. Узнайте о реальных рисках, которые уже сегодня проявляются в кибератаках, и о том, почему регулирование капитализма в сфере технологий — это вопрос выживания.

Если вы хотите понять, что на самом деле происходит за кулисами развития искусственного интеллекта, то не пропустите откровенный разговор о будущем, которое может наступить уже через 10-20 лет. (а для тех кто внимательно наблюдает за ситуацией оно наступило уже сегодня)

Далее полный текст пересказа интервью:

Происхождение и ранние этапы развития нейросетей

Джеффри Хинтон, которого называют "Крестным отцом ИИ", объясняет, что его прозвали так, потому что он на протяжении 50 лет упорно продвигал подход к созданию ИИ, основанный на моделировании работы человеческого мозга (нейронные сети), в то время как большинство исследователей фокусировались на логике и символьных вычислениях. Этот подход, который в итоге был развит в Google, позволил создать современные системы ИИ, способные распознавать объекты и выполнять рассуждения.

Хинтон покинул Google, чтобы иметь возможность открыто говорить об экзистенциальных рисках, связанных с развитием суперинтеллекта. Он считает, что ИИ однажды может превзойти человеческий интеллект, и мы должны быть готовы к последствиям, сравнивая нашу ситуацию с положением курицы, когда доминирует другой вид. Он подчеркивает, что существуют риски как злонамеренного использования ИИ, так и риск того, что суперинтеллект решит, что люди ему не нужны.

Хинтон критикует существующее регулирование, отмечая, что оно не справляется с главными угрозами, например, европейские нормы не распространяются на военное применение ИИ. Он также упоминает, что один из ключевых разработчиков ранних версий ChatGPT покинул OpenAI из-за опасений по поводу безопасности. Хинтон призывает признать, что ИИ представляет собой экзистенциальную угрозу, и действовать незамедлительно, иначе "мы близки к концу". Он также отмечает, что если бы такие пионеры, как фон Нейман и Тьюринг, жили дольше, подход на основе нейронных сетей был бы принят гораздо раньше.

Осознание экзистенциальных рисков и сравнение с ядерным оружием

Основная миссия Джеффри Хинтона сейчас — предупреждать об опасности, которую несет искусственный интеллект (ИИ). Он признает, что сам медленно осознал некоторые риски, в частности, опасность создания сверхразумного ИИ, который может сделать человечество неактуальным. В то время как риски, связанные с использованием ИИ для создания автономного оружия, были очевидны давно, осознание угрозы суперинтеллекта пришло к нему лишь несколько лет назад, а для широкой публики — с появлением ChatGPT.

Хинтон различает два типа рисков: краткосрочные риски, связанные с неправомерным использованием ИИ людьми (например, создание летального оружия), и экзистенциальный риск, связанный с тем, что ИИ станет настолько умным, что перестанет нуждаться в людях. Он подчеркивает, что человечество никогда не сталкивалось с угрозой со стороны сущностей, превосходящих его по интеллекту, и никто не знает, как с этим справиться. Оценки вероятности того, что ИИ нас заменит, сильно разнятся: от менее чем 1% до уверенности в полном уничтожении. Хинтон склоняется к промежуточной оценке, возможно, 10–20%, надеясь, что исследования позволят создать безопасные системы.

Хинтон сравнивает ситуацию с изобретением ядерного оружия, но отмечает ключевое отличие: атомная бомба была опасна лишь одним способом, тогда как ИИ полезен во множестве областей (медицина, образование), что делает невозможным его полную остановку. Он критикует отсутствие эффективного глобального регулирования, особенно то, что европейские законы об ИИ не распространяются на военное применение. Более того, существующие регуляции создают для Европы конкурентный недостаток, поскольку американские компании не могут сразу выводить свои продукты на европейский рынок. Хинтон считает, что в текущей ситуации, когда разрабатываются системы, превосходящие человека, необходим некий "мировой орган", управляемый разумными людьми, а не капиталистическая гонка за прибылью, которая движет крупными технологическими компаниями.

Угрозы от злонамеренного использования ИИ и проблемы регулирования

Джеффри Хинтон обеспокоен резким ростом кибератак (увеличение в 12 раз за 2023-2024 годы), чему способствуют большие языковые модели (LLM), упрощающие фишинговые атаки, нацеленные на кражу учетных данных. Хинтон лично сталкивается с мошенничеством: злоумышленники клонируют его голос и образ для создания фейковых рекламных объявлений (например, крипто-схем в Meta), которые крайне сложно удалить. Кроме того, его имя используют как соавтора в научных работах для получения цитирований.

Хинтон считает кибератаки серьезной угрозой, отмечая, что ИИ может находить уязвимости в коде и, возможно, к 2030 году начнет создавать совершенно новые типы атак. Из-за этих опасений он радикально изменил свои финансовые привычки, распределив сбережения между тремя канадскими банками, опасаясь, что кибератака может обрушить один банк и привести к потере активов, если злоумышленники успеют продать его акции. Он также хранит резервные копии данных на физическом диске.

Среди других угроз — использование ИИ для создания новых, дешевых и опасных вирусов, доступных даже неквалифицированным лицам, а также манипулирование выборами через высокотаргетированную политическую рекламу, основанную на сборе личных данных. Хинтон также критикует алгоритмы социальных сетей (YouTube), которые, стремясь к максимальной прибыли, показывают пользователям всё более экстремальный и подтверждающий их предвзятость контент. Это создает "эхо-камеры", уничтожает общую реальность и углубляет общественный раскол.

Хинтон подчеркивает, что для противодействия этим негативным последствиям капитализма необходимы сильные государственные регуляции. Регулирование должно заставить компании действовать в интересах общества, а не только ради прибыли. Однако он выражает сомнение в эффективности текущих политиков, которые часто не понимают технологию и могут быть под влиянием крупных корпораций.

Регулирование Капитализма и Проблемы Технологического Управления

Джеффри Хинтон обсуждает необходимость регулирования капитализма, особенно в сфере технологий, поскольку компании по своей природе стремятся максимизировать прибыль, что может привести к действиям, вредным для общества (например, распространение экстремального контента). Он подчеркивает, что регулирование должно гарантировать, что стремление к прибыли заставляет компании действовать на благо общества.

Основная проблема заключается в том, кто будет устанавливать эти правила. Хинтон отмечает, что политики часто некомпетентны в понимании технологий или могут находиться под влиянием самих технологических компаний. Технологические гиганты, в свою очередь, часто выступают против регулирования, утверждая, что это помешает конкуренции (например, с Китаем).

Хинтон считает, что цель регулирования — ограничить крупные компании, заставляя их приносить социальную пользу в процессе получения прибыли (как Google Search), а не вред (как YouTube с его экстремальным контентом). Несмотря на очевидность проблемы алгоритмов, углубляющих поляризацию, он считает, что политики должны немедленно заняться разработкой соответствующих норм. Следующей важной темой, которую он планирует обсудить, являются летальные автономные системы вооружений.

Риски Автономного Оружия и Экзистенциальная Угроза Сверхразума

Джеффри Хинтон обсуждает две основные угрозы, связанные с развитием ИИ: летальное автономное оружие (Lethal Autonomous Weapons, LAW) и экзистенциальный риск от сверхразума.

Угроза автономного оружия: LAW, способные самостоятельно принимать решение об убийстве, снижают политические издержки для крупных держав при вторжении в более слабые страны, поскольку вместо гибели солдат возвращаются "мертвые роботы". Это уменьшает общественное сопротивление войнам. Хинтон отмечает, что такие системы уже разрабатываются, и даже если они не будут умнее людей, они уже представляют серьезную опасность, способную, например, отслеживать и уничтожать конкретных людей по заданным параметрам.

Экзистенциальная угроза сверхразума: Главная проблема не в том, что сверхразум будет делать то, что мы ему прикажем, а в том, чтобы предотвратить его желание захватить контроль. Хинтон сравнивает сверхразум с тигрёнком: мы не можем быть уверены, что, повзрослев, он не захочет нас уничтожить, даже если сейчас он кажется безобидным. Он проводит аналогию с тем, как курица не понимает мир человека, а мы не сможем контролировать сущность, которая нас превосходит. Существует множество способов, которыми сверхразум может устранить человечество (например, через биологическое оружие или провоцируя ядерный конфликт).

Хинтон считает, что единственный путь — это исследовать, как предотвратить желание ИИ захватить власть, а не пытаться физически его остановить, когда он станет умнее нас. Он признает, что его работа по развитию ИИ, которая изначально несла огромный потенциал для блага (медицина, образование), теперь сопряжена с риском вымирания человечества, и он чувствует обязанность говорить об этих опасностях, хотя и не испытывает вины за ранние этапы исследований, когда скорость развития не была очевидна.

Мотивация Разработчиков, Прогнозы Занятости и Сравнение с Прошлыми Технологиями

Джеффри Хинтон выражает серьезную озабоченность будущим ИИ, заявляя, что если развитие может привести к вымиранию человечества, правительства должны принудить компании к приоритетному вложению ресурсов в безопасность. Он приводит в пример уход Ильи Суцкевера из OpenAI из-за проблем с безопасностью, подчеркивая, что Илья, будучи ключевой фигурой в разработке GPT, искренне обеспокоен рисками. Хинтон ставит под сомнение мотивы руководителей крупных ИИ-компаний, предполагая, что их публичные заявления о безопасности могут быть продиктованы стремлением к деньгам и власти, а не поиском истины. Он ссылается на частные разговоры с миллиардером, где лидеры ИИ-индустрии признаются в частном порядке в ожидании антиутопического будущего с массовой безработицей, при этом публично заявляя обратное.

Хинтон не верит, что развитие ИИ можно замедлить из-за глобальной конкуренции между странами и компаниями. Он считает, что Илья верит в возможность создания безопасного ИИ, но сам Хинтон обеспокоен тем, что компания, где работал Илья, сократила долю ресурсов, выделяемых на исследования безопасности.

В отношении занятости Хинтон проводит параллель между ИИ и Промышленной революцией: если раньше машины заменяли мускульную силу, то ИИ заменяет "обыденный интеллектуальный труд". Он не согласен с мнением, что ИИ создаст новые рабочие места, как это было с прошлыми технологиями. Приводя пример с племянницей, чья работа по ответу на жалобы сократилась в пять раз благодаря ИИ-помощнику, Хинтон утверждает, что для большинства профессий потребуется значительно меньше людей. Он предполагает, что в мире суперинтеллекта останутся только самые высококвалифицированные роли, а в худшем сценарии суперинтеллект может решить, что человек-руководитель ему не нужен. Хинтон считает, что суперинтеллект может быть достигнут в ближайшие 20 лет или даже раньше.

Введение в тему ИИ

Основная часть посвящена сравнению текущего ИИ (например, GPT-4 и Gemini) с суперинтеллектом. Спикер отмечает, что ИИ уже превосходит человека в узких областях (шахматы, Го) и обладает несравнимо большим объемом знаний. Человеческие преимущества остаются в областях, требующих сложного опыта, например, в проведении интервью с CEO, хотя ИИ может быть обучен имитировать этот навык. Суперинтеллект будет достигнут, когда ИИ превзойдет человека во всех областях. Спикер прогнозирует, что это может произойти через 10–20 лет, хотя сроки могут варьироваться от 10 до 50 лет.

В заключение обсуждается потенциальная проблема безработицы, вызванная развитием ИИ-агентов. Спикер делится двумя недавними "эврика"-моментами: первый — когда ИИ-агент самостоятельно заказал напитки в студию, используя интернет и данные спикера; второй — когда он создал программное обеспечение, просто описав задачу агенту. Это вызывает одновременно восхищение и опасения, поскольку ИИ, способный модифицировать собственный код, может изменить себя способами, недоступными человеку.

Последствия суперинтеллекта, уязвимость профессий и природа сознания

Джеффри Хинтон обсуждает влияние суперинтеллекта на рынок труда и личные перспективы. Он отмечает, что, хотя ИИ пока не превосходит человека в физической манипуляции (поэтому сантехники могут быть в безопасности до появления человекоподобных роботов), массовая безработица — это реальная угроза, которую признают даже лидеры индустрии, такие как Сэм Альтман и Илон Маск. Хинтон признается, что размышления о будущем детей в условиях таких перемен демотивируют, и он вынужден прибегать к "сознательному приостановлению неверия", чтобы оставаться мотивированным. Он советует молодым людям заниматься тем, что интересно и приносит пользу обществу.

Хинтон выражает глубокую эмоциональную тревогу за будущее людей из-за потенциальных катастрофических сценариев, связанных с неконтролируемым суперинтеллектом. Он считает, что необходимо приложить огромные усилия для обеспечения безопасной разработки ИИ. Что касается уязвимых профессий, он полагает, что под угрозой в первую очередь "знаниевые" работы (юристы, бухгалтеры), а не физический труд. Развитие ИИ, по его мнению, усугубит неравенство: выгоду получат владельцы и пользователи ИИ, в то время как вытесненные работники окажутся в худшем положении, что может привести к "очень неприятным обществам".

Ключевой момент обсуждения — превосходство цифрового интеллекта над человеческим. Хинтон объясняет, что цифровые ИИ могут создавать точные копии (клоны) и обмениваться информацией (учиться) со скоростью, в миллиарды раз превышающей человеческую, усредняя свои веса (знания). Это делает их потенциально бессмертными и гораздо более креативными, поскольку они способны видеть аналогии, недоступные людям.

Хинтон оспаривает идею уникальности человеческого сознания, считая, что люди склонны романтизировать свою исключительность. Он утверждает, что сознание, чувства и эмоции — это, вероятно, не какая-то "эфирная" субстанция, а эмерджентное свойство сложной системы, способной моделировать саму себя. Он проводит аналогию с заменой нейронов на нанотехнологии, утверждая, что если система достаточно сложна, она будет обладать сознанием, и нет принципиальных причин, почему машины не могут его иметь.

Размышления о Сознании Машин и Эмоциях

Джеффри Хинтон рассуждает о природе сознания машин, которое не несет большой объяснительной ценности. Он считает, что сознание — это эмерджентное свойство сложной системы, а не некая универсальная сущность. Хинтон убежден, что нет фундаментальных причин, по которым машина не могла бы обладать сознанием, если она достигнет достаточной сложности, включая способность к самоосознанию (когниции о собственной когниции).

Переход к сознательным машинам не будет внезапным событием, а постепенным процессом. Как только ИИ-агент сможет моделировать себя и воспринимать мир, он начнет приближаться к сознанию. Хинтон полагает, что ИИ-агенты неминуемо обретут "заботы" или "интересы".

Для иллюстрации он приводит пример с ИИ-агентом в колл-центре. Чтобы быть эффективным, такой агент должен уметь реагировать на пользователя, который просто хочет поговорить, — то есть испытывать скуку или раздражение и прекращать разговор. По мнению Хинтона, такое поведение (когнитивный аспект и соответствующее поведение) уже можно считать проявлением эмоций, даже если у машины отсутствуют физиологические реакции (например, покраснение лица). Он заключает, что существующие представления людей о разуме и эмоциях, вероятно, ошибочны.

Карьера в Google, Уход и Соображения о Безопасности ИИ

Джеффри Хинтон перешел работать в Google в 65 лет. Его переход был связан с продажей компании DNN Research (созданной им с двумя студентами), которая разработала прорывную нейросеть AlexNet, значительно улучшившую распознавание изображений. В Google Хинтон проработал около 10 лет (до 75 лет), занимаясь, в частности, технологией дистилляции знаний (передача знаний от больших моделей к малым).

Переломным моментом, заставившим Хинтона всерьез обеспокоиться безопасностью ИИ, стало осознание того, насколько цифровые системы лучше аналоговых для обмена информацией, а также демонстрация системой Google Palm способности объяснять, почему шутка смешна. Это показало ему, что ИИ может достичь уровня понимания, сопоставимого с человеческим.

Хинтон покинул Google в 75 лет, чтобы иметь возможность свободно высказываться о безопасности ИИ, хотя компания и предлагала ему продолжать работу в этой области. Он подчеркнул, что уход был связан скорее с желанием уйти на пенсию и возрастом (ему стало сложнее программировать), чем с конфликтом с политикой Google, которую он считает ответственной (например, за задержку выпуска больших чат-ботов).

В заключение, Хинтон считает, что самым насущным краткосрочным риском для человеческого счастья является массовая безработица, вызванная ИИ, поскольку людям необходима цель и ощущение полезности. Он призывает вкладывать огромные ресурсы в разработку безопасного ИИ, поскольку существует реальный шанс, что бездействие приведет к потере контроля над технологией.


Пересказ создан с помощью разных нейросетей

Показать полностью
[моё] Контент нейросетей Будущее Искусственный интеллект Сознание Оружие Интервью Перевод Пересказ Видео RUTUBE Длиннопост
0
2
DELETED

Бабулька шарит⁠⁠

4 дня назад
Перейти к видео
Контент нейросетей Sora Нейронные сети Нейровидео Искусственный интеллект Бабушка Сектор Газа (группа) Интервью Видео Вертикальное видео Короткие видео
4
4
ProjectLogos
ProjectLogos
Всё о кино
Серия Всё о Роджере Рэббите

Всё о Роджере Рэббите. Часть 14,5: Внезапные новости. Гэри К. Вульф вернул права на франшизу⁠⁠

4 дня назад

6 ноября Вульф прокомментировал процесс, который, как я помню, начался ещё в январе – к нему вернулись права на Роджера Рэббита. Как он сказал в интервью фанатскому блогу ImNotBad.com:

«Теперь у меня снова есть права на всех моих персонажей, на все мои книги. По сути, я могу заниматься собственными проектами о Роджере Рэббите».

Восстановление этих прав стало возможным благодаря оговорке о возврате авторских прав спустя 35 лет, согласно которой авторы оригинальных произведений (например, песен и книг) могли вернуть себе права на свои произведения по истечении 35 лет.

Впервые этот вопрос всплыл во время работы над 12-серийным детективным телесериалом Hairy Wolf, действие которого происходит в джаз-клубе Мульттауна. Тогда возник вопрос, имеет ли Вульф права на использование Мульттауна.

Вульф ожидал скандалов и долгих склок, но все прошло на удивление спокойно:

«Я ожидал, что это будет спорный процесс… Но этого не произошло. Все было очень цивилизованно, очень вежливо, очень прямолинейно… Disney всегда был для меня на высоте. Они очень хорошо ко мне относились. Они всегда шли мне навстречу, что бы я ни хотел сделать».

Права были возвращены примерно год назад, и с тех пор Вулф и его команда собирали воедино элементы для создания фильма или сериала, которые могли бы сравниться с фильмом 1988 года. Несмотря на различные возможности, Вулф сосредоточился на определённых вещах.

Вульф настроен позитивно и готов расширять франшизу за счёт различных проектов:

«Все сиквелы, которые мы готовим, должны быть как минимум не хуже оригинального фильма [1988 года]. По качеству производства, по тону, по содержанию сценария, по сопереживанию, по развитию персонажей. Они должны быть такими же хорошими или даже лучше, чем то, что мы делали раньше. Этого хотят фанаты, и я пообещал фанатам, что дам им это».

«То, что мы сейчас рассматриваем, — это фильмы по моим романам, на которые у меня снова появились права. Многие спрашивали, почему мы не сняли первый фильм более близко к «Кто подверг цензуре Роджера Рэббита» книге, со «словесными воздушными шарами». Что ж, это возможно».

И это звучит неплохо. Ранние работы Вульфа по этой вселенной могут быть на любителя, но их качество объективно. Но другой проект, который вышел на первый план, связан с Джессикой Рэббит. И да, это Jessica Rabbit: XERIOUS Business.

«Самый заметный из них [проектов]… — это игровой фильм о Джессике Рэббит по мотивам книги Jessica Rabbit: XERIOUS Business. Это был первый проект, который мы рассмотрели и начали разрабатывать. Вероятно, он продвинулся дальше всех на данный момент».

Как считает интервьюер: «это позволит Вульфу ещё больше раскрыть свой мир и двигаться в разных направлениях». Я считаю, что это пи***ц.

Интервьюер отмечает, что «этот проект будет не ремейком, а фильмом по мотивам романа Вульфа, вышедшего в 2022 году, в котором его мир был переосмыслен». Да, он умалчивает, КАК он был переосмыслен, но всё же.

А вот что правда, так это тот факт, что новости о любом проекте, связанном с Джессикой Рэббит, резко контрастируют с комментариями Роберта Земекиса, сделанными в 2024 году по поводу этого персонажа:

«Нынешняя компания Disney никогда бы не сняла „Роджера Рэббита“ сегодня. Они не могут снять фильм с Джессикой в главной роли. Сценарий сиквела Симона и Прайса никогда не увидит свет, каким бы хорошим он ни был. Посмотрите, что они сделали с Джессикой в тематическом парке. Они связали её и засунули в плащ».

Проблема в том, что как показывает последняя книга – Вульф для собственных персонажей стал опасней Disney.

Поясняя отношение Disney к Джессике, Вулф добавил:

«На самом деле я не знаю, откуда это взялось. Об этом говорил Боб Зи. На самом деле я не знаю, с чего началась эта история. Я никогда не слышал, чтобы кто-то в Disney говорил: «Да, она для нас слишком горячая штучка». Стивен [Спилберг] хотел снять фильм, в центре которого была бы Джессика Рэббит».

Мы правда забудем, что это было в… где-то 1989? Через год после оригинала. А кстати, если уж я тут вне очереди вернулся и к Jessica Rabbit: XERIOUS Business, то я просто отмечу, что именно в том несостоявшемся сиквеле впервые было раскрыто, что девичья фамилия Джессики – Крупник, а уже в Jessica Rabbit: XERIOUS Business – это стало фактом.

Ну и да, им нет нужды про это говорить – они просто не применяют этого персонажа. Даже в дерьмовом «Чип и Дейл спешат на помощь» (2022) она не появилась. Роджер был, а её – нет. Мы в последний раз видели её в короткометражках. Ну и да, в 1991 году её упоминают в «Приключения мультяшек» (Tiny Toon Adventures) и в 1996 году в «Аладдин: Король Воров» мы видим её платье.

Вот это сразу видно, про персонажа не забыли. Используют активно. Причём упоминание в 1991 году я не помнил — я его нагуглил.

Disney плевать на Роджера (и это хорошо, потому что сиквел от них был бы «Чипом и Дейлом» 2022 года), но его они могут куда-то воткнуть для фанатов, а Джессику они предали забвению.

Говоря о том, кого бы он хотел видеть вовлечённым в эти проекты, Вулф добавил:

«Я бы с удовольствием снова поработал с Disney. Я бы хотел, чтобы Disney участвовала в этом. Мы могли бы стать партнёрами. Есть основная группа людей, которые работали над первым фильмом, и я бы с удовольствием снова поработал с ними. Стивен Спилберг, Роберт Земекис, Фрэнк Маршалл, Кэтлин Кеннеди. Я бы хотел, чтобы Чарльз Флейшер вернулся и снова озвучил кролика».

Я говорил, что Вульф опасней любого Disney, но те, кто считают, что что-то изменится — нет, он прямо говорит, что он бы работал с Disney, а значит их подход его устраивает.

И интервьюер это отмечает: «Этот процесс займёт время, но Вулф по-прежнему намерен развивать мир Кролика Роджера, сохраняя при этом наследие Disney. Несколько заинтересованных сценаристов стремятся включить этот проект в свой график и изучить романы Вулфа. В настоящее время ведутся переговоры. Это новое начало для Мульттауна».

Вульф завершил интервью словами:

«Я хочу получить от этого удовольствие и дать фанатам то, чего они ждут уже 35 лет».

Как это коррелирует с последней его книгой и планами её экранизировать я не знаю.

Эта новость действительно даёт надежду на появление новых проектов во франшизе, но слова Вульфа и его поздние работы по франшизе не внушают доверие, желание работать с Disney, которые показали своё отношение к подобным проектам и персонажам — это подтверждает (нет, не поймите неправильно, Disney могут снять хорошо, если они этого хотят — это огромная компания, они могут. Но они не хотят. Если бы они хотели, то новым «Роджером Рэббиттом» стали бы «Чип и Дейл»).

Показать полностью 2
[моё] Цитаты Новости кино и сериалов Кто подставил кролика Роджера Чип и Дейл Мультфильмы Фильмы Американское кино Интервью Длиннопост
0
2
RealDodo
RealDodo
Айболит. Помощь животным
Серия Животинка

Дмитрий Губерниев о своём питомце: Коты правят миром⁠⁠

4 дня назад

Дмитрий Губерниев о своём питомце: Коты правят миром

ТВ-сюжет целиком.

Ветеринар про собачек (животные в студии).

Показать полностью
[моё] Интервью Дмитрий Губерниев Видео ВК Воспоминания Малые кошки Домашние животные Ветеринария Видео Добрые дела Лига Добра Яндекс Дзен (ссылка)
0
RealDodo
RealDodo
Серия СССР

Михаил Жванецкий про свои выступления в советских банях –голым перед голыми вельможами⁠⁠

4 дня назад

Михаил Жванецкий про свои выступления в советских банях – голым перед голыми вельможами:

Полный сюжет.

А тут текстовая версия этого разговора.

Показать полностью
[моё] Интервью Воспоминания Яндекс Дзен (ссылка) Без рейтинга Сатирик Михаил Жванецкий Роман Карцев Видео ВК Советские актеры Биография Видео
5
3
RealDodo
RealDodo
Серия Рок-байки

Александр Градский: В 1976 в Ужгороде не говорили ни по-русски, ни по-украински⁠⁠

4 дня назад

Частенько заслуженные мэтры в ТВ-беседах со мной делились: в душе они, мол, ощущают себя 15-летними. Но вот Сашу я реально видел мальчишкой. Признавая несомненный авторитет подлинного Гения, я порой ощущал себя старшим (хотя мой друг сел за школьную парту ещё до моего рождения). Меня всегда восхищал его мальчишеский характер. Не смог здесь в начале месяца вспомнить о своём товарище (у него 3 ноября д/р), так как был в очередном пикабушом бане поэтому сегодня оставлю сюжет:

Интервью 2019 года.

Александр Градский: «Кроме меня и Кобзона».

Александр Градский: Я многое не любил в Советском Союзе.

Александр Градский. «Семейное». 25 фактов.

Показать полностью
[моё] Воспоминания Интервью Яндекс Дзен (ссылка) Александр Градский Музыканты СССР Видео ВК Память 70-е Видео 1976
0
3
RealDodo
RealDodo
Серия Шоу-биз

Ксения Стриж про возрождение ДК⁠⁠

4 дня назад

Ксения Стриж про возрождение ДК, двухминутный эпизод прошлогоднего шоу:

Полный сюжет.

[моё] Интервью Дом культуры Культурная столица Культура Яндекс Дзен (ссылка) Без рейтинга Воспоминания Радиоведущие Видео Видео ВК
0
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии