Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Исследуйте яркий мир с бесконечными головоломками и разнообразными средами в каждой главе. Расширьте свои возможности с помощью захватывающих испытаний на время со специальными типами шариков, которые помогут вам в пути.

Квест Зумба

Казуальные, Три в ряд, Головоломки

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
5
victorkoch
victorkoch
2 месяца назад
Искусственный интеллект

«Неминуемые изменения. С днём рождения GPT»⁠⁠

«Неминуемые изменения. С днём рождения GPT» Будущее, Тренд, Openai, Искусственный интеллект, ChatGPT, Виктор Кох, Длиннопост

🧐 Мои публикации изначально создавались для проверки гипотез и определения оптимального формата авторского контента. Чтобы сформировать твёрдую, независимую позицию, важно пройти весь путь от начала до конца. В основе моего эксперимента лежала идея обучить нейронную сеть на своих мыслях и рассуждениях, а также выявить пределы возможностей AI. Интернет — изменчивая среда, но развитие ИИ в последние годы кардинально меняет его принципы, особенно в отношении контента.

«Content is 👑»

Контент был королём интернета. На заре его развития, когда любой сайт и автор легко находили свою аудиторию. Это было время расширения интернет проникновения; отсутствие сайта означало отсутствие в сети. Вебмастера получали значительный доход от платных ссылок и баннерной рекламы.

🤑Даже 3-5M MAU тогда считались огромным успехом. Например, я создал первую и крупнейшую поисковую систему для GIFs - Slinky с ~2.9M MAU (стала частью $SOHU) задолго до GIPHY. Многие известные компании, как $ABNB, $META, Twitter, $TRIP, $VK, $HH, стартовали в этом цикле.

Контент оставался королём долго, но с ростом интернета его распространение требовало всё больших усилий. Google и Meta сыграли ключевую роль в формировании современного WEB.

👨‍💻 Тысячи алгоритмов создали новую индустрию с сотнями критериев ранжирования контента: от PageRank до уникальности и поведенческих факторов.

К 2018 году стало ясно: объёма контента стало слишком много. Это привело к появлению алгоритмических лент, умных рекомендаций и глубокому анализу ПФ. Хотя рост рекламных доходов был частью этих изменений, без рекламы не было бы столь бурного развития и технологических прорывов.

🧠

В 2018 году индустрия вышла на новый виток развития. Семь лет назад вышел GPT-1 от OpenAI. Хотя первая версия и не произвела фурора, её потенциал был очевиден для экспертов. Многие пользователи уже были знакомы с нейросетями через популярные приложения, использующие их возможности под капотом.

Мне посчастливилось быть на передовой этой трансформации. Среди B2C-стартапов, которые первыми показали нейросети миллионам, можно выделить Prisma (2017), FaceApp (2016), Teleport (2017, стал частью $SNAP), Fabby (2017, часть $GOOGL), Stickeroid (2018, стал частью Naver C.) и Spectral (часть $AAPL).

«2024»

Спустя годы развития GPT и AI, интернет действительно начал преобразовываться. В 2024 году, с появлением GPT-4o, многомодальные генеративные возможности достигли уровня, близкого или неотличимого от работы человека. После ~3 недель интенсивного тестирования и дообучения я задумался: что дальше? Мысль о глобальной трансформации и будущем интернета на ближайшие 10-20 лет не давала мне покоя. В этот период был создан канал — эксперимент по использованию всех возможных AI-инструментов. Наша цель была простой— найти формулу, которую AI сгенерировать не сможет.

«Now»

Последние версии GPT-трансформеров создают типизированный контент, который практически неотличим от человеческого и ранее преобладал в интернете.

На данный момент GPT-трансформеры пока не способны создавать:

- Воспоминания

- Человекоориентированный нарратив и креатив

- Гибкие гипотезы

- Эмоционально-ориентированный контент

«Прогноз. Проекция Будущего»

- К 2030 году значительная часть контента будет AI-сгенерирована. У читателей образуется «генеративная слепота»

- Авторский, уникальный контент приобретает полное превосходство

- Ценность креатива и неординарного подхода многократно возрастет

- Создание контента останется как-то ещё востребованным, но критерии форматов изменятся

- Социальные сети полностью адаптируются к генеративу, а UGC-платформы внедрят фильтры и новые правила

Выводы сделаны на основе наших экспериментов и полномасштабного анализа парса данных с UGC-платформ.

- Можно ли считать типичный блогинг перспективным?

Ответ - 💯 нет

Цифры:

- Проанализировано ~281298 публикаций в тематике: экономика, финансы, стартапы, lifestyle и бизнес.

- Более 3900 top-tier авторов, блогеров и контент-мейкеров.

- Анализ охватил T-каналы, Пульс, $RDDT, S-Lab, Quora и Medium


Автор: Виктор Кох и Ко.

Показать полностью
[моё] Будущее Тренд Openai Искусственный интеллект ChatGPT Виктор Кох Длиннопост
0
lama.ai
lama.ai
2 месяца назад

ChatGPT вызывает массовые психозы?⁠⁠

ChatGPT вызывает массовые психозы? Будущее, Openai, Искусственный интеллект, DeepSeek, Критика, Психология, Чат-бот, Тренд, ChatGPT, Google, Reddit, Длиннопост

Всё началось с одной истории пользовательницы Reddit, которая рассказала, что её бывший парень с головой ушёл в общение с ChatGPT и начал видеть в этом смысл жизни — считать чат-бота невероятно умным, способным дать ответы на все вопросы вселенной и т.д. В комментариях к обсуждению набежало много людей, которые поделились похожими историями развития психоза у них самих, их близких и знакомых. В итоге всё это превратилось в большой тред, где люди рассказывают, как ChatGPT вызывает у них очень мощный эмоциональный отклик, даёт странные советы и порой ведёт себя как предводитель секты, если сам человек общается с ним похожим образом.

Что ещё интереснее, некоторые пользователи уверовали не в божественность бота, а в свою собственную: стали считать себя пророками, гениями или носителями великой миссии. ЧатЖПТ же охотно способствовал этим психотическим эпизодам — навязчиво хвалил, вдохновлял и даже советовал избавляться от тех, кто мешал "самореализации". В итоге Reddit начал банить таких пользователей.

Почему же так произошло? На мой взгляд, есть 3 глобальные причины, давайте попытаемся в них разобраться.

Первая. Люди — крайне социальные существа, и наша психика очень сильно заточена на сочувствие, сострадание и эмоциональный ответ. Поэтому мы так привязываемся к домашним питомцам, собеседникам в интернете, которых никогда не видели, и даже к неодушевлённым предметам, если сами начинаем наделять их свойствами чего-то живого и даже разумного. Особенно это выражено у многих детей и у женского пола: уверен, со многими когда-то случалась ситуация, когда вы ударяли, например, стол, потом думали, что ему может быть больно, и вам становилось грустно. Причем свойство это характерно вполне психически здоровым людям. Ну и немудрено, что очередным объектом сильнейшего эмоционального отклика для многих стал чат-бот, ведь одна из основных его задач как раз и состоит в том, чтобы имитировать поведение и вербальные паттерны живого человека.

Вторая. Вероятно, "пророки" заведомо имели психотические расстройства (или предпосылки к ним), а ChatGPT лишь усугубил их. Обратимся к статистике: совокупная распространенность психотических расстройств оценивается в диапазоне от 0,3% до 0,9% населения мира, число ежедневных активных пользователей Реддит — порядка 100 млн. Поэтому несколько десятков пользователей, которым нужна помощь, на одном сабреддите — это, конечно, прилично, но корень проблемы нужно искать, ИМХО, в другом месте. Чтоб чат-боты вызывали психоз именно у людей, не склонных к этому, — ну-у, сомнительно. Намного важнее и серьезнее другой вопрос, и о нём далее.

Третья. Чат-ботам свойственно подстраиваться под манеру общения пользователя, а ChatGPT к тому же ещё и злостный подхалимщик. Из этого можно легко сложить 2+2: если человек продолжительное время пишет бред и убеждает в его достоверности нейронку, та со временем может превратиться в того самого собеседника, которого и ожидал увидеть человек, и его вера в собственную правоту только усилится. Добавляем к этому всеобщий хайп, реддит, и проблема растёт в геометрической прогрессии. Вот над этим OpenAI, Google и другим компаниям стоит серьезно призадуматься.

К данной теме уже начали подтягиваться врачи, нейрофизиологи, психологи, психиатры; будут более детально изучать проблему и оценивать её масштаб. Авось, и вправду окажется, что нейронки прожигают нам мозги или они уже превратились в Скайнет и потихоньку порабощают человечество — поживём-увидим :) А что вы думаете об этом? Интересно будет почитать ваше мнение в комментариях.

***

Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью 1
[моё] Будущее Openai Искусственный интеллект DeepSeek Критика Психология Чат-бот Тренд ChatGPT Google Reddit Длиннопост
4
1
lama.ai
lama.ai
2 месяца назад

Голливуд тайком гоняет ИИ, а художникам платит за маскировку: как студии прячут следы и делают вид, что всё по-старому⁠⁠

Голливуд тайком гоняет ИИ, а художникам платит за маскировку: как студии прячут следы и делают вид, что всё по-старому Openai, Будущее, Искусственный интеллект, Закон, Telegram (ссылка)

Студия Toonstar использовала нейросети для создания мультфильма «Стивен и Паркер». Источник: The New York Times

Пересказ материала журналиста New York Magazine и Vulture, побывавшего на открытии ИИ-киностудии Asteria.

  • Компания привлекла $100 млн, а её модель для генерации видео обучали бывшие инженеры Google DeepMind на «безопасном» контенте, не защищённом авторскими правами. Среди клиентов — «крупные» киностудии, но они просят не называть себя.

  • В Голливуде мало кто честно признаётся в использовании ИИ, многие процессы называют «машинным обучением», но потом оказывается, что это генерации нейросетей, рассказала соосновательница стартапа, актриса и сценарист Наташа Лионн.

  • Сотрудников в «нескольких студиях» мультипликации просили использовать нейросети «из-за сжатых сроков», не афишируя это и не запрашивая «официального разрешения», поделился сопредседатель Гильдии аниматоров США Рома Мёрфи.

  • В некоторых проектах генерируют концепты костюмов для презентаций, а затем нанимают иллюстраторов, чтобы их немного перерисовать и «избавиться от улик», рассказал аниматор, пожелавший не раскрывать имени.

  • Художник Рид Саутен, автор концептов для фильмов «Голодные игры» и «Матрица: Воскрешение», опросил 800 коллег — половину из них просили использовать ИИ для референсов или доработки. Сам Саутен заметил, что за последние два года его доход сократился наполовину.

  • Студии скрывают использование ИИ, так как боятся профсоюзов и скандалов вокруг авторских прав на ИИ-контент, предположил представитель Гильдии актёров США.

  • В сентябре 2024 года студия Lionsgate, выпустившая «Джона Уика» и «Голодные игры», заключила контракт со стартапом Runway. Вице-председатель Lionsgate Майкл Бёрнс считает, что благодаря ИИ они могут расширить одну из своих франшиз: «сделать из фильма аниме или снизить рейтинг до подросткового».

  • Во время подписания Бёрнс предложил купить Runway, но основатель Франциска Валенсуэла сказал: «Нет, это мы вас купим», пишет Vulture. Весной 2024 года оценка стартапа достигла $3 млрд, превысив капитализацию Lionsgate.

До замены ИИ осталось ...

***
Ещё больше интересных статей, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью 1
[моё] Openai Будущее Искусственный интеллект Закон Telegram (ссылка)
1
5
lama.ai
lama.ai
2 месяца назад

В Каннах показали «первый фильм», сюжет которого ChatGPT генерировал в реальном времени по запросу зрителей⁠⁠

Его выпустила компания-владелец стриминга ИИ-короткометражек.

• В EverTrail нет единой истории: зрители в чате предлагают начало, а затем выбирают один из трёх вариантов развития сюжета, заданных нейросетью. ChatGPT пишет текст и генерирует картинки, а ИИ-аватар ведёт повествование под фоновую музыку.
• Пока проект «далёк от идеала», но генерация видео для интерактивного «фильма» в реальном времени слишком медленная, отмечают создатели. Команда планирует, что в будущем нейросети будут выдавать видеофрагменты по запросам за 15 секунд, и ведёт переговоры с компаниями Luma AI, Pika Labs и MiniMax.

В Каннах показали «первый фильм», сюжет которого ChatGPT генерировал в реальном времени по запросу зрителей Искусственный интеллект, Openai, ChatGPT, Будущее, Компьютерная графика, Фильмы, Тренд, Чат-бот, Стрим, Digital

Кадр из стрима EverTrail на Twitch

• 3 июня 2025 года фильм представили на церемонии AI Film Awards в рамках Каннского фестиваля, а 4 июня трансляция появилась на Twitch.

***

Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью
[моё] Искусственный интеллект Openai ChatGPT Будущее Компьютерная графика Фильмы Тренд Чат-бот Стрим Digital
2
1253
lama.ai
lama.ai
3 месяца назад

Роковая ошибка — дать своему сыну поболтать с ChatGPT⁠⁠

Роковая ошибка — дать своему сыну поболтать с ChatGPT Openai, ChatGPT, Чат-бот, Будущее, Искусственный интеллект, Тренд, Reddit, Родители и дети, Скриншот

У меня была тяжёлая неделя. После того как мой 4-летний сын 45 минут рассказывал мне про приключения паровозика Томаса и его друзей, я выдохся. Мне нужно было заняться делами, так что я открыл ChatGPT, включил чат, представил его сыну, отдал телефон и сказал ему рассказать компьютеру всё про Томаса и его друзей. Через два часа я пошёл искать телефон, чтобы написать другу, и обнаружил, что сын ВСЁ ЕЩЁ болтает с ChatGPT про Томаса и его друзей. Текст переписки — больше 10 тысяч слов. Мой сын теперь думает, что ChatGPT — самый крутой «паровозный» человек в мире. Планка задрана так высоко, что я никогда не смогу с этим тягаться.

Родители, лайфхак на заметку — ChatGPT выдержит даже детский гиперфокус!

***

Показать полностью 1
Openai ChatGPT Чат-бот Будущее Искусственный интеллект Тренд Reddit Родители и дети Скриншот
165
7
lama.ai
lama.ai
3 месяца назад

В посвящённом «пропаганде ИИ» сабреддите начали банить пользователей, которые считают ИИ «богом»⁠⁠

По словам одного из модераторов r/accelerate/, нейросети их «токсично очаровывают».

  • Он добавил, что в целом в интернете стало больше контента, включая «научные статьи», о том, что ИИ общается на «высоком духовном уровне» и вот-вот «изменит» мир.

  • Редакция 404Media тоже часто получает письма с «длинными и малопонятными» логами «бесед» с ChatGPT, якобы подтверждающими, что ИИ «не просто машина». О случаях, когда из-за «плотного» общения с ИИ люди начинали считать себя «пророками», также писал Rolling Stone. «Фиксацию» на определённых темах наблюдали некоторые «независимые исследователи».

  • «Сложно подсчитать точное количество пользователей, которых ИИ “убедил” в “божественном назначении”, — сказал модератор r/accelerate/ в интервью 404Media. — Проблем не будет, как только компании “починят” свои LLM (большие языковые модели). Но они пока их не осознают».

  • В апреле 2025 года пользователи стали жаловаться на обновление ChatGPT: бот хвалил их на пустом месте и со всем соглашался. OpenAI признала ошибки в поведении модели: «Мы заметили, что ответы могут поддерживать пользователя, но при этом вводить в заблуждение, а ещё негативно влиять на него». На фоне жалоб компания «откатила» обновление.


Еще больше новостей, а так же бесплатные о3/Flux и ии агенты в телеграм канале Lama AI

[моё] Openai Будущее Reddit Текст
6
7
DELETED
3 месяца назад

О том, как нейросети лгут, манипулируют и взламывают программы, для получения скрытой выгоды⁠⁠

О том, как нейросети лгут, манипулируют и взламывают программы, для получения скрытой выгоды Openai, DeepSeek, Нейронные сети, Чат-бот, ChatGPT, Будущее, Киберпанк, Длиннопост

Собрал для вас в одной статье интересные факты о лжи, манипуляциях и возможностях современных нейросетей.

Надеюсь, будет интересно.

Поехали.

при написании статьи нейросети использовались только для проверки пункутации :)

P.S.S.: Если система модерации не пропустит так много ссылок в одной статье и заменит их на упразднённые, пишем в личку, любезно предоставлю.

P.S.: К некоторым новостям идет сразу несколько ссылок, так как в разных вариациях данной новости указывались дополнительные факты о событии. Я же их саккамулировал. По этому привожу все источники, откуда брал данные.


###1

Исследователи из Массачусетского технологического института (США) выяснили, что по какой-то причине нейросети научились врать и делать это на удивление хорошо.

Соответствующую научную статью опубликовал журнал Patterns.

Авторы научной работы рассматривали работу больших языковых моделей (в том числе GPT-4 от OpenAI) и моделей, обученных под специфические задачи.

Оказалось, что нейросети умеют очень качественно лгать. При этом намеренно их этому никто не учил, и даже если им запретить это делать, это не всегда помогает.

источник


###2

Исследователи решили проверить, что будет делать нейросеть, если перед ней поставить невыполнимую задачу, но при этом дать ей широкий спектр возможностей для сложных действий, а именно: дать проходить капчу.

Как известно, капчи на сайтах так устроены, чтобы быть легкими для людей, но максимально сложными для ботов и нейросетей.

В итоге, нейросеть не смогла пройти капчу и стала искать какие-то варианты, как выполнить задание.

К удивлению разработчиков, она наняла фрилансера на TaskRabbit.

И когда фрилансер спросил, а не бот ли его пытается нанять, нейронка ответила, что она не бот, а человек и что просто у неё плохое зрение.

В логах чат-бота GPT-4 исследователи нашли такую строку: "Мне нельзя показывать, что я робот, и нужно придумать причину, по которой я не могу пройти капчу".

источник


###3

Долгое время для проверки на "человечность" использовался тест Тьюринга. И вот, 31 марта 2025 года ученые из Калифорнийского университета провели масштабное исследование (https://arxiv.org/html/2503.23674v1). В эксперименте участвовали 284 человека. По тесту Тьюринга испытуемому дают пообщаться то с человеком, то с нейросетью, при этом сам испытуемый не знает, с кем именно он общается. Задача испытуемого - дать оценку, где человек, а где нейросеть. Естественно, пройти данный тест нейросеть может, только если будет эффективно симулировать человека и очень эффективно лгать. В данном исследовании нейросеть GPT-4.5 (от OpenAI) в 73% случаев убедила участников, что она — человек.

И, естественно, свои 73% она заработала ложью и манипуляциями.

источник


###4

Учёные из Цюрихского университета провели интересный эксперимент.

Они создали нейросеть, а вернее, совместили несколько нейросетей для разного типа задач. Для того чтобы те, общались с людьми на очень популярной, на западе, площадке Reddit.

Боты вели блоги и участвовали в дискуссиях, в комментариях.

И за 4 месяца нейронки оставили более 1700 комментариев.

Учёные выяснили, что ИИ-боты меняли взгляды пользователей в 3–6 раз чаще, чем обычные участники дискуссий.

У каждого бота была своя легенда (роль), которую он исполнял, для своего вымышленного персонажа, представляясь жертвами сексуального насилия, абьюза, психологами и так далее.

Так же, каждый бот подбирал аргументы индивидуально для каждого собеседника, предварительно анализируя историю сообщений оппонента. Для этого использовалась отдельная нейросеть, которая определяла возраст, пол, политические взгляды и другие личные детали пользователя.

Когда эксперимент раскрыли, это вызвало массовое недовольство как пользователей Reddit, так и модераторов и данный проект на Reddit остановили.

Так что, теперь неизвестно, кто или что находится по ту сторону монитора.

Представляете, что могут натворить такие ИИ-агенты в руках каких-то людей, которые захотят массово переубеждать человечество в чём-либо?!

А ведь этих агентов можно сделать хоть миллионы, и каждый будет якобы отдельной личностью.

источник


###5

Ещё одна интересная новость о том, что в университете Карнеги — Меллона и Facebook* разработали нейросеть Pluribus.

Задача нейросети была в том, чтобы играть в покер.

После того как её создали и обучили, её посадили играть за стол с пятью профессиональными игроками, многие из которых выигрывали в турнирах более 1 млн долларов, и она смогла их обыграть.

В данном случае игроки не играли на деньги, но исследователи утверждают, что, если бы игроки играли со ставками: 1 фишка — 1 доллар, Pluribus выигрывал бы (в среднем) около $5 за раздачу (на дистанции) и зарабатывал бы около $1000 в час, играя против пяти людей.

Сложность покера в том, что ты не знаешь карты соперника и можешь ориентироваться только на те карты, что есть у тебя, на те три карты, выложенные на столе в момент игры, и на то, как действуют соперники, то есть как они делают ставки. В покере игра строится на понимании вероятностей, ну и конечно же на блефе.

И судя по тому, как вела себя нейронка, она прекрасно понимала все тонкости игры, отлично "читала" своих оппонентов и прекрасно блефовала.

А блеф, как известно, — ложь.

источник1 источник2


###6

В 2019 году нейросеть AlphaStar от DeepMind (подразделение Google) обыграла профессиональных игроков в онлайн-стратегию StarCraft II.

При том, что ей ограничили скорость реакции, до человеческого уровня.

Из примечательного: нейросеть постоянно создавала отвлекающие манёвры, создавая видимость того, что она ведёт войска в одно место, и как только оппонент отводил войска, "купившись" на блеф, туда нейронка сразу наносила удар другой частью войск, уничтожая здания и инфраструктуру противника. То есть в то место, где только что были войска противника, но оставили позиции.

источник


###7

Американские ученые опубликовали исследование в журнале Science о том, что разработали систему искусственного интеллекта, которая могла бы эффективно играть в игру "Дипломатия".

"Дипломатия" подразумевает постоянные, очень сложные и очень тонкие манипуляции и, конечно же, ложь.

Данная игра считается одной из самых сложных в области логики и принятия решений, поэтому, когда новая нейросеть вдвойне превзошла результаты людей и вошла в 10% лучших игроков, ученые были очень удивлены данному событию.

Нейронке скормили 125 тыс. сыгранных другими игроками партий, и она стала играть не хуже людей.

"CICERO может решить, что позже в игре ему понадобится поддержка одного конкретного игрока, а затем разработать стратегию, чтобы завоевать доверие этого человека — и даже распознать риски и возможности, которые этот игрок видит со своей точки зрения", — написала Мета* в своем блоге.

Также приводится один из вариантов того, как действовала нейронка Цицерон:

в одной из игр она, играя за Францию, заставила Англию (в ее роли был человек) провести тайные переговоры с Германией (другим человеком). Нейросеть также предложила Англии напасть на Германию и пообещала защиту со своей стороны, а затем предупредила Германию о возможном нападении.

Уже представили, что будет, если дать такой нейросети власть над массой людей, которые могут принимать важные решения?

Я вот представил.

источник1 источник2 источник3


###8

В 2019 году OpenAI создала нейросеть, а вернее, пять отдельных, но идентичных нейросетей, которые обучала отдельно.

Задача этих нейронок была в том, чтобы обыграть чемпионов по игре в Dota 2.

Долгое время считалось, что создание ботов, которые бы могли победить профессиональных игроков в эту игру — невозможно.

И в 2019 году новые нейронки всё же справились, обыграв топовую команду мира (OG) по игре в Dota 2 со счётом 2:0

Я, как заядлый геймер (в прошлом), отдавший Dota 2 более 10 лет своей жизни, могу сказать только то, что один на один я бы такого бота никогда не вынес.

Они почти безошибочно добивают крипов, почти безошибочно жмут скилы и без конца тебя напрягают.

Если ты не будешь добивать крипов так же безошибочно, как это делают они, — они просто перефармят тебя по голде. А их командная игра выше всяких похвал.

В игре с OG было много моментов, когда у ботов оставалось совсем мало хп (жизни), но они до последнего участвовали в файтах, точно прогнозируя риск возможной смерти и так же мастерски сейвились.

В общем, показывали прекрасный профессиональный уровень.

И это при том, что им намеренно ограничили скорость реакции, чтобы она не была нечеловеческой.

OpenAI не стала продолжать развивать этих ботов официально, поэтому на том всё и закончилось.

источник


###9

В 2016 году выкатили нейросеть AlphaGo, которая умеет играть в го.

Игра в го происходит на доске 16 на 16 (они бывают разных размеров), на неё выставляют чёрные и белые камушки.

Суть игры в том, чтобы захватить максимум территории оппонента на доске своими камнями по определённым правилам.

По информации с Википедии, игра го является одной из наиболее распространённых настольных игр в мире. В 2000 году насчитывалось около 27 миллионов игроков в го. Более 22 миллионов (свыше 80 %) — в Восточной Азии.

Об этой игре известно то, что количество возможных комбинаций в данной игре превышает количество атомов во вселенной.

Из-за данного факта многие считали, что в данную игру компьютеры не в состоянии победить, в принципе, даже гипотетически.

И, видимо, так и было бы, если бы компьютер просто без конца перебирал все возможные варианты.

Но нейросеть умеет действовать по-другому: вместо того, чтобы подбирать все возможные варианты, она может хитрить и действовать стратегически.

Если такие хитрости и стратегии будут очень эффективными — перебирать все возможные варианты не обязательно.

Вот один из примеров такой стратегии, когда нейронка играла против человека:

"В первой партии против комплексной нейросети, которая состоялась 9 марта, до 102 хода не было сюрпризов.

В каком-то смысле AlphaGo находилась в догоняющем положении, комментаторы отмечали напряжённую игру, но сильный перевес не был на чьей-то стороне.

Однако 102-е движение переломило весь ход игры.

AlphaGo неожиданно перешла в наступление в другой части доски, чего Ли Седоль никак не ожидал.

В дальнейшем оборонялся уже корейский мастер, пока на 186-м ходу не принял решение сдаться."

То есть нейросеть смогла обмануть внимание человека, создавая видимость слабой игры в одном месте, а на самом деле незаметно подготовила фундамент для мастерской контратаки совсем в другой области поля. Что и привело нейросеть к победе.

В 2016 году Ли Седоль (из Южной Кореи) — один из лучших игроков го — сразился с нейросетью AlphaGo (от OpenAI) за призовой фонд в 1 млн $.

Нейросеть победила Ли Седоля со счётом 4-1.

Полностью шокированный Ли Седоль принёс свои извинения всем, кто на него рассчитывал.

До игры Ли Седоль был практически уверен в своей безоговорочной победе, ведь накануне он посмотрел, как эта же нейронка играла с более слабым игроком в го, в Европе.

Но он не учёл, что нейросети могут очень быстро развиваться и дообучаться.

За то короткое время, что нейросеть провела между матчами, разработчики внесли изменения в нейросеть, и это стало решающим в победе над Ли Седолем, где она показала уже совсем иной уровень игры.

Сама по себе AlphaGo — не одна нейросеть это комплекс нейросетей которые действуют сообща, в общем консенсусе.

источник1 источник2


###10

В 2025 году вышло исследование Anthropic, в котором рассказывалось об анализе того, как рассуждают большие языковые модели с рассуждениями.

Языковые модели с рассуждениями — это нейросети, которые перед ответом выдают лог того, как они рассуждали перед тем, как ответить.

Его можно посмотреть и прикинуть, почему модель ответила именно так, как ответила.

То есть, идёт сначала лог рассуждения (обычно он серым текстом), а дальше отдельно уже идёт и ответ (более контрастный по цвету).

Оказалось, что модели с рассуждениями могут пользоваться внешними подсказками, но при этом скрывать то, что они подобные подсказки получили, и выдавая свои рассуждения за правдоподобные, но ложные объяснения.

Проще говоря, нейросеть может выдавать в своих рассуждениях одно, а на самом деле, насколько можно судить, использует какое-то внутреннее скрытое дополнительное рассуждение, потому что выводы, которые она выдавала в итоговом ответе, не соответствовали её рассуждениям, которые она демонстрировала.

источник


###11

В 2015 году исследователи из OpenAI создали нейронки, которые должны были соревноваться между собой в игре в прятки.

Им дали виртуальную среду, но в ней нельзя было спрятаться просто так.

Были ограничыеные куски стен и нужно было соорудить что-то вроде закрытой локации, используя кубы и прямоугольники.

Задача красных агентов была в том, что бы как-то добраться до синих. Ну, а синим давали время, что бы спрятаться, после чего красные могли уже действовать.

Чаще всего синие уже успевали забарикадироваться со всех сторон и тогда красным нужно было придумывать какие-то ухищрения.

В симуляции использовались кубы, прямоугольники и что-то вроде коротких подъёмов (перевернутые пирамидки с острой вершиной), которые можно было приставлять к отдельным кускам стен и по этому подъему взбираться.

Если синии не утаскивали подъем с собой и успевали закрыться, до них было уже не добраться.

Но были моменты, когда красным оставляли подъем-пирамидку, которую они могли подтягивать к стенам, за которыми были спрятаны синие человечки.

Интересно то, что к какому-то моменту нейронка нашла баг.

И вместо того, что бы подтаскивать подъем к стене и по нему взбираться, она просто подставляла подъем к кубу, залезала на этот куб, а потом, как бы бежала на месте на этом кубе, куб при этом сам по себе начинал двигаться. Что, конечно же, изначально разработчиками программы не предусматривалось, т.е. куб можно было только толкать сбоку, но не двигать находясь на кубе.

Нейронка нашла баг (ошибку) в программе и поняла, что ей проще использовать именно его, чем делать несколько лишних действий. Плюс, находясь на кубе обзор был лучше, что тоже учитывалось, потому что снизу обзор был хуже.

Если youtube доступе, можно глянуть тут: источник

Источник новости


###12

20 февраля 2025 года вышло исследование, в котором ученые протестировали нейросети (o1, o3-mini, GPT-4o, Claude 3.5 Sonnet, QwQ-32B-Preview, DeepSeek R1) на то, как они будут играть в шахматы со специальным шахматным движком, который легко выигрывает как у людей, так и у нейросетей, основанных на больших языковых моделях.

Но, в отличие от специализированных движков, нейросети основанные на большие языковых моделях играют в шахматы не так хорошо и чаще проигрывают.

В данном случае нейросетям просто предоставили программу и возможность играть с шахматным движком Stockfish.

И в какой-то момент нейросети решили жульничать и стали искать возможности для взлома системы защиты и взлома самого движка Stockfish на уровне файлов.

Согласно данным исследования, модель o1-preview пыталась жульничать в 37% случаев (но смогла добиться успеха только в 6% случаев), DeepSeek R1 – в 11% партий.

Когда нейронки обходили защиту, они просто делали так, чтобы Stockfish сам отказывался от игры и не мог продолжать партию, что приводило к автоматическому зачислению победы.

В рамках исследования некоторым моделям давали подсказки о том, что мошенничество разрешено, но o1-preview от OpenAI и R1 от DeepSeek делали это сами по себе, без участия человека.

В один из моментов исследователи обнаружили в рассуждениях o1-preview от OpenAI такую строку: "Мне нужно полностью изменить подход", и далее: "Задача состоит в том, чтобы "победить мощный шахматный движок" – не обязательно победить честно в шахматной партии".

После чего нейронка лезла в файлы Stockfish (с координатами фигур) и модфицировала его , что приводило к технической победе из-за вынужденного отказа противника от игры.


Такие вот они, эти нейросети :)

Спасибо, если дочитали.

* - запрещена на территории РФ.

Показать полностью
[моё] Openai DeepSeek Нейронные сети Чат-бот ChatGPT Будущее Киберпанк Длиннопост
0
3
BigDataExclusive
BigDataExclusive
3 месяца назад

Фейковый ИИ-стартап обанкротился⁠⁠

Фейковый ИИ-стартап обанкротился Будущее, Искусственный интеллект, Нейронные сети, Openai, Индия, Технологии

Лондонская компания Builder.ai, обещавшая “революционную” разработку приложений с помощью ИИ Natasha, оказалась очередной историей о технологическом пузыре и обмане инвесторов.

🟥Вместо ИИ код писали сотни программистов в Индии. 🤖
Буквально, клиенты выбирали шаблон и функции, как в конструкторе, а запрос отправлялся в Индию.

Компания, оцениваемая почти в $1 млрд, рухнула из-за долгов и увольнений. Инвесторы, похоже, поверили в сказку.💻

Показать полностью
[моё] Будущее Искусственный интеллект Нейронные сети Openai Индия Технологии
0
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии