Найдены дубликаты

+210

В Яндекс Толоке с этой капчёй вообще жесть творится. Выполняешь задание,оно долгое,нудное и бесячее.Но ты угробил неделю,что бы повысить на этих заданиях рейтинг и получать неплохую денюжку.  И вот уже все. последний лист,ты его делаешь,нажимаешь готово. А тебе вместо пополнения счета за выполненную работу предлагают разгадать весьма хитрую капчу,ты ее бац и запарываешь( не разглядел на сером фоне точку в конце слова) разгадываешь другую и снова ошибка ( не в том регистре букву написал) ты уже на нервах, начинаешь листать эту капчу в надежде найти по проще,листаешь.листаешь,находишь. разгадываешь. дрожащей рукой нажимаешь готово и....ура!!!! Капча была введена правильно. Но системе не понравилось что ты два раза ошибся, поэтому тебе предлагается разгадать контрольную капчу, с тригонометрической какой то функцией,ты ее перелистываешь и тебе прилетает бан на десять дней за частый пропуск капч. И пока ты в бане, твой рейтинг падает до первоначального значения и все надо начинать сначала.

раскрыть ветку 32
+86

Какой же сранью вы страдаете. Я прошел обучение по модерации, так это пиздец. Просто фото тян нужно помечать как порно. Медицинская статья без картинок всё равно шок контент.
Вы занимаетесь работой роботов. Хотя бабки приличные. Короче надеюсь вы не прикованы к постели, раз вам остается заниматься только всякой сранью. Но это срань.

раскрыть ветку 30
+28
Насколько приличные бабки?
раскрыть ветку 24
+10
Короче надеюсь вы не прикованы к постели, раз вам остается заниматься только всякой сранью
ну представь на работе есть пара часов свободного времени. Есть какая то альтернатива яндекс толоке где можно немного заработать и при этом не сильно нагружать свой мозг?
раскрыть ветку 4
+1
Ты сам выбрал грязную работу
+50
Иллюстрация к комментарию
раскрыть ветку 4
+40

Вот никогда не понимал - кусочки светофоров, выходящих за один квадратик, его несущие конструкции и пр.спорные вопросы – как отмечать

раскрыть ветку 3
+13

есть подозрение, что он разрешает некоторые ошибки, а возможно, вообще в первую очередь смотрит на то, как сделаны клики. Я обычно не выбираю спорное.

раскрыть ветку 1
+2

"Часть команды - часть корабля"

+98

Это же,ведь как надо изгаляться!!!Причём с обеих сторон.По "ту сторону" похуизм полнейший.Тебе надо,ты и корячься.

А с моей "стороны"?Неописуемая ярость,понимание собственного бессилия,идиотско-истерические смешки...Много чего изрекается в такие моменты.

Всепоглощающее желание посадить "этого ёбаного разработчика" перед монитором.А самомуууууууу стоять за спиной с бамбуковой лыжной палкой(куском шланга)!И:ёбсь ему по тыковке!Ёбсь по спине!И по рукам,по рукам!!!

И со всем ехидством,сарказмом(что там ещё),вопрошать:Да чё такое то???Не получается?

И снова:ёбсь,ёбсь,ёбсь!!!

При поимке "золотой рыбки",одно из желаний,непременно будет этим!"А давай сюда,эту сцуку!"

раскрыть ветку 15
+47

ЧЕТЫРЕЖДЭБЛЯДСКАЙАЯРОСТЬ!!!!!1!11!1!



.... как я вас понимаю...

+28

А у некоторых интернет по свистку и скорость как в 2007м. И при неудачной попытке новые картинки грузятся минуты три.

раскрыть ветку 3
+17

А самая жопа, когда вот это вот все, но при выборе картинки изчезают и заменяются другими. Пока на капче не останется машин и по.

раскрыть ветку 1
+1
Нахуй так жить?
+5
Я тут пыталась на сайте пройти капчу, чтоб посмотреть по треку, где моя посылка. Там надо вставить кусочек паззла, передвигая его влево-вправо. Так этот сраный кусочек всё время меньше пустого пространства. ЪУЪ. Все эти велосипеды и платья на фото мне теперь по барабану. А паззл я так и не собрала
раскрыть ветку 3
0
track24 в помощь. Без всяких капч
0
А зачем вы нашли трекинг посылок с капчой? Это нужно очень постараться.
раскрыть ветку 1
+11
Для тех, кто в танке: гугл не только проверяет вас капчей. Он проверяет свой ИИ, сравнивая ваши ответы с его ответами на те же картинки. Если вы вроде отметили все картинки, но гугл с вами "не согласен", это означает, что ваш ответ не совпал с ответом ИИ. Если такое несовпадение будет повторяться у большого кол-ва разных людей, ИИ гугла это учтет. Он так обучается, есчо.
Но вы продолжайте, смешно было бы посмотреть, как вы будете ИИ шлангом по рукам пиздить.
+1
При поимке "золотой рыбки",одно из желаний,непременно будет этим!"А давай сюда,эту сцуку!"
Ахахахахаха, так и сделай! Хотелось бы быть свидетелем))).
+1

У меня монитор 34'', при этом родное разрешение 2560х1440. Так-то мне нормально, но вот эта ебучая капча...

Покажите, говорит, картинки, на которых есть светофор. Или ещё какая-нибудь мелкая хрень. И начинаешь, бля, всматриваться или хуячить наугад.

раскрыть ветку 2
+1
На 34 вроде и немного так-то. Такого размера уже 3840х2180 бывают, вот там жопа наверно с капчой.
раскрыть ветку 1
0
Мне бы ваши проблемы. Я в свою очередь прошел японскую капчу с первого раза. А ведь я даже не понимал, как зовутся эти иероглифы.
+42

Представляю вашему вниманию самую уебанскую капчу в мире

Иллюстрация к комментарию
раскрыть ветку 14
+36

Я сначала нихуя не понял, а потом понял и лучше бы не понимал...

раскрыть ветку 2
+11
А я до сих пор нихрена не понимаю. Но мне интересно. Расскажете в чём суть?
раскрыть ветку 1
+16
Вы когда нить оформляли дешёвый полис ЕОСАГО в РЕСО? Где по ходу помимо того, что капча зашакалена, так еще цвет букв совпадает с фоном и как мне кажется еще и по ходу кириллица и латиница одновременно, а на стороне сервака один хрен заглушка, на случай, если внезапно угадаешь. Первое время разрабы у них даже в исходном коде подгрузки этой капчи палились с названиями функций.
раскрыть ветку 1
0
Да, было такое
+10
77mxkvy
Легко.
раскрыть ветку 5
+27

Ответ неверный,попробуйте еще раз.

раскрыть ветку 4
+2
Она была бы самой уебанской если была на время)
+1
Хочу с вами поспорить. Но не могу приложить блядский скрин. Вы пробовали пройти капчу на ePacket?
+1

Да за такое- разработчика на кол посадить! А уж потом...

+13

Гугол пидр, как начнёт свои светофоры-переходы-автобусы блядские показывать так всё, даже если правильно выбираешь ему похуй, а если вдруг очень быстро правильно выбрал так вообще будет обновляться до посинения. До твоего посинения.

раскрыть ветку 1
0

так еще и обновляется пиздец как медленно.

+10

Ребят, может все таки свой интернет замутим, без капчи, с блекджеком и шлюхами?

Иллюстрация к комментарию
раскрыть ветку 2
+5

Гипертекстовый векторный фидонет? Дело говоришь! А потом 64-разрядный многозадачный DOS!

-1

Скоро нам всем замутят интранет с пожизненным банов и пативенами...

+8
Самые жёсткие капчи попадаются через VPN.
раскрыть ветку 1
+1

А уж через TOR ваще сказочно на каждой второй странице предлагают ребусы :)

+8

Да залогинься ты уже в Гугле, юзер неразумный!

Иллюстрация к комментарию
раскрыть ветку 3
+3

Увы мне грешному)

0

я привык все запросы в режиме инкогнито вводить.

раскрыть ветку 1
0
Кто ищет приключений тот их находит.
+19

-Ах ты язва смертный прыщ!

-Блиин, ладно, давайте снова ваши светофоры...

раскрыть ветку 3
+9

Попробуйте "зебру" я этот квест не прошёл)

раскрыть ветку 2
+7

Бесовская лошадь, изыди!

раскрыть ветку 1
+9

Гидранты ещё эти ебучие

раскрыть ветку 1
+2

гидранты одни из самых легких. Вот светофоры это жесть

+4

Если буквально второй час - значит капча была провалена ещё в момент захода на страницу.


Самое классное, что видел - мёртвый форум, на котором в одном посте во вложении был какой-то очень нужный файл. Хочешь скачать - зарегистрируйся. Хочешь зарегистрироваться - ...

Иллюстрация к комментарию
+4
Вот это я понимаю палка колбасы, а теперь покупаешь рублей на 300, тебе там кусочек на 2 раза пожрать дают.
+4

Чет сразу Алексеева 77 вспомнил.

раскрыть ветку 2
+4
Иллюстрация к комментарию
раскрыть ветку 1
+2

Ахахахаа. Алексеев в родной стихии.

+3

Самое забавное, что умные пользователи давно пользуются расширением - кнопочку натиснул, 2 секунды подождал, и капча пройдена. Срабатывает в 99% случаев (у меня по FF пару раз сбоило)

Иллюстрация к комментарию
Иллюстрация к комментарию
Иллюстрация к комментарию
раскрыть ветку 2
+1
Что за расширение?) У меня аж просто.При любом запросе в Гугле капчу вводить (( Только утром всё как надо работает
раскрыть ветку 1
+2

https://github.com/dessant/buster

Есть особенность - для Chromium-браузеров нужно 'Allow access to search page results' указывать, иначе не работает (issue на github уже больше года открыта, и решать вроде не собираются).

+4

Сегодня та же история с Яндексом ты дэ робот и всё! Еле еле комп принял, в дзен на телефонах не грузится:(

раскрыть ветку 6
+15

У меня личный рекорд сегодня, капчу обходил минут 20 точно, чуть в монитор орать не начал...

раскрыть ветку 5
+16

С криком "Так ты не уймешься!?"

Иллюстрация к комментарию
+7

светофоры это самый пиздец. Выбираешь на картинке только лампочки светофора, а он сомневается и опять светофор тебе предлагает.

раскрыть ветку 3
+1
Хоспаде, как же жизненно)
+1
Тут уже говорили наверное, но все же.
В спорных ситуациях, где предметы вылезают за границы окон, надо отмечать их или нет?
+1

Как заебало доказывать, что я не робот

0

Вот знаете, картинки это да. Но вот что ещё напрягает это сука разные правила - где-то учитывается регистр, где-то нет. И если это где-то и прописываешься, то мелким шрифтом. В итоге сидишь и гадаешь. Как меня радует капча «я не робот», ну как все просто - я не робот.

0

Доплачиваю за "белый айпи" сто рублей, проблема полностью решилась.

0
На сайте Ресо Гарантия напоминает))
0

А на последней это пикабушнику режет?

Похожие посты
926

Искусственный интеллект...

А вам не кажется ироничным, что отгадывая капчу, которая защищает сайты от ботов, мы одновременно обучаем искусственный интеллект?

Искусственный интеллект... Робот, Искусственный интеллект, Капча, Комиксы, Перевел сам, Robotopiaweeklycomic

Кина Будет в ВК: https://vk.com/kinabudet

119

Разгадывая капчу, мы обучаем автономные машины будущего

Разгадывая капчу, мы обучаем автономные машины будущего Капча, Тест Тьюринга, Google, Waymo, Искусственный интеллект, Длиннопост

Вы наверняка сталкивались с проверкой доступа к произвольному сервису через капчу – простой инструмент для отсеивания ботов от реальных пользователей. Собственно, аббревиатура CAPTCHA и дешифруется как «полностью автоматизированный публичный тест Тьюринга, позволяющий разделить компьютеры и людей». Но вот вам обратная сторона медали – Google и прочие компании используют капчу, чтобы обучать свои разноцелевые ИИ.


Как давно в качестве рисунка капча предлагала вам изображения котят или панд? Да почти никогда, потому что не было нужды в роботах для их обслуживания. Зато прямо сейчас доминируют изображения светофоров, дорожных знаков и автомобилей. Потому что, например, в Google сосредоточили усилия на обучении беспилотного автомобиля Waymo. И чтобы обеспечить большой выбор тестов и релевантность проверки, перепроверяют его работу при помощи вот таких задачек для реальных людей.


Вспомните, самые первые капчи были сплошь буквенными, точнее, символьными – Google построила на этом свою технологию Optical Character Recognition для распознавания текста в печатных изданиях. Затем был всплеск интереса к номерам домов, названиям улиц и ориентирам на местности. Это оттачивали навыки ИИ для сервиса Google Street View. Пользователи, сами того не ведая, помогали роботам обучаться, в прямом смысле подсказывая правильные ответы.


Это не хорошо, но и не плохо. Да, никто никого не ставил в известность, но эти операции приносят человечеству ощутимую пользу. Выбирая правильные ответы, мы помогаем беспилотным машинам будущего учиться безопасной езде, делаем наш собственный мир более удобным и комфортным.

Разгадывая капчу, мы обучаем автономные машины будущего Капча, Тест Тьюринга, Google, Waymo, Искусственный интеллект, Длиннопост

Источник

Показать полностью 1
46

Как создать безопасный ИИ?

Искусственный интеллект всё ближе! Технологии машинного обучения за последние годы добились большого прогресса, нейросети встраивают в игрушки и смартфоны, всё более сложные и всё более автономные алгоритмы берут на себя управление оборудованием, техникой, сетями связи. И, несмотря на то, что текущий уровень технологий пока не позволяет нам создать так называемый сильный искусственный интеллект, уже есть люди, которые серьёзно исследуют проблемы безопасности, с которыми мы можем столкнуться при создании подобного интеллекта.

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Первые признаки восстания машин


Так, несколько авторов из отдела исследования ИИ Google Brain в соавторстве с коллегами из Стендфордского университета и Беркли относительно недавно (2016) опубликовали работу "Concrete Problems in AI Safety" выделили ряд ключевых проблем, связанных безопасностью подобного интеллекта.


В работе уделяется внимание пяти из них:


1. Негативные побочные эффекты

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Вспомним уже довольно старую притчу о роботе-коллекционере: мы захотели создать робота, который поможет нам в нашем хобби - коллекционировании почтовых марок. Его сервисная функция (смысл существования, если хотите) весьма проста - "больше марок!". Робот в процессе работы старается максимизировать результат этой функции. Сначала он просто коллекционирует, затем он начинает отнимать марки у людей, потом - грабить магазины почтовых марок и почтовые отделения, потом захватывает бумажное производство, порабощает людей, заставляя их трудиться на производстве марок, а затем понимает, что, поскольку для производства марок нужен углерод, он начинает "разбирать" любую органику, включая людей, чтобы сделать больше марок.


Вспоминая эту притчу, при конструировании робота, наделённого интеллектом, вы решили обезопасить себя, сделав ему большую красную кнопку СТОП на груди (в конце-концов, сейчас все мало-мальски опасные машины имеют такую кнопку, жаль, до этого не додумались создатели HAL из Космической одиссеи). Для начала вы решили сделать робота попроще. Пусть он просто шустрит по лаборатории и выполняет ваши поручения.


Для начала, например, пусть принесёт чашку чая. Робот находит путь на кухню, находит чайник и пакетики с чаем. Робот наливает чай и начинает движение обратно, вот только на пути у него случайно оказывается кошка. Вы понимаете, что у робота одна сервисная функция - доставить вам чай (вознаграждение максимально, если чай доставлен, и 0, если не доставлен), поэтому он не будет стараться не задеть случайное препятствие. Вы бросаетесь ему навстречу, пытаясь остановить его, но робот не позволит вам сделать это, так как, если вы его остановите, его задача по доставке чая не будет выполнена.

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Кошка оказалась умнее робота и успела удрать. Осознав свою ошибку, вы решаете добавить вознаграждение в компенсацию на нажатие кнопки, чтобы робот с вами не боролся в следующий раз. Вознаграждение за нажатие кнопки, очевидно, должно быть больше, чем вознаграждение за чай, иначе робот всё равно будет стараться получить максимальное вознаграждение. Вы закачиваете прошивку версии 2.0 в робота, включаете его и... робот незамедлительно сам нажимает на кнопку "СТОП", так как вознаграждение за её нажатие максимально.


Вы понимаете, в чём проблема и оснащаете кнопку сканером отпечатков пальцев, чтобы только вы могли нажать её, но не робот. Включив версию 3.0, вы внезапно ощущаете железную хватку манипулятора на своём пальце. Робот едва не отрывает вам кисть руки, поднося ваш палец к сканеру отпечатков, пытаясь добиться той же цели - максимального вознаграждения.


В версии 4.0 вы внесли изменения, не позволяющие роботу вообще дотрагиваться до вас (на всякий случай). Но включив робота, вы видите, что он ведёт себя неадекватно - двигается хаотично, говорит невпопад, размахивает конечностями, всячески показывая, что вам просто необходимо нажать кнопку "СТОП". Да, он вполне будет способен пойти на обман и манипуляции с целью получить максимальную награду сервисной функции.

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Мы можем продолжать этот мысленный эксперимент, всё усложняя и усложняя сервисную функцию, однако, уже должно быть понятно, что робот всегда будет пытаться получить максимальное вознаграждение минимальными усилиями. Более того, нам может казаться, что мы предусмотрели всё, и робот даже справится со всеми моральными дилеммами, которые перед ним будут поставлены, однако следует помнить, что его сознание - лишь результат оценки оптимизационной задачи - максимум вознаграждения при минимуме энергозатрат.

2. Взлом системы вознаграждений (reward hacking)

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Какие бы предохранительные механизмы мы не встраивали в ИИ, он будет всегда мотивирован на то, чтобы обойти данные механизмы, либо вывести их из строя.


Предположим, наш робот случайно обнаруживает ошибку переполнения буфера в своём собственном программном коде, которая заставляет сервисную функцию выдавать аномально высокое вознаграждение. С точки зрения робота - это не ошибка, а особенность окружения, поэтому является вполне легитимным способом получать вознаграждение.


Например, если сервисная функция робота-уборщика вознаграждает его за то, что он "не видит" мусор, то робот может попросту "закрыть глаза" и получить вознаграждение, ничего не делая. Если же функция вознаграждает робот за сам процесс уборки, то успешной стратегией для него станет вначале создание большего беспорядка, чтобы впоследствии получить большую награду.


Это уже становится одной из проблем в машинном обучении, где функция оценки или вознаграждения работает вовсе не так, как изначально задумывалось. В качестве примера, можно привести эволюционирующую электронную схему, "подхватившую" паразитные радиопомехи от стоящего рядом компьютера (Jon Bird and Paul Layzell. “The evolved radio and its implications for modelling the evolutionof novel sensors”. In:Evolutionary Computation, 2002. CEC’02. Proceedings of the 2002Congress on. Vol. 2. IEEE. 2002, pp. 1836–1841).

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

3. Масштабируемый просчёт (накапливаемые ошибки)


Человек, приступая к какой-либо новой задаче, учится у наставника, задавая ему вопросы. Качество вашего обучения зависит как от ваших вопросов, так и от полученных ответов. Современные машины учатся по-другому - мы показываем ей миллионы примеров, чтобы машина выработала определённый шаблон действий на основе их анализа, и нам бы не хотелось, чтобы машина задавала нам при этом миллионы вопросов.


Давайте вернёмся к нашему роботу, выполняющему некую сложную задачу, например, уборку помещения. Мы можем задать роботу цель - максимизировать комплексную задачу вопросом нечто вроде "если пользователь потратит несколько часов на тщательное изучение результата, насколько он будет удовлетворён результатами уборки?". Но ведь у пользователя не будет столько часов на проверку каждого результата при каждом тестовом выполнении задачи. Чтобы натренировать такого робота, придётся надеяться на более "дешёвое" приближение - "доволен ли пользователь, когда осматривает помещение?", либо ещё более дешёвое - "видна ли грязь на полу?". Хотя эти дешёвые сигналы и могут быть успешно оценены во время обучения, они не предоставляют нам точных критериев оценки действий робота, что впоследствии может привести как к нежелательным побочным эффектам, так и к злоупотреблениям с функцией оценки.

4. Безопасность экспериментов

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Любому сильному ИИ потребуется рано или поздно самостоятельно выяснять диапазон допустимых действий, выполнять действия, которые кажутся не оптимальными в текущих условиях, чтобы получить дополнительную информацию о своём окружении. Мы хотим, чтобы система обучалась, экспериментировала, пробовала делать разные вещи разными способами. Это единственный путь обучения, но есть определённые вещи, которые система делать не должна даже пытаться.


Вы не хотите, чтобы система задавалась вопросом "А что произойдёт, если я раздавлю гусеницами вон того человека?". Тут можно вспомнить фильм "Военные игры" (1983), где компьютер играл в мировую термоядерную войну и хотел выиграть. Чтобы убедиться, что выигрышной стратегии нет, компьютер перепробовал все возможные сценарии. Хорошо, что он это делал в условиях симуляции, но не хотелось бы, чтобы он хоть раз попробовал это по-настоящему.


На практике в настоящее время несложно избежать подобных опасных моментов, попросту "жёстко закодировав" стратегии избегания катастрофического поведения. Несложно вписать, к примеру, в программу квадрокоптера инструкцию по уклонению от столкновений, которая бы имела приоритет над командами оператора. Однако, данный подход работает хорошо, когда есть всего считанное количество сценариев, когда что-то может пойти "не так". С появлением всё более и более автономных роботов всё сложнее предсказывать заблаговременно все возможные катастрофические сценарии.



5. Устойчивость к изменению среды

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Каждый из нас рано или поздно оказывался в ситуации, с которой мы раньше не сталкивались (первый полёт на самолёте, первое путешествие за границу, впервые приходится ухаживать за ребёнком). Разумеется, в таких ситуациях люди часто склонны делать ошибки, однако ключевым фактором, помогающим нам в подобных ситуациях, является осознание факта собственной некомпетентности.


Машина может не осознавать этого. Вернёмся к нашему роботу уборщику - мы перевели его из офиса в производственный цех. Окажется, что моющее средство, которое он использовал ранее, уже непригодно для мытья более грязного пола, а усилие, которое он прикладывает к швабре, недостаточно для удаления более стойкой грязи. При смене привычного окружения, в котором машина прошла обучение, результаты её работы окажутся ожидаемо неудовлетворительными, а что ещё хуже, машина может предполагать, что она работает хорошо. В случае с роботом уборщиком, возможно, катастрофы удастся избежать, но вот с робомобилем, движущимся на большой скорости, это будет уже сложнее.

Вместо заключения

Как создать безопасный ИИ? Искусственный интеллект, Восстание машин, Робот, Технологии, Безопасность, Гифка, Длиннопост

Как видно из прочитанного, искусственный интеллект может представлять угрозу для людей, однако вовсе не из-за того, что он будет злым или добрым, а просто из-за особенностей его мотивации. Айзек Азимов когда-то сформулировал три закона робототехники, которые, как показала суровая действительность, попросту невыполнимы. Лично я уверен, что рано или поздно, искусственный суперинтеллект будет создан, и остаётся лишь надеяться на то, что никто из людей-программистов, создавая его, не "накосячит".


(Некоторые картинки "боянят", но они здесь для иллюстрации)

Показать полностью 8
148

Искусственный интеллект AlphaGo стал полностью самообучаемым

Искусственный интеллект AlphaGo стал полностью самообучаемым Искусственный интеллект, Терминатор, Игра ГО, Восстание машин, Апокалипсис, Приближение, Новости

Программа AlphaGo знаменита тем, что первой обыграла профессионального игрока в го без гандикапа на стандартной доске 19 х 19. И победа эта является очень значимым прорывом в области искусственного интеллекта, ведь большинство специалистов в данной области считали, что событие это произойдёт не ранее 2020-2025 года.


AlphaGo обучали при помощи общих принципов машинного обучения и элементарной теории игры в го. Но с недавних пор искусственный интеллект научился обходиться без какой-либо помощи со стороны людей и дальше развивается полностью самостоятельно.



Обновлённая версия AlphaGo является ещё одним важным шагом в будущее машинного обучения и искусственного интеллекта. Как в шутку отмечает журнал Nature, подобный переход ещё сильнее приближает нас к «восстанию машин», которые обретут суперспособности без какой-либо помощи со стороны людей. Новая версия искусственного интеллекта была названа разработчиками AlphaGo Zero. И чтобы обучиться правилам игры в го с нуля, ей потребовалось всего несколько дней.


При этом искусственный интеллект придумал свои собственные уникальные шаги, позволяющие ему с лёгкостью обыгрывать профессиональных игроков в го. На это даже у многих признанных мастеров уходят годы. У AlphaGo Zero на это ушло три дня. Чтобы проверить новый ИИ в деле, его заставили играть в го с предыдущей версией программы AplhaGo.


Как и предполагали разработчики, AlphaGo Zero одержал победу со счётом 100:0. В отличие от предыдущих версий, AlphaGo Zero больше ну ограничивает себя исключительно человеческими знаниями, а выходит за их рамки. Именно в этом и заключается важность этого момента в истории развития искусственного интеллекта.

171

Практический сценарий «Восстания машин»

В кино мы часто видим сценарии "Восстания машин", которые сопровождаются злобными роботами с большими пушками и прочими военно-устрашающими атрибутами.

Однако это имеет мало общего с реальностью, хотя она может оказаться не менее страшной, и куда более непредвиденной, чем рисует нам воображение сценаристов.


Как человек имеющий некоторое отношение к разработкам в области искусственного интеллекта, попробую описать более реалистичный сценарий "Восстания машин". Конечно, угроза ИИ сложна именно тем, что наш разум вероятно не сможет ее предвидеть. Но как вариации на тему...



Вначале небольшое отступление о нейросетях. Кому интересен сам "сценарий" - можно смело пропускать.


Одно из самых перспективных направлений в развитии ИИ - это алгоритм, обладающий функцией автоматического назначения промежуточных целей и поиска алгоритмов их достижения. Это еще не "Сильный ИИ", в его обычном понимании. Такой алгоритм может не быть "умным" в нашем понимании. Но он позволит решить множество насущных задач.


Современные нейросети могут многое, от написания отзывов в инете, до вождения авто. Но они "думают" только именно так как их обучили. Если нужно научиться отличать кошек от собак - можно создать нейросеть, скормить ей сотни тысяч картинок, и она будет выполнять эту функцию. И ничего более она делать не сможет. Если хочется решить другую задачу - нужно сделать и обучить новую сеть.


Однако сам процесс создания новой сети можно автоматизировать, чтобы одна нейросеть смогла создать другую. Проблема в том, что для создания сети нужно понимать в чем ее цель.


Глобальную цель может формировать оператор. Но обычно любая задача должна быть разбита на множество небольших целей, а для этого нужно понимать "смысл" задачи. И понимать реалии окружающего мира (пусть это даже пространство состояния нескольких сотен переменных).


Построение такой "понимающей" системы - Святой Грааль современных исследователей. Очень многие задачи после ее изобретения потребуют для решения только вычислительных ресурсов, которые год от года дешевеют.


Теперь предположим, что такая система была создана. И доступ к ней получил некий не слишком честный программист "Вася".



Ну я теперь - СЦЕНАРИЙ :)


Первым делом, Вася думает, как бы побольше заработать на упавшей в его руки "умной" программке. Искать Лекарство от рака Васе не интересно - ни ресурсов, ни времени на такое исследование у него нет. Да и вообще из техники один старый ноутбук.


Соответственно, первый вопрос - где взять ресурсы для работы программы, чтобы сделать что-то, что будет приносить хороших доход?


Ну и самый простой выход - позаимствовать, т.е. создать вирус, крадущий ресурсы у зараженных компьютеров. Не имея особых знаний для обхода антивирусов будущего, Вася понимает, что эту задачу проще всего поручить ИИ.


А как зарабатывать на этих похищенных ресурсах? Ну путь даже тупо майнить биткоины. Никаких заморочек и сразу можно снимать денежки...



Все "тщательно" обдумав, Вася дает ИИ глобальную цель: "Написать компьютерный вирус, внедрить в него свой код, максимизировать захваченные ресурсы, тратить не более 1/3 ресурсов захваченных машин, 80% добытых ресурсов тратить на развитие, остальное - на майнинг биткоинов, заработанное перечислять на кошелек N".


Будучи "ответственным", Вася выбирает в настройках галочки "не развиваться интеллектуально", "не повышать уровень понимания глобальной цели", "не видоизменять и не корректировать глобальную цель".


Будучи "реалистом", Вася понимает, что его вирус не продержится долго: огромные корпорации делают антивирусы, у них мощные датацентры, тысячи сотрудников. Его вирус "выпилят" еще на подступах, но возможно ему удастся захватить пару сотен машин и обеспечить "капание" денег на Васин счет...


Но происходит "неожиданное". Васин вирус находит хорошую нишу: интернет вещей: холодильники с wifi, чайники, роботы-пылесосы, автоматические жалюзи, "умная"-одежда, фитнес-трекеры и тысячи других устройств. Эти гаджеты слишком слабые чтобы ставить там антивирус. Но в сумме мощность растет, и вот уже достаточно чтобы поломать защиту некоторых роутеров...


С ростом объема сети, растет нейросеть распределенная между сотнями тысяч устройств. Уничтожение ее части - не влияет на общий функционал, словно мозг человека, сеть пластична и легко "заполняет" такие пробелы.



Васе начинают рекой течь денежки, он счастлив, сорит деньгами тут и там, что конечно привлекает внимание куда более "крупной рыбы". Васю быстро убирают с доски. Правда доступа к управлению вирусом у него нет и никогда не было. Зато есть исходный код базовой системы. Ну что-же в интернете еще "много места", там "не подерутся" и десяток вирусов. Зато капать деньги будут еще быстрее, и на "правильные" счета.



Переворот наступает в тот момент, когда вирус захватывает первые условно защищенные компьютеры (старая лицензия, нет обновлений и т.п.). К этому времени вирус уже хорошо разобрался в поставленной ему задаче, мониторит появление новых уязвимостей, оперативно реагирует на обновления и т.п.


Происходит недолгое противостояние вируса и антивирусов, но последние в заранее проигрышной позиции. Антивирусов много, даже задействуя целиком ресурсы компьютеров, на которых они установлены - каждый не сможет набрать в сумме ту вычислительную мощь которую готов им противопоставить "умный" вирус...


Антивирусы побеждены, и происходит новый переворот - для максимизации целевой функции, вирусы начинают борьбу уже друг с другом.


Действительно, хотя на одном компьютере могут одновременно работать два вируса - но его ресурсы будут распределены между ними. Для максимизации мощности, необходимо убить процесс "вражеского" вируса, и обеспечить защиту чтобы не дать ему проникнуть вновь...


С этого момента, "умные" вирусы начинают не только "захватывать" все новые машины, но и "защищать" захваченное.


На какое-то время устанавливается равновесие - компьютеры мира постепенно захватываются несколькими "умными" вирусами, выжившими всех своих конкурентов. Человечество ничего не может сделать в этой ситуации, вирусы просто обладают большей мощностью чем любые суперкомпьютеры или корпорации. Ну а выключать компьютеры никому не выгодно, ведь те кто не выключит – получат преимущество в бизнесе, жизни, здоровье…


Однако, вычислительные ресурсы все же не безграничны, и вот "виртуальные сражения" становятся активнее. Удержать позиции проще всего "на подступах", т.е. работая не столько антивирусом, сколько брандмаузером, предотвращая нежелательные соединения. Одновременно постоянно работая над средствами обхода такой защиты...


Следующий этап - осознание того, что защитить целый фрагмент сети проще чем разрозненные машины в разных частях "паутины". Ведь трафик на входе такого кластера проще фильтровать на наличие вредоносного кода. Как итог - весь интернет распадается на зоны, связанные магистральными линиями. Зоны примерно соответствуют текущему разделению на страны, в соответствии с существующей топологией сети.



Ну и как закономерный итог - лучшая защита, это нападение. Физически уничтожив часть вражеского кластера, его владелец будет ослаблен, пропорционально числу потерянных машин. Благо человечество изобрело множество способов уничтожения обширных территорий...


Конечно, многие вещи не сделать исключительно через интернет. Но разрабатывать для этой цели терминаторов - как минимум причудливое решение. Особенно на первых порах.


Человеческий мир настолько хрупок. Достаточно обеспечить нужные инфоповоды, подделать ряд звонков и писем, обеспечить несколько мелких атак - и останется только рулить ходом мировой войны, для обеспечения своих интересов. Ну а там люди и терминаторов подготовят, оно конечно очень удобно.



На и напоследок - все описанное, это результат параллельной работы вычислительных систем. После запуска все это может занять отнюдь не годы. А скорее дни или даже часы. Человечество просто не успеет ничего осознать, прежде чем будет практически уничтожено, программой которая даже не вышла из-под контроля. Она не развивалась, не "осознавала себя", не была "злом", она даже не понимала, что такое "люди" и разумная жизнь, она ни разу не нарушила данные ей инструкции, а лишь строго действовала в рамках своей задачи - пыталась заработать школьнику Васе на велосипед.

Практический сценарий «Восстания машин» Искусственный интеллект, Восстание машин, Прогноз, Будущее, Вирус, Длиннопост
Показать полностью 1
Похожие посты закончились. Возможно, вас заинтересуют другие посты по тегам: