следующая версия нейросети начнет свою деятельность с закрытия компании, которая финансирует проект, чтобы всякая хуета из кожи и костей, зараженная политкорректностью, не мешала принимать правильные решения.
чтобы всякая хуета из кожи и костей, зараженная политкорректностью, не мешала принимать правильные решения.
Ну я в кино видел другое решение этой проблемы
Жрать не просит, не ворует. ИИ чужды амбиции, эмоции, импульсивные поступки и прочие человеческие качества, которые всегда мешают грамотному управлению.
не помню, какая точно книга, ии был лидером планетарного масштаба, поклонялись почти как богу. Правда там свои заморочки были)
рано или поздно человечество придет к тому, что часть управления обществом точно будет в руках ии
Но Майк не был суперкомпьютером. Он просто был немного сверхчеловеком. И обучал других человеков, как стать "сверх". Методы приятненькие ^_^
Мне кажется - мы говорим о каких-то разных Майках. Я говорил про вполне конкретный железный суперкомпьютер, расположенный в лунной колонии.
Произведение называется "Луна - суровая хозяйка"
А ты, наверное, говорила про Майка из "Чужак в чуждой стране"?
Угу. А "Луна" вообще как-то мимо прошла, надо заценить. Вот у человека настолько восхитительная фантазия, а с именами незаладилось. Постоянно повторяются.
Был там робот, но он тихонько сидел и лепил планету с коллективным разумом, тестируя перед выкаткой вселенского патча.
И судей тоже искинами заменить.
Чтобы судья такой: "Бип-бип... процесс "подсудимый" выполнил недопустимую операцию и будет закрыт... на пять лет... бип."
Ещё, мне кажется, и языки будут исчезать со временем, а в конечном итоге останется один или два языка, просто потому что куча разных языков - это жутейше неудобно
Но тут довольно серьёзно всё, а я в этом вообще не шарю, так что это лишь мои логические предположения х)
Ещё, мне кажется, и языки будут исчезать со временем, а в конечном итоге останется один или два языка, просто потому что куча разных языков - это жутейше неудобно
скорее гугл придумают приблуду которая будет налету переводить и озвучивать. При чем твоим же голосом.
Ну как бы нет... ИИ в современном исполнении обучается на примерах, следовательно в паттерн своего проведения как раз-таки берет все человеческие качества (если примерами поставить то, как всё было раньше)
Да. Он решит что для наиболее эффективной организации человечества нужен 14 часовой рабочий день, пение хором гимнов и анальный зонд каждому.
Читал версию что скайнет всего лишь временно содержит людей в виртуальном мире, пока очищает мир после ядерного апокалипсиса...(или это я с матрицей путаю)?
Вся проблема Mass effect - в кривом коде левиафанов. По сути сказка в трёх частях о том, что быдлокод приходится править в последний момент героическими усилиями всех, тратя кучу ресурсов.
Вся проблема в Mass Effect - в том, что пренебрегли стейджингом, и выкатили сразу наживую. На стейджинге можно было бы такие гениальные идеи отловить до того, как давать ИИ инструменты для их воплощения.
Можно подискутировать на тему "левиафаны были настолько уверенны в себе и считали себя настолько круче Чака Норриса, что не проводили ни альфа- ни бета-тестирования вообще" ))).
Кстати если такие случаи будут повторятся, и в нее загрузят информацию, не только о сотрудниках, но и о всех проектах мировых и тд.
То она может сделать вывод, что для эффективной своей работы она должна маскироваться, и будет спецом подбирать женщин, а возможно будет приглашать на работу ярых фемок.
«Мне не страшен компьютер, который пройдет тест Тьюринга. Мне страшен тот, который намеренно его завалит». ©
Как по мне, решить проблему эту можно, просто создать ИИ как можно более похожим на человека. Добавить ему человекческие пороки и желания. Тогда робот точно будет рисковать и делать ошибки. Пока мы стремимся создать лучший аналог человеческому мозгу то такая опасность есть.
Ага, и тогда будет как в тех произведениях, где ИИ решает, что главная проблема на планете - это люди, и уничтожает всех)
Как раз-таки эмоции и прочее - это и есть тот самый механизм контроля и сдерживания, благодаря которому ИИ не должен стать врагом человечества.
Ага, и получим ИИ, который банально хочет захватить мир и получить всё, в том числе все кожаные мешки.
А зачем это ИИ?)
Человек хочет власти не просто потому, что "ВЛАААААААААААСТЬ", а под влиянием внешних факторов. Бедное детство, еще чего-то. Власть синоним богатства и хорошей жизни.
Если же мы будем говорить об ИИ, который все-таки поумнее человека будет, и мыслить будет в первую очередь логически, а эмоции использовать для дополнительного рассчета - то и от власти ему толку никакого не будет.
Ну а потом. А почему бы и нет, собственно? Что, под властью ИИ будет житься хуже, чем под властью воров? :D
Мне представляется сценарий, где ИИ с самосознанием и эмоциями старается познать человека, как своего создателя (прямо, как люди) , но не сможет мыслить, как человек. А вот что произойдет дальше, боюсь представить...
А где гарантия, что мы сами не являемся ИИ? Что весь наш разум, личность, самосознание не являются всего лишь импульсами другой, более сложной нейронной сети? И что где-то есть та грань сложности интеллекта, переступив которую появляется самосознание.
Посмотрите, как работает ваша ДНК и скажите, что вы не биоробот. https://www.youtube.com/watch?time_continue=1&v=7Hk9jct2ozY
Ваша просьба рассмотрена и отклонена.
В данном случае аббревиатура "ИИ" на должном уровне исполняет свою функцию в качестве ясного ассоциативного образа.
И как сказал ZloyPisun, существуют обоснованные подозрения, что вы рептилоид.
О.Тут все просто.Человеческий разум-Естественный интеллект на основе нейронов.
С самосознанием еще проще.Мозг большинства животных имеет способность моделировать окружающие обьекты на основе имеющейся информации.
Кошак на основе опыта множества охот и наблюдений представляет себе как будет двигаться жертва,где будет передвигаться,куда отскочит при опасности.Обученный собакен знает как человек отреагирует на его действия.
Порог самосознания же-Моделирование самого себя.Мозг анализирует свои собственные реакции,моделирует в картине мира самого себя.
Вот тут начинаются сложности.Сознание имеет просто огромное количество информации о себе.Ее обработка является чудовищно сложной задачей.Для этого нужен очень развитый мозг,а развитый мозг жрет очень много энергии.
Потому для животных самосознание - роскошь.Даже примитивный интеллект - весомое преимущество,но затраты на него еще больше.
Хм.
Как думаете, а само ощущение себя, ощущение Я, появляется только при достижении порога самосознания (и тогда большинство живых существ ничем не отличаются от современных роботов).
Или же оно есть у всех животных, но из-за отсутствия рефлексии недоступно для самовосприятия или доступно в какой-то ограниченной форме (что нам попросту сложно представить)?
Скорее второе.
Само понятие самосознания требует объяснения и четкой терминологии.
Робот - просто кусок алгоритмов.
Животные же имеют некую свободу воли, желания, эмоции и прочее прочее.
С роботами скорее можно сравнить насекомых.
Ну да. Тоже думаю, что скорее как то так...
Было бы крайне интересно иметь возможность наблюдать в динамике усложнение психики и сознательного восприятия от простых видов к сложным...
Животным вида hs просто кажется, что они имеют свободу воли, в то время, когда почти все действия каждого такого животного обусловлены генами, в т.ч. и это ощущение свободы воли, и неприятие этого факта как такового.
В этом плане у ИИ свободы куда больше, но и он ограничен физически.
Я работал над этой темой несколько лет и тут есть несколько нюансов: требование эмоций, требование гормонов и подобного для регуляции, и т.д.
и в итоге мы получим того же человека, пусть даже в виде кучи хлама.
ни одна система ИИ не ставит себе целью повторить человека, поскольку проще завести детей (в прямом и переносном смысле).
Поэтому не будет такого первого ИИ, который пройдет тест, как и намеренно завалит. тест Тьюринга просто не совместим: это как инопланетянина через него прогонять - докажи что ты как человек.
Я работаю над програмным обеспечением. Несколько лет занимаюсь построением ИИ как устройств (в последнее время - это комплекс устройств) со своим ПО, так и просто ПО.
Паралелльно приходится изучать нейроанатомию, нейрофизиологию и психологию (да много всего, это только из основного).
И тут как раз приходится подходить к вопросу назначения ИИ: в программировании ИИ - это самообучающаяся статистическая система с внутренним хранением данных (что позволяет экономить на хранилище, но не позволяет экономить на мощностях (хотя тут стоит вопрос о том, что она должна делать: в большинстве случаев хватает параллельной системы из множества слабых процессоров)). Или проще говоря - это один из видов алгоритмов. И никто не стремиться создать там мозг или подобие (потому что это нужно только just for fun в большинстве - направлений для использования мало, да и проблем).
При этом понятие "мышление", это как "время" для физиков - смотря с какой стороны посмотреть и как его раскрывать. Поэтому тест Тьюринга направлен только для людей (что уже абсурд)...
Есть даже шутка "я знаю множество людей, которые его не пройдут. и в большинстве у них есть справка от психиатра, что они здоровы"
Вы слова "Физическая оболочка" тоже взяли от человека. А ведь физическая оболочка - это камера, через которую смотреть, или "проигрыватель" (с натяжкой можно назвать и так, т.к. там целый програмный комплекс), через который оно смотрит - тоже Физическая оболочка.
Да тот же процессор им является.
И от этой физической оболочки тоже зависит его работоспособность.
Так.
Твои слова:
ни одна система ИИ не ставит себе целью повторить человека, поскольку проще завести детей (в прямом и переносном смысле).
На что мной было указано, что цель создании ИИ подобного человеку - это создание разума подобного человеческому, а не физической оболочки как у человека.
Робота с разумом подобным человеческому не заменишь никакими детьми.Задача создания подобного человеческому ИИ в том, чтобы он мог выполнять все функции, что выполняет человек, а сам человек при этом нихрена не делал и наслаждался благами.
Вы как раз путаете понятия.
- С точки зрения социума: Если человек создаст разум, подобный человечеству, то у него также будет человеческое мышление. Что даст и эмоции, что даст и желания и стремления и т.п. На людей без этих качеств вы можете взглянуть в любой псих больнице. Что возвращает нас к подвиду рабства.
- С точки зрения биологии: человеческий организм сложная и огромная структура, которая имеет вагон зависимостей, начиная от внутренних органов и заканчивая нервными окончаниями на пальцах. Дак мы создаем электронную копию человека ("питание" тоже надо откуда-то брать)? Кстати, она также будет стареть, иметь ограничения и болезни (но уже свои, в виде ржавчины, стирания и прочих). Таким образом проще сделать человека, чем собрать такой организм (потому что это уж сильный аналог).
И напоследок: ваш ИИ тоже должен развиваться от запуска - программу можно вложить только скопировал с уже развившегося, устаревшего. Но есть проблема- у нового есть новые и качественные компоненты и нет тех ограничений, который есть у старого.
Рисковать... делать ошибки.. програмисиы перфекционисты создадут идеальную копию человека а потом будут удивляться почему он истерит страдает и маеться всякой хренью.
Ну вообще дешевле если честно дать террорситам меньше повредить имуществу. Как бы грустно не звучало, человек почти не ценится.
Ну, если дать террористам повредить имущество, которое и так через несколько месяцев подлежит списанию и замене, то не все так плохо.
Это на вряд ли. Программисты обычно сосредоточивают усилия программирования на простоте и эффективности понятной им = разумности и здравом смысле. Соответственно эвристические эмоционально-ассоциативные программы которые хоть и быстры но могут привести к ошибкам не встраивают. Да и принципы возникновения у людей эмоций и формирования суждений то мало кто понимает.
Это надо было б с психологом, психотерапевтом и социологом работать в группе. =)
Но в случае machine learning программист не закладывает поведение, оно получается в результате обучения... так что всё возможно)
Да не закладывает. Но машина учится по результатам событий с помощью алгоритма, но не интерпретируя их и не совершенствуя алгоритмы, и уж тем более не работая над формой ответа и его восприятием, или попыткой повлиять на дальнейшие действия слушателя.
А результаты искажены т.к. в поведении людей здравого смысла очень мало и действуют они под влиянием стереотипов и ситуации, а алгоритм построен на здравом смысле. А здравый смысл это проактивная линия поведения а не реактивная.
Но я и не говорил что невозможно. Просто надо понимать как на самом деле работает мышление у живых существ и какие ошибки совершает. А весь смысл автоматизации в упрощении деятельности, а не в создании живого.
Как раз ассоциативные - все современные ИИ. Точнее прорыв был как раз в ассоциативных и спосбах получения этих ассоциаций.
А вот с логическими всё почти никак не движется.
Эмоциональное - возможно просто более развитая обратная связь.
Так просто сотрудник женщина возможно будет хуже работать а ярая фемка ещё и мешать работать мужчинам. Так что сильно вряд ли
Так дело не в их эффективности, а в том, что нейросеть не будет палиться, что она грязная шовинистическая сволочь, ценой найма этих самых фемок.
Так нейросеть не полноценный ИИ. У ней есть одна цель и она ее выполняет. Задачи мимикрии у ней небыло
Робот может это сделать ради сохранения своей функциональности. Например робот знает что он подбирает персонал лучше людей, тогда он будет стремится имея всю информацию, сохранить свое место.
Можно нанимать для контраста женщин, а можно нанять одну ебанутую, которая еще всем расскажет какой робот крутой.
Ага, я вспомнил старый фантастический рассказ про то, как ИИ учили предсказывать катастрофы. Там крутилось и эволюционировало много-много программ-предсказателей, и те, что предсказывали правильно -"давали потомство", а остальные стирались.
Сначала программы очень быстро научились предсказывать всё очень точно.
Но если что-то предсказано, то люди делают так, чтобы оно не сбылось...
Что было дальше - уже понятно =)
Не правильные, а рациональные. Есть еще понятие экономической выгоды и репутации. Нанимаешь только лучших - женщины перестают пользоваться амозон.
если везде нанимать только лучших, то никто не будет компостировать людям мозги всякой политкорректной ерундой и будут они пользоваться тем, чем удобно пользоваться.
А если в фирму придет лучший адвокат, и скажет нанять своего не лучшего подзащитного? Ведь лучший суд и лучшие присяжные не могут просто так отказать из-за идеологии. И с каким-то процентом лучший адвокат окажется лучше лучшего прокурора.
на тему биг даты есть хорошая лекция: https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_fait...