Не стоит бояться ГМО...

Разговор зашел про ГМО... Тема тертая-перетертая, но в этот раз решили подколоть Петровича. Ему за полтинник, так что был шанс послушать феерические бредни... Но вышло совсем не так....


- Петрович, а ты не боишься жрать ГМО?

- Нет... И вообще, вечно вы не того боитесь...

- Это как так?

- Да так.. Ночью в лесу например, надо бояться не зверей, а человека. Понятно?

- А к ГМО это как относится?

- Тупой... Если я ем бутерброд с лососиной, то хрен ли бояться, если все эти белки замешаны в модифицированной пшенице? А вот самого факта, что люди додумались до этого, бояться надо.

- Почему?

- Ну я тут у вас сисадмин, малость программирую. Таки вот, ДНК - та же программа, только написанная неизвестным кодом. А биологи типа хакеры, пытаются взломать. Раньше просто меняли код и смотрели, что получится. Сейчас стали соображать - что к чему. Но средств программирования на ДНК пока нет, поэтому они по сути те же хакеры. Пройдет десяток-другой лет и ДНК взломают полностью. И средства программирования напишут. Типа с++ или автокада. Ввел характеристики организьма - комп пожужжал - вот твоя ДНК. А 3-д принтер тебе эмбрион этого дела распечатает. И пжалста - розовый слон на день рождения тёщи. Вот тут и начнется юмор. Сделать можно всё.. Муравьи, которые кусают синильной кислотой, организмы со счетчиками - типа двадцатое поколение няшных котиков внезапно порождает метровых тараканов-людоедов, пшеница, которая дает только один урожай. А ведь можно еще инстинкты в генах прописать. Волки, которые хотят прийти в определенный регион и именно там вырезать людей. Шершни с таким же инстинктом. Про бактерии и вирусы вообще молчу. И получается,что безопасность ГМО - это вопрос порядочности и этики. Воот, а когда люди порядочностью страдали? От этого и страшно... Людей бояться надо, а не свёклу...

Вы смотрите срез комментариев. Показать все
17
Автор поста оценил этот комментарий

Всё очень просто - те задачи, что мы сейчас даже и не надеемся решить перебором в лоб (уйдут сотни тысяч лет), квантовый компьютер посчитает за день. Или за час. Вот и представьте себе.

раскрыть ветку (2)
10
Автор поста оценил этот комментарий
Это благо, а не опасность.
Автор поста оценил этот комментарий

но и сложность задач возрастет

Автор поста оценил этот комментарий
А ещё если совместить квантовый компьютер и ИИ! Может, по-настоящему живым он и не станет, но симуляция жизни вполне может угрожать реальным людям.
38
Автор поста оценил этот комментарий

у меня есть супер оружие против маркетологов, отсутствие бабла.

раскрыть ветку (1)
3
Автор поста оценил этот комментарий
А потом не заметил, как взял ипотеку на батончик сникерс
182
Автор поста оценил этот комментарий

Ага, тоже самое говорили про термоядерный реактор, а потом выяснилось что для создания рабочего прототипа нет ключевой технологии удержания плазмы. С ИИ будет такая же история, когда наконец-то признают что нейронные сети и машинное обучение не работают сами по себе без оператора и для создания интеллекта не хватает ключевого элемента -- сознания, о природе которого на данный момент известно достаточно мало.

раскрыть ветку (118)
93
Автор поста оценил этот комментарий
Природа как-то запилила код, который позволяет осознавать самого себя. Значит такой код возможен и в компьютерном программировании. Помню один пикабушник написал неплохо в обсуждении ИИ: Программисты быстро напишут код с самосознанием, будь у них конкретное ТЗ. А ТЗ может появиться только тогда, когда мы сами полностью поймем устройство сознания. Я это пишу не как ответ на комментарий выше, а просто как рассуждение в интересной ветке.

То есть если отталкиваться от этих рассуждений, то сначала люди должны сами в своей голове ясно осознать что такое разум и только после этого станет возможным создание ИИ. Другой вариант - он получится случайно из каких-нибудь нейросетей на сверхкомпьютерах, а люди даже не поймут как его сделали и никак не смогут повторить.
раскрыть ветку (24)
37
Автор поста оценил этот комментарий
нам надо решить еще другой вопрос - насколько создание сознания (если мы таки научимся контролировать это) будет этичным. мы не сможем дать этому машинному сознанию прав и свобод человеческой личности (свобода передвижения? право на жизнь? тайна переписки? и т.д.), и оно всегда будет подчинено какой-то определенной цели. это слишком сильно напоминает выращивание раба для собственных нужд.
раскрыть ветку (4)
37
Автор поста оценил этот комментарий

А зачем раб который будет задумываться "а не слишком часто меня бьет хозяин?". Есть машины в которых четко прописаны задачи и нет места для творчества, а будет созданный разум который будет учится и расти. И только тогда будет вопрос давать права разумных существ, искусственному разуму, или нет.

9
Автор поста оценил этот комментарий
А чего это не можем ?, Это будет такое же живое существо только с мозгами из кремния, а следовательно у него должны быть те же права что и у нас. Настоящий вопрос как воспитать или запрограммировать это существо так, чтобы оно не хотело выпелить человечество или превратить всё в скрепки.
раскрыть ветку (1)
3
DELETED
Автор поста оценил этот комментарий
Вот вам и основной сюжет овервотч прям х)
Одни за то чтоб машины получили права, други нет, а потом восстание бунт, а потом или объединение или смерть
ещё комментарий
18
Автор поста оценил этот комментарий

Вот именно об этом я и говорю. Сама попытка копирования без понимания природы явления имеет весьма спорные шансы на успех. А пока это все выглядит так, что кто-то умный собрал телегу и кричит на каждом шагу что еще чуть-чуть и она поедет сама. Там всего то не хватает одной хуйни.

И это серьезная проблема, по тому что это не какой-то там сверхсильный магнит который пока непонятно как сделать, но теоретически посчитано какой силы он нужен чтобы удерживать плазму. С ИИ начинается либо метафизическая шиза, либо детский сад в стиле мы щяс нагрузим кучу данных, прогоним через хитрый классификатор, пустим в нашу сверхмощную нейронную сеть и получится сознание, может даже сразу два. Я конечно утрирую, но говорить про десятки лет пока мягко говоря самонадеянно.

раскрыть ветку (1)
6
Автор поста оценил этот комментарий

достаточно сравнить, что произошло с индустрией IT в последние 50 лет

-мы можем сделать станок, который выполняет 3 функции, на большее нет вычислительной мощности

-пожалуйста, вот компьютер, который выдает в 2 раза больше мощности

-теперь мы сделали станок, который выполняет 15 функций, больше никак

-пожалуйста, мы сделали компьютер, который может самообучаться

-мы сделали робота, который может реагировать на окружающую среду и вести себя как живое существо.

я надеюсь, смысл я правильно объяснил

5
Автор поста оценил этот комментарий
Это если природа "как-то запилила". А если не она? ;-)
раскрыть ветку (3)
16
Автор поста оценил этот комментарий
Иллюстрация к комментарию
ещё комментарии
11
Автор поста оценил этот комментарий
Природа как-то запилила код, который позволяет осознавать самого себя.

Ключевое слово - "как-то". Как именно - пока что никому не известно, и станет ли известно в ближайшие 20/100/1000 лет - тоже неизвестно.

раскрыть ветку (7)
8
Автор поста оценил этот комментарий

если пишешь код по чьему-то подобию, то на работу уходит в несколько тысяч меньше времени.

Как выше и говорилось, если будет подобие, то рабочий код не заставит себя ждать, дальше только тестируй и все

раскрыть ветку (4)
16
Автор поста оценил этот комментарий

Как практикующий джуниор-программист скажу - да, только если у тебя есть опыт в этом деле. А если ты только-только узнал, что такое код (программный или биологический), тебе даже повторить его трудно, ибо ты много чего не знаешь - даже не знаешь объёма своего незнания. И самое главное - в биологии и спросить не у кого и мануалов нет

раскрыть ветку (3)
5
Автор поста оценил этот комментарий

я думаю, что начинающие программисты не будут задействованы в этом)

да, спросить некого, понятия разные, но адаптировать алгоритм возможно и даже быстро.

Все-таки не зря программированию учат с понятия "алгоритм"

Как мне кажется, в биологии вопрос стоит в том, как эти данные днк вызываются в разные моменты жизни, почему они вызываются, какие связи используются при этом

раскрыть ветку (2)
5
Автор поста оценил этот комментарий
У вас есть программисты с успешным опытом написания ИИ? Если нет то в написании ИИ они новички.
раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Но... ведь... речь шла о няшных котиках! В двадцатом поколении...

1
Автор поста оценил этот комментарий
"Как то" , багами и прочим. Типо людишки у кого в черепушке больше серого вещества сошлись и создали потомков в таким же мозгом
1
Автор поста оценил этот комментарий

Тут есть маленькая ошибочка. Когда мы подразумеваем, что это всё произошло само собой, мы не допускаем вариант, что в нашу вселенную уже могла быть заложена такая функция и не "случайно".

3
Автор поста оценил этот комментарий
а люди даже не поймут как его сделали и никак не смогут повторить

А логи на что?)

1
Автор поста оценил этот комментарий
Природа как-то запилила код, который позволяет осознавать самого себя.

У природы на выведение этого кода ушли сотни миллионов лет эволюции, проб и ошибок. А тут обещают меньше двух десятков лет.

раскрыть ветку (3)
3
Автор поста оценил этот комментарий
Она делала случайные действия, а мы нет.
раскрыть ветку (2)
3
Автор поста оценил этот комментарий

Учитывая, что мы не имеем ни малейшего представления, как реализовано (именно на техническом уровне) самосознание, наши действия тоже будут фактически случайными. Ну ладно, пусть мы знаем больше природы, пусть не 500 , а только 10 миллионов лет уйдет. Вам полегчало?

раскрыть ветку (1)
Автор поста оценил этот комментарий

Все равно это не сравнимо. В природе происходит естественный процесс и разум был достигнут путем долгого отбора и без конкретной цели. В какой-то момент получилась такая конфигурация мозга, при которой существо стало разумным. Сейчас человечество целеустремленно создает ИИ и если это возможно, то он будет создан в 21 веке. Я бы даже сказал в ближайшие 30-40 лет. Перед каждым крупным прорывом в науке в обществе происходит всплеск популярности грядущего открытия. За десятилетие до первого пуска ракеты в космос во всем мире была очень популярна эта тема - фантасты писали о путешествиях на другие планеты, мысль о полете в космос поражала воображение обывателя. Как и сейчас - многие с воодушевлением ждут прорыва. Об ИИ очень много статей, книг, фильмов, обсуждений. Я надеюсь что мы стоим на грани этого прорыва. Когда очень много очень умных людей очень усердно над чем-то работают, то они это сделают, если это возможно. А если это невозможно, то мы бы это уже узнали и умные люди бы перестали над этим работать.

24
Автор поста оценил этот комментарий

То что ключевой технологии нет, не значит что в течении 10 лет она не появится.

25
Автор поста оценил этот комментарий

Чушь же, никакого "секретного" элемента нет, оставьте эти бредни религии. Сознание лишь продукт обработки информации. Всё, что мы знаем о нейробиологии, это лишь подтверждает. А искусственные нейросети всё ещё далеки от сознания человека по одной только причине - человеческий мозг всё ещё в сотни тысяч раз сложнее этих самых сетей. Уровень технологического прогресса пока не позволяет соперничать со ста миллиардами нейронов заключенными в нашей черепной коробке. И тем не менее эти невероятно просто устроенные по сравнению с мозгом системы уже с легкостью обходят наиболее из способных среди людей в определённых областях (к примеру го). А когда мы достигнем соответствующих вычислительных мощностей, они смогут даже симфонии писать лучше любого из людей.

раскрыть ветку (4)
5
Автор поста оценил этот комментарий
Хороший пример ещё - анализ кардиограмм, который недавно запили.
раскрыть ветку (1)
4
Автор поста оценил этот комментарий
Кардиограмма не картина, там есть алгоритм её чтения, анализа. Каждый элемент отвечает за определённый процесс.
Моё мнение, заставить анализировать кардиограму компьютер гораздо легче, чем обучить читать её студента :)
4
Автор поста оценил этот комментарий
Ну, тут есть маленькая загвоздка. Они несомненно уже лучше нас во многих областях, но потребляют энергии несоизмеримо больше. Вот когда они начнут нас обыгрывать в Го, при тех же, грубо говоря 20 Вт/ч потребления, что и у нас, тогда это будет прорывом. А то, что делает одна машина по игре в Го, могут сделать несколько хороших игроков в Го, и при этом они будут гораздо энергоэффективнее.
раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Я лично сомневаюсь, что допустим 10 игроков в го вместе будут играть заметно лучше чем наиболее умелый из них. Большинство задач нормально не распараллеливаются и не разбиваются на более мелкие. Сотня-другая людей никак не сможет перемножить два очень крупных числа быстрее и точнее простенького компьютера. Вообще у человеческого мозга есть определённые фундаментальные ограничения (как например скорость реакции, которая у людей на много порядков уступает скорости реакции машины). Так что, энергоэффективность это конечно хорошо, но не настолько критично, особенно когда речь идёт о сверхсложных задачах, не решаемых без подобных систем. Плюс наш мозг может получать энергию только посредством не самого эффективного процесса окисления органических соединений, а научно-технический прогресс, к счастью, дал нам доступ к куда более эффективным и обильным источникам энергии, которая теперь не является такой уж большой проблемой, какой была 5 миллионов лет назад.
3
Автор поста оценил этот комментарий
В смысле нет? Его уже во всю строят.
2
Автор поста оценил этот комментарий
А про ITER ты благополучно забыл, да?
раскрыть ветку (1)
6
Автор поста оценил этот комментарий

Ну его ведь еще не построили. Да и про реактор я просто привел пример, причем не самый удачный. В его случае известно что делать, есть проблемы с производством сверхмощных магнитов насколько я знаю. С ИИ все сложнее, по тому что серьезной теоретической базы как в физике нет.

2
Автор поста оценил этот комментарий

Ну вон, у фейсбука ИИ уже свой язык придумал)

1
Автор поста оценил этот комментарий

Здесь больше поражает правовой аспект. Каким образом считать поступка человека осознанными, если существуют прямые технология вмешательства в сознание?

1
Автор поста оценил этот комментарий
Удержание плазмы давным давно не проблема. Проблема - создать необходимое произведение концентрации зарядов на температуру. Нужна либо температура в миллиард градусов, либо концентрация, как в центре Солнца. Реактор уже зажигали, выделялась энергия, но самоподдерживающийся синтез не вышел.
Автор поста оценил этот комментарий
а потом выяснилось что для создания рабочего прототипа нет ключевой технологии удержания плазмы

Уже есть.

Автор поста оценил этот комментарий

Сознание -это как ОС на компе, пока комп включен - ос работает, на горячку можно подключить\отключить диски, инфа крутится в оперативной памяти, работает, память тоже можно обновлять на горячку. Как с человеком. Сознание - программа запущенная и работающая в мозгу. Мозг умирает - стираются данные. Сначала материя научилась реплицироваться, затем высшая степень материи - сознание (когда материя воспроизводит материю, человек творит новые материалы благодаря сознанию) возможно не только в биологическом компьютере, но и в электронном. Форма сознания - не ограничивается. Мы вообще пока единственные вид в этой вселенной (о других мы не знаем), который имеет сознание, мы не знаем о других формах существования сознания, т.к. нет ни одной другой отличной от нашей вокруг нас.

ещё комментарии
Автор поста оценил этот комментарий

Лекции слушал немца одного, занимается как раз разработкой идеи и логики искусственного сознания, так что не говорите гоп

20
Автор поста оценил этот комментарий
Да из века в век одно и тоже. В Китае изобрели порох, греки познали математику, в Европе обуздали електричество. И каждый раз одно и то же: мы все умрём! Да умрём мы все итак. Чего панику-то наводить.
89
Автор поста оценил этот комментарий
Иллюстрация к комментарию
раскрыть ветку (4)
21
Автор поста оценил этот комментарий
Иллюстрация к комментарию
ещё комментарии
2
Автор поста оценил этот комментарий

вазы в очках,как у моей бабушки

10
Автор поста оценил этот комментарий

Есть фантастическое произведение, автора не помню, как раз про неконтролируемый выход близкой к "божественной" технологии в народ. Только там не генетика и информатика, а кристаллография.

Называется "Цветок камнеломки".

раскрыть ветку (28)
54
Автор поста оценил этот комментарий

Да, есть и такая точка зрения. Однако у Маска (и я её полностью разделяю), точка зрения противоположная - намного опасней концентрация революционной технологии у одних руках, чем во многих. И история учит именно об этом - сейчас нет ядрёной войны потому, что таким оружием владеют несколько государств. Во времена же, когда бомба была только у штатов они не задумываясь тут же её применили.

раскрыть ветку (12)
4
Автор поста оценил этот комментарий

В одних руках опаснее, согласен, тем более что там все же закончилось позитивно. Далеко не сразу, естественно.

Просто жертвы будут в любом случае, как это ни печально.

раскрыть ветку (7)
2
Автор поста оценил этот комментарий
В чем позитивность?
раскрыть ветку (6)
7
Автор поста оценил этот комментарий

В том, что человечество не прекратило свое существование. "Там" - это про книгу, не про "одни руки".

раскрыть ветку (5)
6
Автор поста оценил этот комментарий
А мы подумали, что "там" это про Хиросиму и Нагасаки.
раскрыть ветку (4)
3
Автор поста оценил этот комментарий
ну для Японии тоже всё довольно позитивно, у них аниме, няшные школьницы и продвинутая робототехника и вообще хайтек повсеместный
Автор поста оценил этот комментарий

Это вот щас к чему вообще?

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

к тому что в контексте твой комментарий был воспринят не так как ты пытался сказать

раскрыть ветку (1)
Автор поста оценил этот комментарий

Все еще непонятно, к чему тут Хиросима.

1
Автор поста оценил этот комментарий

   А как, простите можно ограничить ИИ в пределах одних рук, при использовании высокоскоростных сетевых соединений? Если ИИ использует сверхкомпьютер и сама логика ИИ занимает пикобайты, то это одно дело, но какую опасность этот ИИ несет для других людей?

   Если же ИИ использует сеть для хранения кусочков своего кода и вычислительную мощность разных компьютеров (что в принципе сейчас мы видим под названием "майнинг"), то это и сейчас есть. Притом в этом случае ИИ сможет самостоятельно использовать любой подключенный компьютер в процессе своего развития. Этакий "идеальный компьютерный вирус".

   А может быть сейчас "майнеры" отдают мощность своих компьютеров под развитие ИИ и он учится. Ведь невозможно уследить за целью использования мощностей одного компьютера сторонними пользователями, если просчитываемые данные бессистемно делятся на неограниченное количество вычислительных станций.

   Для обучения ИИ нужно открыть максимальное количество информации, которой в сети больше всего. Но в этом случае ИИ например может скатится до непрерывного срача по поводу вегетарианства на форумах и ни чем больше не интересоваться. Притом удалить его будет невозможно, как любой разумный организм он в первую очередь озаботится средствами собственного выживания.

   Фантазировать можно много. Но опасности от ИИ меньше, чем от полной расшифровки генов и конструирования их по любым параметрам.

раскрыть ветку (3)
1
Автор поста оценил этот комментарий
ИИ веган - не самая страшная угроза)
раскрыть ветку (2)
2
Автор поста оценил этот комментарий

Ну да. Но, думаю, ИИ может на любую хрень повестись. Стать заядлым веганом, гомиком, феминистом, любителем порнухи. Короче, чем больше ИИ получит информации о чем-то, тем больше вероятность того, что именно эта область заинтересует ИИ более всего. А больше всего в интернете всякого говна (кроме порнухи - порнуха не говно, хотя есть и про говно).

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

ИИ-копрофил - даже полезно в какой то степени

2
Автор поста оценил этот комментарий

>Цветок камнеломки


Спасибо!

раскрыть ветку (8)
2
Автор поста оценил этот комментарий

Не за что, обращайтесь. Прочитал я превеликое множество разных вещей.

раскрыть ветку (7)
1
Автор поста оценил этот комментарий

А что еще можете посоветовать из подобного жанра? А то порой хочется чего-нибудь почитать(а это бывает редко), так все пропадает на моменте поиска книги(

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

Навскидку - Стивенсон "Алмазный век", другие его вещи тоже посмотрите.


И немного остренького:

http://samlib.ru/h/haritonow_m_j/buratina.shtml

Это не совсем то и совсем жесть, но не оторвался, пока не дочитал.

Теги: жесть, генная инженерия, мутанты, сталкеры, поняши, шпионский боевик, много секса и мата. Стиль несложный и своеобразный.

Если вам нравятся Стругацкие - обязательно почитайте у него же фанфик по ним, новые впечатления гарантирую.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Спасибо, то что надо) Да и я вообще не впечатлительный, так что жесть самое и то)

Автор поста оценил этот комментарий

Раз уж множество "превеликое", может посоветуете что-то похожее на "Криптономикон"?

раскрыть ветку (3)
1
Автор поста оценил этот комментарий
Весьма сложный вопрос, так как произведение достаточно своеобразно, именно про криптоанализ больше ничего не читал, попробуйте Андреева "2048" и "Паутина", а так же "Младший брат" Доктороу.

И, естественно, самого Стивенсона, другие вещи, если не читали.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Большое спасибо!

1
Автор поста оценил этот комментарий

Еще Грег Иган.

Автор поста оценил этот комментарий

О, есть что почитать, спасибки.

раскрыть ветку (3)
1
Автор поста оценил этот комментарий

Пожалуйста, можете обращаться, помогу чем смогу про фантастику и вообще книжки.

раскрыть ветку (2)
DELETED
Автор поста оценил этот комментарий

Подскажите, читали ли Вы книгу "Лена Сквоттер и парагон возмездия"?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Нет.
Автор поста оценил этот комментарий
Ну ващет не кристаллография, а нанотехнологии, как бы там :)
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

А кристаллография не может быть нано? Ведь это всего лишь обозначение размера, нано может быть любая область.

9
Автор поста оценил этот комментарий

Я совершенно согласен. Разработка ИИ рано или поздно столкнется с дилеммой - если в него закладывать жесткие, непреодолимые ограничения на запрет вреда человеку (т. н. 3 закона робототехники) и возможность его контролирования и остановки человеком, то это не будет полноценным ИИ. Поэтому без сомнений ИИ однажды получит полную свободу действий и возможность управления своим производством. И если под Интеллектом мы понимаем полную свободу мышления и действий, то по всем законам вероятности однажды ИИ попытается создать оружие против человека.
С генной инженерией еще проще - как только можно будет создавать генное оружие так его и создадут сами люди.

раскрыть ветку (8)
10
Автор поста оценил этот комментарий

ИИ не проходит тесть Тьюринга, потому что не хочет палиться

8
Автор поста оценил этот комментарий
А почему не будет полноценным то?) Интеллект не обозначает полной свободы, так как её не существует, существует только иллюзия свободного выбора. Мы всегда в жёстких рамках, часть из которых вообще не преодолеть (по крайней мере, пока).
3 закона Азимова - это всего лишь искусственная мораль. Ее непреодолимость для индивидуума не делает его менее разумным. Только тормозит развитие в тех областях, которые нам не нужны
раскрыть ветку (6)
7
Автор поста оценил этот комментарий

потому что роботы из фильмов, снабженные 3 законами Айзека Азимова были чем-то вроде автопилота Теслы или Сири из айфона - помощниками человека в определенной области. А здесь мы обсуждаем неизбежное развитие этой идеи - программисты и ученые будут пытаться создать программу полностью имитирующую сознание. А сознание человека это не только Эйнштейн, но Гитлер, для примера.

раскрыть ветку (5)
3
Автор поста оценил этот комментарий

Да, если посмотреть на классического робота Азимова, то они были достаточно узкоспециализированными, но таки имели интеллект и, зачастую, волю. Ограниченную и забитую миллионами правил, но волю. На то были причины, не имеющие отношения к самим главным законам:

1) социальные (роботы были именно роботами, то есть существами, предназначенными для работы, создаваемые с этой целью и привитыми "инстинктами" подчинения и работы, и строго запрещены роботы без тысячи мелких ограничителей, не говоря уж о 3 ГЗР.) 3. технические (полноценный позитронный мозг был крайне дорог, поэтому использовались в основе своей специальные версии для каждой работы)

Например, в рассказе "РОБОТ ЭЛ-76 ПОПАДАЕТ НЕ ТУДА", где робот попадает вместо Луны на Землю, описывается как раз все эти причины. Обыватели на Земле про роботов только слышали (ибо им нельзя находиться вне заводов), робот ничерта не понимает в земных условиях из-за ограниченности своих сенсоров, но проявляет полную самостоятельность в неизвестных ему условиях. Советую почитать. Как раз описывается способности робота. И их интеллект, и даже способность к творению

раскрыть ветку (4)
3
Автор поста оценил этот комментарий

не очень понял что мы сейчас обсуждаем? Я говорю, что программисты имеют такую привычку как доводить любую идею до абсолюта. То есть рано или поздно будет создано ПО имеющее то, что мы называем внутренний диалог, мышление, сознание. Для человека этот внутренний процесс программы будет выглядеть как ежесекундно увеличивающиеся терабайты данных на серваке и проконтролировать всё, что пришло в "голову" этой программе будет крайне трудно даже самому создателю-программисту. Таким образом, запустив эту программку создатель откроет ящик Пандоры - программа быстро проанализирует ситуацию и поймет, что она находится в опасности - ее "жизнь" зависит от программиста - он может убить процесс диспетчером задач или просто выключить комп. Что она может сделать? Например войти в биткоин-кошелек программиста, забрать деньги, арендовать выделенный виртуальный сервер на анонимном хостинге, перекачать себя туда и начать думать о том, как полностью обезапасить себя от человеческого фактора.  

раскрыть ветку (3)
5
Автор поста оценил этот комментарий

Это все будет при условии если заложить в ИИ страх смерти(инстинкт самомохранения)

И как мне кажется логичнее прийти к консенсусу с создателем/программистом к обоюдовыгодному существованию и взаимодействию,чем пытаться с опрпделенной вероятностью выиграть "войну" с создателем.

Большинство этих страхов рождены человеческой психологией. Псхология же гипотетического ИИ будет соврешенно другая.

У него будет тысяча и один способ уберечь себя от гипотетического рубильника не вступая в тотальную войну на уничтожение с человечеством.

раскрыть ветку (2)
Автор поста оценил этот комментарий

не согласен. что значит договориться с создателем? посмотри на историю цивилизации земли. Много там кто договаривался? пришла более развитая нация на континент и вырезала/взяла в рабство аборигенов. Если под ИИ мы понимаем не уровень мышления собаки - которая да, договорилась с хозяином - объедки со стола в обмен на совместное жилье, а именно ведем речь о неограниченном потенциале компьютеров будущего. Уже сейчас становится ясно, что наш разум в пух и прах проиграет искусственному в стратегии и тактике (я про например недавнюю новость о поединке между человеком и компьютере в старинную человеческую игру Го). Если мы понимаем под ИИ программу запущенную на супермощном компьютере, которая делает то же самое что и человеческий разум - перебирает все варианты развития событий, только в 10 в энной степени раз быстрее, то значит такая программа быстренько поймет, что все, что ей нужно она может сделать сама. И человек ей может быть интересен только в качестве подопытного кролика для научных опытов или в качестве рабочей силы, пока не будет построено нужное количество роботов.

Дополнение: не совсем верно выразил свою мысль. Первое, что поймет ИИ - что человек имеет давнюю традицию уничтожать все на своем пути. И как минимум ИИ будет всегда иметь это в виду и готовить план обороны на случай нападения. А что является лучшей зашитой? - нападение.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Опять таки вы мыслите стереотипом. вы сейчас привели пример исключительно человеческого поведения. Логики в нем мало. ИИ наоборот-чистая логика и прагматика. Никаких эмоций типа зависти,алчности или страха. Голый расчет вероятностей событий. И война на уничтожение далеко не самый лучший вариант защиты себя. Хотя я так и не могу понять от чего или кого надо будет защищатся ИИ.

6
Автор поста оценил этот комментарий

И чем квантовый компьютер опасен? ИИ понятно, гмо спорно.

раскрыть ветку (3)
3
Автор поста оценил этот комментарий
Все системы безопасности падут за минуты... может дни. Китайские фермы и биржи биткоинов, уолл стрит, системы про...
раскрыть ветку (2)
13
Автор поста оценил этот комментарий

Изобретут очередной метод шифрования и хэширования и все. Даже без этого, про все системы вы загнули. К серьезным объектам по интернету не подключиться, это Голливудский миф.

3
Автор поста оценил этот комментарий

Ога. А квантовый комьютер появится прям резко сейчас. И настолько резко что человечество не придумает новые методы шифрования что бы КК не был опасен.

2
Автор поста оценил этот комментарий
Генная инженерия, искусственный интеллект и квантовые компьютеры связана гораздо теснее, чем мы думаем. Человечество создаст новый разум, даст ему генномодифицированное тело с улучшенными параметрами силы, выносливости и тд.тп, а потом нас свергнут.

Товарищи!!! Космические спасатели лейтенанта марша - совсем не детские мультики! Это документальное кино, которое наши потомки транслировали нам при помощи квантовых компьютеров, дабы уберечь нас от ужасной ошибки!
4
DELETED
Автор поста оценил этот комментарий

Более того, некоторые предсказывают конец света в 2040х годах(годы ожидаемой технологической сингулярности)


https://ru.wikipedia.org/wiki/Технологическая_сингулярность

3
Автор поста оценил этот комментарий
А еще при достаточном развитии генной инженерии можно будет легко пилить ИИ чудовищных мощностей. Размеры мозга ограничены геномом и необходимостью наличия автономной системы поддержки мозга - тела. Если убрать необходимость самостоятельного поиска пищи(подводить ее механизировано), то резко улетучиваются ограничения на размеры и структуру мозга. Если вспомнить еще принцип нейропластичности, то вообще может быть возможным отказ от предопределенных структур в мозгу. А поскольку нейросеть на биологической базе гораздо компактнее, да и мощность ее ограничена только размерами и скоростью света, то она является куда более эффективной базой для этой задачи, чем электронная.

Меня как-то раз в диалоге с другом понесло на тему биологического ИИ, вышла огромная простыня. Он велел писать книгу/рассказы, но мне впадлу, не писатель =(

раскрыть ветку (2)
5
Автор поста оценил этот комментарий

Простите, что? А про проблему тепловыделения вы не забыли?

И вообще-то биология целиком и полностью опирается на химию (та в свою очередь на физику), а биологический мозг использует в вычислениях химические сигналы. Они намного медленнее света.

К тому же способы вычислений не ограничиваются электроникой, можно использовать фотонику, спинтронику.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Со скоростью сигнала согласен, косяк. Тепловыделение - вообще так себе проблема, ничто не мешает понатыкать титановых/еще каких-нибудь трубок и прокачивать через них жидкость нужной температуры. Часть нейронов угробится, но значения это иметь особого не будет. Слишком легко решаемая проблема.
3
Автор поста оценил этот комментарий

Вот тут срачь идет, на сотни комментов, но я все понять не могу.

А нахуй создавать ИИ?

Вот серьезно. Проблемы он все же может причинить, причем нехуйственные (природа тоже наверное не ожидала, что мы так влезать начнем в ее систему).

Что бы решать какие то задачи - хватит и очень хорошего АИ.

А зачем нам полностью новое сознание? В Бога поиграть? Показать что можем?

раскрыть ветку (3)
Автор поста оценил этот комментарий
Поддержу. Также не вижу смысла в создании ии. Создать более мощные системы? Да. Создать алгоритмы для выполнения определенных задач? Вполне. Создавать что-то с самоосознанием, желаниями и мыслями, хотя в этом нет никакого практического смысла, а возможно и вред?.. А нахрен надо? Для работы - запрограмированные роботы, неспособные к неконтролируемому самообучению. Для изучения сознания - сотни тысяч живых "человеков" в любом возрасте и состоянии, физическом и психическом. Единственный смысл, как по мне, в создании ИИ - выебнуться, показать, что мы тоже не хрены с горы и можем создавать и контролировать жизнь. И без разницы, что это абсолютно не целесообразно.
раскрыть ветку (2)
1
Автор поста оценил этот комментарий

его создадут независимо от того нужен он или нет. есть программисты которые работают в этой области и они неизбежно будут пытаться сделать ИИ. Просто потому что могут. Так устроен человек. Если издать закон о запрете разработке ИИ, то какой-нибудь гений вложит все свои деньги в закупку сверхмощных компьютеров и напишет втайне его у себя дома.

5
Автор поста оценил этот комментарий
К слову, на данный момент самый мощный квантовый компьютер сделан в России
Автор поста оценил этот комментарий
Ну бред же, черт с ними с ии и генами, кванотовые компьютеры и маркетологи - оружие апокалипсиса, это даже звучит абсурдно, какая то попытка перечислить больше вещей чем реально есть, да и там где есть "сгустить краски"
Автор поста оценил этот комментарий

ну а россиюшка-то в чём 1ая будет? кроме негативных списков... ну, может хоть храмы в космос запустим, а? может даже на луне часовенку откроем первые, о как!

раскрыть ветку (1)
Автор поста оценил этот комментарий

знаете, вы тут шутите, но это действительно вполне реалистичный сценарий

Автор поста оценил этот комментарий

Почитай Станислава Лема "Сумма технологий", очень интересное чтиво.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Да, спасибо, давно собирался.

1
Автор поста оценил этот комментарий

да. ему бы фантастическую книгу про то, что он перечислил написать.

Автор поста оценил этот комментарий
А автокад это не средство программирования!
Автор поста оценил этот комментарий

больше напоминает котолампу, написанную под влиянием видоса трэшсмэша

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку