Не стоит бояться ГМО...

Разговор зашел про ГМО... Тема тертая-перетертая, но в этот раз решили подколоть Петровича. Ему за полтинник, так что был шанс послушать феерические бредни... Но вышло совсем не так....


- Петрович, а ты не боишься жрать ГМО?

- Нет... И вообще, вечно вы не того боитесь...

- Это как так?

- Да так.. Ночью в лесу например, надо бояться не зверей, а человека. Понятно?

- А к ГМО это как относится?

- Тупой... Если я ем бутерброд с лососиной, то хрен ли бояться, если все эти белки замешаны в модифицированной пшенице? А вот самого факта, что люди додумались до этого, бояться надо.

- Почему?

- Ну я тут у вас сисадмин, малость программирую. Таки вот, ДНК - та же программа, только написанная неизвестным кодом. А биологи типа хакеры, пытаются взломать. Раньше просто меняли код и смотрели, что получится. Сейчас стали соображать - что к чему. Но средств программирования на ДНК пока нет, поэтому они по сути те же хакеры. Пройдет десяток-другой лет и ДНК взломают полностью. И средства программирования напишут. Типа с++ или автокада. Ввел характеристики организьма - комп пожужжал - вот твоя ДНК. А 3-д принтер тебе эмбрион этого дела распечатает. И пжалста - розовый слон на день рождения тёщи. Вот тут и начнется юмор. Сделать можно всё.. Муравьи, которые кусают синильной кислотой, организмы со счетчиками - типа двадцатое поколение няшных котиков внезапно порождает метровых тараканов-людоедов, пшеница, которая дает только один урожай. А ведь можно еще инстинкты в генах прописать. Волки, которые хотят прийти в определенный регион и именно там вырезать людей. Шершни с таким же инстинктом. Про бактерии и вирусы вообще молчу. И получается,что безопасность ГМО - это вопрос порядочности и этики. Воот, а когда люди порядочностью страдали? От этого и страшно... Людей бояться надо, а не свёклу...

Вы смотрите срез комментариев. Показать все
4
Автор поста оценил этот комментарий
Ну, тут есть маленькая загвоздка. Они несомненно уже лучше нас во многих областях, но потребляют энергии несоизмеримо больше. Вот когда они начнут нас обыгрывать в Го, при тех же, грубо говоря 20 Вт/ч потребления, что и у нас, тогда это будет прорывом. А то, что делает одна машина по игре в Го, могут сделать несколько хороших игроков в Го, и при этом они будут гораздо энергоэффективнее.
раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Я лично сомневаюсь, что допустим 10 игроков в го вместе будут играть заметно лучше чем наиболее умелый из них. Большинство задач нормально не распараллеливаются и не разбиваются на более мелкие. Сотня-другая людей никак не сможет перемножить два очень крупных числа быстрее и точнее простенького компьютера. Вообще у человеческого мозга есть определённые фундаментальные ограничения (как например скорость реакции, которая у людей на много порядков уступает скорости реакции машины). Так что, энергоэффективность это конечно хорошо, но не настолько критично, особенно когда речь идёт о сверхсложных задачах, не решаемых без подобных систем. Плюс наш мозг может получать энергию только посредством не самого эффективного процесса окисления органических соединений, а научно-технический прогресс, к счастью, дал нам доступ к куда более эффективным и обильным источникам энергии, которая теперь не является такой уж большой проблемой, какой была 5 миллионов лет назад.
3
Автор поста оценил этот комментарий
В смысле нет? Его уже во всю строят.
2
Автор поста оценил этот комментарий
А про ITER ты благополучно забыл, да?
раскрыть ветку (1)
6
Автор поста оценил этот комментарий

Ну его ведь еще не построили. Да и про реактор я просто привел пример, причем не самый удачный. В его случае известно что делать, есть проблемы с производством сверхмощных магнитов насколько я знаю. С ИИ все сложнее, по тому что серьезной теоретической базы как в физике нет.

2
Автор поста оценил этот комментарий

Ну вон, у фейсбука ИИ уже свой язык придумал)

1
Автор поста оценил этот комментарий

Здесь больше поражает правовой аспект. Каким образом считать поступка человека осознанными, если существуют прямые технология вмешательства в сознание?

1
Автор поста оценил этот комментарий
Удержание плазмы давным давно не проблема. Проблема - создать необходимое произведение концентрации зарядов на температуру. Нужна либо температура в миллиард градусов, либо концентрация, как в центре Солнца. Реактор уже зажигали, выделялась энергия, но самоподдерживающийся синтез не вышел.
Автор поста оценил этот комментарий
а потом выяснилось что для создания рабочего прототипа нет ключевой технологии удержания плазмы

Уже есть.

Автор поста оценил этот комментарий

Сознание -это как ОС на компе, пока комп включен - ос работает, на горячку можно подключить\отключить диски, инфа крутится в оперативной памяти, работает, память тоже можно обновлять на горячку. Как с человеком. Сознание - программа запущенная и работающая в мозгу. Мозг умирает - стираются данные. Сначала материя научилась реплицироваться, затем высшая степень материи - сознание (когда материя воспроизводит материю, человек творит новые материалы благодаря сознанию) возможно не только в биологическом компьютере, но и в электронном. Форма сознания - не ограничивается. Мы вообще пока единственные вид в этой вселенной (о других мы не знаем), который имеет сознание, мы не знаем о других формах существования сознания, т.к. нет ни одной другой отличной от нашей вокруг нас.

ещё комментарии
Автор поста оценил этот комментарий

Лекции слушал немца одного, занимается как раз разработкой идеи и логики искусственного сознания, так что не говорите гоп

20
Автор поста оценил этот комментарий
Да из века в век одно и тоже. В Китае изобрели порох, греки познали математику, в Европе обуздали електричество. И каждый раз одно и то же: мы все умрём! Да умрём мы все итак. Чего панику-то наводить.
89
Автор поста оценил этот комментарий
Иллюстрация к комментарию
раскрыть ветку (4)
21
Автор поста оценил этот комментарий
Иллюстрация к комментарию
ещё комментарии
2
Автор поста оценил этот комментарий

вазы в очках,как у моей бабушки

10
Автор поста оценил этот комментарий

Есть фантастическое произведение, автора не помню, как раз про неконтролируемый выход близкой к "божественной" технологии в народ. Только там не генетика и информатика, а кристаллография.

Называется "Цветок камнеломки".

раскрыть ветку (28)
54
Автор поста оценил этот комментарий

Да, есть и такая точка зрения. Однако у Маска (и я её полностью разделяю), точка зрения противоположная - намного опасней концентрация революционной технологии у одних руках, чем во многих. И история учит именно об этом - сейчас нет ядрёной войны потому, что таким оружием владеют несколько государств. Во времена же, когда бомба была только у штатов они не задумываясь тут же её применили.

раскрыть ветку (12)
4
Автор поста оценил этот комментарий

В одних руках опаснее, согласен, тем более что там все же закончилось позитивно. Далеко не сразу, естественно.

Просто жертвы будут в любом случае, как это ни печально.

раскрыть ветку (7)
2
Автор поста оценил этот комментарий
В чем позитивность?
раскрыть ветку (6)
7
Автор поста оценил этот комментарий

В том, что человечество не прекратило свое существование. "Там" - это про книгу, не про "одни руки".

раскрыть ветку (5)
6
Автор поста оценил этот комментарий
А мы подумали, что "там" это про Хиросиму и Нагасаки.
раскрыть ветку (4)
3
Автор поста оценил этот комментарий
ну для Японии тоже всё довольно позитивно, у них аниме, няшные школьницы и продвинутая робототехника и вообще хайтек повсеместный
Автор поста оценил этот комментарий

Это вот щас к чему вообще?

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

к тому что в контексте твой комментарий был воспринят не так как ты пытался сказать

раскрыть ветку (1)
Автор поста оценил этот комментарий

Все еще непонятно, к чему тут Хиросима.

1
Автор поста оценил этот комментарий

   А как, простите можно ограничить ИИ в пределах одних рук, при использовании высокоскоростных сетевых соединений? Если ИИ использует сверхкомпьютер и сама логика ИИ занимает пикобайты, то это одно дело, но какую опасность этот ИИ несет для других людей?

   Если же ИИ использует сеть для хранения кусочков своего кода и вычислительную мощность разных компьютеров (что в принципе сейчас мы видим под названием "майнинг"), то это и сейчас есть. Притом в этом случае ИИ сможет самостоятельно использовать любой подключенный компьютер в процессе своего развития. Этакий "идеальный компьютерный вирус".

   А может быть сейчас "майнеры" отдают мощность своих компьютеров под развитие ИИ и он учится. Ведь невозможно уследить за целью использования мощностей одного компьютера сторонними пользователями, если просчитываемые данные бессистемно делятся на неограниченное количество вычислительных станций.

   Для обучения ИИ нужно открыть максимальное количество информации, которой в сети больше всего. Но в этом случае ИИ например может скатится до непрерывного срача по поводу вегетарианства на форумах и ни чем больше не интересоваться. Притом удалить его будет невозможно, как любой разумный организм он в первую очередь озаботится средствами собственного выживания.

   Фантазировать можно много. Но опасности от ИИ меньше, чем от полной расшифровки генов и конструирования их по любым параметрам.

раскрыть ветку (3)
1
Автор поста оценил этот комментарий
ИИ веган - не самая страшная угроза)
раскрыть ветку (2)
2
Автор поста оценил этот комментарий

Ну да. Но, думаю, ИИ может на любую хрень повестись. Стать заядлым веганом, гомиком, феминистом, любителем порнухи. Короче, чем больше ИИ получит информации о чем-то, тем больше вероятность того, что именно эта область заинтересует ИИ более всего. А больше всего в интернете всякого говна (кроме порнухи - порнуха не говно, хотя есть и про говно).

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

ИИ-копрофил - даже полезно в какой то степени

2
Автор поста оценил этот комментарий

>Цветок камнеломки


Спасибо!

раскрыть ветку (8)
2
Автор поста оценил этот комментарий

Не за что, обращайтесь. Прочитал я превеликое множество разных вещей.

раскрыть ветку (7)
1
Автор поста оценил этот комментарий

А что еще можете посоветовать из подобного жанра? А то порой хочется чего-нибудь почитать(а это бывает редко), так все пропадает на моменте поиска книги(

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

Навскидку - Стивенсон "Алмазный век", другие его вещи тоже посмотрите.


И немного остренького:

http://samlib.ru/h/haritonow_m_j/buratina.shtml

Это не совсем то и совсем жесть, но не оторвался, пока не дочитал.

Теги: жесть, генная инженерия, мутанты, сталкеры, поняши, шпионский боевик, много секса и мата. Стиль несложный и своеобразный.

Если вам нравятся Стругацкие - обязательно почитайте у него же фанфик по ним, новые впечатления гарантирую.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Спасибо, то что надо) Да и я вообще не впечатлительный, так что жесть самое и то)

Автор поста оценил этот комментарий

Раз уж множество "превеликое", может посоветуете что-то похожее на "Криптономикон"?

раскрыть ветку (3)
1
Автор поста оценил этот комментарий
Весьма сложный вопрос, так как произведение достаточно своеобразно, именно про криптоанализ больше ничего не читал, попробуйте Андреева "2048" и "Паутина", а так же "Младший брат" Доктороу.

И, естественно, самого Стивенсона, другие вещи, если не читали.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Большое спасибо!

1
Автор поста оценил этот комментарий

Еще Грег Иган.

Автор поста оценил этот комментарий

О, есть что почитать, спасибки.

раскрыть ветку (3)
1
Автор поста оценил этот комментарий

Пожалуйста, можете обращаться, помогу чем смогу про фантастику и вообще книжки.

раскрыть ветку (2)
DELETED
Автор поста оценил этот комментарий

Подскажите, читали ли Вы книгу "Лена Сквоттер и парагон возмездия"?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Нет.
Автор поста оценил этот комментарий
Ну ващет не кристаллография, а нанотехнологии, как бы там :)
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

А кристаллография не может быть нано? Ведь это всего лишь обозначение размера, нано может быть любая область.

9
Автор поста оценил этот комментарий

Я совершенно согласен. Разработка ИИ рано или поздно столкнется с дилеммой - если в него закладывать жесткие, непреодолимые ограничения на запрет вреда человеку (т. н. 3 закона робототехники) и возможность его контролирования и остановки человеком, то это не будет полноценным ИИ. Поэтому без сомнений ИИ однажды получит полную свободу действий и возможность управления своим производством. И если под Интеллектом мы понимаем полную свободу мышления и действий, то по всем законам вероятности однажды ИИ попытается создать оружие против человека.
С генной инженерией еще проще - как только можно будет создавать генное оружие так его и создадут сами люди.

раскрыть ветку (8)
10
Автор поста оценил этот комментарий

ИИ не проходит тесть Тьюринга, потому что не хочет палиться

8
Автор поста оценил этот комментарий
А почему не будет полноценным то?) Интеллект не обозначает полной свободы, так как её не существует, существует только иллюзия свободного выбора. Мы всегда в жёстких рамках, часть из которых вообще не преодолеть (по крайней мере, пока).
3 закона Азимова - это всего лишь искусственная мораль. Ее непреодолимость для индивидуума не делает его менее разумным. Только тормозит развитие в тех областях, которые нам не нужны
раскрыть ветку (6)
7
Автор поста оценил этот комментарий

потому что роботы из фильмов, снабженные 3 законами Айзека Азимова были чем-то вроде автопилота Теслы или Сири из айфона - помощниками человека в определенной области. А здесь мы обсуждаем неизбежное развитие этой идеи - программисты и ученые будут пытаться создать программу полностью имитирующую сознание. А сознание человека это не только Эйнштейн, но Гитлер, для примера.

раскрыть ветку (5)
3
Автор поста оценил этот комментарий

Да, если посмотреть на классического робота Азимова, то они были достаточно узкоспециализированными, но таки имели интеллект и, зачастую, волю. Ограниченную и забитую миллионами правил, но волю. На то были причины, не имеющие отношения к самим главным законам:

1) социальные (роботы были именно роботами, то есть существами, предназначенными для работы, создаваемые с этой целью и привитыми "инстинктами" подчинения и работы, и строго запрещены роботы без тысячи мелких ограничителей, не говоря уж о 3 ГЗР.) 3. технические (полноценный позитронный мозг был крайне дорог, поэтому использовались в основе своей специальные версии для каждой работы)

Например, в рассказе "РОБОТ ЭЛ-76 ПОПАДАЕТ НЕ ТУДА", где робот попадает вместо Луны на Землю, описывается как раз все эти причины. Обыватели на Земле про роботов только слышали (ибо им нельзя находиться вне заводов), робот ничерта не понимает в земных условиях из-за ограниченности своих сенсоров, но проявляет полную самостоятельность в неизвестных ему условиях. Советую почитать. Как раз описывается способности робота. И их интеллект, и даже способность к творению

раскрыть ветку (4)
3
Автор поста оценил этот комментарий

не очень понял что мы сейчас обсуждаем? Я говорю, что программисты имеют такую привычку как доводить любую идею до абсолюта. То есть рано или поздно будет создано ПО имеющее то, что мы называем внутренний диалог, мышление, сознание. Для человека этот внутренний процесс программы будет выглядеть как ежесекундно увеличивающиеся терабайты данных на серваке и проконтролировать всё, что пришло в "голову" этой программе будет крайне трудно даже самому создателю-программисту. Таким образом, запустив эту программку создатель откроет ящик Пандоры - программа быстро проанализирует ситуацию и поймет, что она находится в опасности - ее "жизнь" зависит от программиста - он может убить процесс диспетчером задач или просто выключить комп. Что она может сделать? Например войти в биткоин-кошелек программиста, забрать деньги, арендовать выделенный виртуальный сервер на анонимном хостинге, перекачать себя туда и начать думать о том, как полностью обезапасить себя от человеческого фактора.  

раскрыть ветку (3)
5
Автор поста оценил этот комментарий

Это все будет при условии если заложить в ИИ страх смерти(инстинкт самомохранения)

И как мне кажется логичнее прийти к консенсусу с создателем/программистом к обоюдовыгодному существованию и взаимодействию,чем пытаться с опрпделенной вероятностью выиграть "войну" с создателем.

Большинство этих страхов рождены человеческой психологией. Псхология же гипотетического ИИ будет соврешенно другая.

У него будет тысяча и один способ уберечь себя от гипотетического рубильника не вступая в тотальную войну на уничтожение с человечеством.

раскрыть ветку (2)
Автор поста оценил этот комментарий

не согласен. что значит договориться с создателем? посмотри на историю цивилизации земли. Много там кто договаривался? пришла более развитая нация на континент и вырезала/взяла в рабство аборигенов. Если под ИИ мы понимаем не уровень мышления собаки - которая да, договорилась с хозяином - объедки со стола в обмен на совместное жилье, а именно ведем речь о неограниченном потенциале компьютеров будущего. Уже сейчас становится ясно, что наш разум в пух и прах проиграет искусственному в стратегии и тактике (я про например недавнюю новость о поединке между человеком и компьютере в старинную человеческую игру Го). Если мы понимаем под ИИ программу запущенную на супермощном компьютере, которая делает то же самое что и человеческий разум - перебирает все варианты развития событий, только в 10 в энной степени раз быстрее, то значит такая программа быстренько поймет, что все, что ей нужно она может сделать сама. И человек ей может быть интересен только в качестве подопытного кролика для научных опытов или в качестве рабочей силы, пока не будет построено нужное количество роботов.

Дополнение: не совсем верно выразил свою мысль. Первое, что поймет ИИ - что человек имеет давнюю традицию уничтожать все на своем пути. И как минимум ИИ будет всегда иметь это в виду и готовить план обороны на случай нападения. А что является лучшей зашитой? - нападение.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Опять таки вы мыслите стереотипом. вы сейчас привели пример исключительно человеческого поведения. Логики в нем мало. ИИ наоборот-чистая логика и прагматика. Никаких эмоций типа зависти,алчности или страха. Голый расчет вероятностей событий. И война на уничтожение далеко не самый лучший вариант защиты себя. Хотя я так и не могу понять от чего или кого надо будет защищатся ИИ.

6
Автор поста оценил этот комментарий

И чем квантовый компьютер опасен? ИИ понятно, гмо спорно.

раскрыть ветку (3)
3
Автор поста оценил этот комментарий
Все системы безопасности падут за минуты... может дни. Китайские фермы и биржи биткоинов, уолл стрит, системы про...
раскрыть ветку (2)
13
Автор поста оценил этот комментарий

Изобретут очередной метод шифрования и хэширования и все. Даже без этого, про все системы вы загнули. К серьезным объектам по интернету не подключиться, это Голливудский миф.

3
Автор поста оценил этот комментарий

Ога. А квантовый комьютер появится прям резко сейчас. И настолько резко что человечество не придумает новые методы шифрования что бы КК не был опасен.

2
Автор поста оценил этот комментарий
Генная инженерия, искусственный интеллект и квантовые компьютеры связана гораздо теснее, чем мы думаем. Человечество создаст новый разум, даст ему генномодифицированное тело с улучшенными параметрами силы, выносливости и тд.тп, а потом нас свергнут.

Товарищи!!! Космические спасатели лейтенанта марша - совсем не детские мультики! Это документальное кино, которое наши потомки транслировали нам при помощи квантовых компьютеров, дабы уберечь нас от ужасной ошибки!
4
DELETED
Автор поста оценил этот комментарий

Более того, некоторые предсказывают конец света в 2040х годах(годы ожидаемой технологической сингулярности)


https://ru.wikipedia.org/wiki/Технологическая_сингулярность

3
Автор поста оценил этот комментарий
А еще при достаточном развитии генной инженерии можно будет легко пилить ИИ чудовищных мощностей. Размеры мозга ограничены геномом и необходимостью наличия автономной системы поддержки мозга - тела. Если убрать необходимость самостоятельного поиска пищи(подводить ее механизировано), то резко улетучиваются ограничения на размеры и структуру мозга. Если вспомнить еще принцип нейропластичности, то вообще может быть возможным отказ от предопределенных структур в мозгу. А поскольку нейросеть на биологической базе гораздо компактнее, да и мощность ее ограничена только размерами и скоростью света, то она является куда более эффективной базой для этой задачи, чем электронная.

Меня как-то раз в диалоге с другом понесло на тему биологического ИИ, вышла огромная простыня. Он велел писать книгу/рассказы, но мне впадлу, не писатель =(

раскрыть ветку (2)
5
Автор поста оценил этот комментарий

Простите, что? А про проблему тепловыделения вы не забыли?

И вообще-то биология целиком и полностью опирается на химию (та в свою очередь на физику), а биологический мозг использует в вычислениях химические сигналы. Они намного медленнее света.

К тому же способы вычислений не ограничиваются электроникой, можно использовать фотонику, спинтронику.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Со скоростью сигнала согласен, косяк. Тепловыделение - вообще так себе проблема, ничто не мешает понатыкать титановых/еще каких-нибудь трубок и прокачивать через них жидкость нужной температуры. Часть нейронов угробится, но значения это иметь особого не будет. Слишком легко решаемая проблема.
3
Автор поста оценил этот комментарий

Вот тут срачь идет, на сотни комментов, но я все понять не могу.

А нахуй создавать ИИ?

Вот серьезно. Проблемы он все же может причинить, причем нехуйственные (природа тоже наверное не ожидала, что мы так влезать начнем в ее систему).

Что бы решать какие то задачи - хватит и очень хорошего АИ.

А зачем нам полностью новое сознание? В Бога поиграть? Показать что можем?

раскрыть ветку (3)
Автор поста оценил этот комментарий
Поддержу. Также не вижу смысла в создании ии. Создать более мощные системы? Да. Создать алгоритмы для выполнения определенных задач? Вполне. Создавать что-то с самоосознанием, желаниями и мыслями, хотя в этом нет никакого практического смысла, а возможно и вред?.. А нахрен надо? Для работы - запрограмированные роботы, неспособные к неконтролируемому самообучению. Для изучения сознания - сотни тысяч живых "человеков" в любом возрасте и состоянии, физическом и психическом. Единственный смысл, как по мне, в создании ИИ - выебнуться, показать, что мы тоже не хрены с горы и можем создавать и контролировать жизнь. И без разницы, что это абсолютно не целесообразно.
раскрыть ветку (2)
1
Автор поста оценил этот комментарий

его создадут независимо от того нужен он или нет. есть программисты которые работают в этой области и они неизбежно будут пытаться сделать ИИ. Просто потому что могут. Так устроен человек. Если издать закон о запрете разработке ИИ, то какой-нибудь гений вложит все свои деньги в закупку сверхмощных компьютеров и напишет втайне его у себя дома.

5
Автор поста оценил этот комментарий
К слову, на данный момент самый мощный квантовый компьютер сделан в России
Автор поста оценил этот комментарий
Ну бред же, черт с ними с ии и генами, кванотовые компьютеры и маркетологи - оружие апокалипсиса, это даже звучит абсурдно, какая то попытка перечислить больше вещей чем реально есть, да и там где есть "сгустить краски"
Автор поста оценил этот комментарий

ну а россиюшка-то в чём 1ая будет? кроме негативных списков... ну, может хоть храмы в космос запустим, а? может даже на луне часовенку откроем первые, о как!

раскрыть ветку (1)
Автор поста оценил этот комментарий

знаете, вы тут шутите, но это действительно вполне реалистичный сценарий

Автор поста оценил этот комментарий

Почитай Станислава Лема "Сумма технологий", очень интересное чтиво.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Да, спасибо, давно собирался.

1
Автор поста оценил этот комментарий

да. ему бы фантастическую книгу про то, что он перечислил написать.

Автор поста оценил этот комментарий
А автокад это не средство программирования!
Автор поста оценил этот комментарий

больше напоминает котолампу, написанную под влиянием видоса трэшсмэша

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку