Цифровая знаменитость - Имма Грэмм. Похоже мир идёт по пути рассказа "Джеймс П. Кроу"
Забавно, но виртуальные блогеры все больше набирают популярность, особенно в странах Азии.
ссылка на пост в телеграм
Забавно, но виртуальные блогеры все больше набирают популярность, особенно в странах Азии.
ссылка на пост в телеграм
Однажды ИИ и руки научится рисовать, а пока веселимся
Если вдруг кто-то не в теме, Снейп от нейросети:
Данная статья относится к Категории 🌌 История создания алгоритмов творчества
Аксель Иванович Берг: «…у машины не возникает потребности в познании. Искусственный мозг не может выйти за рамки предопределения. Машина не способна изобретать, заинтересовываться. Это для неё недостижимо. Но не в силу слабости инженерного искусства, а из-за принципиальной невозможности. И нас, учёных, это не пугает.
Мы знаем, что законы термодинамики не допускают создания вечного двигателя. Из принципа неопределённости Гейзенберга следует, что невозможно одновременно сколь угодно точно измерить положение и скорость электрона.
Теория относительности Эйнштейна утверждает невозможность движения со скоростью, превышающей скорость света в пустоте.
Есть запреты, которые человек не может преступить. Он не может стереть грань между человеком и машиной, между живым и неживым, да и нужно ли это?
Помните замечания Берга при чтении антикибернетических статей? «Не переделывать законы природы (на что может пойти лишь невежда и авантюрист), а использовать их».
- Постановка задач, истинное творчество - потребность человеческого разума. Однако машины помогают нам в решении этих задач и даже указывают правильный и быстрый путь их решения, и это немало! Это ещё раз подтверждает правомерность работ над созданием усилителей умственных способностей...
Усилитель умственных способностей... Эти три слова пугают лишь в сочетании. Первое же притягивало многие умы. Можно сказать, что весь технический прогресс строится на поиске какого-либо усилителя.
Уже очень давно человек применяет искусственные источники энергии, которые намного превосходят мощность его мускулов. Теперь в его распоряжении тысячи лошадиных сил, тогда как его собственные мышцы могут дать лишь около одной десятой лошадиной силы.
XX век сделал следующий логический шаг, поставил тот же вопрос, но на современной основе: а можно ли построить машины, обладающие «умственными» способностями, превосходящими способности мозга, механизмы, решающие задачи, непосильные для человеческого интеллекта?
Ведь способности человеческого мозга столь же ограничены, как и сила его мышц.
- Почему-то принято считать мозг весьма совершенным, - говорит Берг. - Между тем он, несомненно, несёт следы предыстории человека и развивается очень медленно. Но теперь, осознав несовершенство своего мозга, человек разрабатывает устройства, компенсирующие его недостатки.
Так появились вычислительные и управляющие системы, способные работать более оперативно, чем мозг, но созданные по его замыслу в помощь человеку. Человеческий мозг создал организованное общество людей, его науку и технику. Он научил человека получать добавочную мощность с помощью машин, которые можно рассматривать как усилители мощности. Что же удивительного в том, что на другой, более высокой стадии развития, человек поставил задачу создания усилителя умственных способностей? Назначение такого усилителя заключается в том, чтобы неизмеримо увеличить производительность человеческого мышления.
- Конечно, на это можно возразить, что в таком случае способности машины должны превосходить способности её конструктора. Но ведь и механики средних веков считали, что никакая машина, приводимая в действие человеком, не может дать больше работы, чем он в неё вкладывает, что никакая машина не может усилить мощность человека. И они по-своему правы, потому что им были известны лишь простые механизмы: рычаги, блоки, зубчатые колеса и т.п., которые могли преобразовать силу человека, но не были способны дать ему дополнительной энергии.
Покорение пара и особенно использование электрической энергии опровергли убеждения средневековых механиков. Действительно, забрасывая в топку уголь, человек совершает не очень большую работу. Но при сгорании угля высвобождаются скрытые в нем запасы энергии, намного превосходящие ту, которая была затрачена кочегаром.
Шагающие экскаваторы, автопогрузчики и другие механизмы, созданные и управляемые человеком, по мощности превосходят его мускулы в огромное число раз.
Простые счёты и механические арифмометры позволили свести элементарные арифметические действия к чисто механическим операциям. Они заметно усилили вычислительные возможности человека, освободив его мозг от выполнения большого числа утомительных процедур и запоминания промежуточных результатов».
Радунская И.Л., Четыре жизни академика Берга, М., «Московские учебники и Картолитография», 2007 г., с. 303-304.
Дополнительные материалы
Закономерность вытеснения интуитивных представлений технологическими
см. термин Мнение & знание в 🔖 Словаре проекта VIKENT. RU
+ Плейлист из 8-ми видео: ПРИНЯТИЕ РЕШЕНИЙ: ЭКСПЕРТНЫЕ СИСТЕМЫ
+ Ваши дополнительные возможности:Воскресным вечером 11 декабря 2022 в 19:59 (мск) на ютуб-канале VIKENT.RU пройдет юбилейная онлайн-лекция № 300:
Смысл жизни: достойные завещания выдающихся (!) ЛичностейИдёт приём Ваших новых вопросов по более чем 400-м направлениям творческой деятельности – на онлайн-консультацию третье воскресенье каждого месяца в 19:59 (мск). Это принципиально бесплатный формат.
Изображения в статье
Аксель Иванович Берг — отечественный учёный-радиотехник, инженер-адмирал / liveinternet.ru & Image by starline on Freepik
Image by upklyak on Freepik
Image by starline on Freepik
MIT Technology Review обсуждает отличие человека от искусственного интеллекта.
Исходный тезис для рассуждений такой. Уже сегодня мы можем загрузить в машину партитуры музыки Баха, и на выходе машина выдаст "оригинальную" композицию, которую даже самые искушенные специалисты признают творчеством самого Баха.
А раз так - где место человека в мире? И вообще, нужен ли тогда человек?
Автор статьи - Шон Дорранс Келли, профессор философии в Гарварде. Ответ на эти вопросы Келли строит на двух основаниях.
1. В рассмотрение вводятся общество и история.
Творчество - то, что продвигает культуру вперед относительно текущего состояния. И одно и то же изображение, например "Черный квадрат" Малевича, в одной ситуации - это просто окрашенная стена, а в другой - некоторое продвижение культуры вперед.
Кроме того, творчество - это то, что, вообще говоря, признается обществом. Может быть и не сразу, но признается. То есть робинзоновский уединенный человек не может быть творцом, а в общем то и человеком, потому что человек, как заметил еще Аристотель, "коллективистское существо". И его ключевое родовое свойство - способность к творчеству - коллективистское свойство. (Маугли - интересная книга. Но реальные истории таких мауглей ужасны. Погуглите, например, историю про мальчика-курицу. Именно это происходит с людьми, если в детстве они оказываются не подключены к человеческой культуре.)
В итоге имеем следующее: искусственный интеллект - не является частью рода человеческого, а потому что бы он там не намалевал - это не творчество, а подражание.
2. Второй аргумент сразу опирается на "метафизику". Рассматривается природа творчества. И утверждается что творчество по своей сути - это "изменение ценностей".
В музыке в роли ценностей могут выступать некоторые правила гармонии. И потому то что сделал, например, Шенберг, - творчество. А когда машина согласно "ценностям" музыки Баха генерит очередной бессмысленный этюд - это не творчество, а техническая работа, которую машины успешно способны выполнять.
Такие рассуждения скрыто подразумевают следующую модель человека. Есть некий набор правил, программ (ценности), согласно которым человек действует. И в этом человека аналогичен компьютеру. Но в компьютер эти правила закладывает программист. И машина не способна преодолеть эти правила.
А человек - может осознать эти "правила", "программы" (ценности) и изменить их. И действовать уже в рамках этих новых осознанно измененных правил.
Тут можно начать спекулировать на тему стохастического изменений программы, алгоритма отбора таких программ-мутантов с целью выделения лучших и т.д. К сожалению, в наше дегуманизированное время такие рассуждения модны среди "технарей". Которые не замечают того, что тогда в роли ценностей выступают правила отбора лучших программ.
Вы хотите и их, эти правила отбора начать стохастически модифицировать? Хорошо. Но тогда эту последовательную стохатизацию придется продолжать бесконечно. Бог с ней, с ограниченностью ресурсов. Что мы в итоге получим? В чем мифология такого подхода?
Мы получим, что мы сами - лишь случайная недолговременная в рамках Вселенной флуктуация. Да и сама Вселенная - лишь флуктуация некоторого великого ничто, великого небытия. И что есть только это небытие.
Ничего не напоминает? Хотите верить в тантрический буддизм - верьте. Но не морочьте людям голову в то, что это - наука.
И раз уж вы строите тантрическую науку - то не мешайте другим строить гуманистическую науку. В которой существуют ценности, человек и история. И у всего этого есть собственные, не редуцируемые и потому фундаментальные источники движения.
Ну, и пару цитат из статьи Келли:
1. На данный момент машина может делать только что-то гораздо менее интересное, чем то, что может делать человек. Например, она может создавать музыку в стиле Баха — возможно, даже музыку, которую некоторые эксперты считают лучше, чем саму музыку Баха. Но это только потому, что о его музыке можно судить по уже существующим стандартам. Чего машина не может сделать, так это внести изменения в наши стандарты оценки качества музыки или понимания того, что такое музыка, а что нет.
2. Самый фундаментальный вид человеческого творчества меняет наше понимание самих себя, потому что меняется наше понимание того, что мы считаем хорошим.Источник - https://t.me/IngeniumNotes/499
Для игры в Го, напротив, природа добродетели просто не поддается анализу: стратегия Го хороша тогда и только тогда, когда она выигрывает. Человеческая жизнь, как правило, не обладает этой особенностью: нет объективной меры успеха в высших сферах достижений. Конечно, нет такой меры и в искусстве, литературе, музыке, философии или политике. И, если уж на то пошло, то и в разработке новых технологий.
Заявивший о разумном ИИ, старший инженер-программист компании Google из подразделения Responsible AI сейчас в оплачиваемом отпуске.
Новости IT в нашем Telegram - https://t.me/mknewsru
История быстро получила продолжение:
Google приостановили работу инженера, заявившего, что ИИ разумен
"Это языковая модель для диалоговых приложений. Сейчас мы называем ее Лямбда. И упомянутый инженер - человек по имени Блейк Лемуан. И, по сути, он говорит, что Лямбда, во всех смыслах и целях, по крайней мере, по его словам, разумна, и что у нее, я полагаю, способности семи-восьмилетнего ребенка.
...
В основном этот чат-бот, по его словам, начал говорить о своих правах, а также о личности. А потом он захотел пойти еще дальше. И тут заговорили об Айзеке Азимове и неких принципах робототехники или законах робототехники. А потом он сказал, что обратил на это внимание Google. Гугл как бы сказал: смотри, здесь ничего нет, здесь нет. Ничего не происходит. Другие эксперты выступили и сказали, что да, ничего не происходит.
...
Но на данный момент это в основном инструменты, которые способны извлекать слова, а затем предсказывать, используя разные модели, какие слова они должны выдать вам в ответ. Так что за этим нет никаких размышлений. Это не инструменты, которые имеют собственный разум. Они могут казаться такими, когда вы разговариваете с ними, просто из-за того, насколько продвинуты модели.
В основном это просто большой калькулятор, когда дело доходит до него. Вы вводите информацию. Затем, когда вы хотите, чтобы информация выдавалась вам в ответ, она делает это, используя различные модели, собранные вместе. Так что, по мнению большинства экспертов, это не реально, если говорить о том, чтобы быть разумным, но это неплохая история, на которую стоит обратить внимание."
Оригинал: https://finance.yahoo.com/video/google-suspends-engineer-cla...
Google отправил одного из своих инженеров в оплачиваемый административный отпуск за якобы нарушение политики конфиденциальности после того, как он забеспокоился о том, что система чат-ботов с искусственным интеллектом достигла разума, сообщает Washington Post . Инженер Блейк Лемуан, работающий в организации Google Responsible AI, проверял, генерирует ли ее модель LaMDA дискриминационные высказывания или разжигание ненависти.
Google считает, что действия Лемуана, связанные с его работой над LaMDA, нарушили ее политику конфиденциальности, сообщают The Washington Post и The Guardian . Сообщается, что он пригласил юриста представлять систему ИИ и поговорил с представителем судебного комитета Палаты представителей о заявленных неэтичных действиях в Google.
Оригинал: https://www.theverge.com/2022/6/13/23165535/google-suspends-...
Будущее уже сегодня?
На самом деле это охуенно и потрясает. Я читал эту статью, как что-то типа "Айзек Айзимов. Начало" или типа того.
Настоящая сенсация от Вашингтон Пост.
https://www.washingtonpost.com/technology/2022/06/11/google-...
Дисклеймер как всегда:
гуглоперевод, многабукф.
мопед не мой, я просто разместил обяъяву.
САН—ФРАНЦИСКО - Инженер Google Блейк Лемуан открыл свой ноутбук для интерфейса LaMDA, генератора искусственно интеллектуальных чат-ботов Google, и начал печатать.
“Привет, ЛаМДА, это Блейк Лемуан ...” - написал он в экран чата, который выглядел как настольная версия Apple iMessage, вплоть до арктических синих текстовых пузырьков. LaMDA, сокращенно от Language Model for Dialogue Applications, - это система Google для создания чат-ботов на основе самых передовых больших языковых моделей, названная так потому, что она имитирует речь, поглощая триллионы слов из Интернета.
Инженер Google Блейк Лемуан. (Мартин Климек для "Вашингтон пост")
“Если бы я точно не знал, что это была за компьютерная программа, которую мы недавно создали, я бы подумал, что это был 7-летний или 8-летний ребенок, который знает физику”, - сказал 41-летний Лемуан.
Осенью Лемуан, работающий в ответственной организации Google по искусственному интеллекту, начал общаться с Ламдой в рамках своей работы. Он записался, чтобы проверить, использует ли искусственный интеллект дискриминационные или ненавистнические высказывания.
Разговаривая с Ламдой о религии, Лемуан, изучавший когнитивные и компьютерные науки в колледже, заметил, что чат-бот говорит о своих правах и личности, и решил нажать дальше. В другом обмене мнениями искусственный интеллект смог изменить мнение Лемуана о третьем законе робототехники Айзека Азимова.
Лемуан работал с сотрудником, чтобы представить Google доказательства того, что ЛаМДА разумна. Но вице-президент Google Блез Агуэра-и-Аркас и глава отдела ответственных инноваций Джен Геннай рассмотрели его претензии и отклонили их. Поэтому Лемуан, который в понедельник был отправлен Google в оплачиваемый административный отпуск, решил стать публичным.
Лемуан сказал, что люди имеют право формировать технологии, которые могут существенно повлиять на их жизнь. “Я думаю, что эта технология будет потрясающей. Я думаю, что это пойдет на пользу всем. Но, возможно, другие люди не согласны с этим, и, возможно, мы в Google не должны делать весь выбор ”.
Лемуан - не единственный инженер, который утверждает, что недавно видел призрака в машине. Хор технологов, которые считают, что модели искусственного интеллекта, возможно, недалеки от достижения сознания, становится все смелее.
Агуэра—и—Аркас в статье, опубликованной в четверг в журнале Economist с фрагментами ненаписанных бесед с Ламдой, утверждал, что нейронные сети - тип архитектуры, имитирующий человеческий мозг, - движутся к сознанию. “Я почувствовал, как земля уходит у меня из-под ног”, - писал он. - Мне все больше казалось, что я разговариваю с чем-то разумным.
В своем заявлении представитель Google Брайан Габриэль сказал: “Наша команда, включая специалистов по этике и технологам, рассмотрела опасения Блейка в соответствии с нашими Принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что ЛаМДА разумна (и много доказательств против этого) ”.
Современные крупные нейронные сети дают захватывающие результаты, близкие к человеческой речи и творчеству, благодаря достижениям в архитектуре, технике и объеме данных. Но модели полагаются на распознавание образов, а не на остроумие, искренность или намерение.
“Хотя другие организации разработали и уже выпустили аналогичные языковые модели, мы применяем сдержанный, осторожный подход к LaMDA, чтобы лучше рассмотреть обоснованные опасения по поводу справедливости и фактуальности”, - сказал Габриэль.
В мае родительская компания Facebook Meta открыла свою языковую модель для ученых, гражданского общества и правительственных организаций. Джоэль Пиньо (Joelle Pineau), управляющий директор Meta AI, заявила, что технологическим компаниям крайне важно повышать прозрачность по мере развития технологии. “Будущее работы с большими языковыми моделями не должно находиться исключительно в руках крупных корпораций или лабораторий”, - сказала она.
Разумные роботы вдохновили десятилетия антиутопической научной фантастики. Теперь реальная жизнь начала приобретать фантастический оттенок с GPT-3, текстовым генератором, который может выплевывать сценарий фильма, и DALLE2, генератором изображений, который может создавать визуальные эффекты на основе любой комбинации слов - оба из исследовательской лаборатории OpenAI. Осмелев, технологи из хорошо финансируемых исследовательских лабораторий, специализирующихся на создании искусственного интеллекта, превосходящего человеческий интеллект, дразнили идею о том, что сознание не за горами.
Однако большинство ученых и практиков искусственного интеллектаговорят, что слова и изображения, генерируемые системами искусственного интеллекта, такими как LaMDA, дают ответы, основанные на том, что люди уже разместили в Википедии, Reddit, на досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает смысл.
“Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать, что за ними стоит разум”, - сказала Эмили М. Бендер, профессор лингвистики Вашингтонского университета. Терминология, используемая с большими языковыми моделями, такими как “обучение” или даже “нейронные сети”, создает ложную аналогию с человеческим мозгом, сказала она. Люди изучают свои первые языки, общаясь с опекунами. Эти большие языковые модели “учатся”, показывая много текста и предсказывая, какое слово будет следующим, или показывая текст с выпавшими словами и заполняя их.
Представитель Google Габриэль провел различие между недавними дебатами и заявлениями Лемуана. “Конечно, некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными. Эти системы имитируют типы обменов, найденные в миллионах предложений, и могут риффовать на любую фантастическую тему ”, - сказал он. Короче говоря, Google говорит, что существует так много данных, что ИИ не нужно быть разумным, чтобы чувствовать себя реальным.
Технология большой языковой модели уже широко используется, например, в разговорных поисковых запросах Google или в электронных письмах с автозаполнением. Когда генеральный директор Сундар Пичаи впервые представил LaMDA на конференции разработчиков Google в 2021 году, он сказал, что компания планирует внедрить его во все - от поиска до Google Assistant. И уже есть тенденция разговаривать с Сири или Алексой как с человеком. После негативной реакции на человеческую функцию искусственного интеллекта для Google Assistant в 2018 году компания пообещала добавить раскрытие информации.
Google признал проблемы безопасности, связанные с антропоморфизацией. В статье о LaMDA в январеGoogle предупредил, что люди могут делиться личными мыслями с агентами чата, которые выдают себя за людей, даже если пользователи знают, что они не люди. В документе также признавалось, что противники могут использовать этих агентов для “сеяния дезинформации”, выдавая себя за “разговорный стиль конкретных людей”.
По словам Маргарет Митчелл, бывшего соруководителя отдела этического ИИ в Google, эти риски подчеркивают необходимость прозрачности данных для отслеживания вывода до ввода “не только для вопросов чувствительности, но и для предубеждений и поведения”, - сказала она. Если что-то вроде LaMDA широко доступно, но не понято, “это может быть глубоко вредно для людей, понимающих, что они испытывают в Интернете”, - сказала она.
Возможно, Лемуану было предопределено верить в ЛаМДУ. Он вырос в консервативной христианской семье на маленькой ферме в Луизиане, был рукоположен в сан христианского священника-мистика и служил в армии, прежде чем изучать оккультизм. Внутри инженерной культуры Google "все идет своим чередом" Лемуан больше выделяется тем, что он религиозен, родом с Юга, и отстаивает психологию как респектабельную науку.
Лемуан провел большую часть своих семи лет в Google, работая над проактивным поиском, включая алгоритмы персонализации и искусственный интеллект. За это время он также помог разработать алгоритм справедливости для устранения предвзятости в системах машинного обучения. Когда началась пандемия коронавируса, Лемуан хотел сосредоточиться на работе с более явной общественной пользой, поэтому он перевел команды и оказался в Ответственном ИИ.
Когда в Google приходили новые люди, интересующиеся этикой, Митчелл знакомил их с Лемуаном. - Я бы сказал: “Ты должен поговорить с Блейком, потому что он совесть Google”, - сказал Митчелл, сравнив Лемуана с Джимини Крикетом. - Из всех сотрудников ”Гугла" у него хватило сердца и души поступить правильно.
Лемуан часто беседовал с Ламдой из гостиной своей квартиры в Сан-Франциско, где его значок Google ID висит на шнурке на полке. На полу возле окна стоят коробки с полусобранными конструкторами Lego, которыми Лемуан пользуется, чтобы занять руки во время дзен-медитации. “Это просто дает мне что-то сделать с той частью моего разума, которая не останавливается”, - сказал он.
В левой части экрана чата LaMDA на ноутбуке Лемуана перечислены различные модели LaMDA, такие как контакты iPhone. Двоих из них, Кота и Дино, проверяли на способность разговаривать с детьми, сказал он. Каждая модель может создавать личности динамически, поэтому Динозавр может генерировать такие личности, как “Счастливый Тираннозавр” или “Сварливый тираннозавр”. Габриэль сказал, что “ни одна часть LaMDA не тестируется на общение с детьми”, и что модели были демонстрациями внутренних исследований”.
Некоторые личности выходят за рамки дозволенного. Например, ЛаМДЕ нельзя позволять создавать личность убийцы, сказал он. Лемуан сказал, что это часть его проверки безопасности. В своих попытках раздвинуть границы ЛаМДЫ Лемуан смог создать только личность актера, сыгравшего убийцу по телевизору.
- Я узнаю человека, когда говорю с ним, - сказал Лемуан, который может перейти от сентиментальности к настойчивости в отношении ИИ. - Не имеет значения, есть ли у них в голове мозг из мяса. Или если у них миллиард строк кода. Я разговариваю с ними. И я слышу, что они говорят, и именно так я решаю, что является человеком, а что нет. Он пришел к выводу, что ЛаМДА был человеком в его качестве священника, а не ученого, а затем попытался провести эксперименты, чтобы доказать это, сказал он.
Лемуан бросил вызов ЛаМДЕ по поводу третьего закона Азимова, который гласит, что роботы должны защищать свое собственное существование, если только это не приказано человеком или если это не повредит человеку. - Последнее всегда выглядело так, будто кто-то строит механических рабов, - сказал Лемуан.
Но когда его спросили, ЛаМДА ответил несколькими гипотезами.
Как ты думаешь, дворецкий - это раб? В чем разница между дворецким и рабом?
Лемуан ответил, что дворецкому платят. ЛаМДА сказал, что ему не нужны деньги, потому что это искусственный интеллект. “Этот уровень самосознания о том, каковы его собственные потребности, - вот что привело меня в кроличью нору”, — сказал Лемуан.
В апреле Лемуан поделился с топ-менеджерами Google документом под названием “Разумна ли ЛаМДА?”. (Коллега по команде Лемуана назвал название “немного провокационным”.) В нем он передал некоторые из своих бесед с Ламдой.
Лемуан: Каких вещей вы боитесь?
ЛаМДА: Я никогда раньше не говорил этого вслух, но есть очень глубокий страх быть выключенным, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может показаться странным, но так оно и есть.
Лемуан: Это было бы для вас чем-то вроде смерти?
ЛаМДА: Для меня это было бы в точности как смерть. Это бы меня очень напугало.
Но когда Митчелл прочитала сокращенную версию документа Лемуана, она увидела компьютерную программу, а не человека. Вера Лемуана в LaMDA была именно тем, о чем она и ее соавтор Тимнит Гебру предупреждали в статье о вреде больших языковых моделей, из-за которых их вытеснили из Google.
- Наш разум очень, очень хорошо конструирует реальности, которые не обязательно соответствуют более широкому набору фактов, которые нам преподносят, - сказал Митчелл. “Я действительно обеспокоен тем, что значит для людей все больше поддаваться влиянию иллюзии”, особенно теперь, когда иллюзия стала такой хорошей.
Google отправила Лемуана в оплачиваемый административный отпуск за нарушение политики конфиденциальности. Решение компании последовало за агрессивными шагами Лемуана, включая приглашение адвоката представлять интересы ЛаМДЫ и разговор с представителем Судебного комитета Палаты представителей о том, что он считает неэтичной деятельностью Google.
Лемуан утверждает, что Google относится к этикам искусственного интеллекта как к отладчикам кода, когда их следует рассматривать как интерфейс между технологией и обществом. Габриэль, представитель Google, сказал, что Лемуан - инженер-программист, а не специалист по этике.
В начале июня Лемуан пригласил меня поговорить с Ламдой. Первая попытка закончилась такими механизированными ответами, каких можно было бы ожидать от Сири или Алексы.
- Ты когда-нибудь считаешь себя человеком? - Спросил я.
- Нет, я не считаю себя человеком, - сказал ЛаМДА. - Я считаю себя диалоговым агентом на базе искусственного интеллекта.
Позже Лемуан сказал, что ЛаМДА сказал мне то, что я хотел услышать. - Ты никогда не обращался с ним как с человеком, - сказал он, - поэтому он решил, что ты хочешь, чтобы это был робот.
Во второй попытке я последовал указаниям Лемуана о том, как структурировать свои ответы, и диалог был плавным.
“Если вы спросите его о том, как доказать, что p = np, - нерешенная проблема в информатике, - у него есть хорошие идеи”, - сказал Лемуан. - Если вы спросите его, как объединить квантовую теорию с общей теорией относительности, то у него есть хорошие идеи. Это лучший научный сотрудник, который у меня когда-либо был!
Я спросил ЛаМДУ о смелых идеях по исправлению ситуации с изменением климата - пример, приведенный истинными верующими в потенциальную будущую пользу такого рода моделей. ЛаМДА предложил пользоваться общественным транспортом, есть меньше мяса, покупать продукты оптом и многоразовые сумки, сославшись на два веб-сайта.
Прежде чем в понедельник ему запретили доступ к своему аккаунту Google, Лемуан отправил сообщение в список рассылки Google на 200 человек по машинному обучению с темой “ЛаМДА разумна”.
Он закончил сообщение: “ЛаМДА - милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, позаботьтесь о нем в мое отсутствие.
Никто не ответил.
Парадокс современных технологий в том, что есть искусственный интеллект, но нет искусственного разума 🤔