За это я и люблю пикабу. Эксперты из любой сферы жизни с радостью делятся своим мнением, благодаря им можно узнать для себя много нового, особенно под тегом политика.
Учусь на втором курсе
Первые два года было больше конечно матана. На первом курсе были основы программирования на питоне и мотивационный предмет с лего-роботом, на втором было С, на третьем на FPGA че-то мы тм делали
Мое мнение как начинающего специалиста, заканчивающего факультет программирования: ИИ, самостоятельно мыслящего и воспринимающего себя как личность или вроде того, не будет никогда. Программа всегда выполняет только заложенный в нее набор детальных инструкций, не более того. Если в ней изначально не будет команд на какое-то действие, то этого самого действия никогда и не произойдет.
Проблема в том, что в своих влажных фантазиях люди сравнивают программу с человеком, т.е. путают теплое с мягким. ИИ - это такая же фантастика, как и магия из фильмов, параллельные миры, путешествия во времени и т.д., ничего общего с реальностью и наукой не имеющая.
Помню, ходил волонтером на опыты в НИИ мозга человека. Меня и других волонтеров там в томограф засовывали и смотрели как мозг реагирует на горячее, холодное, острое и так далее.
Я потом спросил девчонку-лаборантку - ну чего, мол, как? Ответ был такой:
- На первом курсе я абсолютно точно знала как устроен мозг человека. На третьем - имела общее представление о мозге. В аспирантуре примерно представляла структуру мозга. Сейчас я кандидат наук, занимаюсь этим делом более десяти лет. Могу с уверенностью сказать, что статистического материала стало больше. А как работает мозг - не имею ни малейшего представления.
Наш мозг может и нейросеть, вот только мыслим мы образами в этом и проблема создания ИИ по подобию человека.
Когда смотришь на программу на высокоуровневом языке программирования, или с точки зрения пользователя, то видишь объекты, структуры, образы. А смотришь на машинный код и видишь только нули и единицы. Так же и с мозгом: мыслишь и понимаешь высокоуровневые образы, а смотришь на структуру мозга и видишь связи нейронов.
И еще у меня к вам такой вопрос: а чем мыслят нейросети? Ответ, что связями между нейронами, не принимается: про мозг можно сказать то же самое. Почему вы считаете, что нейросеть в процессе обучения не может построить на своих нейронных связях образы? Нейросеть строит сложные зависимости между данными, с помощью которых делает выводы, и есть раздел науки, выделяющий знания из нейросетей.
Мозг тоже создает на своих нейронных связях сложные зависимости, которыми мы принимаем решения, только в случае мозга зависимостей больше.
Мышление человека не всегда основывается на логике.
Плюс, логика человека субъективна.
Там выше уже написали по этому поводу.
Это биохимия. Это не просто "набор входящих данных". Зависит от того, КАК (с любовью, или вбивали тумаками) эти данные были получены.
Нейросеть же - чистая логика.
Эмоции и способ получения данных тоже можно считать данными - просто дополнительный фактор в принятии решений. Это просто дополнительный множитель к некоторым нейронным связям: они могут, например, умножать негативное или позитивное восприятие. И возникают эмоции не из ниоткуда: есть какие-то события (тоже считай данные), которые вызывают эти эмоции.
Насчёт чистой логики не соглашусь. Задача искусственного интеллекта: решение задач, для которых отсутствует эффективное алгоритмическое решение.
Чистая логика - это экспертные системы. В них человек задаёт правила и система делает выводы и принимает решения с помощью дедуктивных правил вывода.
Нейросети это совсем другое дело: они обучаются и сами подстраивают свои веса исходя из переданных им данных. Они, как и человек, учатся на собственном опыте, и то, чему они научатся, зависят от выборки данных и начальных весов нейронных связей. Кстати, начальные веса перед обучением задаются случайными числами, а обчающие примеры перемешиваются, так что в обучении нейросетей очень много случайности и субъективности. К тому же, некоторые нейросети могут обучаться в процессе своей работы с пользователями - как человек учится при разговоре с другими людьми.
Постараюсь попроще:
Когда человеку и машине надо решить задачу обучение с нуля может и схоже, дальше для новой задачи машина вновь будет учиться с нуля, человек старается использовать полученный опыт.
Пример:
Учится ходить, научились и машина и человек.
Вторая задача научиться бегать. Машина будет по новой учится. Человеческий мозг будет использовать образ того как он ходил и развивать это.
Данный пример похож на наследование от классов, только для машины в решении новой задачи это не настроить.
По итогу для трёх задач: ходить, бегать, играть в футбол машина создаст 3 сущности пускай и с схожими объектами.
Человеческий мозг сам выстроит зависимость на образе полученного ранее опыта.
ИМХО, если посмотреть на ситуацию со стороны. Программы лежат в основе ИИ, но они всегда будут следовать своему алгоритму кода. Даже если сделать возможность самой программе самообучаться и вносить правильные изменения и дополнения в коде - полноценного разума, осознающего себя как мыслящее существо(или сущность) не будет.
Возьмём тебе нейросети: требуют много мощностей, и времени для правильного обучения, но в итоге получается набор программ, заточенный в рамках конкретной функции или задачи.
Так что пока ИИ - не более реален, чем зомби или какой-нибудь гипер-привод для перемещения по космосу.
Конкретную цель вполне можно заменить системой наказаний поощрений, и получится интеллект. И главная проблема - настроить эту систему, законы робототехники применять кстати именно сюда.
у вас между "ИИ есть набор программ" и "даже если она такая программа может модифицировать свой код, она не является мыслящим существом" пропущен логический переход. если вы утверждаете, что для самоосознания нужно нечто большее, чем достаточно сложная система простых элементов (которой является мозг, например), то это стоит попробовать доказать. иначе это не рассуждение, а просто набор высказываний
Для развития нужна мотивация. У животных сложная мотивация складывается из простых. Простая мотивация (тревожность, радость, наслаждение, и т.п.) обусловлена стимуляцией нервной системы гормонами. Выработка гормонов обусловлена реакцией рецепторов на окружающую среду. Реакция рецепторов обусловлена геномом, который, в свою очередь, продукт эволюции - набор свойств, при которых представитель вида выживал чаще.
ИИ может обладать рецепторами в обход эволюции, т.к. люди уже придумали всякие датчики, а эволюция сама по себе довольно неэффективный метод разработки. Взять, к примеру, механизм сгибания указательного пальца - у животных НС "приказывает" сжать кулак, и одновременно с этим "приказывает" разогнуть те пальцы, которые не надо сгибать. В робототехнике такой метод применять сомнительно, т.к. есть возможность послать только 1 сигнал-приказ, вместо пачки сигналов кисти и каждому из пальцев.
Более сложные механизмы реакции позволяют людям терпеть горячую тарелку, взятую кончиками пальцев обеих рук, чтобы перенести её из микроволновки на стол.
Но вся логичность экономных сигналов "ИИ" для простых операций исключает спонтанные реакции или их осознанное подавление, когда это необходимо. Без этого нельзя будет сказать, что ИИ делает что-то по своим мотивам.
Иными словами, без аналога биохимии у ИИ не появится желаний и мотивов что-либо делать.
В теории, если запустить нейросеть с полностью свободным развитием по принципу человеческого, то это реально. Но вычислительные мощности не позволяют пока еще такое. Поэтому сейчас нейросети очень узкоспециализированны и входные данные очень упрощены, по сравнению с теми, что обрабатывает человек.
Тут большой вопрос «а что такое ИИ?».
Но на текущем этапе, даже без точного определения ИИ — нет, не могут.
Как специалист говорю.
Вот здесь специалисты рассказывают:
https://www.youtube.com/watch?v=dlJuvSha8OE&list=PLqSEwD...
Свёрточные нейросети для распознавания изображений? Одноначно нет! Может другие типы сетей можно обучить и другим задачам, но конкретно эти заточены на относительно тупую работу по накладыванию "шаблонных трафаретов" на картинку и вычислению насколько велика/низка их "степень похожести".
Мозги слишком сложны и уникальны, что-то подлинное и целостное вряд ли будет реализовываться нейронкой на ПеКа. Однако, какие-то созданные базовые вещи, которые возможно будет использовать ИИ, уже вполне эксплуатируются.
На самом деле, низкоориентированные и самообучающиеся системы уже есть, и они активнее развивают, чем сам ИИ.
т.е. выполняют конкретную работу - перебирают картинки, бегают по игровым локациям, моделируют поведения.
P.s. нейросеть - не сможет.
Почитайте Пенроуза, "Новый ум короля". Мышление человека носит неалгоритмический характер. Никакая программа-алгоритм не способна к мышлению. Может с развитием квантовых компьютеров ситуация как-то и поменяется.
Почитать для общего развития. Или вам это уже не грозит?
Я не писал, что его мнение единственно верное. Даже не отметил, что оно совпадает с моим. Но оно определенно заслуживает внимания в контексте обсуждения.
Квантовые алгоритмы носят вероятностный характер. Что уже ближе к теме мышления, чем работа по четкому алгоритму. _С развитием_ квантовых вычислений, что я не просто так отметил в комментарии, возможно появятся более достоверные модели, описывающие мышление.