Продолжение поста «Пока главу OpenAi щемят и хотят подвинуть из компании. Стоит задуматься ещё разок:»
Теории почему захотели убрать гендира OpenAi:
1. Все вместе. Moats. Основные Проблемы с персоналкой, обман безграмотных инвесторов, с целью монополизировать инструмент и создать барьеры для входа, при том, что возможно единственным преимуществом Опенаи является вычислительные мощности, а не светлые головы и уникальные алгоритмы.
2. Жадность. Требовалось ли замедлить или наоборот ускорить релизы GPT. Но явно в погоне за прибылью ( а компания убыточная ) опенаи в итоге сфокусировалась на бизнесе, а не науке. И Альтман возможно раздувал слишком большой пузырь перед инвесторами. А они что-то заподозрили. Никто не хочет инвестировать в хаос.
3. Заговор. Некоторые мечтают, что Опенаи может стать действительно Open. Такое впечатление, что совет директоров не должен был бы и не одобрил бы сделок с Майкрософт если бы придерживался своей миссии. И если в компании действительно есть уникальные технологии и они приблизились к созданию AGI - думаю кто-то захотел поставить удобного человека. Вмешательство государства в этот момент был бы своевременным.
4. Но AGI никакого нет. И скорее всего у Опенаи , действительно кроме вычислительных мощностей нет ничего такого — что Действительно сможет конкурировать с опенсорсными проектами в будущем.
5. Либо он насрал посреди офиса.
"Moats" — рвы , в контексте искусственного интеллекта (ИИ) обычно относятся к барьерам, которые создаются для защиты конкурентных преимуществ компании в области ИИ. Это может включать уникальные данные, алгоритмы, талантливую команду или интеллектуальную собственность. Цель таких "рвов" - предотвратить легкий доступ конкурентов к этим ресурсам, удерживая их в лидирующем положении.
А облачный сервис легко уязвим для атак и вредоносного ПО.
1. Думаю, что Альтмана двинули с напряженностью вокруг этих нюансов. Возможно, была предпринята попытка представить ИИ как опасную и мощную технологию перед технически неграмотными инвесторами, с целью ввести ограничения на ИИ с открытым исходным кодом и создать барьеры для входа на рынок. Такой подход мог бы принести прибыль, укрепляя монополию и защищая интеллектуальную собственность.
Но гораздо более значимой проблемой в индустрии является уязвимость в области цифровой безопасности.
С ростом использования ИИ для управления персоналкой и конфиденциальными данными, возникают опасения по поводу возможности их утечки и злоупотребления.
Возможно это будет сдвиг фокуса компании на безопасность и надежность в области ИИ.
Где локальные нейросети - безопасны, а облачные не будут безопасны - никогда.
Искусственный интеллект
2.5K постов9.8K подписчика
Правила сообщества
Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать :)
Разрешено:
- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.
- Делиться статьями, понятными большинству аудитории Пикабу.
- Делиться опытом создания моделей машинного обучения.
- Рассказывать, как работает та или иная фиговина в анализе данных.
- Век жить, век учиться.
Запрещено:
I) Невостребованный контент
I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.
I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.
II) Нетематический контент
II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.
II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".
II.3) Создавать контент, входящий в противоречие с правилами Пикабу.
III) Непотребный контент
III.1) Эротика, порнография (даже с NSFW).
III.2) Жесть.
За нарушение I - предупреждение
За нарушение II - предупреждение и перемещение поста в общую ленту
За нарушение III - бан