Продолжение поста «Пока главу OpenAi щемят и хотят подвинуть из компании. Стоит задуматься ещё разок:»

Теории почему захотели убрать гендира OpenAi:

1. Все вместе. Moats. Основные Проблемы с персоналкой, обман безграмотных инвесторов, с целью монополизировать инструмент и создать барьеры для входа, при том, что возможно единственным преимуществом Опенаи является вычислительные мощности, а не светлые головы и уникальные алгоритмы.

2. Жадность. Требовалось ли замедлить или наоборот ускорить релизы GPT. Но явно в погоне за прибылью ( а компания убыточная ) опенаи в итоге сфокусировалась на бизнесе, а не науке. И Альтман возможно раздувал слишком большой пузырь перед инвесторами. А они что-то заподозрили. Никто не хочет инвестировать в хаос.

3. Заговор. Некоторые мечтают, что Опенаи может стать действительно Open. Такое впечатление, что совет директоров не должен был бы и не одобрил бы сделок с Майкрософт если бы придерживался своей миссии. И если в компании действительно есть уникальные технологии и они приблизились к созданию AGI - думаю кто-то захотел поставить удобного человека. Вмешательство государства в этот момент был бы своевременным.

4. Но AGI никакого нет. И скорее всего у Опенаи , действительно кроме вычислительных мощностей нет ничего такого — что Действительно сможет конкурировать с опенсорсными проектами в будущем.

5. Либо он насрал посреди офиса.

"Moats" — рвы , в контексте искусственного интеллекта (ИИ) обычно относятся к барьерам, которые создаются для защиты конкурентных преимуществ компании в области ИИ. Это может включать уникальные данные, алгоритмы, талантливую команду или интеллектуальную собственность. Цель таких "рвов" - предотвратить легкий доступ конкурентов к этим ресурсам, удерживая их в лидирующем положении.

А облачный сервис легко уязвим для атак и вредоносного ПО.

1. Думаю, что Альтмана двинули с напряженностью вокруг этих нюансов. Возможно, была предпринята попытка представить ИИ как опасную и мощную технологию перед технически неграмотными инвесторами, с целью ввести ограничения на ИИ с открытым исходным кодом и создать барьеры для входа на рынок. Такой подход мог бы принести прибыль, укрепляя монополию и защищая интеллектуальную собственность.

Но гораздо более значимой проблемой в индустрии является уязвимость в области цифровой безопасности.

С ростом использования ИИ для управления персоналкой и конфиденциальными данными, возникают опасения по поводу возможности их утечки и злоупотребления.

Возможно это будет сдвиг фокуса компании на безопасность и надежность в области ИИ.

Где локальные нейросети - безопасны, а облачные не будут безопасны - никогда.

Искусственный интеллект

2.5K постов9.8K подписчика

Добавить пост

Правила сообщества

Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать :)


Разрешено:


- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

- Делиться статьями, понятными большинству аудитории Пикабу.

- Делиться опытом создания моделей машинного обучения.

- Рассказывать, как работает та или иная фиговина в анализе данных.

- Век жить, век учиться.


Запрещено:


I) Невостребованный контент

  I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

  I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.


II) Нетематический контент

  II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

  II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".

  II.3) Создавать контент, входящий в противоречие с правилами Пикабу.


III) Непотребный контент

  III.1) Эротика, порнография (даже с NSFW).

  III.2) Жесть.


За нарушение I - предупреждение

За нарушение II - предупреждение и перемещение поста в общую ленту

За нарушение III - бан