3

OpenAI боится повторения сценария "Терминатора"

OpenAI боится повторения сценария "Терминатора"

OpenAI, компания по исследованию ИИ (ChatGPT), опубликовала сообщение в блоге, которое даёт представление о том, как компания будет справляться с задачами по созданию и управлению AGI (Artificial General Intelligence) - системами искусственного интеллекта, способными выполнять любые задачи, которые под силу человеку, или даже лучше.

В сообщении OpenAI сообщает, что с AGI могут возникнуть потенциальные риски и неопределенности, такие как неправильное использование, несчастные случаи и даже разрушение общества. Может даже возникнуть проблема "Терминатора". Для решения этой проблемы OpenAI предложила ряд законов и принципов, которыми она будет руководствоваться в своей работе над AGI:

  • Развертывание и изучение менее мощных систем ИИ в реальном мире для получения опыта и обратной связи;

  • Демократизация доступа к ИИ и управление им;

  • Обеспечение того, чтобы системы ИИ действовали в соответствии с человеческими ценностями и предпочтениями;

  • Укрепление институтов мира для согласования широких границ использования и регулирования ИИ;

  • Обмен информацией о прогрессе ИИ с общественностью и обращение к различным заинтересованным сторонам с просьбой внести свой вклад.

При этом OpenAI также предупреждает о том, что все непредсказуемо, и даже у самой компании нет всех ответов и решений потенциальных проблем в будущем, особенно после того, как AGI станет мейнстримом. Компания заявляет, что в долгосрочной перспективе разговор о том, как управлять этими системами, как справедливо распределить их преимущества и как справедливо разделить доступ, просто необходим.

Больше новостей про искусственный интеллект

Новости

32.5K постов26.6K подписчик

Правила сообщества

1. Ставить тег "Новости"

2. Указывать источник (ссылку на новость)

3. Запрещены призывы к экстремистским действиям, оскорбления и провокации.