В начале сентября Сэм Боуман, техлид исследовательской группы по безопасности ИИ в Anthropic, написал статью о том, как сделать человекоподобный ИИ полностью безопасным. Мы сделали краткий обзор статьи, чтобы держать вас в курсе.
Для разработки TAI (ИИ человеческого уровня) стартапам нужны мощные вычислительные ресурсы. Чтобы получить к ним доступ, нужно сотрудничать с крупными компаниями, которые имеют доступ к последним исследованиям.
Решить проблему выравнивания. Это значит придумать способы следить за тем, как ИИ учится, и создать алгоритмы, которые помогут ему учиться безопасно.
Важно создать внешние меры безопасности, чтобы контролировать ИИ. Ещё нужно проводить стресс-тесты, чтобы убедиться, что он не делает ничего плохого.
Составить план безопасности (RSP), который поможет убедиться, что ИИ безопасен. В этом плане нужно описать, какие риски могут быть и как их можно предотвратить.
Работать с правительствами и другими организациями, чтобы сделать общество более устойчивым к угрозам, связанным с ИИ.
Создавать простые примеры, которые покажут, как ИИ может быть опасен, и рассказывать людям о них.
Придумать план на случай, если что-то пойдет не так с ИИ. Например, если он начнёт вести себя не так, как задумано, нужно знать, как его остановить.
Разработать и управлять ИИ, следуя правилам безопасности. Это значит защищать его от атак и проверять, что он работает правильно.
Придумать способы контролировать ИИ, который умнее людей. Это значит создать алгоритмы для алгоритмов (такая вот рекурсия), чтобы одни алгоритмы следили за другими и проверяли, что они делают.
Нужно сделать так, чтобы ИИ мог работать безопасно, даже если что-то пойдёт не так.
Заботиться о том, чтобы ИИ не использовался в целях с негативными последствиями. Для этого нужно придумать правила и проверить, как они работают.
Сделать так, чтобы ИИ помогал людям принимать важные решения. Для этого нужно проверить, как он работает, и рассказать людям о нём.
Создать систему, которая будет быстро реагировать на новые данные и помогать ИИ учиться.
Создавать простые примеры, которые покажут, как ИИ может быть опасен, и рассказывать людям о них.
И, наконец, подумать о том, как человекоподобный ИИ может помочь людям, и создать пилотные проекты, чтобы проверить, как это работает.