Сгенерированные ИИ пароли предсказуемы и небезопасны — Irregular
Компания Irregular, специализирующаяся на кибербезопасности, провела исследование с целью проверить надежность сгенерированных популярными ИИ-моделями (LLM) паролей. Результаты оказались обескураживающими.
Аналитики предложили Claude, ChatGPT и Gemini сгенерировать 16-значные пароли, содержащие буквы разного регистра, цифры и спецсимволы. На первый взгляд, результаты казались убедительными и прошли стандартные онлайн-тесты на стойкость паролей. Некоторые автоматизированные сервисы по проверке даже показали, что на взлом уйдут столетия, но более внимательное и вдумчивое изучение людьми показало совсем другую картину.
Оказалось, что выданные ИИ пароли демонстрируют повторяющиеся и легко угадываемые статистические закономерности. Когда исследователи проанализировали 50 паролей, сгенерированных в отдельных сессиях, многие из них оказались дубликатами, а несколько имели практически идентичную структуру. Большинство начинались и заканчивались символами схожего типа, и ни в одном не было повторяющихся символов. Отсутствие повторений может интуитивно казаться положительным, а не отрицательным фактором, но на самом деле это свидетельствует о том, что генерация происходит с учетом неких одинаковых правил, а не является результатом истинной случайности.
