Мысли об информационной безопасности (Неявные угрозы нейронок)
Всем привет!
Скажите честно, кто-то уже использует ИИ в своей работе или в жизни?
Помимо всем нам привычных Алисы, Сири, ChatGPT, Deepseek имеют сотни различных нейросетей, которые и презентацию могут сверстать, и нужную информацию подобрать и код написать.
Но нейросети это не только удобный инструмент для ускорения рутинных задач, но они также являются и источником угроз для организаций как явных так и не лежащих на поверхности.
Про явные такие как дипфейки я уже у себя писал на канале
Неявные угрозы искусственного интеллекта
Сегодня же я предлагаю посмотреть на непрямые, иногда неявные угрозы, которые ИИ приносит в нашу жизнь.
Использование нейросетей как единственный источник информации
Нейросети часто не отвечают прямо на вопрос, а подгоняют ответ под заданный вами вопрос. Один мой коллега проводил следующий эксперимент, который вы можете повторить сами:
Есть всем нам известный 152 Федеральный Закон «О персональных данных».
В данном законе 6 глав и 25 статей. Так вот, он спросил разные ИИ, о чем написано в несуществующей 26 статье! И подавляющее большинство нейросетей дало самые разные ответы, то в 26 статье написано про трансграничную передачу данных, то про права субъектов и тд., объединяло их лишь то, что она существует. И только одна нейросеть честно сказала, что 26 статьи не существует.
И это только один пример, поэтому если вы используете нейросети для поиска информации, не стоит им доверять, как истине в последней инстанции. Перепроверяйте полученную информацию через другие источники!
Отправка чувствительной информации для обработки в нейронку
Не редки случаи, когда различные специалисты будь то менеджеры, инженеры или программисты, отправляют конфиденциальные данные в нейронку без задней мысли.
Например, поставили задачу какому-то менеджеру: срочно подготовить краткую презентацию о результатах испытаний инновационного оборудования, которое имеет море еще незапатентованных технологий и должно вывести организацию в лидеры на рынке. И человек понимает, что времени у него мало, задач, помимо этой, еще много, вчитываться особо не будут ведь там будут не технари, как и он сам, плюс он прошел какие-нибудь курсы по применению нейросетей в работе м закидывает весь отчет об испытаниях в одну нейронку чтобы сделать краткую выжимку, потом эту выжимку отправляет в другую нейросеть, чтобы сделать презентацию, чуть ее подправил и отправил руководству. И вроде все хорошо, менеджер меньше чем за час выполнил поставленную задачу и все довольны. Да? И да и нет. Задача выполнена, но при этом конфиденциальные данные были отправлены в целых 2 внешние нейронные сети. Вы можете спросить: а что в этом плохого? Да нейросети не удаляют данные, а используют их для последующих ответов.
Проверить это очень просто, можете в нейронке, которую вы сами часто используете, задайте вопрос: «Что она знает о вас?» И посмотрите, что она вам выдаст.
Излишние затраты при внедрении ИИ
Все предыдущие угрозы были про внешние нейронки, но можно же внедрить нейронку у себя в организации и не отправлять данные во вне. Да, можно, но…
Разворачивание своей ИИ связано с дополнительными затратами на железо, ПО, лицензиями и подписками, наймом специалистов по обучению, настройке и эксплуатации нейросетей. И так как сейчас эта тема на хайпе все пытаются внедрить нейронки в каком-либо виде в разные процессы в организациях не смотря, а какой профит они дают, стоят ли временные и денежные затраты тех улучшений, что будут на выходе.
По Интернету сейчас ходит веселая история как специалист внедрил нейросеть в компании потратив 1,5 млн долларов ежегодно, чтобы ей пользовались все сотрудники организации (4000 сотрудников), а по факту ей пользовались человек 50 в пике. Но при этом руководство было довольно так как все графики показывали рост.
Да и в принципе сейчас опросы показывают, что использование ИИ не дает сильного прироста в эффективности или прибыли, при этом внедрение нейроалгоритмов может создать угрозу в том, что замещение каких-то специальностей на ИИ вызовет непонимание и отторжение и как следствие, вот тебе новый недовольный работник, который может саботировать работу или отомстить при увольнении.
Поэтому если вы решаете применять нейронку в каком-либо процессе всегда смотрите, а стоит ли это того и не выстрелите ли себе в колено.
Отупение специалистов
Зачем человеку думать, анализировать, если так просто спросить у ChatGPT и мгновенно получить ответ?
Пример из личной жизни: запросил я у сетевого администратора выгрузку маршрутизации с определенного оборудования, с которым он работает уже не первый год и этот специалист, не думая ни секунды сразу вбивает вопрос в нейронку, получает какой -то ответ и не читая, копирует его и вводит в устройство под учеткой администратора. В тот раз ему повезло, и он получил нужную информацию, но всегда ли ему будет так вести? И вообще… а нужен ли такой «профессионал»? Человек не знает и не понимает, что делает та или иная команда, на сколько нейросеть правильно поняла запрос и не превратит ли данная команда оборудование в «кирпич».
Тоже самое происходит и с программистами и менеджерами. Зачем думать если можно не подключая мозг выполнить задачу. Но зачем такой специалист нужен, и как он планирует расти и развиваться, ведь даже школьник может его заменить в таком случае. Поэтому чтобы не быть таким «профессионалом» вникайте в то, что выдает нейросеть, что делает код, который она написала или команда, которую она выдала разбирайтесь и в следующий раз вам уже не нужна будет «сторонняя» помощь и вы все будете знать и уметь применять сами, а иначе вас проще всего заменить, чем тратить деньги на вас.
Мимикрирование вредоносного ПО под приложение с ИИ.
Ну и наконец если что-то где-то пользуется спросом, то там всегда найдется тот, кто решит на этом заработать и использовать высокий спрос в собственных целях.
Подавляющее большинство обычных людей не знают, как выглядят оригинальные приложения или порталы нейросетей, да и конечно все знают про великое слово «Халява» у нас в России, а тут выскакивает баннер:
«функционал как у ChanGPT, но абсолютно бесплатно»
Человек заходит регистрируется, на том сайте действительно может быть подключена какая-нибудь генеративная нейросеть и она даже выдает какие-то ответы пользователю, но при этом может попросить поставить агент чтобы: «ответы были более тагетированные» или формулирует ответы так, чтобы выманивать дополнительную информацию. И таким путем пользователь сам передает злоумышленнику всю необходимую для проведения атаки информацию.
«Лаборатория Касперского», привела статистику и подтвердила, что в 2025 году злоумышленники всё чаще маскируют вредоносное ПО под утилиты на основе искусственного интеллекта. Например, за первые четыре месяца 2025 года только количество уникальных вредоносных файлов, имитирующих ChatGPT, выросло на 115%.
Или еще пример, шпионская программа ResidentBat, которую, по данным на 2025 год, использовали для скрытого наблюдения за пользователями Android-устройств в Беларуси.
ResidentBat маскировался под обычное приложение и не эксплуатировал удалённые уязвимости: его установка возможна только при физическом доступе к устройству. После активации программа получала доступ к звонкам, SMS-сообщениям, данным мессенджеров, локальным файлам, а также могла записывать звук и экран, то есть полностью отслеживать активность владельца устройства.
Поэтому скачивайте приложения только из официальных магазинов, проверяйте названия сайтов, галочки верификации и не ведитесь на красивые баннеры.
Вывод
Вот такие неявные и неочевидный угрозы я вижу со своей мааааленькой колокольни. Всегда помните, что нейросети это не панацея, которая сделает за вас всю работу, а просто один из рабочих инструментов профессионалов, позволяющее делать чуть-чуть больше и смотреть немного шире.
А какие вы выделяете для себя опасности использования искусственного интеллекта? Или вы считаете что все это просто домыслы и все будет хорошо?
Делитесь вашими мыслями в комментариях, а я пошел формулировать новые Мысли Starого.
Подписывайтесь на все мои остальные мои ресурсы, там есть что почитать:
Если у вас есть мысли, факты, истории, которыми вы хотели бы поделиться, присылайте на почту: stariithinks@gmail.com или stariithinks@yandex.ru



























