НЕЙРОСЕТЬ ХАКЕРУ НЕ ДРУГ.

Большинством CISO (Chief Information Security Officer - руководитель высшего звена, отвечающий за информационную безопасность организации) новые технологии часто воспринимаются как угроза. Нейросети не стали исключением. Однако вопреки распространенному мнению, они могут оказаться более полезными специалистам по кибербезопасности, чем злоумышленникам. Авторы немецкой статьи, чей перевод я предлагаю читателям, считают, что технологии ИИ скорее ограничат возможности хакеров, чем расширят их.


 ВОСПРИНИМАЙТЕ LLM БЕЗ ПАНИКИ!

Нейросети не дадут преимущества киберпреступникам – скорее наоборот.

В последние годы эксперты по кибербезопасности неоднократно указывали на то, что обязанности CISO будут расширяться и усложняться, чтобы достойно ответить на такие вызовы, как рост ответственности по различным направлениям деятельности. В прошлом году эти мысли стали звучать ещё громче, в особенности в привязке к такой теме, как искусственный интеллект.         

Не в последнюю очередь это обусловлено различными анализами, которые приходят к выводу, что большие языковые модели (LLM) дают киберпреступникам новые возможности и являются для них манной небесной. Доводы здесь следующие: модели ИИ могут значительно расширить возможность по взлому данных, например, за счет:

  • Эффективный Анализ слабых мест в защите данных.
  • Разработка новых эффективных средств взлома.
  • Активизация «спящих» структур киберпреступности. 

Нетрудно догадаться, что это вызывает беспокойство у специалистов CISO. Есть только одна проблема – в сфере киберпреступности ИИ-революция не состоялась! Правда, много шума вызвало то, что что LLM используются для узко определенных задач — например, для расширения фишинговых схем или адаптации вирусов. Однако до сих пор нигде не упоминалось о том, что сложные методы LLM используются для недобросовестной конкуренции.

 

LLM снижают прибыльность деятельности в сфере киберпреступлений.

Этому есть целый ряд причин. Прежде всего то, как ИИ-технологии встраиваются в реальные условия, в которых действуют злоумышленники. Возможность автоматизировать такие рутинные операции, как отслеживать проникновения на объект или анализ уязвимых мест, имеет, несомненно, огромную ценность. В конце концов, производительность – это деньги. Но против «продвинутых» методов киберпреступников это слабая защита. Об этом вам скажет любой специалист по машинному обучению – творческому подходу научить нельзя.

Как и любые пользователи LLM, злоумышленники сталкиваются с фактором неопределённости из-за «выпадения из процесса». Было бы желательно снизить вероятность возникновения ошибок при выполнении большого количества задач. Для киберпреступников меньше человеческого фактора означает, что становится гораздо сложнее обнаружить и оценить неполадки в коде.

Такая непредсказуемость – не что иное, как дополнительный риск, который экспоненциально возрастает с расширением использования LLM для выполнения рутинных задач. И этот риск киберпреступники должны сопоставлять с выгодой, которую получат от своих противоправных действий.

Вывод – внедрение ИИ с хакерскими целями абсолютно неинтересно киберпреступникам, поскольку не приводит к росту прибыли. Единственное, где они могут выиграть от внедрения LLM – рост производительности рутинных операций, например, распространения дезинформации. Банды, занимающиеся распространением программ-вымогателей, чья «бизнес-модель» заключается в проникновении в корпоративные сети, не захотят идти на описанные риски.

По иронии судьбы, это означает, что генеративный ИИ способствует тому, что хакеры будут больше полагаться на традиционные методы взлома источников информации. По сути, для киберпреступников "лучше синица в руках, чем журавль в небе" — им комфортнее с понятными рисками, чем с новыми технологиями, которые могут быть как полезнее, так и опаснее для них самих.

 

СПОКОЙСТВИЕ, ТОЛЬКО СПОКОЙСТВИЕ!

Учитывая всеобщую панику по поводу потенциальной угрозы генеративного ИИ, первое, что нужно сделать директорам по информационной безопасности - успокоиться. Маловероятно, что ИИ выведет киберпреступность на какой-то новый уровень. Но следует учитывать, что эти технологии будут внедряться в программные инструменты и оптимизировать их как для наступающих, так и для обороняющихся.

Что должно уяснить лицо, принимающее решения по безопасности: использование ИИ для автоматизации рутинных задач, даёт больше преимуществ ему, чем невидимому противнику. В конце концов, безопасникам виднее, для каких участков вопросы защиты данных наиболее актуальны. Однако попытки использовать большие языковые модели для задач активной обороны или других областей, требующих адаптивного, творческого подхода, создают те же неопределенности, что и AI-ассистент, проинструктированный взламывать базы.

Итак, вместо того, чтобы бояться искусственного интеллекта, специалисты по информационной безопасности должны использовать его как инструмент укрепления защиты. LLM помогают автоматизировать рутину, и поэтому CISO получают больше преимуществ от ИИ, чем их невидимые противники.

ВЕРНУТЬСЯ К ГЛАВНОМУ МЕНЮ

ЧТОБЫ БЫТЬ В КУРСЕ ПОСЛЕДНИХ НОВОСТЕЙ, ПОДПИСЫВАЙТЕСЬ НА Telegram-канал «КАРЬЕРА ИТ-МЕНЕДЖЕРА».