прогноз по ии в кибербезопасности на 2025 год

Как ИИ повлияет на кибербезопасность: прогноз на 2025 год от экспертов

По подсчетам экспертов, 55% компаний по всему миру уже используют искусственный интеллект для оптимизации бизнес-процессов. Он помогает консультировать клиентов по товарам и услугам компании, генерирует тексты и защищает от фрода.

Однако искусственный интеллект попал и в прицел киберпреступников, которые используют этот инструмент для совершенствования своих мошеннических схем. К примеру, по оценкам экспертов из DoubleVerify, за последний год более чем на 20% увеличилось число новых схем мошенничества и на 269% — с участием ботов.

С помощью ИИ злоумышленники могут модифицировать вредоносный код , создавать «умных» ботов и масштабировать атаки.

В этой статье мы привели прогнозы экспертов и их мнение об использовании искусственного интеллекта в кибератаках. Какие тактики будут использовать мошенники и кто станет их новой жертвой в 2025.

Содержание скрыть
1. Что говорят эксперты

Что говорят эксперты

Мы собрали мнение ведущих экспертов в области кибербезопасности и защиты информации. Публикуем самые интересные мнения и тенденции.

Генеративный ИИ перевернет подход к традиционным методам кибербезопасности

Искусственный интеллект заставляет переосмыслить поведение людей, процессы и технологии. Это приведет к новым и более сложным мошенническим атакам, включая Email-фишинг, дипфейки, вишинг и многое другое.

Вирусы-вымогатели продолжат сеять хаос

В 2025 году вирусы-вымогатели никуда не денутся — они и дальше будут оставаться излюбленным инструментом злоумышленников. С развитием ИИ и переносом всё большего количества данных в облако, мошенники смогут автоматизировать и улучшить свои стратегии атак.

К примеру, ожидается появление сервисов RaaS (Ransomware-as-a-Service) — вымогатели как услуга. Точно так же, как SaaS, только в мире киберпреступлений. Это будут облачные посредники для совершения атак по краже данных, взломе устройств и аккаунтов и др.

Злоумышленники будут эксплуатировать ИИ для манипулирования персональными данными

Поскольку ИИ-агенты все больше имеют доступ к личным данным, включая Email-переписки, хранилища документов в облаке и аналогичных источниках контекста, специалистам по кибербезопасности предстоит развить новые стратегии и инструменты для защита данных.

В 2025 году мы начнем наблюдать первые попытки злоумышленников манипулировать источниками персональных данных. Например, уже сейчас они делают «вбросы» и «скармливают» LLM-алгоритмам ложную и недостоверную информацию во вредоносных или мошеннических целях.

Такое развитие событий потребует повышенной бдительности и создания новых мер безопасности.

Защита от вредоносного ПО, созданного при помощи ИИ

Существует разница между технологиями на базе ИИ и тем, которые были созданы с помощью него. Количество ИИ-атак, например использование дипфейков в видеомошенничестве, снизилось на текущий момент. Однако остается угроза, при которой киберпреступники создают вредоносный код с помощью ИИ. Например, с помощью искусственного интеллекта злоумышленники могут модифицировать код вредоноса и делать его «невидимым» для систем кибербезопасности.

Чтобы противостоять текущим угрозам, связанным с помощью ИИ, компаниям следует уделять приоритетное внимание внедрению комплексной защиты для своего бизнеса: пользовательские интерфейсы, API, языковые модели и машинное обучение.

Доверяй, но проверяй — новый принцип создания кода с помощью ИИ

Эксперты рекомендуют внедрять инновации в области ИИ для оптимизации разработки ПО, но с осторожностью. Написание с помощью него кода, а также использование инструментов тестирования, которые также работают на нем, могут повысить производительность разработчиков и позволить им уделять больше внимания другим проектам.

Однако искусственный интеллект — это вспомогательный инструмент, а не полная замена навыков разработчика, и бизнес должен осознавать это важное отличие. Увеличивается количество кода, сгенерированного с помощью искусственных моделей, повышается и доля требований к проверке его на качество и безопасность. Как минимум, весь код должен пройти тщательное тестирование.

Не стоит пускать дело на самотек, иначе это может привести к более серьезным последствиям и появлению большого количества ошибок и угроз.

С помощью мультимодального ИИ злоумышленники будут создавать воронки атак

Справка. Мультимодальный ИИ — это модель искусственного интеллекта, которая способна выполнять пользовательские операции на основе различных данных (текст, изображения, видео, 3D, речь, звуки, таблицы, графы, код).

К 2025 году злоумышленники будут использовать мультимодальный ИИ во вредоносных целях и выстраивать с помощью него целые цепочки атак. Поскольку они способны обрабатывать и генерировать текст, изображения, голос, код и др., то с их помощью киберпреступники смогут оптимизировать и автоматизировать весь процесс.

Например, это может быть:

  • составление профиля жертв через сбор данных в соцсетях,
  • генерация реалистичного контента для фишинговых сообщений и писем, включая вишинг,
  • поиск эксплойтов нулевого дня,
  • модификация и оптимизация вредоносного программного обеспечения, которое может обойти системы обнаружения мошеннической активности и развертывание инфраструктуры для его поддержки,
  • автоматизация технологии бокового перемещения (lateral movement) в сетях, которые подверглись атаке и были взломаны, и извлечение данных.

Такой комплексный подход позволит им сделать свои атаки свободнее и радикальнее. И есть вероятность, что жертвами могут стать любые компании, независимо от их размера.

Злоумышленники будут генерировать синтетические личности для финансового мошенничества

Предполагается, в 2025 году увеличится число синтетических личностей. Это явление уже имеет место быть, хотя и в меньших масштабах. Уже сейчас существуют блогеры, популяризаторы и обзорщики, которые используют их для продвижения контента. Что уж говорить о киберпреступниках.

С помощью ИИ злоумышленники могут создавать синтетические личности, используя реальные и сгенерированные данные. Эксперты предполагают, что мошенники могут пойти дальше и автоматизировать созданные профили.

Уязвимости системного промта — ахиллесова пята ИИ

Системный промпт необходим для управления поведением LLM-модели, однако в нем может содержаться ценная информация, на которую могут позариться злоумышленники. Например, API-ключи, внутренние роли пользователей или операционные ограничения.

Кроме того, даже без явного раскрытия информации злоумышленники могут реконструировать запросы и наблюдать за поведением модели и ответам во время взаимодействия.

Палка о двух концах: ИИ изменит ландшафт кибербезопасности

Злоумышленники будут использовать искусственный интеллект, чтобы ускорить обнаружение уязвимостей и проводить гиперперсонализированные фишинговые атаки. И, как мы упомянули выше, «профайлинг», то есть сбор данных о жертвах, также не обойдется без ИИ.

Одновременно с этим системы кибербезопасности будут использовать управляемые системы обнаружения атак и угроз, которые смогут анализировать огромные массивы данных, выявлять в режиме реального времени аномальные события и прогнозировать угрозы. Это может привести к эскалации «гонки вооружений» между злоумышленниками и экспертами по киберзащите.

В первую очередь — автоматизация

Киберугрозы множатся, область сетевых атак продолжает расширяться из-за растущей зависимости от гибридной рабочей силы, интернета вещей (IoT), облачных сервисов и многого другого. Поэтому автоматизация, основанная на данных и ИИ, будет служить основным средством защиты. Это поможет автоматизировать системы и ускорить их реагирование на инциденты, не требуя вмешательства человека.

Также это позволит сделать сети более гибкими, поскольку ИИ-системы обучаются в режиме реального времени на основе каждого нового инцидента. Это позволит им быстрее, умнее и точнее реагировать на возникающие угрозы.

ИИ-модели сами станут жертвой атак

Злоумышленники не только атакуют площадки для разработчиков, но и продвигаются дальше. Следующая ступень — инфраструктура машинного обучения. Эксперты прогнозируют внедрение вредоносных запросов к ИИ для генерации неверных ответов или, что еще хуже, раскрытия информации и данных, на основе которых он был обучен.

В сообществе экспертов по кибербезопасности существуют реальные опасения по поводу того, что злоумышленники намеренно вбрасывают в большие языковые модели такие запросы и команды, чтобы сделать их более уязвимыми и использовать в дальнейшем для атак или проникновения.

Поэтому специалисты предупреждают, чтобы компании тщательно следили за внедренными ИИ-технологиями. Да, это новые инструменты оптимизации и масштабирования бизнеса, однако они могут нести такие угрозы, как потеря данных, репутации или влечь за собой юридические последствия.

ИИ-агенты и утечка данных

По мере того как ИИ продолжит развиваться, киберпреступники выберут его в качестве нового направления для утечки данных. Злоумышленники будут создавать инновационные методы промт-инжиниринга для атак на ИИ-агентов, которые наделены полномочиями действовать от имени конечных пользователей.

Киберпреступники смогут обманом заставлять нейросотрудника раскрывать ценную информацию или выполнять действия, которые могут нанести вред. Например, сброс пароля.

Увеличится число вредоносных атак на персональные устройства пользователей

В 2025 году продолжит расти число атак на пользовательские устройства для распространения вредоносных программ и заражения. Опять же, если сотрудник компании вынужден использовать нейросотрудника в своей работе, в том числе на мобильном устройстве, и при этом его устройство заражено вредоносным ПО, это может грозить утечкой данных, в том числе корпоративных.

В результате отделам безопасности придется пересмотреть свои стратегии обеспечения безопасности, чтобы обеспечить сохранность корпоративной информации и данных клиентов.

Не ИИ единым: кибератаки на основе MMS-сообщений получат широкое распространение в 2025 году

Мобильные пользователи часто не осознают, что используют MMS, поскольку они органично сочетаются с традиционными SMS-сообщениями. И в этом тоже может таиться угроза.

Мошеннические и фишинговые атаки через MMS будут расти в этом году. Пользователи могут получать сообщения с изображениями, например открытками или стикерами, которые содержат вредоносную начинку. Из-за этого вирусы могут попадать на устройство пользователя и извлекать конфиденциальную информацию.

Кроме того, злоумышленники могут выдавать себя за реальные государственные организации и компании и рассылать вместе с MMS ссылки на фишинговые ресурсы. Из-за чего пользователи могут стать жертвами и потерять свои данные, доступы к аккаунтам и денежные средства.

Ускорение автоматизации для предотвращения угроз

Инструменты искусственного интеллекта ускоряют сроки проведения атак. Именно поэтому автоматизированные решения киберзащиты станут незаменимым инструментом в борьбе за целостность систем. ИИ-стратегии помогут командам эффективнее и быстрее реагировать на оптимизированные атаки. Искусственный интеллект сделает подход к анализу угроз более гибким и позволит снизить возникающие риски.

Финальные тезисы

Итак, какие угрозы и мошеннические схемы ждут нас в 2025 году при участии ИИ:

  • Искусственный интеллект и нейросотрудники сами станут жертвами атак.
  • Продолжится расти количество атак с вирусами-вымогателями.
  • Для фишинга злоумышленники будут использовать ИИ, с помощью которого будут собирать данные о жертвах, составлять их портрет, создавать персонализированные и убедительные письма и сообщения.
  • Злоумышленники будут проводить анализ поведения пользователей для оптимизации своих алгоритмов, чтобы обходить системы обнаружения.
  • Необходима защита ИИ-агентов от атак и утечки данных.

Эксперты прогнозируют, что с развитием технологий искусственного интеллекта в 2025 году мошеннические алгоритмы станут еще более сложными и точными, что сделает их более эффективными и усложнит процесс обнаружения. Поэтому необходимо регулярно улучшать и совершенствовать системы защиты данных и информации, чтобы свести к минимуму риски цифрового мошенничества.


Подписывайтесь на наш ТГ-канал : рассказываем о реальных кейсах, тактиках и технологиях мошенников, факты о кликфроде и не только. Без спама и с пятничными мемами.


Об авторе

Алёна

Пишу о ботах и кибербезопасности

Просмотреть все сообщения

Добавить комментарий