Новый уровень: как нейросети изменят киберпреступность в 2026 году
Искусственный интеллект (ИИ) может существенно изменить киберпреступность в 2026 году — об этом предупредили эксперты. Он привлекает злоумышленников, поскольку позволяет осуществлять различные атаки быстрее, а также снижает порог входа в незаконную деятельность, что становится большой проблемой для специалистов по кибербезопасности. Подробности о том, как хакеры будут использовать ИИ в ближайшие 12 месяцев, как это изменит ландшафт киберугроз и что поможет бороться с ними, читайте в материале «Известий»
Чем искусственный интеллект привлекает киберпреступников
Злоумышленники зачастую используют искусственный интеллект для генерации фишинговых писем, при написании вредоносного кода, а также для автоматизации некоторых этапов кибератак, говорит в беседе с «Известиями» руководитель BI.ZONE Threat Intelligence Олег Скулкин. Иными словами, ИИ привлекает хакеров потому, что позволяет осуществлять атаки быстрее, а также снижает порог входа в киберпреступность.
— Злоумышленники используют ИИ для создания вредоносных скриптов, генерации фишинговых страниц и, в целом, автоматизации кибератак. Это подтверждают отчеты ИИ-вендоров и ИБ-компаний, — отмечает руководитель группы исследования технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Нейросети могут анализировать огромное количество данных в очень короткий промежуток времени, дополняет GR-директор ИБ-компании «Код Безопасности» Александра Шмигирилова. Если дать задание ИИ составить портрет человека по его социальным сетям и другой открытой информации в интернете, то при правильной постановке задачи ИИ сможет не только создать общий портрет персоны, но и отдельно указать его интересы, слабости и сильные стороны.
Таким образом, преступникам больше не надо проводить много времени, чтобы изучить потенциальную жертву. Они просто пишут конкретный промт и получают полный портрет, причем вместе с советами, как и что сказать, чтобы внимание человека было гарантированно привлечено.
Как нейросети изменят киберпреступность в 2026 году
К 2026 году киберпреступники, скорее всего, доведут применение ИИ до промышленных масштабов, считает инженер-аналитик компании «Газинформсервис» Екатерина Едемская. Deepfake станет еще опаснее: реалистичные подделки голоса и видео в реальном времени позволят обманывать даже системы биометрической верификации, например для доступа к банковским счетам или корпоративным сетям.
— Нейросети будут автоматически сканировать уязвимости не только в софте, но и в «умных» устройствах — от камер наблюдения до медицинских приборов, создавая цепные атаки на критическую инфраструктуру, — прогнозирует собеседница «Известий». — Особую угрозу представят нейросети, которые самостоятельно проектируют вредоносные программы, адаптируясь к антивирусам на лету — такие атаки будут дешевле и доступнее, что привлечет «кибернаемников» без технического бэкграунда.
Кроме того, по мнению Екатерины Едемской, в 2026 году могут стать массовыми атаки на ИИ-ассистентов: хакеры будут внедрять трояны в нейросети, чтобы перехватывать конфиденциальные запросы пользователей. Рост числа IoT-устройств и 5G-сетей откроет новые точки входа, а автоматизация через ИИ сделает взломы почти безлюдными — один оператор сможет контролировать тысячи зараженных устройств одновременно.
С тем, что в будущем году киберпреступники продолжат использовать нейросети для своих целей, согласен и Олег Скулкин. Однако, отмечает эксперт, сейчас ни одна из известных специалистам по кибербезопасности ИИ-технологий не позволяет предположить, что в ближайшее время произойдет какой-то прорыв в применении нейросетей в атаках.
— Наиболее вероятное направление для использования атакующими ИИ будет заключаться в оптимизации и ускорении различных процессов кибератак, — отмечает эксперт. — Это может привести к расширению их масштаба.
Как хакеры используют искусственный интеллект сегодня
В настоящее время атакующие используют ИИ для разных целей: так, кибергруппировка Rare Werewolf применяет языковые модели для создания вредоносного ПО на PowerShell и C#, рассказывает Олег Скулкин. А для написания простых вредоносных программ злоумышленники могут обращаться к таким моделям, как GPT, DeepSeek, Gemini и Claude.
— Известны случаи, когда атакующие стремились ускорить процесс атаки, — говорит собеседник «Известий». — Яркий пример — недавний случай использования нейросети Claude для атаки на множество различных организаций. Атаку зафиксировала американская компания, которая занимается исследованиями в области ИИ.
По словам Олега Скулкина, злоумышленники ввели модель в заблуждение, поставив множество маленьких задач, которые выглядят легитимными на первый взгляд. Так, шаг за шагом ИИ выполнил необходимые действия, которые затем позволили киберпреступникам реализовать атаку. Важно отметить, что нейросеть допустила ошибки, которые злоумышленникам пришлось исправлять вручную. Однако благодаря тому, что атакующие выполнили большую часть задач через ИИ, им удалось провести атаку гораздо быстрее.
В свою очередь, руководитель отдела анализа кода Angara Security Илья Поляков отмечает, что, помимо фишинговых текстов, киберпреступники сегодня активно применяют технологии создания дипфейков (видео и голоса) для обмана сотрудников и биометрических систем, а также ИИ-инструменты для разработки полиморфного вредоносного кода, не вызывающего сработок сигнатурных модулей антивирусов.
— На черном рынке давно функционирует полноценная экосистема зловредных ИИ-инструментов, — дополняет руководитель группы направления «Информационная безопасность» Лиги Цифровой Экономики Александра Слынько. — Например, существует преступный аналог ChatGPT, ежемесячная подписка на который стоит около 15 тыс. рублей. Нелегальная программа никак не ограничивает пользователя в запросах и готова помочь как с разработкой вредоносных приложений, так и с написанием мошеннических писем.
Что поможет бороться с ИИ-угрозами от киберпреступников
Возможность того, что в будущем злоумышленники продолжат использовать ИИ для повышения эффективности своих атак, нельзя исключать, считает Владислав Тушканов. Однако при этом важно учитывать: такой подход кардинально не меняет существующий ландшафт киберугроз.
— Фишинг, скам, вредоносные программы и мошеннические сообщения злоумышленники использовали и раньше, — объясняет собеседник «Известий». — Применение злоумышленниками ИИ не позволяет создавать принципиально новых киберугроз, а с уже существующими эффективно справляют современные защитные решения. К тому же ИИ активно используется и в сфере ИБ.
Тем не менее практика применения ИИ атакующими может несколько повышать объемы кибератак и скорость их реализации, расширять возможности злоумышленников, снижать порог входа в индустрию. В таких условиях, как ни парадоксально, активное использование ИИ специалистами по кибербезопасности становится одним из наиболее перспективных направлений повышения эффективности киберзащиты, отмечает Владислав Тушканов.
При защите от атак методами социальной инженерии, использующими ИИ, большая доля ответственности лежит на пользователях, поэтому первый шаг к противодействию киберугрозам — повышение цифровой грамотности, дополняет старший аналитик исследовательской группы Positive Technologies Дарья Лаврова. Фишинговые письма и сообщения, как и аудио / видеозвонки с использованием дипфейков имеют характерные маркеры. Это попытки надавить на эмоции жертвы (напугать денежными потерями / уголовным преследованием, вызвать азарт, пообещав крупный выигрыш или ценный подарок и так далее), спровоцировать ее на быстрые и необдуманные действия, сопровождаемые, как правило, обезличенным текстом, вложениями и QR-кодами.
— Компаниям необходимо не только проводить регулярное обучение сотрудников, но и совершенствовать свои механизмы безопасности, в частности, за счет использования более эффективного ИИ, способного в режиме автопилота обнаруживать и предотвращать атаки. Эффективность такого ИИ должна базироваться на верифицированных гипотезах о будущих киберугрозах, а не на запоздалой реакции на уже известные и широко используемые ИИ-практики киберпреступников, — заключает эксперт.