Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Путин подписал закон об учете службы добровольцев СВО в пенсии за выслугу лет
Армия
Российская армия за сутки освободила четыре населенных пункта в ДНР
Мир
Трамп раскритиковал ООН за неспособность помочь в миротворчестве
Мир
Латвия вновь продлила запрет на ночные полеты вдоль границ с РФ и Белоруссией
Мир
В США отметили нереальность просьбы Зеленского дать $800 млрд Украине
Мир
В Германии предрекли отказ Трампа от одобрения плана Зеленского
Мир
El País сообщила о тревоге Европы из-за политики США
Общество
Путин подписал закон о домовых чатах в MAX
Мир
FT допустила новый ренессанс в Европе после урегулирования конфликта на Украине
Мир
В Литве в 2025 году сменили связанные с Советским Союзом названия 19 улиц
Общество
ФНС выставила Моргенштерну новый счет после погашения долга
Новости компаний
«Россети» обеспечили максимальную надежность электроснабжения космодрома Восточный
Спорт
Непряева не прошла квалификацию спринта на первом этапе «Тур де Ски»
Общество
Компания Samsung зарегистрировала в России два товарных знака
Мир
МАГАТЭ сообщило о начале ремонтных работ линии электропередачи рядом с ЗАЭС
Армия
ВС РФ успешно отражают атаки украинских элитных подразделений в Купянске
Армия
Армия России завершила освобождение населенного пункта Гуляйполе
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Чат-боты типа ChatGPT или Grok создают новые лазейки для совершения преступлений, и в 2025 году количество таких правонарушений кратно вырастет, рассказали эксперты. По их словам, преступные методы будут совершенствоваться вместе с развитием ИИ, их будут использовать около 90% нелегальных кибергруппировок, а атаки затронут не только киберпространство, но и другие, более привычные аспекты жизни. Специалисты назвали первой ласточкой подрыв автомобиля в Лас-Вегасе 1 января. Организатор взрыва использовал ИИ для подготовки преступления. Подробности о тенденции — в материале «Известий».

Как ИИ впервые стал сообщником в преступлении

В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления.

Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров.

тесла

Tesla Cybertruck, после того как он взорвался возле отеля Trump International в Лас-Вегасе, США, 1 января 2025 года

Фото: REUTERS/ALCIDES ANTUNES

По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства.

— Причиной роста мировых показателей преступности с помощью ИИ станут автоматизация и новые возможности по персонализации атак. Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности, — считает директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий Виктория Береснева.

ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии, отметил генеральный директор компании Phishman Алексей Горелкин.

Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии. Однако подсчитать общее количество будет крайне сложно, — добавил эксперт.

хакер
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

С этим согласен старший преподаватель университета «Синергия» Дмитрий Штаненко. По его мнению, количество всех видов преступлений с помощью ИИ неизбежно вырастет в несколько раз. Основную опасность представляют ситуации, когда пользователи смогут «выманить» у чат-бота инструкции по созданию оружия, взрывчатых устройств, химических соединений, которые могут использоваться в террористических целях.

— Вместе с развитием технологий генеративного ИИ и GPT повышается их доступность. Для пользователя снижается порог вхождения и стоимость владения, а значит, эти технологии будут активнее применяться для мошенничества. Особенно они возрастают благодаря легкой и правдоподобной имитации человека, — сказал директор по инновациям ГК InfoWatch Андрей Арефьев.

Старший аналитик исследовательской группы Positive Technologies Екатерина Снегирева отметила, что преступники также применяют ИИ для генерации и модификации вредоносного кода. Так, в июне 2024 года была выявлена фишинговая кампания, в ходе которой широко распространился вирус AsyncRAT, а вредоносные сценарии JavaScript и VBScript были созданы с помощью компьютера. По ее данным, в этом году возрастет число утечек данных из-за повсеместного использования ИИ организациями, ведь 38% опрошенных сотрудников признали, что применяют такие инструменты без уведомления работодателя.

ноутбук
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

В 2025 году специалисты F.A.C.C.T. прогнозируют увеличение роли ИИ в кибератаках, включая создание с его помощью более убедительных дипфейков, автоматизацию фишинга для массовых атак, а также совершенствование методов поиска уязвимостей в системах и приложениях. При этом эксперты не собирают статистику по таким случаям, а изучают конкретные схемы с использованием ИИ и дипфейков.

Защита от противоправного контента

Россиянам недоступны иностранные сервисы, такие как Grok или ChatGPT, их невозможно легально оплатить с карт российских банков, и ими нельзя пользоваться тем, чей IP-адрес привязан к РФ, напомнил IT-эксперт GG Tech Сергей Поморцев. Он полагает, что отечественные аналоги безопаснее с точки зрения предоставления чувствительной информации, так как находятся под контролем российских ведомств, а также регулируются законодательством о персональных данных и другими документами.

— В законодательную базу РФ уже сейчас необходимо вносить более точные и соответствующие технологическому развитию формулировки. Они должны коснуться запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих такие химические вещества, как сероводород, — сказал специалист в области уголовного права Анатолий Литвинов.

телефон
Фото: ИЗВЕСТИЯ/Павел Волков

По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др.

Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист.

Как отметили в Альянсе в сфере ИИ, во время разработки нейросетевых моделей проводятся постоянные тестирования, чтобы находить максимально возможное количество запросов, которые позволяют получить неэтичный контент, и обучать искусственный интеллект не отвечать на такие запросы. При этом деятельность всех отечественных разработчиков регулируется декларацией «Об ответственной разработке и использовании сервисов в сфере генеративного ИИ».

Читайте также
Прямой эфир