Киберпреступники начинают использовать искусственный интеллект (ИИ), чтобы сделать свои операции более эффективными, и это выходит далеко за рамки создания лучшей приманки для фишинга.

Как и в законном бизнесе, дискуссии об искусственном интеллекте среди преступников в этом году ускорились по сравнению с 2023 годом, сообщили исследователи из группы кибербезопасности Intel 471 в новом исследовании, опубликованном в среду, « Киберпреступники и искусственный интеллект: не просто лучший фишинг».

Мошенничества уносят жизни

По словам исследователей, злоумышленники внимательно наблюдают и экспериментируют. Некоторые злоумышленники утверждают, что используют ИИ для таких действий, как создание дипфейковых видеороликов, обход системы распознавания лиц и обобщение данных, украденных в результате утечки данных. Другие встраивают ИИ в свои хакерские инструменты или создают вредоносных чат-ботов.

Однако в исследовании говорится: «Возможно, наиболее заметным влиянием ИИ на киберпреступность стал рост числа мошенничеств, особенно тех, которые используют технологию дипфейков».

Некоторые из этих мошенничеств даже унесли жизни, говорится в исследовании. Например, группа киберпреступников, известная как Yahoo Boys, базирующаяся в основном в Нигерии, использует дипфейки в романтических аферах и мошенничествах с секс-вымогательством, завоевывая доверие жертв с помощью фальшивых личностей. Они часто убеждают жертв поделиться компрометирующими фотографиями, которые затем угрожают опубликовать, если им не заплатят. В Intel 471 сообщили, что многие из жертв — несовершеннолетние, а в некоторых случаях они покончили жизнь самоубийством.

В исследовании говорится, что с января 2023 года количество дипфейковых предложений значительно увеличилось, и они стали менее дорогими. Один злоумышленник заявил, что создает дипфейки аудио и видео с помощью инструмента искусственного интеллекта по цене от 60 до 400 долларов США в минуту, в зависимости от сложности, что является выгодной сделкой по сравнению с ценами 2023 года. Другие предложения злоумышленников включают подписку стоимостью 999 долларов США в год на 300 замен лиц в изображениях и видео в день.

Другие используют ИИ для мошенничества с компрометацией деловой электронной почты (BEC) и мошенничества с документами. Один из них, как говорится в исследовании, предположительно разработал инструмент, использующий искусственный интеллект для манипулирования счетами, перехвата сообщений между сторонами и изменения информации, такой как номера банковских счетов, для перенаправления платежей мошенникам.

Повышение производительности

«Инструмент манипулирования счетами предположительно обладает рядом функций, включая возможность обнаруживать и редактировать все документы в формате PDF, а также обмениваться номерами международных банковских счетов (IBAN) и банковскими идентификационными кодами (BIC)», — говорится в исследовании. «Инструмент предлагается по подписке за 5000 долларов США в месяц или за 15 000 долларов США за пожизненный доступ. Если этот инструмент работает так, как обещано, это соответствует часто упоминаемому варианту использования ИИ для повышения производительности, хотя, в данном случае, и в криминальном контексте».

Другой преступник утверждает, что использовал большую языковую модель Llama (LLM) компании Meta для извлечения наиболее конфиденциальных данных из результатов взлома данных и использования их для оказания давления на жертву с целью выплаты выкупа.

Однако, как отметил Джереми Кирк, аналитик Intel 471, не все утверждения об использовании ИИ могут быть точными. «Мы используем слово «предположительно», чтобы обозначить, что это заявление сделано злоумышленником и что часто неясно, в какой именно степени ИИ был включен в продукт, какая модель LLM используется и т. д.» — сказал он в электронном письме. «Предпринимаются попытки проверить, как ИИ может помочь в деятельности киберпреступников».

Intel 471 обнаружил множество утверждений, вызывающих сомнения, в том числе утверждения ученых-компьютерщиков Университета Иллинойса в Урбане-Шампейне (UIUC), о том, что использовали LLM OpenAI GPT-4 для эксплуатации уязвимостей в реальных системах. Однако в исследовании отмечается: «Поскольку многие ключевые элементы исследования не были опубликованы — например, код агента, промпты или выходные данные модели — они не могут быть точно воспроизведены другими исследователями, что вызывает скептицизм».

Автоматизация

Другие злоумышленники предложили инструменты, которые обобщают данные CVE, а также инструмент, интегрирующий то, что Intel 471 назвал известной моделью искусственного интеллекта, в многоцелевой хакерский инструмент, который якобы делает все: от сканирования сетей и поиска уязвимостей в системах управления контентом до написания вредоносных скриптов.

Авторы исследования также выделили некоторые новые риски, возникающие по мере роста использования ИИ, такие как генерация рекомендаций с помощью нового поискового генератора Google на базе ИИ, направляющего пользователей на вредоносные сайты, и уязвимости в приложениях ИИ. Кроме того, было замечено, что государства и злоумышленники использовали LLM для различных видов атак. В исследовании цитировались сообщения в публичных блогах Microsoft и OpenAI, в которых конкретно идентифицировались пять групп, спонсируемых государством: по одной из России, Северной Кореи и Ирана и две из Китая.

Чтобы противостоять этому, отмечается в исследовании, правительственные учреждения, включая Федеральную комиссию по связи США, Министерство внутренней безопасности США, правительство Великобритании и другие, инициируют меры по мониторингу и регулированию ИИ для обеспечения его безопасности и защищенности.

Будет только хуже

Intel 471 пришла к выводу, что, хотя в прошлом ИИ играл лишь «небольшую вспомогательную роль» в киберпреступности, роль технологии возросла. Аналитики компании ожидают, что дипфейки, фишинг и активность BEC будут расти, а также кампании по дезинформации, подпитываемые способностью LLM генерировать контент.

«Среда безопасности кардинально изменится, когда LLM сможет найти уязвимость, написать и протестировать код эксплойта, а затем эксплуатировать эти уязвимости в реальных условиях».

«Машинное обучение и технологии ИИ, уже давно распространяются в индустрии безопасности: от борьбы со спамом до обнаружения вредоносного ПО», — сказал Кирк. «Как минимум, ИИ может помочь в более быстрых атаках, но также и в более быстрой защите. Будут времена, когда нападающие одержат верх, а защитники догонят их, но это мало чем отличается от того, что мы имеем сейчас».

«То, как киберпреступники смогут использовать ИИ, также будет зависеть от наличия LLM и моделей ИИ с меньшим количеством ограничений и позволяющих запрашивать информацию или код, которые могут помочь в злонамеренном использовании».

Линн Грейнер

Источник: https://www.csoonline.com/article/2143864/criminals-too-see-productivity-gains-from-ai.html

Ваша реакция?
+1
0
+1
0
+1
1
+1
0
+1
0
+1
0
+1
0
4 1 голос
Рейтинг статьи
Подписаться
Уведомить о
guest

1 Комментарий
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прохожий
Прохожий
6 дней назад

И трагично и оптимистично:

Будут времена, когда нападающие одержат верх, а защитники догонят их

1
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x