Генеративный ИИ, в частности ChatGPT, не следует считать надежным инструментом для обнаружения уязвимостей в разрабатываемом коде без решающего экспертного контроля со стороны человека. Однако модели машинного обучения (МО) обещают помочь в обнаружении новых атак «нулевого дня». Об этом говорится в новом отчете NCC Group, в котором рассматриваются различные варианты использования искусственного интеллекта в области кибербезопасности.

Технический документ «Безопасность, защищенность, конфиденциальность и подсказки: киберустойчивость в эпоху искусственного интеллекта (ИИ)» был опубликован, чтобы помочь тем, кто хочет лучше понять, как ИИ применяется в кибербезопасности, и в котором обобщается, как ИИ может использоваться профессионалами в области кибербезопасности.

В этом году это стало темой широкого обсуждения, исследований и мнений, вызванных взрывным ростом технологий генеративного ИИ в конце 2022 года. Было много разговоров о рисках безопасности, которые представляют собой чат-боты с генеративным ИИ — из-за опасений по поводу того, что с помощью передовых алгоритмов самообучения злоумышленники смогут использовать их для значительного усиления атак . Аналогичным образом, многие утверждают, что при правильном использовании чат-боты с генеративным искусственным интеллектом могут улучшить защиту.

Экспертный надзор по-прежнему имеет решающее значение для обнаружения уязвимостей безопасности кода

Ключевой областью внимания в отчете является вопрос о том, можно ли ввести исходный код в генеративный чат-бот с искусственным интеллектом и предложить ему проверить, содержит ли код какие-либо недостатки безопасности в интерактивной форме статического анализа, точно выявляя потенциальные уязвимости для разработчиков. Несмотря на обещания и повышение производительности, предлагаемые генеративным ИИ в разработке кода/программного обеспечения, он показал неоднозначные результаты в своей способности эффективно обнаруживать уязвимости кода, обнаружила NCC.

«Эффективность таких подходов с использованием существующих моделей была предметом исследования NCC Group, в результате которого был сделан вывод о том, что экспертный человеческий надзор по-прежнему имеет решающее значение», — говорится в отчете. Используя примеры небезопасного кода из Damn Vulnerable Web Application (DVWA), ChatGPT попросили описать уязвимости в серии примеров небезопасного исходного кода PHP. «Результаты были неоднозначными , и это определенно ненадежный способ обнаружения уязвимостей в разработанном коде».

Машинное обучение доказало свою эффективность в обнаружении новых атак «нулевого дня»

Еще один вариант использования искусственного интеллекта в сфере кибербезопасности, рассмотренный в отчете, сосредоточен на использовании моделей машинного обучения (МО) для помощи в обнаружении новых атак «нулевого дня», что позволяет автоматически реагировать на защиту пользователей от вредоносных файлов. NCC Group спонсировала магистратуру Центра подготовки докторантов в области наук о интенсивных данных (CDT DIS) Университетского колледжа Лондона (UCL) для разработки модели классификации, позволяющей определить, является ли файл вредоносным ПО. «Было протестировано несколько моделей, наиболее производительная из которых достигла точности классификации 98,9%», — говорится в отчете.

Анализ угроз включает в себя мониторинг нескольких онлайн-источников данных, предоставляющих потоки разведывательных данных о вновь выявленных уязвимостях, разработанных эксплойтах, а также тенденциях и закономерностях поведения злоумышленников. «Эти данные часто представляют собой неструктурированные текстовые данные с форумов, социальных сетей и даркнета. Модели машинного обучения могут использоваться для обработки этого текста, выявления общих нюансов кибербезопасности в данных и, следовательно, выявления тенденций в тактике, методах и процедурах злоумышленников”, – говорится в сообщении. Это позволяет правозащитникам активно и упреждающе внедрять дополнительные системы мониторинга или контроля, если новые угрозы особенно значимы для их бизнеса или технологического ландшафта, добавили в компании.

Источник: https://www.csoonline.com/article/654322/chatgpt-not-a-reliable-tool-for-detecting-vulnerabilities-in-developed-code.html

Ваша реакция?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x