Национальный институт стандартов и технологий США (NIST) на этой неделе опубликовал четыре руководства, призванные дать разработчикам ИИ и специалистам по кибербезопасности более глубокое представление о рисках, рассматриваемых в «Фреймворке управления рисками ИИ» 2023 года (“AI Risk Management Framework”, AI RMF).
Выпущенные проекты документов являются последними строительными блоками, созданными федеральными агентствами после указа президента США Джо Байдена от октября 2023 года, определяющего то, каким образом правительство США будет требовать от технологической отрасли снижения различных типов рисков, связанных с ИИ.
Хотя все они представляют собой хорошую базовую информацию для лиц, принимающих решения в сфере технологий, первые три охватывают области, вызывающие более острую озабоченность у людей, занимающихся кибербезопасностью:
Оглавление
Генеративные риски ИИ
Основываясь на рабочей группе по генеративному ИИ NIST, «Профиль генеративного ИИ AI RMF » ( NIST AI 600-1) перечисляет 13 рисков, связанных с генеративным ИИ, включая кодирование вредоносных программ, автоматизацию кибератак, распространение дезинформации, социальную инженерию, галлюцинации ИИ (« конфабуляция»), а также вероятность того, что генеративный ИИ может чрезмерно потреблять ресурсы. Документ завершается 400 рекомендациями, которые разработчики могут принять для снижения этих рисков.
Вредоносные данные для обучения ИИ
В качестве дополнения к «Фреймворку безопасной разработки программного обеспечения» (SSDF) NIST, руководство «Практика безопасной разработки программного обеспечения для генеративного ИИ и моделей двойного назначения» (Специальная публикация NIST (SP) 800-218A) посвящено тому, где ИИ получает свои данные и могут ли они и модели, взвешивающие их, быть подделаны.
По данным NIST, «некоторые модели могут быть настолько сложными, что их невозможно тщательно проверить, что потенциально допускает необнаружимое выполнение произвольного кода».
Риски синтетического контента
Сегодняшние системы искусственного интеллекта первого поколения способны злонамеренно синтезировать изображения, звук и видео настолько хорошо, что их невозможно отличить от подлинного контента. В руководстве «Снижение рисков, связанных с синтетическим контентом» (NIST AI 100-4) рассматривается, как разработчики могут аутентифицировать, маркировать и отслеживать происхождение контента с помощью таких технологий, как нанесение водяных знаков.
Четвертый и последний документ, «План глобального взаимодействия по стандартам ИИ» (NIST AI 100-5), рассматривает более широкую проблему стандартизации и координации ИИ в глобальном контексте. Сейчас это, вероятно, не вызывает беспокойства, но в конечном итоге будет приобретать большие масштабы. США — лишь одна, хотя и крупная юрисдикция; Без какого-либо соглашения по глобальным стандартам есть опасения, что ИИ может в конечном итоге стать хаотичным и всеобщим.
«В течение шести месяцев с тех пор, как президент Байден издал свой исторический указ об искусственном интеллекте, Министерство торговли усердно работало над исследованием и разработкой рекомендаций, необходимых для безопасного использования потенциала искусственного интеллекта, минимизируя при этом связанные с ним риски», — сказал госсекретарь США по торговле Джина Раймондо.
Руководства NIST, вероятно, станут обязательным чтением по кибербезопасности
Как только документы будут окончательно доработаны позднее в этом году, они, вероятно, станут важными ориентирами. Хотя AI RMF NIST и не представляет собой набор правил, которым должны соответствовать организации, он устанавливает четкие границы того, что считается хорошей практикой.
Даже в этом случае усвоение нового массива знаний поверх стандартного отраслевого фреймворка кибербезопасности (CSF) NIST по-прежнему будет проблемой для профессионалов, сказал Кай Роер, генеральный директор и основатель Praxis Security Labs, который в 2023 году участвовал в работе правительственного комитета Норвегии по вопросам этичности ИИ.
«ИТ директора уже уделяют много внимания правилам кибербезопасности NIST, и те, у кого достаточно ресурсов, также могут начать присматриваться к искусственному интеллекту. Однако большинство из них вряд ли смогут уделить этому вопросу то внимание, в котором он действительно нуждается», — сказал Роер CSO Online.
Когда появится регулирование, это создаст новый уровень беспокойства по поводу соблюдения требований.
«Что не дает им [директорам по информационной безопасности] спать по ночам, так это новые нормативные требования, которые могут оказаться невыполнимыми».
Существует вероятность того, что сотрудники или партнеры по цепочке поставок примут ИИ по совершенно веским основаниям, но без получения одобрения или оценки проекта на предмет соответствия каким-либо правилам, в то время, как преступники наверняка набросятся на ИИ как на способ повышения автоматизации и масштаба атак.