ИБ-исследователь Марко Фигероа (Marco Figueroa) продемонстрировал, что модель OpenAI GPT-4o можно обмануть и обойти ее защитные механизмы, скрывая вредоносные инструкции в шестнадцатеричном формате или используя эмодзи.
Новости — Хакер
Ваша реакция?
+1
+1
+1
+1
+1
+1
+1