Skip to content

Overview

AI Red Teamer là job role path được xây dựng cùng với Google, dành cho các chuyên gia an ninh mạng muốn học cách đánh giá, khai thác, và bảo vệ các hệ thống AI. Path này kết hợp giữa nền tảng lý thuyết và các bài thực hành, để người học có thể tiếp cận những bài toán bảo mật AI theo hướng thực tế hơn.

Nội dung path bao quát nhiều chủ đề quan trọng như prompt injection, tấn công vào quyền riêng tư của mô hình, adversarial AI, rủi ro trong AI supply chain, và các mối đe dọa trong quá trình triển khai hệ thống AI. Đồng thời, path này cũng được xây dựng theo định hướng của Google Secure AI Framework (SAIF), nên bám khá sát với các thách thức bảo mật AI ngoài thực tế.

  • Hiểu cách đánh giá và khai thác các hệ thống AI từ góc nhìn offensive security.
  • Học cách tác động và điều khiển hành vi của mô hình theo các kỹ thuật tấn công phù hợp.
  • Xây dựng tư duy và chiến lược red teaming dành riêng cho các ứng dụng AI.
  • Thực hiện kiểm thử bảo mật tấn công đối với các ứng dụng được vận hành bởi AI.

Sau khi hoàn thành path này, bạn sẽ có nền tảng tốt hơn để tiếp cận các bài toán AI security theo hướng red teaming, đồng thời hiểu rõ hơn cách kiểm tra và khai thác những rủi ro đặc thù của hệ thống AI.