[질문] 1.운영 중인 AI 모델이 사이버 공격(예: Adversarial Attack, Prompt Injection 등)에 노출되었을 때 대응 시나리오가 궁금합니다.
2.AI 시스템이 온프레미스 인프라 또는 클라우드와 연계될 경우, 보안 이나 IAM 설정 방법이 궁금합니다.
3.생성형 AI의 출력이 민감 정보, 허위 정보, 비윤리적 내용을 포함할 수 있는 경우, 이를 사전 차단하는 방법이 있는지요?
[질문]AI와 보안 모두 DevSecOps 문화로 통합해야 한다면, 가장 먼저 고려되어야 할 항목은 무엇일까요? 특히 Prompt 보안이나 모델 버전 관리 측면에서요. 엔지니어링/운영팀에서도 바로 반영할 수 있는 내용이라서 이번 웨비나 진행하면서 설명을 해주시면 감사하겠습니다.