Q
[질문] 1.AI 모델 또는 생성형 AI 인터페이스에 대해 역공학, 모델 탈취 등의 공격을 막기 위한 API 보안 및 인증 체계는 어느정도 수준인지요?
2.AI를 활용한 보안 시스템(ex: AI 기반 EDR, SIEM, 이상 징후 탐지)은 얼마나 정확하고 신뢰도 높은 위협 식별을 제공하는지요?
3.조직의 기존 보안 정책(DLP, IAM, 네트워크 통제 등)에서 AI 도입 시 비효율이나 충돌을 유발하는 경우, 어떻게 정책을 재설계하여야 하는지요?
4.AI 관련 보안 사고(모델 탈취, 결과 조작, 내부 데이터 노출 등)가 발생했을 경우, 대응 프로세스, 롤백 시나리오, 로그 감사 체계가 어느정도 체계적으로 마련되어 있는지 궁금합니다.