Q

[질문] 클라우드 침해 사고 조사 시 자주 발견되는 보안 구성상의 문제로 인해 공격자의 lateral movement를 허용하게 되는 대표적인 IAM 정책 설정상의 실수는 무엇인가요?

방성현 2025-06-25 14:08
A

클라우드 침해 사고 조사 시 공격자의 Lateral Movement(측면 이동)를 허용하게 되는 가장 흔한 IAM(Identity and Access Management) 정책 설정 실수는 다음과 같습니다. 대표적으로 과도한 권한 부여, 와일드카드 권한 사용, 사용하지 않는 계정/권한 방치, 서비스 계정 키 관리 부실 등을 예로 들 수 있을것 같네요.

Google Cloud 2025-06-25 14:15
Q

[질문] 웹3, 암호화폐 관련 위협에서 스마트 계약 취약성이나 디파이 플랫폼 대상 공격 관련 최신 동향은 어떤 것들이 있나요? 여기에 맨디언트가 추천하는 사전 대응 프레임워크가 있을까요?

박선희 2025-06-25 14:07
A

암호화폐 시장의 성장과 함께 스마트 계약 및 디파이(DeFi) 플랫폼을 노린 공격은 점점 더 정교해지고 있습니다. 이러한 공격들은 막대한 자산 손실과 사용자 신뢰 하락으로 이어질 수 있어, 최신 동향을 파악하고 선제적으로 대응하는 것이 매우 중요합니다. 맨디언트의 경우는 이러한 새로운 환경에 대한 진단 및 제안을 위해서 컨설팅을 사전에 진행하고 그에 따른 최적의 대응 프레임워크를 제안 드리고 있습니다.

Google Cloud 2025-06-25 14:10
A

Google Cloud 2025-06-25 14:14
Q

리포트 한글 번역본은 언제 배포되나요?

정영하 2025-06-25 14:05
A

현재 번역 작업 중이고, 7월 중순 쯤 예상하고 있습니다.

Google Cloud 2025-06-25 14:06
Q

<질문>클라우드 전환에 따라 기존 보안시스템과는 차별화된 보안전략이 필요하다고 생각합니다. 중소기업에 입장에선 디테일한 보안전략을 취하기가 많이 어려운데요. 최근 클라우드 보안사례와 이에 대처할 수 있는 방안에 대한 의견이 궁금합니다.

김도윤 2025-06-25 14:04
A

클라우드 환경에서의 보안은 기존 온프레미스와는 다른 접근 방식이 필요하지만, 중소기업도 충분히 효과적인 보안 전략을 수립하고 실행할 수 있습니다. 핵심은 클라우드 공유 책임 모델을 명확히 이해하고, CSP의 기본 보안 기능을 최대한 활용하며, 강력한 ID 및 접근 관리와 데이터 암호화를 기본으로 삼는 것입니다. 여기에 직원들의 보안 인식 교육과 필요 시 외부 전문가의 도움을 받는다면, 제한된 자원으로도 충분히 안전한 클라우드 환경을 구축하고 운영할 수 있지 않을까요? 구체적인 부분은 미팅을 통해서 추가적인 설명을 드릴 수 있도록 하겠습니다.

Google Cloud 2025-06-25 14:07
Q

[질문] 온프라미스와 클라우드를 병행 사용 시 주의 사항이나 보안 측면에서 고려해야하는 사항이 있는지요? 사전 검토나 필요 사항이 있는지요?

김우현 2025-06-25 14:00
A

온프레미스와 클라우드를 병행 사용하는 하이브리드 클라우드 환경에서는 편리함과 유연성이라는 장점만큼이나 복잡성과 보안 위험이 증가할 수 있습니다. 따라서 통합적인 관점에서 신중한 계획과 지속적인 관리가 필수적입니다. 고려할 사항들이 참 많은데 네트워크 및 연결성, 데이터 관리 및 보안, 신원 및 접근 관리, 가시성 및 모니터링 그리고 규제 준수 및 거버넌스 에 대한 부분을 전체적으로 검토하셔야 합니다.

Google Cloud 2025-06-25 14:03
Q

질문) 사고 대응 지표 작성시 주요 기준은 어떻게 되나요?

김성균 2025-06-25 13:58
A

사고 대응 지표를 작성할 때는 사고가 발생했을 때 얼마나 빠르고 효과적으로 대응하고 복구했는지를 측정하는 것이 중요합니다. 핵심 목표는 복구 시간을 단축하고, 비즈니스 연속성을 확보하며, 재발을 방지하는 것이 중요합니다. 그래서 침해사고에도 골든 타임을 중요하게 얘기합니다.

Google Cloud 2025-06-25 14:00
Q

[질문] 가능할지는 잘 모르겠지만 비용이나 이런저런 이유로 API방식을 사용하지만 고객의 질문/결과 값이 학습으로 인입되지 않도록 휘발시키는 등의 하이브리드 방식은 불가한걸까요?

박영대 2025-06-24 15:02

아직 답변이 없습니다

Q

[질문]대규모 LLM의 추론 시, 메모리 최적화(FP8, 모델 압축, quantization)는 어떻게 적용되고 있으며, 성능에 어떤 영향을 주는지요?

조성영 2025-06-24 14:59

아직 답변이 없습니다

Q

[질문] Cen AI 를 아이티센 내부에서 사용하고 계신다고 하셨는데 고객사에서 사용할 수 있는 방법이 제공되나요?

전영진 2025-06-24 14:54
A

관련된 정보는 영업문의를 통해 요청주시길 바랍니다. 감사합니다. 아이티센클로잇 이준희 팀장 / [email protected]

아이티센클로잇 2025-06-24 14:59
Q

안녕하세요. 자체 서빙은 provider들이 미리 학습하여 놓은 pre trained 모델을 기반으로 회사가 추가 파인 튜닝하며 학습하는 건가요?

Minjung Cho 2025-06-24 14:52
A

네, 맞습니다. 자체 서빙은 일반적으로 클라우드 제공업체나 연구 기관 등이 미리 학습시켜 놓은(pre-trained) 대규모 언어 모델을 기반으로 합니다. 여기에 기업은 자신들의 특정 도메인 데이터나 목적에 맞춰 추가적인 파인 튜닝(fine-tuning) 과정을 거쳐 모델을 최적화합니다. 이후 이 파인 튜닝된 모델을 자체 인프라에 직접 배포하고 운영하여 서비스를 제공하는 방식입니다.

아이티센클로잇 2025-06-24 14:59
Q

[질문]api서비스와 자체 개발을 하이브리드로 해야할 시나리오에서의 효과적인 대응 방향이 있으면 설명 부탁드립니다,

김기혁 2025-06-24 14:47
A

API 서비스와 자체 개발을 하이브리드로 운영하는 시나리오에서는 민감 데이터 처리나 핵심 비즈니스 로직은 자체 개발 LLM으로, 일반적인 질의응답이나 보조적인 기능은 API 서비스로 분리하여 대응하는 것이 효과적입니다. 이를 통해 데이터 주권 및 보안을 확보하면서도 개발 속도를 높이고 운영 비용을 최적화할 수 있습니다. API 게이트웨이를 통해 요청을 적절한 LLM으로 라우팅하하는 방법으로 설계하는 것도 고려해볼 만합니다.

아이티센클로잇 2025-06-24 14:59
Q

[질문] LLM 파인튜닝 모델을 On-demand로 서빙할 때 CI/CD 전략은 어떻게 구성하나요?

여현동 2025-06-24 14:46
A

LLM 파인튜닝 모델을 On-demand로 서빙할 때 CI/CD 전략은 모델 학습 파이프라인과 서빙 파이프라인을 분리하여 구성하는 것이 효율적입니다. 모델이 파인튜닝되면 자동으로 모델 레지스트리에 등록되고, 새로운 모델 버전이 준비되면 CI/CD 파이프라인을 통해 서빙 환경에 배포됩니다. 이때 카나리 배포나 롤링 업데이트 방식을 사용하여 서비스 중단 없이 모델을 업데이트하고, 문제가 발생하면 빠르게 롤백할 수 있도록 설계해야 합니다.

아이티센클로잇 2025-06-24 14:59
Q

[질문] API 방식은 빠른 시작이 가능하지만, 장기적으로 보면 비용이나 제어권 관점에서 불리하다는 이야기도 있습니다. 현실적으로 어느 정도까지 규모가 커져야 자체 서빙이 경제적으로 유리해지나요?

정하나 2025-06-24 14:41
A

특정 "규모"를 정확한 숫자로 제시하기는 어렵지만, API 서비스 비용이 내부 인프라 구축 및 운영 인력 비용을 포함한 총소유비용(TCO)을 초과하고, 동시에 데이터 주권 및 비즈니스 핵심 자산으로서의 LLM 통제권 확보가 중요해지는 시점이 자체 서빙으로의 전환을 진지하게 고려해야 하는 시점이라고 할 수 있습니다.

아이티센클로잇 2025-06-24 14:56
Q

[질문] 모델 서빙 시 비용 최적화를 위한 Cloud 인스턴스 선택 기준은 무엇인가요?

여현동 2025-06-24 14:40
A

모델 서빙 시 비용 최적화를 위한 Cloud 인스턴스 선택 기준은 예측 가능한 트래픽 패턴에는 예약 인스턴스(Reserved Instances) 를 사용하며, 비정기적인 워크로드에는 스팟 인스턴스(Spot Instances)를 활용하는 것입니다. 모델의 GPU 메모리 요구량과 연산 능력에 따라 적절한 GPU 가속기 유형과 개수를 선택하여 오버스펙을 피하고, 배치 추론을 통해 GPU 활용률을 높이는 것을 고려해야 합니다.

아이티센클로잇 2025-06-24 14:56
Q

[질문] 자체 시스템과 API 를 실시간 상황에 따라 연동하는 것도 장점이 많을 것 같은데 어떤 어려움이 있을까요?

김세준 2025-06-24 14:40
A

자체 시스템과 API를 실시간으로 연동하는 것은 데이터 일관성 유지, Latency 관리, 그리고 오류 처리 및 재시도 로직 구현에서 어려움이 있을 수 있습니다. 양쪽 시스템의 데이터 스키마 불일치나 네트워크 불안정으로 인한 데이터 동기화 문제가 발생할 수 있으며, API 호출 Latency가 시스템 전체 성능에 영향을 미칠 수 있습니다.

아이티센클로잇 2025-06-24 14:55
Q

[질문] 자체 LLM 서빙을 위한 GPU 인프라 구성 시, 초기 단계에서 가장 많이 발생하는 실수나 오해는 무엇인가요?

이정훈 2025-06-24 14:40
A

자체 LLM 서빙을 위한 GPU 인프라 구성 시 초기 단계에서 가장 많이 발생하는 실수는 GPU 자원의 과소평가 또는 과도한 예측입니다. 실제 워크로드에 대한 정확한 분석 없이 무작정 고성능 GPU를 도입하거나, 반대로 성능 부족으로 인해 잦은 스케일 업이 필요한 경우가 많습니다. 또한, GPU 간 통신 대역폭이나 네트워크 Latency를 간과하여 병목 현상이 발생하는 경우도 흔합니다.

아이티센클로잇 2025-06-24 14:55
Q

[질문] LLM의 응답 지연을 줄이기 위한 Async Serving 설계는 어떻게 하나요?

여현동 2025-06-24 14:38
A

LLM의 응답 지연을 줄이기 위한 Async Serving 설계는 비동기 처리 모델을 사용하여 요청을 동시에 처리하고, 이를 위해 FastAPI와 같은 비동기 웹 프레임워크를 이용해 추론 요청을 메시지 큐(예: Kafka, RabbitMQ)에 넣어 워커들이 비동기적으로 처리하도록 구성합니다. 또한, 논블로킹 I/O를 활용하여 GPU 자원을 최대한 활용하도록 최적화합니다.

아이티센클로잇 2025-06-24 14:54
Q

[질문] Multi-tenant 환경에서 모델 격리는 어떻게 구현하는 게 효율적인가요?

여현동 2025-06-24 14:35
A

Multi-tenant 환경에서 모델 격리는 테넌트별로 전용 GPU 인스턴스 또는 컨테이너를 할당하는 방식이 가장 효율적입니다. Kubernetes Namespace나 가상 머신(VM)을 활용하여 테넌트별 리소스 격리를 구현하고, 각 테넌트의 모델 및 데이터에 대한 접근 제어 정책을 엄격하게 적용해야 합니다. 필요에 따라 테넌트별 데이터 암호화 키를 분리하여 보안을 강화할 수 있습니다.

아이티센클로잇 2025-06-24 14:53
Q

[질문]현재 서빙 전략을 설계할 때 추후 멀티모달(텍스트+이미지) 혹은 에이전트 기반 LLM 확장을 고려한다면, 어떤 아키텍처적 준비가 필요할까요?

신유진 2025-06-24 14:33
A

멀티모달 또는 에이전트 기반 LLM 확장을 고려한다면, 모듈화되고 확장 가능한 마이크로서비스 아키텍처를 준비해야 합니다. 각 모달리티(텍스트, 이미지 등)를 처리하는 별도의 컴포넌트를 설계하고, 이들을 유연하게 조합할 수 있는 서비스 오케스트레이션 계층을 구축하는 것이 중요합니다. 서비스에서 발생하는 데이터를 자체적으로 처리한다면 데이터 파이프라인 또한 다양한 형태의 데이터를 수집, 전처리, 임베딩할 수 있도록 유연하게 설계해야 합니다.

아이티센클로잇 2025-06-24 14:52