최형빈님, 안녕하세요, 티맥스티베로입니다. 티베로는 제품 릴리즈 과정에서 다양한 플랫폼에 대한 호환성과 상호운용성을 검증하여 배포하고 있습니다. 현재 Unix, Linux, Windows 플랫폼을 지원하고 있으며 다양한 Cloud 환경을 지원하고 있습니다. 클라우드 환경의 경우, 별도 Cloud Binary를 유지하여 제품화하고 있습니다. 기타 다양한 3rd party 제품과의 호환성도 별도 인증센터를 구축하여 지원하고 있습니다. 이러한 모든 것은 각 부문별 중기적인 계획을 가지고 필요 시 추가하여 진행중에 있습니다.
정하나님, 안녕하세요, 티맥스티베로입니다. 티베로 기술지원은 티베로 제품에 대한 하자보수, 장애대응, 정기점검, 기능 개선 등이 포함됩니다. 인프라 구성시에 제품설치와 교육 등을 지원하고 있습니다. 아무래도 국내 벤더이기에 기술지원에 대한 밀착지원을 강점으로 하고 있습니다. 다양한 기술지원 관련 요구사항 등은 저희 영업대표등을 찾아주시면 친절히 대응토록 하겠습니다^^
Intel의 AI 가속기는 다음과 같은 기능을 사용하여 GPU에서 전담하는 기능을 분담하여 처리합니다. CPU-GPU 협업: Intel의 AI 가속기는 CPU와 협력하여 딥러닝 계산을 수행합니다. CPU는 가속기에게 명령을 보내고, 가속기는 그 명령을 사용하여 딥러닝 계산을 수행합니다. CPU와 가속기는 협력하여 딥러닝 계산을 더 빠르게 수행합니다. 전력 관리: Intel의 AI 가속기는 전력 관리 기술을 사용하여 전력 소비를 절감합니다. 전력 관리 기술은 딥러닝 계산을 수행하는 동안 가속기의 전력 소비를 줄여줍니다.
아직 답변이 없습니다
안녕하세요. 티맥스티베로입니다. 티베로사는 OLTP, OLAP를 전부 통합하여 효율적으로 지원하는 올인원 서비스인 어플라이언스제품 ZetaData를 제공하고 있습니다.
네, Intel의 가속기는 CPU가 기존에 했던 다양한 일을 가속기에 일임합니다. CPU의 근본적인 일은 명령을 실행하는 것이지만, 가속기는 CPU보다 딥러닝 계산을 더 빠르게 수행할 수 있습니다. 따라서, 가속기는 CPU에게 명령을 받고, 그 명령을 사용하여 딥러닝 계산을 수행합니다. Intel의 가속기는 CPU와 함께 작동하여 딥러닝 성능을 향상시킵니다. CPU는 가속기에게 명령을 보내고, 가속기는 그 명령을 사용하여 딥러닝 계산을 수행합니다. CPU와 가속기는 협력하여 딥러닝 계산을 더 빠르게 수행합니다.
오 환상의 궁합이군요...앞으로 모든 인텔 가속기가 다양한 솔루션 예를들면 dbms, 등에 기본적으로 적용되어서 나오면 더 좋을 것 같네요..답변 감사합니다.
아직 답변이 없습니다
안녕하세요, 인텔코리아입니다. 인텔 DSA 가속기를 적용하기 위해선 가속기가 적용된 소프트웨어를 활용하시거나 SPDK/DPDK를 사용해 가속기를 직접 적용하여 활용할 수 있습니다.
안녕하세요, 인텔코리아입니다. DSA 가속기의 경우 데이터를 이동시키는 워크로드에 대해서 CPU 사용량을 줄일 수 있습니다.
아직 답변이 없습니다
네, QAT 코어를 작게 사용하면 CPU 사용 및 기능이 향상되고 데이터 처리 및 속도 개선이 이루어집니다. 예를 들어, Intel의 QAT 코어를 사용하여 딥러닝 모델을 훈련하면 CPU 사용량이 최대 15% 감소하고 데이터 처리 속도가 최대 20% 향상됩니다. 또한, QAT 코어를 사용하여 딥러닝 모델을 실행하면 CPU 사용량이 최대 10% 감소하고 데이터 처리 속도가 최대 15% 향상됩니다.
최형빈님, 안녕하세요, 티맥스티베로입니다. 백업되는 데이터의 크기를 줄이기 위해서는 기본적으로 데이터를 압축 테이블로 저장하는 방식과 더불어 RMGR의 Compress 옵션을 사용하여 Backup 수행 시 데이터를 압축하는 방식을 사용할 수 있습니다. 문의 주신 강력한 중복 제거 방식은 Backup 시 데이터 압축 옵션을 HIGH로 설정하여 압축률을 높게 설정할 수 있습니다.
안녕하세요. 티맥스티베로입니다. 질문 주신 클러스터를 Tibero의 Activer-Standby 클러스터인 TSC(Tibero Standby Cluster) 기준으로 답변을 드리겠습니다. Active 노드가 죽으면 Standby 노드가 Active로 자동으로 전환이 되며 죽었던 Active 노드 복구 시 Failover back을 위해선 수동 전환이 필요합니다.
Intel AMX는 딥러닝 계산을 가속화하는 데 사용할 수 있습니다. Intel AMX는 딥러닝 계산을 가속화하는 데 사용할 수 있지만, 모든 딥러닝 알고리즘에 적합한 것은 아닙니다. 일부 딥러닝 프레임워크는 Intel AMX를 지원하지 않기 때문에 Intel AMX를 사용하려면 해당 프레임워크를 업데이트해야 합니다.
아직 답변이 없습니다
아직 답변이 없습니다
안녕하세요, 인텔코리아입니다. 최신 버전의 OS와 프레임워크를 사용하시게 되면 AMX가 자동으로 적용될 수 있으며 별도의 추가 코드가 필요할 수 있습니다. 별도 교육은 제공드리지 않지만 Github으로 제공되는 소스를 참고하시면 쉽게 적용하실 수 있습니다.
아직 답변이 없습니다
네, 4세대 인텔 제온 스케일러블 프로세서를 프로젝트의 상황에 맞게 최적으로 적용하고 활용하려는 경우 중점적으로 검토해야 할 사항은 다음과 같습니다. 프로젝트의 요구 사항: 프로젝트의 요구 사항을 파악하고, 4세대 인텔 제온 스케일러블 프로세서가 프로젝트의 요구 사항을 충족할 수 있는지 확인해야 합니다. 프로젝트의 예산: 프로젝트의 예산을 고려하고, 4세대 인텔 제온 스케일러블 프로세서가 프로젝트의 예산에 맞는지 확인해야 합니다. 프로젝트의 환경: 프로젝트의 환경을 고려하고, 4세대 인텔 제온 스케일러블 프로세서가 프로젝트의 환경에 적합한지 확인해야 합니다. 프로젝트의 지원: 4세대 인텔 제온 스케일러블 프로세서를 지원하는 소프트웨어 및 하드웨어가 있는지 확인해야 합니다.
예전 S/W 도 CPU 에 내장된 QAT나 SGX 같은 기능을 사용하기 위한 API 를 활용하면 사용 가능합니다