🎤 ThakiCloud @ KCD Seoul 2025 발표 정보


📅 일시

2025년 5월 22일 (목)


🔗 관련 링크


📜 발표 스크립트

🎤 ThakiCloud 소개 및 xPU 기반 Agentic AI 인프라 플랫폼


1. 인트로 (Slide 1)

안녕하세요. ThakiCloud의 [이름]입니다.
오늘은 AI 시대의 인프라 패러다임을 바꾸는 Kubernetes-Native Agentic AI 플랫폼, 그리고 저희가 제안하는 xPU 기반 AI 인프라의 미래에 대해 말씀드리겠습니다.


2. 회사 소개 & 미션 (Slide 2)

ThakiCloud는 퍼블릭 클라우드 수준의 유연성과 확장성을 프라이빗 및 하이브리드 환경에서도 실현하는 AI 인프라 플랫폼 기업입니다.

미션: 모든 기업이 AI First로 전환할 수 있도록 지원하는 것

핵심 기술 영역:

  • LLM & Agentic AI 인프라스트럭처
  • 이기종 가속기 통합 관리(xPU 관리)
  • Kubernetes-Native 기반의 xPU 서비스화

3. 왜 xPUaaS와 Agentic AI인가? (Slide 3)

현재 문제:

  • GPU 중심의 비용(TCO) 상승과 공급망 불안정
  • 다양한 워크로드에 따른 하드웨어 최적화의 어려움
  • Agentic AI 특유의 복잡한 오케스트레이션
  • 데이터 주권 이슈

ThakiCloud의 해법:

  • 다양한 가속기를 서비스로 제공하는 xPUaaS
  • 개발자 경험 중심의 Turnkey Agentic AI PaaS
  • Sovereign Cloud를 통한 데이터 규제 대응

4. AI 워크로드 최적화 흐름 (Slide 4)

다이어그램을 보시면, 저희 플랫폼은 AI 워크로드 유형에 따라 가장 적합한 xPU를 자동 할당합니다.

예:

  • 대규모 학습 → NVIDIA GPU Cluster
  • 실시간 추론 → 고성능 GPU 또는 국내 NPU
  • 배치 추론 → 비용 최적화된 혼합 구조

이러한 파이프라인은 지속적인 모니터링과 피드백을 통해 자동 최적화됩니다.


5. Cloud-Native AI 인프라 구성 (Slide 5~6)

저희의 xPUaaS는 Kubernetes 확장 아키텍처 기반으로 설계되어 있으며:

  • 다양한 디바이스 플러그인
  • 통합 추론 런타임
  • xPU SDK Wrapper를 통한 직관적인 API
  • Prometheus, Grafana, Loki 기반의 모니터링 환경

SDK, 웹, 모바일 등 다양한 클라이언트가 API Gateway를 통해 접근합니다.


🎤 슬라이드 6 상세 발표 스크립트

✅ 전체 구성 흐름

ThakiCloud의 xPUaaS 아키텍처는 클라이언트 요청부터 추론 가속기까지의 전체 흐름을 시각화한 구조입니다.

1. 클라이언트 계층

  • 웹, 모바일, SDK 클라이언트가 API Gateway를 통해 AI 서비스에 접근
  • xPUaaS API Gateway가 요청을 중심적으로 라우팅

2. 핵심 서비스 계층

  • Inference Service: 실시간 추론 처리
  • Model Management: 모델 등록, 버전 관리
  • xPU Resource Pools: 가속기 풀 구성
  • Autoscaling: 수요에 따른 자동 스케일 조정

3. Kubernetes 오케스트레이션 계층

  • Device Plugins: 각 벤더별 가속기 등록 (NVIDIA, Rebellions, Furiosa 등)
  • Custom Scheduler: 최적화된 자원 배치
  • Inference Runtime / SDK Wrapper: 백엔드 통합
  • Resource Isolation / Observability: 격리 및 모니터링 체계 구축

4. 하드웨어 계층

  • NVIDIA GPU, FuriosaAI NPU, Rebellions NPU 등과 실시간 연동
  • 드라이버, 전력, 헬스 체크, 펌웨어 업데이트 관리 포함

📌 요약 강조

  • 단일 API 게이트웨이
  • Kubernetes 기반 자동화 인프라
  • 유연한 xPU 연결성
  • 강력한 모니터링 및 안정성 확보

6. 유연한 클라우드 운영 전략 (Slide 8~9)

  • GitOps + Helm 기반 선언적 배포
  • 멀티 클라우드 대응: 온프레미스, AWS EKS, GCP GKE, Azure AKS
  • 서버리스 확장성: ACA, Cloud Run과 연동
  • 퍼블릭 클라우드 수준의 자동화와 스케일링을 프라이빗 환경에서도 실현

7. 함께 할 이유 (Slide 10)

ThakiCloud는:

  • AI 인프라 혁신을 선도하며
  • 오픈소스 기여 중심의 엔지니어 문화를 지향하고
  • 국산 NPU 생태계와 함께 성장합니다.

AI 인프라의 미래를 함께 설계할 파트너와 동료들을 기다리고 있습니다.


🔚 마무리

들어주셔서 감사합니다.
발표 후 Q&A 시간에 더 많은 이야기를 나눌 수 있기를 기대합니다.