AI010

Red Hat AI Inference Server Technical Overview

개요

쿠버네티스 인프라의 잠재력을 최대한 활용하세요.

교육 과정 개요

  • 이 Red Hat AI Inference Server 기술 개요를 통해 AI 배포에 반드시 필요한 인사이트를 확보합니다. 프로덕션 단계에서 AI 모델을 실행하는 데 따른 복잡성과 비용을 해결하는 방법을 알아봅니다. vLLM으로 구동되는 Red Hat의 솔루션이 클라우드, 온프레미스, 가상화 및 엣지 환경 전반에서 성능을 최적화하고 상당한 비용 절감 효과를 제공하는 방법을 살펴봅니다. 양자화와 추측 디코딩 같은 AI 추론 역량을 강화하기 위한 고급 기술에 대해 자세히 알아봅니다. 이 온디맨드 동영상 콘텐츠는 OpenShift AI 내의 원활한 모델 배포 및 관리를 보여주고, AI 워크로드를 위한 탁월한 효율성과 유연성을 확보하는 방법을 소개합니다.

교육 과정 내용 요약

  • 추론이란?
  • 추론 관련 과제
  • Red Hat AI Inference Server 솔루션
  • Red Hat AI 포트폴리오 통합
  • 배포의 유연성
  • LLM 압축 툴(양자화)
  • 성능 최적화 기술(kV 캐시, 추측 디코딩, 텐서 병렬 추론)
  • 고객 사례
  • 모델 배포 및 관리
  • 모델의 스토리지 연결
  • 메트릭과 모니터링
  • Hugging Face 통합

교육 대상

  • AI/ML 엔지니어 및 실무자
  • DevOps 엔지니어
  • 클라우드 아키텍트 및 엔지니어
  • 기술 의사결정자

권장 교육

  • 이 기술 개요는 아무런 선행 조건 없이 이용하실 수 있습니다.

기술 고려 사항

  • 해당 없음

교육 내용

교육 과정 내용

  • 추론이란?
  • 추론 관련 과제
  • Red Hat AI Inference Server 솔루션
  • Red Hat AI 포트폴리오 통합
  • 배포의 유연성
  • LLM 압축 툴(양자화)
  • 성능 최적화 기술(kV 캐시, 추측 디코딩, 텐서 병렬 추론)
  • 고객 사례
  • 모델 배포 및 관리
  • 모델의 스토리지 연결
  • 메트릭과 모니터링
  • Hugging Face 통합

결과

권장되는 다음 교육 과정 또는 시험