2025.04.20 (일)

  • 흐림동두천 10.1℃
  • 흐림강릉 9.5℃
  • 박무서울 10.6℃
  • 흐림대전 15.0℃
  • 구름많음대구 19.5℃
  • 구름많음울산 18.2℃
  • 광주 16.9℃
  • 흐림부산 17.4℃
  • 구름많음고창 13.8℃
  • 흐림제주 18.1℃
  • 맑음강화 7.2℃
  • 흐림보은 15.2℃
  • 구름많음금산 15.3℃
  • 흐림강진군 17.2℃
  • 구름많음경주시 13.9℃
  • 흐림거제 17.2℃
기상청 제공


IT일반


인텔, ML커먼스의 AI 성능 벤치마크에서 AI경쟁력 ‘우수’

하바나 가우디2·4세대 인텔 제온 스케일러블 프로세서, AI 학습에 뛰어난 성능 제공

 

[FETV=김태형 기자] 인텔은 인텔 하바나 가우디2 딥러닝 가속기와 4세대 인텔 제온 스케일러블 프로세서가 ML커먼스(MLCommons)의 AI 성능 벤치마크 ‘MLPerf 트레이닝(MLPerf Training) 3.0’에서 뛰어난 학습 결과를 나타냈다고 28일 밝혔다.

 

인텔 데이터 센터 및 AI 그룹 총괄 산드라 리베라(Sandra Rivera) 부사장은 “ML커먼스의 최신 발표를 통해 AI 분야에서 인텔 제온 프로세서 및 인텔 가우디 딥러닝 가속기가 고객에 제공하는 총소유비용(TCO) 가치를 확인할 수 있었다”면서 “제온 프로세서의 내장 가속기는 대용량 AI 워크로드를 범용 프로세서에서 실행하는데 이상적인 솔루션이며 가우디는 대규모 언어모델과 생성형 AI에서 경쟁력 있는 성능을 제공한다”고 말했다.

 

이어 그는 “인텔 스케일러블 시스템은 프로그래밍하기 용이한 최적화된 개방형 소프트웨어를 기반으로 고객과 파트너가 클라우드에서 인텔리전트 엣지를 포함하는 데이터센터에서 AI 기반 솔루션을 더욱 쉽게 배포하도록 지원하고 있다”고 덧붙였다.

 

현재 생성형 AI와 대규모 언어 모델(LLM)은 엔비디아 GPU에서만 실행할 수 있다는 것이 업계의 정설로 여겨지고 있다. 하지만 이번 발표로 인텔 AI 솔루션 포트폴리오가 효율성과 확장성을 제한하는 폐쇄적인 생태계에서 벗어나고자 하는 고객에게 경쟁력 있고 매력적인 선택지를 제공하고 있다.

 

이번 발표는 다양한 딥러닝 모델에 대한 인텔 제품의 높은 성능을 입증했다. 더불어 학습을 위한 가우디2 기반 소프트웨어 및 시스템의 성숙도 또한 대규모 언어 모델인 GPT-3을 통해 검증했다. 가우디2는 GPT-3의 LLM 학습 벤치마크에 성능 결과를 제출한 단 두 개의 반도체 솔루션 중 하나이다.

 

가우디2는 서버 및 시스템 비용 모두에서 고객에 경쟁력 있는 비용 이점을 제공한다. 가우디2는 GPT-3 상에서 기록한 가속기의 MLPerf 검증 성능, 컴퓨터 비전, 자연어 모델 및 향후 소프트웨어 개선을 바탕으로 엔비디아 H100 제품 대비 고객에 더욱 매력적인 가성비를 제공하는 선택지를 제공할 것이다.

 

CPU 측면에서 인텔 AI 엔진이 탑재된 4세대 제온 프로세서의 딥러닝 학습 성능을 통해 고객이 제온 기반 서버로 데이터 전처리, 모델 학습 및 배포를 위한 단일 범용 AI 시스템을 구축해 AI의 성능, 효율성, 정확성 및 확장성을 적절히 조합할 수 있다는 것을 입증했다.

 

생성형 AI 및 대규모 언어 모델 학습을 위해선 방대한 컴퓨팅 요구사항을 충족할 수 있는 서버 클러스터가 필요하다. 이번 MLPerf 결과는 가장 까다로운 모델인 1,750억 개의 매개변수 GPT-3에서 하바나 가우디2의 뛰어난 성능과 효율적인 확장성을 입증했다.