[현장] 인텔-네이버 “AI칩 생태계 확장 맞손…가우디2 테스트 먼저”

백남기 인텔 코리아 부사장과 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)가 인텔 비전 2024에 대한 미디어 브리핑에서 협력 방향성을 설명하고 있다. 신정원 기자 

인텔이 네이버와의 협업과 새로운 인공지능(AI) 가속기 ‘가우디3’에 대해 소개했다.

 

11일 인텔은 여의도 전경련회관에서 지난 8~9일(현지시간) 미국 피닉스에서 열린에서 열린 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에 대한 미디어 브리핑을 가졌다.

 

먼저 백남기 인텔 코리아 부사장과 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)가 원격으로 참석해 협력 방향성을 설명했다. 네이버는 가우디2를 기반으로 새로운 인공지능(AI) 칩 소프트웨어 생태계 구축에 나선다. 가우디2를 테스트하고 결과를 토대로 LLM(대규모언어모델) 학습 인프라 구축에 적용할 계획이다.

 

이 박사는 “네이버가 제공하는 다양한 AI 서비스가 거의 모든 곳에 사용되고 있다”며 “좋은 AI 반도체를 사용하는 것은 경쟁력 우위 확보에 직결된다. 오랜 시간 고민하다 협력을 진행하게 됐다”고 배경을 밝혔다.

 

이어 “LLM 등이 빠른 속도로 발전되다 보니 거기에 연결되는 소프트웨어도 확장을 많이 해야 한다. 스타트업이라든가 대학교들이 연합해 오픈소스 형태 같은 소프트웨어 작업들을 좀 많이 해야 된다고 느낀다. 마침 인텔에서 네이버 AI 역량을 높게 잘 봐주셔서 이런 좋은 협력 체계가 되지 않았나 싶다”고 말했다.

 

가우디3 적용에 대해선 “아직 가능성만 염두에 둘뿐 전력 대비 성능이 좋고 안정된 가우디2 테스트를 먼저 집중할 생각”이라고 밝혔다.

 

백 부사장은 “협력 발표 후에 AI 서비스 프로바이저로서의 네이버 입지를 알고 있는 고객들로부터 문의를 많이 받았다”며 “가우디 도입을 고민하고 있는데 네이버 경험을 공유받고 싶다는 내용이 있었다”고 전했다.

 

이날 인텔은 인텔 비전 2024에서 발표한 새로운 가우디3에 대해서도 소개했다. 가우디3는 LLM(대규모언어모델) 및 멀티모달 모델에서 AI 학습 및 추론을 위한 성능과 생산성이 대폭 향상된 AI 가속기다. 기존 모델 대비 BF16용 AI 컴퓨팅에서 4배, 메모리 대역폭에서 1.5배, 대규모 시스템 확장을 위한 네트워킹 대역폭은 2배 향상됐다. 

 

나승주 인텔코리아 상무는 “엔비디아의 H100 대비 40% 더 빠른 학습시간, 50% 더 빠른 추론 성능을 가진다”며 “델 테크놀로지스, HPE, 레노보, 슈퍼마이크로 등 OEM 파트너들이 이를 기반한 제품을 출시할 예정”이라고 말했다.

 

신정원 기자 garden1@segye.com

[ⓒ 세계비즈앤스포츠월드 & segyebiz.com, 무단전재 및 재배포 금지]