"HBM 없어도 AI 너끈"…엔비디아 대항마 나온다

입력
수정2024.07.20. 오전 8:27
기사원문
이인준 기자
본문 요약봇
성별
말하기 속도

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

'반도체 거장' 짐 켈러가 AI 반도체에 HBM 쓰지 않는 이유는
"비용과 설계 시간 때문…다른 회사도 다른 솔루션 찾고 있어"
엔비디아 대체 움직임 가시화…"다양한 플레이어 등장" 기대
[수원=뉴시스] 김종택기자 = '삼성 AI 포럼 2023'이 열린 7일 경기도 수원컨벤션센터에서 짐 켈러 캐나다 AI 반도체 스타트업 텐스토렌트 최고경영자가 기조강연을 하고 있다. '더 나은 내일을 위한 초거대 AI'를 주제로 진행된 이번 포럼은 차세대 반도체 연구 역량 강화를 위한 AI와 CE 기술 연구 성과를 공유하고 향후 발전 방향을 논의했다. 2023.11.07. [email protected]
[서울=뉴시스]이인준 기자 = "고대역폭메모리(HBM)를 사용하는 사람들조차 비용과 설계 때문에 어려움을 겪고 있다."

반도체 거장으로 꼽히는 짐 켈러 텐스토렌트 CEO가 AI 반도체에 HBM을 쓰지 않는 이유가 비용이 많이 들기 때문이라고 강조했다.

그는 AMD에서 '젠' 시리즈 CPU 설계를 총괄했고, 테슬라의 자율주행 기술 '오토파일럿'에 쓰이는 반도체를 개발한 인물이다.

20일 업계에 따르면 켈러 CEO는 최근 닛케이아시아와 인터뷰에서 "텐스토렌트의 AI 컴퓨팅 솔루션 '갤럭시'가 엔비디아의 AI 서버보다 3배 더 효율적이고 33% 더 저렴하다"고 밝혔다.

그는 "이것이 가능한 이유 중 하나는 HBM을 사용하지 않기 때문"이라고 강조했다.

켈러 CEO는 반도체 산업을 위한 엔비디아의 GPU(그래픽처리장치)의 중요성을 인정하면서도, 애초에 게이밍을 위해 개발된 칩인 만큼 비효율적이라고 지적해 왔다.

특히 엔비디아의 AI 반도체는 개당 2만 달러(2800만원)에 이르는데 수요 업체들은 금전적인 부담을 호소할 정도다. 여기에 들어가는 HBM 역시 일반 D램보다 6∼7배 비싼 가격이다.

무엇보다 생산 난도가 높아 수급이 어렵다.

현재 '엔비디아 독주'를 막기 위해 인텔을 비롯해 마이크로소프트(MS), AMD, Arm 등 내로라하는 IT 기업들이 AI 반도체 제품 개발에 열을 올리고 있다. 그는 "많은 회사들이 HBM보다 더 나은 메모리 솔루션을 찾고 있다"고 강조했다.

실제 네이버와 삼성전자가 공동 개발 중인 '마하'는 저전력 D램인 'LPDDR'을 탑재해 'HBM'의 대항마로 통한다.

텐스토렌트도 HBM 대신 그래픽용 D램인 'GDDR6'를 사용 중이다.

텐스토렌트의 AI 반도체는 데이터 전송 속도를 낮추는 대신 데이터 전송을 줄이는 방식으로 설계됐다.

AI가 스스로 사고해 어떤 데이터를 먼저 처리할지, 불필요하다고 판단되는 특정 작업을 포기할지 결정한다.

그는 올해 말 2세대 다목적 AI 프로세서가 출시되면 가격 경쟁력을 앞세워 틈새시장 공략에 적극 나설 방침이다.

앞으로 엔비디아를 대체하려는 움직임도 더욱 빨라질 수 있다. 단 한 회사가 엔비디아를 대체하기보다는 다양한 AI 시장을 채우기 위해 더 많은 새로운 플레이어가 등장할 것이라고 봤다.

기자 프로필

이 기사는 언론사에서 경제 섹션으로 분류했습니다.
기사 섹션 분류 안내

기사의 섹션 정보는 해당 언론사의 분류를 따르고 있습니다. 언론사는 개별 기사를 2개 이상 섹션으로 중복 분류할 수 있습니다.

닫기
이 기사를 추천합니다
3