▶ 젠슨 황 “내년까지 AI 칩 매출 1조 달러 예상”…차세대 ‘로자파인만’ 칩도 소개
엔비디아가 추론 전용 칩과 새 중앙처리장치(CPU)를 내놓으며 본격적인 인공지능(AI) 에이전트 시대에 필수적인 빠른 연산 능력과 지휘 능력 구축에 나섰다.
젠슨 황 최고경영자(CEO)는 16일 캘리포니아주 새너제이 소재 SAP센터에서 진행한 엔비디아의 연례 개발자 회의 'GTC 2026'의 기조연설을 통해 '그록(Groq)3 언어처리장치(LPU)'를 차세대 AI 슈퍼컴퓨터 '베라 루빈'에 통합한다고 밝혔다.
이를 통해 '루빈' 그래픽처리장치(GPU)와 LPU의 역할을 나눠 방대한 데이터를 다루는 대규모 연산은 GPU가 맡고, 속도가 매우 빠른 LPU는 AI의 답변을 처리하도록 효율을 높인다는 구상이다.
황 CEO는 이와 같은 역할 분담을 통해 파라미터(매개변수)가 조 단위인 최고급 AI 모델의 추론 처리량을 35배 향상하고, 저지연(low latency) 추론 능력을 높일 수 있다고 설명했다.
엔비디아는 LPU 256개를 하나로 구성한 LPX 랙을 베라 루빈에 통합했다.
이에 따라 베라 루빈 슈퍼컴퓨터의 부품은 지난 1월 CES에서 발표했을 당시의 6종에서 LPU를 포함한 7종으로 늘었다.
황 CEO는 또 기존 x86 방식의 CPU 대비 성능을 1.5배로 끌어올리고, 에너지 효율이 2배인 새 CPU '베라'와, 이를 256개 탑재한 CPU 랙을 선보였다.
베라 CPU에는 엔비디아가 AI 실행을 위해 직접 설계한 '올림퍼스'(Olympus) 코어가 장착돼 x86 CPU 대비 3배의 메모리 대역폭을 제공한다.
엔비디아가 이와 같은 추론 전용 칩과 새 CPU를 선보인 것은 일반적인 AI 챗봇과 달리 AI 에이전트를 구동하는 데는 보다 빠른 속도와 함께 모든 과정을 매끄럽게 조율하는 지휘 능력이 필요하기 때문으로 풀이된다.
GPU가 시스템의 데이터를 처리하는 핵심 역할을 담당하되, 그 결과를 바탕으로 에이전트들에게 막힘 없이 할 일을 구체적으로 지시하는 역할은 LPU가 분담하고 이들에게 필요에 따라 권한을 부여하는 조율은 CPU가 맡는 구조다.
황 CEO는 이어 '루빈'의 다음 세대 GPU인 '파인만'도 소개했다. 파인만은 '로자'라는 새 CPU와 함께 구동되며, LP40 LPU를 탑재할 예정이다.
황 CEO는 "내년까지 엔비디아의 AI 칩 매출 기회가 최소 1조 달러(약 1천500조원)에 달할 것"이라고 내다봤다.
<연합뉴스>