수 CEO "H100보다 메모리 2.4배, AI 추론 1.6배 앞서" 자신감
MS·아마존·구글 등도 개발 진행중...엔비디아 반격 준비중
| ▲리사 수 AMD CEO가 6일 미국 실리콘밸리에서 최신 AI칩 MI300X 출시를 선언하고 있다. <사진=연합뉴스제공> |
인공지능(AI) 열풍이 전세계를 휘감으면서 가장 주목을 받은 두 업체를 꼽으라면 생성형 AI '챗GPT'(GPT-4) 개발사 오픈AI와 그래픽처리장치업체인 엔비디아다.
그러나, AI바람을 일으킨 것은 오픈AI이지만, 최대 수혜자는 엔비디아다. GPU(그래픽처리장치)업체인 엔비디아가 AI용 GPU 'H100"으로 초기 시장을 장악했기 때문이다.
아직 확실한 수익모델을 찾지 못한 오픈AI와 달리, 엔비디아는 AI시스템 구성에 핵심인 AI칩 'H100'으로 막대한 수익을 올리며 그야말로 잭팟을 터트렸다.
엔비디아의 3분기 AI칩 매출은 145억달러로 지난해(38억달러) 보다 4배가 넘는다. 주가도 무섭게 치솟아 6일(현지시간) 종가(455.03달러) 기준으로 1년 전 저점(138.84달러) 대비 3.3배 가량 상승했다.
6일 현재 엔비디아의 시가총액은 1조1239억달러에 달한다. 애플(2조9911억달러), MS(2조7410억달러), 아마존(1조4935억달러) 등 내노라하는 글로벌 빅테크 3총사에 이은 4위이다.
H100이란 AI칩 하나가 컴퓨터용 GPU업체 엔비디아를 일약 초대형 빅테크기업과 어깨를 나란히할만한 수준으로 올려놓은 셈이다.
엔비디아가 초기 시장을 독식하고 있는 AI칩 시장에 AMD가 제동을 걸고 나섰다. 엔비디아의 최대 라이벌 AMD가 새로운 AI칩을 전면에 내세우며 엔비디아에 선전포고를 한 것이다.
◇ 기존 'M1250X'보다 메모리 용량 등 성능 대폭 개선
AMD는 6일(현지시간) 미 캘리포니아주 샌프란시스코 새너제이에서 투자자 행사를 열고 지난 6월 공언한 AI전용 GPU 'MI300X'를 공식 출시한다고 밝혔다.
AMD는 엔비디아의 H100을 정조준한 MI300X와 여기에 중앙처리장치(CPU)까지 결합한 'MI300A' 등 2개의 제품으로 구성된 AI칩 인스팅트(Instinct) 'MI300시리즈'로 시장을 적극 공략할 계획이다.
이날 특히 집중적인 조명을 받은 것은 출시 전부터 엔비디아 H100의 대항마로 주목받았던 MI300X이다. SK하이닉스의 192GB급 HBM3(4세대 고대역폭메모리)를 탑재한 것으로 알려진 MI300X는 엔비디아의 H100보다 성능이 뛰어나다.
| ▲AMD가 엔비디아의 AI칩 H100의 대항마로 내세운 인스팅트 MI300X GPU. <사진=AMD제공> |
AMD측은 MI300X가 H100에 비해서 메모리 밀도가 2.4배, 대역폭이 1.6배 이상 넓어 빠른 데이터 전송 속도를 바탕으로 AI모델 개발에 적합하다고 설명했다. HBM3 8개를 탑재해 초당 5.3테라바이트(TB) 수준의 대역폭을 지원한다.
AMD의 이전 제품보다도 크게 업그레이드됐다. AMD측은 기존 'M1250X' 버전보다 메모리 용량이 1.5배 크고 저전력 기능을 강화, 에너지 효율성을 대폭 개선했다고 덧붙였다.
AMD의 리사 수 최고경영자(CEO)는 경쟁사인 엔비디아의 AI칩 H100와 비교하며 AI를 훈련하는 능력은 동일하지만, H100보다 트랜지스터가 1500억개 이상 더 탑재해 추론 능력에선 1.4배 가량 뛰어나다”며 자신감을 드러냈다.
수 CEO는 "LLM(대규모언어모델)의 크기와 복잡성이 지속적으로 증가하면서 GPU가 방대한 양의 메모리와 계산 능력이 가장 중요하다는 것을 잘 알고 있다"면서 "MI300X가 세계에서 가장 성능이 뛰어난 가속기(accelerator)"라고 강조했다.
방대한 생성형 AI솔루션의 완성도를 높이는 데 있어 주요 핵심 요소인 추론 능력, 처리 속도, 메모리 용량, 저전력 구현 등 모든 면에서 MI300X가 최대 경쟁자인 H100을 능가한다는 얘기다.
◇ MS 등 H100 빅바이어들, 일제히 AMD와 계약
시장은 즉각 반응했다. MS, 메타, 오픈AI, 오라클 등 주요 AI시장 플레이어들이 엔비디아의 손을 잡았다. 글로벌 AI시장을 선점한 핵심 빅테크업체들이 일제히 AMD와 계약했다고 공표한 것이다.
메타는 이날 AI스티커 생성 기능과 이미지 편집 등 AI 추론 작업에 MI300X를 사용할 것이라고 밝혔다. MS와 오라클은 각사의 클라우드 시스템에 AMD의 MI300X칩을 이용할 예정이라고 거들고 나섰다.
챗GPT 개발사 오픈AI도 오픈AI는 자사의 GPU 프로그래밍 언어인 '트리톤'에 AMD칩을 사용할 것이라고 덧붙였다. MS와 AI시장 헤게모니를 놓고 치열하게 경쟁중인 구글도 MI300X의 잠재적 빅바이어이다.
| ▲MI300X로 H100의 아성을 무너트릴 수 있다고 자신하는 리사 수 AMD 회장 겸 CEO(최고경영자). <사진=연합뉴스제공> |
AMD의 야심작 MI300X가 출시와 동시에 엔비디아 H100의 대체재로 빠르게 부각되고 있는 분위기다. 그도 그럴 것이 이들 주요 빅테크업체는 AI칩시장의 큰 손이자 엔비디아 H100의 최고 구매업체들이다.
월스트리트저널(WSJ)은 이날 "AMD가 AI 컴퓨팅 분야에서 엔비디아의 지배력에 강력히 도전하고 있다"고 평가했다.
AMD는 여세를 몰아 가격경쟁력을 내세워 H100의 아성을 정면돌파하겠다는 입장을 내비쳤다. H100에 비해 퍼포먼스가 훨씬 더 뛰어남에도 가격은 더 싸게 풀어 시장점유율을 빠르게 높이겠다는 전략이다.
수 CEO는 M1300X 가격을 직접 언급하지 않는 대신에 "고객들이 MI300X를 구매하도록 하기 위해서는 엔비디아 H100보다 비용이 더 적게 들어야 할 것"이라는 말로 상대적으로 낮은 가격에 공급할 것임을 시사했다.
사실 AI업계는 엔비디아의 독점적 구조로 인해 2만5천달러∼4만달러에 이르는 고가에 AI칩을 구매해왔다. 이 마저도 공급부족으로 인해 적기 구매에 어려움을 겪고 있다.
◇ 엔비디아 내년 출시할 H200으로 반전 노려
MI300X를 전면에 내세운 AMD의 파상공세에 엔비디아의 AI칩 시장지배력 약화는 불가피할 것이라는게 중론이다.
엔비디아는 현재 이 시장의 80% 이상을 점유하고 있는데, 강력한 도전자인 AMD에 의해 일정부분 잠식당할 수 밖에 없을 것이란 얘기다.
AI업체들이 보다 핵심부품인 AI칩을 안정적으로 확보하기 위해 엔비디아에 대한 의존도를 줄이고, AMD로 구매처를 이원화할 것으로 예상되기 때문이다.
특히 AMD의 MI300X가 엔비디아의 H100에 비해 성능이 뛰어나고 가격이 싸다면 이를 마다할 이유가 없다.
| ▲AI용 GPU의 핵심부품으로 탑재되는 SK하이닉스의 HNM3. <사진=SK하이닉스제공> |
이미 AI칩 시장에서 AMD의 성장세는 엔비디아보다 빠르다. 데이터센터용만 보더라도 엔비디아의 관련 매출은 2020년 67억달러에서 2022년 150억달러로, AMD는 17억달러에서 60억달러로 증가했다.
엔비디아가 전체 외형은 2배이상 크지만, 성장률은 123.9% 대 252.9%로 AMD가 2배 이상 높다. 이같은 양사의 성장폭 차이는 AMD의 MI300X 출시로 더 벌어질 가능성이 높다.
엔비디아 입장에선 AMD의 도전도 부담스러운데, MS·아마존·구글·테슬라 등이 각각 독자적으로 AI칩을 개발중이어서 긴장의 끈을 놓지 않고 있다.
이들은 현재까지는 AI칩의 핵심 구매처이지만, 언제든지 AI칩 분야의 강력한 경쟁자로 떠오를만한 잠재력을 보유하고 있다.
엔비디아는 이에따라 내년 2분기 출시 예정인 H100의 다음버전인 'H200'으로 분위기를 바꿔 적극적인 시장 수성에 나선다는 전략이다. 현재까지 알려진 바로는 H200은 기존 H100보다 성능이 약 90% 가량 개선될 전망이다.
월스트리트저널(WSJ)이 최근 "AMD가 MI300X로 엔비디아의 대항마로 급부상하고 있지만, 엔비디아의 공고한 시장지배력을 흔들기 쉽지 않을 것"이라고 보도한 것도 이와 무관치 않다.
AMD의 강력한 도전과 이를 저지하려는 엔비디아의 수성 의지, 여기에 글로벌 빅테크업체들의 독자 칩 개발 등이 어우러지며, AI반도체 시장은 AI열풍만큼 뜨거운 과열경쟁으로 치닫고 있다.
토요경제 / 이중배 기자 dialee09@naver.com
[저작권자ⓒ 토요경제. 무단전재-재배포 금지]



































