아마존,가성비 높인 ‘트레이니엄3’ 공개…엔비디아에 ‘AI칩’ 도전장

[서울이코노미뉴스 박희만 기자] 미국 클라우드 컴퓨팅 기업 아마존웹서비스(AWS)가 전력 효율성과 성능을 크게 높인 새로운 자체 인공지능(AI) 칩을 선보여 AI 반도체 시장의 판도변화가 가속화되고 있다.

구글이 TPU(텐서처리장치) 성능을 높여 외부 기업에 판매하려는 전략을 취하고,  메타·오픈AI 등 주요업체들도 독자 칩 개발에 뛰어드는 가운데, AWS까지 공격적으로 칩 경쟁력 강화에 나서면서 ‘절대강자’ 엔비디아의 아성에도 균열이 생기고 있다는 평가가 나온다.

AWS는 2일(현지시간) 미국 라스베이거스에서 열린 연례 콘퍼런스 ‘리인벤트(re:Invent) 2025’에서 차세대 AI 칩 ‘트레이니엄 3’를 공개했다.

이번 제품은 전작 대비 컴퓨팅 성능을 4배 이상 높이고 전력소모를 40% 줄인 것이 특징이다. 업계 최고 수준의 전력 효율성을 갖췄다고 AWS는 설명했다.

AWS는 동급 GPU 대비 AI 모델 훈련 및 추론 비용을 최대 50% 절감할 수 있다고 강조했다.

맷 가먼 AWS 최고경영자(CEO)는 “트레이니엄 3는 대규모 AI 훈련과 추론 환경에서 최고의 비용 효율성을 구현한다”고 말했다.

데이브 브라운 AWS 부사장도 “고객이 요구하는 성능을 합리적인 가격에 제공하는 것이 핵심”이라며 엔비디아의 고가 GPU 대비 높은 가격경쟁력을 내세웠다.

AWS의 자체 AI 칩은 내부 AI 모델 ‘노바(Nova)’ 학습뿐 아니라 고객용 클라우드 서비스에서도 폭넓게 사용된다.

앞서 앤트로픽은 지난 10월 최신 모델 ‘클로드(Claude)’를 개발하는 과정에서 AWS 트레이니엄2 칩 100만개 이상을 활용했다고 밝힌 바 있다.

AI 수요 폭증으로 엔비디아 GPU 공급난이 심화하는 가운데, 기업들이 ‘엔비디아 의존도’를 낮추기 위해 대안을 찾으면서 AWS 칩은 존재감을 키우고 있다.

업계에서는 “고성능·저전력·저비용을 모두 갖춘 AWS 칩이 엔비디아 대체재로 부상하고 있다”는 분석이 나온다.

한편, 구글도 내부에만 활용하던 자체 칩 TPU를 메타 등 외부 기업에 대량 공급하려는 계획을 추진 중이다.

오픈AI 역시 AMD, 브로드컴과 손잡고 자체 AI 칩을 공동 개발하기로 하는 등 AI 반도체 경쟁이 본격화되고 있다.

AWS는 이날 자체 AI 모델 ‘노바’의 최신 버전인 ‘노바 2’ 시리즈도 공개했다.

텍스트·이미지·영상·음성을 처리하는 4종 모델로 구성됐으며, 일상적 활용을 위한 ‘노바 2 라이트(Lite)’와 고난도 코딩까지 지원하는 ‘노바 2 프로(Pro)’를 포함한다.

AI 서비스 플랫폼 ‘베드록(Bedrock)’도 대대적으로 확장했다. 베드록은 기업이 다양한 생성형 AI 모델을 손쉽게 활용할 수 있도록 고안된 플랫폼이다. 

AWS는 자체 모델 외에도 미스트랄AI·구글·엔비디아·문샷AI·미니맥스 등 주요 기업의 모델을 잇따라 추가했다.

맷 가먼 AWS CEO는 “하나의 모델이 모든 문제를 해결하는 시대는 끝났다”며 “다양한 고성능 모델이 공존하는 생태계가 중요하다”고 강조했다.

AWS는 클라우드 인프라·AI 칩·AI 모델·AI 플랫폼을 모두 갖춘 ‘풀스택 AI 기업’으로의 전환을 가속하고 있다.

구글이 유튜브·검색 기반 광고 생태계와 고성능 AI 모델을 강점으로 삼는다면, AWS는 세계 1위 클라우드 서비스 업체로서 높은 수익성과 기업 고객의 ‘록인 효과(lock-in)’를 기반으로 AI 시장에서 영향력을 더욱 확대하고 있다.