엔비디아(NVIDIA)가 ‘GTC 2026’에서 ‘베라 루빈(Vera Rubin)’ 플랫폼을 선보이고, 세계 최대 규모 AI 팩토리 확장을 위한 신규 칩 7종의 양산에 돌입했다.

▲엔비디아가 베라 루빈 플랫폼을 공개했다.
차세대 AI 팩토리 겨냥한 7종 신규 칩 양산, 초대형 AI 시스템 전환 가속
엔비디아가 차세대 인공지능(AI) 컴퓨팅 패러다임을 이끌 새로운 플랫폼을 공개하며 에이전틱 AI 시대의 개막을 선언했다.
엔비디아는 17일(현지시간) 미국 캘리포니아주 새너제이에서 열린 ‘GTC 2026’에서 ‘베라 루빈(Vera Rubin)’ 플랫폼을 선보이고, 세계 최대 규모 AI 팩토리 확장을 위한 신규 칩 7종의 양산에 돌입했다고 밝혔다.
베라 루빈 플랫폼은 AI 학습부터 추론, 테스트 시점 확장, 에이전트 기반 의사결정까지 AI 전 과정을 하나의 통합 시스템으로 처리하도록 설계됐다.
엔비디아는 이를 통해 개별 서버 중심의 AI 인프라를 랙과 POD 단위의 초대형 슈퍼컴퓨터 구조로 전환한다는 전략이다.
이번에 공개된 플랫폼은 베라 CPU와 루빈 GPU를 중심으로 NV링크 6 스위치, 커넥트X-9 슈퍼NIC, 블루필드-4 DPU, 스펙트럼-6 이더넷 스위치, 그록 3 LPU 등으로 구성된다.
이들 칩은 하나의 거대한 AI 시스템처럼 작동하며, 대규모 사전·사후 학습과 실시간 에이전틱 추론을 동시에 지원한다.
엔비디아는 베라 루빈 기반의 랙 단위 시스템도 함께 공개했다.
NVL72 GPU 랙은 72개의 루빈 GPU와 36개의 베라 CPU를 통합해 이전 세대 대비 GPU 수를 대폭 줄이면서도 토큰당 비용과 전력 효율을 크게 개선했다.
이를 통해 초대형 전문가 혼합(MoE) 모델 학습과 추론을 보다 효율적으로 수행할 수 있다.
강화학습과 에이전틱 워크로드를 위한 베라 CPU 랙은 고밀도 액체 냉각 구조를 적용해 대규모 CPU 연산 환경을 안정적으로 제공한다.
또한 그록 3 LPX 추론 가속 랙은 초저지연 추론과 대규모 컨텍스트 처리를 지원해 차세대 AI 에이전트 구현에 최적화됐다.
스토리지와 네트워크 영역에서도 변화가 이어졌다.
블루필드-4 STX 스토리지 랙은 AI 모델의 대규모 KV 캐시 데이터를 효율적으로 관리하며, 스펙트럼-6 SPX 이더넷 랙은 AI 팩토리 전반의 데이터 흐름을 고속으로 연결한다.
엔비디아는 베라 루빈 플랫폼을 중심으로 클라우드 사업자, 시스템 제조사, AI 연구기관과의 협력을 확대할 계획이다.
주요 글로벌 클라우드 기업과 AI 모델 개발사들은 해당 플랫폼을 활용해 더 크고 복잡한 AI 모델을 낮은 지연과 비용으로 운영할 수 있을 것으로 기대하고 있다.
엔비디아는 “AI 인프라는 이제 단순한 컴퓨팅 자원을 넘어 국가와 산업 경쟁력을 좌우하는 핵심 요소”라며 “베라 루빈은 차세대 AI 팩토리 구축을 위한 새로운 기준이 될 것”이라고 밝혔다.