최근 IT 업계의 뜨거운 감자인 인공지능(AI) 분야에서 메타(Meta)의 대규모 칩 도입 소식이 전해졌습니다.
아마존 웹 서비스(AWS)의 ‘그라비톤’ 칩 수십만 개를 최소 3년 이상 사용하기로 결정했다는 것입니다.
이는 메타가 최근 코어위브(CoreWeave) 및 네비우스(Nebius)와 함께 발표한 480억 달러 규모의 AI 인프라 투자와 맞물려 큰 주목을 받고 있습니다.
왜 메타는 막대한 투자를 감행하면서까지 AWS 그라비톤 칩을 선택했을까요?
단순히 GPU가 부족해서일까요, 아니면 다른 전략적 이유가 있는 걸까요?
본 포스팅에서는 이번 계약의 배경과 의미, 그리고 우리 IT 인프라 전략에 어떤 시사점을 주는지 심층적으로 분석해 보겠습니다.
메타의 AI 인프라 수요 폭발: GPU만으론 부족하다?
메타는 페이스북, 인스타그램, 왓츠앱 등 매일 36억 명 이상의 사용자를 보유한 거대 소셜 네트워크 기업입니다.
이러한 방대한 사용자 트래픽과 고도화되는 AI 서비스(특히 생성형 AI)를 지원하기 위해서는 상상을 초월하는 컴퓨팅 파워가 필요합니다.
이미 메타는 32개의 데이터센터를 운영하고 있으며, 새로운 데이터센터 건립도 진행 중입니다.
하지만 현재의 인프라만으로는 급증하는 AI 워크로드를 감당하기 어렵다는 판단을 내린 것으로 보입니다.
특히 최근 메타는 엔비디아(Nvidia) GPU를 임대하는 코어위브, 네비우스와의 대규모 계약을 통해 AI 모델 학습 및 추론에 필요한 GPU 자원을 확보했습니다.
하지만 GPU는 AI 모델 학습의 핵심이지만, 모든 AI 워크로드를 효율적으로 처리하지는 못합니다.
여기서 그라비톤 칩의 역할이 중요해집니다.
AWS 그라비톤 칩: 범용 CPU의 재조명
AWS 그라비톤 칩은 아마존이 자체 설계한 ARM 기반의 범용 프로세서입니다.
엔비디아의 GPU가 AI 학습 및 고성능 병렬 연산에 특화되어 있다면, 그라비톤은 인텔이나 AMD의 CPU처럼 다양한 컴퓨팅 작업을 처리하는 데 강점을 보입니다.
하지만 여기서 주목할 점은, 그라비톤 역시 AI 워크로드, 특히 학습 후 미세 조정(refinement)이나 추론 단계에서 상당한 성능과 효율성을 제공한다는 것입니다.
AWS의 VP이자 수석 엔지니어인 나페아 브샤라(Nafea Bshara)는 “그라비톤은 많은 파운데이션 모델 회사들이 사전 학습(pre-training)에 사용하는 플랫폼 중 하나이며, 메타가 이제 가장 최근의 사용자 중 하나가 되었다”고 밝혔습니다.
이는 그라비톤이 CPU 집약적인 작업, 즉 에이전트 AI(agentic AI)와 같이 복잡한 추론 과정을 요구하는 워크로드에 적합하다는 것을 의미합니다.
메타의 인프라 총괄인 산토시 자나르단(Santosh Janardhan) 역시 “그라비톤으로 확장함으로써 당사의 규모에 맞는 성능과 효율성으로 CPU 집약적인 워크로드를 실행할 수 있다”고 설명했습니다.
메타의 전략적 선택: GPU와 CPU의 균형
메타의 이번 결정은 단순히 GPU 부족 문제를 해결하기 위한 임시방편이 아니라, AI 인프라 운영의 전략적 균형을 맞추려는 움직임으로 해석됩니다.
GPU가 AI 모델의 ‘뇌’ 역할을 한다면, CPU는 이 뇌를 효율적으로 움직이게 하는 ‘신경망’과 같은 역할을 합니다.
메타는 GPU로 모델을 강력하게 학습시키는 동시에, 그라비톤과 같은 고효율 CPU를 통해 학습된 모델을 안정적이고 경제적으로 운영하려는 것입니다.
- GPU 중심의 초기 학습: 대규모 데이터셋으로 AI 모델을 처음부터 학습시키는 데는 엔비디아 GPU와 같은 가속기가 필수적입니다.
- 그라비톤을 활용한 후처리 및 추론: 학습이 완료된 모델을 다양한 서비스에 적용하거나, 사용자 요청에 응답하는 추론 과정에서는 범용 CPU의 역할이 중요해집니다. 특히 에이전트 AI와 같이 복잡한 논리와 상태 관리가 필요한 경우, CPU의 효율성이 전체 성능에 큰 영향을 미칩니다.
AWS는 그라비톤 칩이 EC2 컴퓨팅 서비스에서 제공하는 모든 옵션 중 가격 대비 최고의 성능을 제공하며, 에너지 소비는 60% 적다고 주장합니다.
이는 대규모 데이터센터 운영 비용 절감과 지속 가능성 측면에서도 중요한 이점입니다.
메타는 이미 소규모로 그라비톤 칩을 사용해왔으며, 이번 계약을 통해 상위 5개 그라비톤 고객이 될 전망입니다.
2026년, CPU는 AI 시대의 필수품인가?
인텔 CEO 립-부 탄(Lip-Bu Tan)이 최근 “고성능 컴퓨팅에 대한 이야기는 거의 전적으로 GPU와 다른 가속기에 관한 것이었지만, 이제 CPU가 AI 시대의 필수적인 기반으로 다시 자리 잡고 있다는 명확한 신호를 보고 있다”고 언급한 바 있습니다.
이는 GPU 중심의 AI 인프라 논의에서 CPU의 중요성이 재조명되고 있음을 시사합니다.
메타의 그라비톤 칩 채택은 이러한 트렌드를 뒷받침하는 강력한 사례입니다.
물론 GPU가 AI 학습의 왕좌를 차지하겠지만, AI 모델의 효율적인 운영과 다양한 서비스 적용을 위해서는 고성능, 고효율의 CPU 역시 빼놓을 수 없는 핵심 요소가 될 것입니다.
특히 2026년을 바라보는 지금, AI 기술은 더욱 고도화되고 서비스 영역이 확장되면서 CPU 기반 워크로드가 더욱 증가할 것으로 예상됩니다.
실전 IT 인프라 전략: 균형과 효율의 중요성
메타의 이번 결정은 우리 IT 팀들에게 몇 가지 중요한 시사점을 제공합니다.
- 단일 기술 의존성 탈피: 특정 하드웨어(예: GPU)에만 의존하는 것은 장기적으로 위험할 수 있습니다. 다양한 워크로드 특성에 맞는 최적의 컴퓨팅 자원을 확보하는 것이 중요합니다.
- 비용 효율성 분석: GPU의 높은 성능만큼이나 중요한 것은 총 소유 비용(TCO)입니다. AWS 그라비톤과 같이 가격 대비 성능이 뛰어나고 에너지 효율적인 대안을 적극적으로 검토해야 합니다.
- 장기적인 파트너십 구축: 최소 3년 이상의 장기 계약은 메타가 AWS와 긴밀한 파트너십을 구축하고, 안정적인 인프라를 확보하려는 의지를 보여줍니다. 공급망 안정성과 기술 지원 측면에서 장기적인 관점을 가져야 합니다.
메타의 이번 대규모 AWS 그라비톤 칩 도입 결정은 AI 시대의 인프라 전략이 단순한 성능 경쟁을 넘어, 균형, 효율성, 그리고 비용 최적화를 중심으로 재편되고 있음을 명확히 보여줍니다.
급변하는 IT 환경 속에서 우리 역시 이러한 변화를 주시하며, 미래를 위한 최적의 인프라 전략을 구축해 나가야 할 것입니다.
출처 URL: https://www.cnbc.com/2026/04/24/meta-will-use-hundreds-of-thousands-of-aws-graviton-chips.html