Claude, 성능 대폭 향상 예고 AI 모델 Claude를 개발하는 Anthropic이 SpaceX와의 전략적 파트너십을 통해 AI 컴퓨팅 능력을 획기적으로 확장한다고 발표했습니다. 이번 발표는 AI 모델의 성능 향상과 더불어 사용자 경험 개선을 위한 Anthropic의 적극적인 행보를 보여줍니다. 특히, Claude API 및 Claude Code의 사용 제한이 대폭 완화되어 더욱 많은 사용자가 고성능 AI 모델을 부담 없이 활용할 수 있게 될 전망입니다. SpaceX와의 빅딜, 클라우드 컴퓨팅 능력 증대 Anthropic은 SpaceX의 Colossus 1 데이터센터 전체 컴퓨팅 용량을 확보하는 계약을 체결했습니다. 이는 한 달 안에 300메가와트…
#AI 인프라
seoulrendy' AI news
최근 IT 업계의 뜨거운 감자인 인공지능(AI) 분야에서 메타(Meta)의 대규모 칩 도입 소식이 전해졌습니다. 아마존 웹 서비스(AWS)의 ‘그라비톤’ 칩 수십만 개를 최소 3년 이상 사용하기로 결정했다는 것입니다. 이는 메타가 최근 코어위브(CoreWeave) 및 네비우스(Nebius)와 함께 발표한 480억 달러 규모의 AI 인프라 투자와 맞물려 큰 주목을 받고 있습니다. 왜 메타는 막대한 투자를 감행하면서까지 AWS 그라비톤 칩을 선택했을까요? 단순히 GPU가 부족해서일까요, 아니면 다른 전략적 이유가 있는 걸까요? 본 포스팅에서는 이번 계약의 배경과 의미, 그리고 우리 IT 인프라 전략에 어떤 시사점을 주는지 심층적으로 분석해 보겠습니다.…
인공지능(AI) 기술이 전 산업 분야에 걸쳐 혁신을 가속화하면서, 기업들은 AI 워크로드를 효율적으로 처리하기 위한 인프라 전략 수립에 고심하고 있습니다. 특히, 대규모 언어 모델(LLM) 학습에 필수적이었던 GPU 중심의 사고방식에서 벗어나, 새로운 AI 서비스와 애플리케이션의 등장은 인프라 구성에 대한 근본적인 재검토를 요구하고 있습니다. 이러한 변화의 중심에서 메타(Meta)가 아마존 웹서비스(AWS)의 그래비톤(Graviton) CPU 수백만 개를 도입하기로 한 결정은 AI 시대의 인프라 전략이 어떻게 진화하고 있는지 명확히 보여주는 사례입니다. AI 워크로드의 진화: GPU에서 CPU로 확장 과거 AI 모델 학습은 엄청난 병렬 연산 능력을 요구했기에, GPU(그래픽…