AI 후원열차: 텐서 처리 장치는 기계 학습 알고리즘을 가속화하도록 설계된 특수 ASIC 칩입니다. Google은 ML 기반 클라우드 서비스를 강화하기 위해 2015년부터 TPU를 사용해 왔으며 이제 더욱 효율적이고 강력한 AI 가속기 플랫폼을 위해 최신 TPU 세대를 완전히 수용하고 있습니다.

올해 I/O 개발자 컨퍼런스에서 Google은 ‘가장 발전된’ TPU를 발표했습니다. 기계 학습 알고리즘 가속기인 Trillium은 전문 AI 하드웨어에 대한 10년 이상의 연구의 정점을 나타내며 차세대 AI 기반 모델을 구축하는 데 필요한 기본 구성 요소입니다.

Google은 최초의 TPU가 2013년에 개발되었으며 TPU가 없었다면 현재 회사의 가장 인기 있는 서비스 중 상당수가 불가능했을 것이라고 설명했습니다. 실시간 음성 검색, 사진 객체 인식, 언어 번역 및 Gemini, Imagen, Gemma와 같은 고급 AI 모델은 모두 TPU에 도움이 됩니다.

이전 제품과 마찬가지로 Trillium은 처음부터 신경망 작업 부하를 가속화하도록 설계되었습니다. Google의 6세대 TPU는 더 큰 행렬 곱셈 장치와 더 높은 클럭 속도를 채택하여 이전 TPU 세대(v5e)에 비해 칩당 최대 성능이 4.7배 향상되었습니다.

Google의 Trillium TPU, AI 워크로드에서 전례 없는 성능 향상 달성, 시보드 블로그

Trillium 칩에는 고급 순위 및 추천 워크로드에서 흔히 볼 수 있는 “초대형 임베딩” 처리를 위한 전용 가속기인 3세대 SparseCore가 탑재되어 있습니다. 또한 새로운 TPU는 v5e 세대에 비해 두 배의 상호 연결 대역폭과 함께 두 배의 고대역폭 메모리 용량과 대역폭을 자랑합니다.

훨씬 더 강력하고 유능함에도 불구하고 Trillium은 지속 가능성도 더 높습니다. Google은 6세대 TPU가 TPU v5e보다 에너지 효율성이 67% 이상 높다고 밝혔습니다. 회사는 Trillium이 고객에게 제공할 것으로 예상되는 고급 AI 기반 기능 중 일부(Essential AI가 작업 중인 인간과 자동차 간의 상호 작용)를 나열했습니다.

또한 Trillium은 로봇용 AI 모델을 연구하는 Nuro, 첨단 약물 발견을 위한 Deep Genomics, 생성 AI를 통해 비즈니스를 “변환”하는 것을 목표로 하는 Deloitte에 AI 가속화를 제공할 예정입니다. Google DeepMind는 또한 Trillium TPU를 사용하여 Gemini 라인에서 Google 자체 기반 모델의 향후 버전을 교육할 것입니다.

Trillium은 Google이 가장 발전된 AI 작업 부하를 관리하기 위해 설계한 슈퍼컴퓨터 아키텍처인 AI 하이퍼컴퓨터의 일부입니다. AI 하이퍼컴퓨터에서는 TPU 기반의 최적화된 인프라와 오픈 소스 소프트웨어 프레임워크가 함께 작동하여 미래의 AI 모델을 훈련(및 제공)합니다.

제3자 회사는 올해 후반기에 새로운 Trillium 기반 클라우드 인스턴스에 액세스할 수 있게 될 것입니다.