엔비디아가 전력 공급이 원활한 변전소 인근에 소규모 데이터 센터를 분산 배치하는 새로운 인프라 모델을 선보인다. 인프라파트너스(InfraPartners), 프로로지스(Prologis), 전력연구소(EPRI)와 협력하여 올해 말 미국 내 5개 유틸리티 구역에 5~20메가와트(MW) 규모의 데이터 센터 25개를 구축할 계획이다. 핵심은 특정 변전소의 전력 부하가 높을 경우, 여유 전력이 있는 다른 변전소 인근 센터로 연산 작업을 실시간으로 이동시키는 분산형 컴퓨팅 구조다. 이번 프로젝트는 AI 모델 학습에 필요한 막대한 전력 수요와 데이터 센터 건설 급증이라는 현실적 제약 속에서 탄생했다. 기존의 거대 데이터 센터 방식은 전력망에 큰 부담을 주지만, 변전소마다 존재하는 5~20MW 수준의 유휴 전력을 묶어 하나의 거대한 가상 데이터 센터처럼 운영하면 전력 효율을 획기적으로 높일 수 있다는 판단이다. 이는 전력 확보가 곧 경쟁력인 AI 시대에 인프라 구축의 새로운 돌파구가 될 것으로 보인다. AIDEN 편집팀은 이번 시도가 데이터 센터의 입지 선정과 운영 방식에 근본적인 변화를 가져올 것으로 전망한다. 전력망의 유연성을 확보하는 것은 향후 AI 인프라 확장의 필수 조건이 될 것이며, 이번 파일럿 프로젝트가 성공할 경우 미국 전역의 5만 5천 개 변전소를 활용한 대규모 분산 인프라 모델로 확산될 가능성이 크다. 다만, 분산된 환경에서의 데이터 동기화와 지연 시간 관리 등 기술적 과제는 여전히 해결해야 할 숙제로 남을 것이다. 출처: https://spectrum.ieee.org/distributed-inference-data-centers