2022년 OpenAI가 개발한 대화형 인공지능 챗봇인 ChatGPT가 마치 ‘사람과 같은’ 수준의 대화를 나눌 수 있다는걸 보여준 이후, 사회 각 분야에서 생성형 AI를 비롯한 AI 기술을 도입하려는 움직임이 전방위적으로 일어나고 있습니다. 동시에 AI 모델의 발전과 도입으로 야기되는 문제들 역시 제기되고 있는데, AI 모델의 학습 및 활용에 따른 과도한 전력 소모와 그로 인한 탄소 배출 문제도 질문 중 하나입니다. 프랑스 에너지 관리기업 슈나이더 일렉트릭에 따르면 AI가 소비하는 전력 규모는 4.5GWh로 이는 덴마크 국가 전체에서 사용하는 전력량 규모와 동일합니다. [주1. The AI Disruption: Challenges and Guidance for Data Center Design, Schneider Electric , White paper, 2023.12]
그림 1. 데이터 센터에서 사용되는 AI 자원 사용량
대규모 인공지능 모델 학습에 소요되는 전력은 크게 훈련 과정, 추론 과정, 그리고 데이터 센터의 전력 소모로 구분됩니다. 훈련 과정의 경우 175억 개가량의 매개변수를 가진 GPT-3 모델을 학습시키기 위해서는 약 1,300MWh의 전력이 사용되며 이는 미국의 130가구가 1년간 소비하는 전력과 동일한 양입니다. netflix를 한 시간 스트리밍하는데 약 0.8KWh가 필요한 것에 비춰 생각하면 GPT-3를 훈련하는데 필요한 전력량은 넷플릭스를 1,625,000시간 시청하는 것과 동일한 양인 것입니다[주2.How much electricity does AI consume?, The verge, 2024.2]
추론 과정에서의 전력 소모는 학습된 인공지능 모델에 질문을 할 때 소요되는 전력량을 의미하는데 GPT-3의 경우 한 번의 질문 당 0.1에서 1KWh의 전력을 소모한다고 알려져 있습니다. 이는 다소 낮은 양의 전력으로 보일 수 있으나 매일 수백만 번의 요청이 이루어지는 것을 생각할 때 학습에 필요한 전력보다 많은 양의 전력이 사용되는 것입니다. 실제로 위의 표에서도 인공지능 모델 학습에 사용되는 전력의 20%가 학습에 사용되고 나머지 80%는 추론 과정에서 사용된다는 것을 확인할 수 있습니다.
마지막으로 데이터 센터는 인공지능 모델을 학습시키는데 필요한 데이터를 저장하고 처리하는 역할로 대규모 모델의 경우 다수의 서버를 필요로 하므로 이 역시 연간 수백 MWh의 전력을 소모합니다. 전력뿐만이 아니라 데이터센터에서 발생하는 열을 냉각시키기 위한 물 역시 방대한 양으로 구글의 데이터 센터는 연간 약 45,400톤의 물을 사용한다고 알려져 있습니다.
그림 2. 2020년 글로벌 데이터센터와 국가의 전력 소비량 비교
인공지능 모델의 일상화가 진행될수록 이와 같은 전력 소모는 가속화 될 수밖에 없습니다. 국제에너지기구(IEA)가 지난 1월 발간한 ‘2024년 전기 에너지 보고서’에 따르면 2022년 기준 인공지능과 데이터센터에서 사용한 전력량은 전세계 전력 사용량의 약 2%에 해당하나 2026년엔 두 배로 늘어날 것이라고 전망하고 있습니다. 이처럼 가파르게 늘어나는 전력 소모량 증가에 대응하기 위해 각국의 기업과 정부는 더 많은 발전소를 건설하는 것으로 대응하고 있습니다. 실제로 한국은 제 11차 전력수급기본계획안에서 인공지능과 데이터센터 등으로 인해 늘어나는 전력 수요에 대응하기 위해 신규원전을 건설하겠다는 계획을 발표하기도 하였습니다. 최태원 SK그룹 회장은 최근 있었던 2024 이천포럼에서 AI와 데이터센터를 위해 원자력 발전이 필요하다는 주장을 하기도 했습니다. 최태원 회장이 이런 주장을 하게된 배경에는 마이크로소프트, 아마존 등 미국의 빅테크 기업 수장들과의 회담이 영향을 끼친 것으로 보이는데, 이는 AI붐 이후 미국 빅테크들이 과거에 설정했던 2030년까지 탄소 매출 제로(순제로 배출) 달성 목표를 속속 철회하는 것과도 깊은 관련이 있습니다. 마이크로소프트는 직접 원전 사업(SMR)에 진출하려 하고 있기도 합니다. 이와 별개로 AI 및 데이터센터 운용에 따른 전력 소모를 최소화하기 위한 노력도 진행되고 있긴 합니다만(구글과 마이크로소프트는 전력 소모를 기존 대비 60% 이상 낮춘 AI 전용 반도체를 개발하고 있고, 인공지능 모델 자체를 경량화하는 기술에 대한 연구도 진행중입니다) 이런 노력에도 불구하고 인공지능 모델 활용에 따른 전력 소모를 기술적 발전만으로 억제하는건 불가능할 것이라 예상되고 있습니다.
인공지능 기술의 발전과 활용은 우리 사회에 많은 이점을 제공할 수 있습니다. 시각장애인을 위한 AI 기반 화면 읽기 기술이나 실시간 자막 기능은 인터넷과 디지털 컨텐츠에 대한 접근성을 크게 향상시킬 수 있고, AI 맞춤형 교육 솔루션은 기존의 교육 시스템에서 소외된 학생들에게 큰 도움이 됩니다. 특히 AI를 통해 언어 장벽을 극복한 교육 솔루션은 이민자에게 특히 유용할 수 있습니다. 의료나 법률 분야에 적용함으로써 공공 서비스의 품질을 향상시키고 서비스 제공 영역을 확대도 가능한 일입니다. 그러나 그 이면에 우리가 어떤 대가를 지불하고 있는지, 그 비용과 대가를 충분히 인식하는 것이 필요합니다. AI가 생성한 가짜뉴스 및 이미지로 인한 문제, 개인정보의 침해, 인공지능 기술의 도입을 인해 심화되는 차별과 국가 권력에 의한 감시 등은 이미 전력 및 수자원 소모와 더불어 우리 앞에 실존하는, 시민들의 현명한 판단이 필요한 문제입니다. 날마다 새롭게 실생활에 AI가 적용되는 지금, 앞으로 이에 대한 전사회적인 논의들이 이어지길 바랍니다.
마지막 한 마디) 인공지능 모델로 인한 자원 소모 문제를 이야기 하기 위해서는 인공지능 모델 사용에 필요한 전력소모량을 정확히 계산하는 것 역시 중요합니다. 한 때 이메일을 환경적 재앙으로 언급하며 이메일 삭제를 해야한다는 캠페인이 진행되기도 하였으나 연구 결과 이메일 발송 및 보관으로 인한 환경적 영향은 극히 적은 것으로 밝혀지기도 했습니다. (그럼에도 불필요한 이메일은 삭제하는 것이 좋겠지요?) 그러나 전세계에 걸쳐 존재하는 대규모 데이터센터들과 여기에서 인공지능 모델을 학습 및 배포하기 위해 사용되는 전력소모량을 정확히 계산하기는 어려운 일입니다.
기계 학습 모델 개발 및 교육 도구를 개발하는 회사이자 오픈소스 커뮤니티인 허깅 페이스의 알렉산드라 사샤 루치오니 박사와 그의 연구팀은 Power Hungry Processing:Watts Driving the Cost of AI Deployment?란 논문[주.Luccioni, Sasha, Yacine Jernite, and Emma Strubell. “Power hungry processing: Watts driving the cost of AI deployment?.” The 2024 ACM Conference on Fairness, Accountability, and Transparency. 2024]에서 인공지능 모델 학습에 필요한 전력 모델을 정확하게 추산하는 방법을 연구했습니다. 이 논문에서 연구팀은 다목적 생성 AI 모델을 배포하는데 드는 에너지 및 탄소 비용이 특정 과제에 특화된 모델보다 상당히 높다는 것을 지적하였으며, 인공지능 모델의 환경적 영향을 모델이 주는 이점과 비교하여 신중하게 고려할 필요가 있다고 말하고 있습니다.
Green Geek을 구독하시면 지금 보시는 것과 같은 ICT 소식과 정보를 받아보실 수 있습니다.


댓글 남기기