보이지 않는 소비, 생성 AI가 먹어치우는 전력

챗GPT 같은 생성형 AI가 생활 깊숙이 들어왔습니다. 검색보다 빠르고, 요약보다 친절하며, 글쓰기까지 대신해주는 이 ‘똑똑한 비서’는 이제 수억 명이 매일 사용하는 도구가 되었습니다. 하지만 우리가 AI에게 던지는 질문 하나가 얼마나 많은 전력을 소모하는지는 거의 알려지지 않았습니다.

독일 응용과학대학교 연구팀은 최근 대표적인 대형 언어모델(LLM) 14종에 동일한 1,000개의 문제를 풀게 하고, 그때 사용된 전력을 정밀하게 측정했습니다. 가장 많은 전기를 사용한 모델은 Deepseek사의 R1 70B로, 단 1,000개의 질문을 처리하는 데 약 4.25Wh의 전력을 소모했습니다. 이것은 대략 LED 전구 3개를 한 시간 켜는 데 필요한 에너지입니다.

질문 한 번이면 적은 양 같지만, 수십억 개의 질문이 하루에도 쏟아지는 현실을 감안하면 결코 작지 않은 숫자입니다.

예를 들어 이 모델이 60만 개의 질문을 처리하면, 약 2,550Wh, 즉 2.5kWh가 소모됩니다. 이는 일반 가정에서 하루 동안 사용하는 전력의 약 20% 수준입니다. 사용자가 많아질수록 그 전력은 기하급수적으로 증가합니다.

하지만 모든 AI가 이렇게 전기를 많이 먹는 건 아닙니다. 연구팀은 단순 텍스트 기반의 작은 모델들과 고도 추론이 가능한 복잡한 모델을 비교했는데, 추론형 모델이 단순 모델보다 평균 15~30배 더 많은 전기를 소모했습니다.

이 차이는 어디서 오는 걸까요?

AI는 우리 질문을 처리할 때 ‘토큰(token)’이라는 단위를 기반으로 계산을 수행합니다. 토큰은 문장을 구성하는 작은 조각으로, 단어나 어절, 혹은 단어 일부로 나뉩니다. 예를 들어 “오늘 날씨 어때?”는 4~5개의 토큰이고, AI가 이에 답하면 수십 개, 경우에 따라 수천 개의 토큰이 생성됩니다.

특히 추론이 필요한 수학이나 철학 문제에서는 단 하나의 질문에도 수천에서 많게는 1만 4천 개 이상의 토큰이 생성되며, 그만큼 전력 소모도 폭증합니다.

그런데 놀라운 건, 이렇게 많은 전기를 들인다고 해서 반드시 더 정확한 답을 주는 것도 아니라는 점입니다. 간결하게 정답을 주는 모델이 전력은 훨씬 적게 쓰면서도 정확도에서 큰 차이를 보이지 않는 경우도 많았습니다. 즉, ‘장황한 똑똑함’은 때로 비효율 그 자체라는 겁니다.

이제는 사용자 스스로가 AI 사용에 대한 전략을 세워야 할 때입니다. 단순한 질문이라면 작은 모델을 사용하거나, “짧게 대답해줘”라고 프롬프트를 바꾸는 것만으로도 전력 소비를 크게 줄일 수 있습니다. 꼭 필요한 경우에만 고성능 모델을 호출하는 절제 있는 사용이 필요합니다.

생성형 AI는 눈에 보이지 않지만, 전기를 통해 움직이는 명백한 ‘물리적 기술’입니다. 검색 한 번에 서버가 돌아가고, 질문 한 줄에 데이터센터의 팬이 회전하며 냉각 시스템이 작동합니다.

우리는 지금 ‘디지털은 공짜’라는 착각 속에 살고 있습니다. 하지만 AI가 우리 손끝에서 실행될 때마다 실제 전기가 흐르고 있다는 사실을 기억해야 합니다. AI는 무형의 지식이 아니라, 전기를 먹고 자라는 괴물일지도 모릅니다.

 

인쇄하기
이전
0

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.