Publicado 18/12/2025 13:28

O ChatGPT é caro em termos de energia: seu consumo anual de eletricidade poderia abastecer Madri por mais de 7 meses.

Archivo - Arquivo - Cidade iluminada.
FREEPIK - Arquivo

MADRI 18 dez. (Portaltic/EP) -

O sucesso dos "chatbots" baseados em grandes modelos de linguagem fez com que sua demanda de energia atingisse níveis comparáveis ao consumo de cidades e países inteiros, com o consumo de energia do ChatGPT durante um ano sendo equivalente ao de Madri por mais de sete meses.

Os chatbots alimentados por grandes modelos de linguagem (LLMs) revolucionaram o mundo da IA, tornando-a acessível a qualquer pessoa com apenas um smartphone ou acesso à Internet, seja para responder a perguntas ou realizar várias tarefas cotidianas, desde escrever textos até gerar imagens ou resolver problemas complexos de matemática.

Assim, o que começou como uma simples ferramenta para solucionar dúvidas evoluiu para sistemas avançados de IA capazes de raciocinar, codificar e até mesmo tomar decisões. Nesse sentido, a OpenAI, com seu assistente ChatGPT, está posicionada como uma das principais empresas do setor, com mais de 700 milhões de usuários ativos semanais, de acordo com dados compartilhados pela empresa em setembro, número que subiu para quase 900 milhões atualmente, segundo o The Information.

ALTO CONSUMO DE ENERGIA

Como resultado, o chatbot é um dos aplicativos mais populares entre os usuários em todo o mundo e, portanto, recebe milhões de solicitações por dia, o que se traduz em um alto consumo de energia, tanto que rivaliza com o consumo das cidades, conforme compartilhado pelo portal de análise e negociação BestBrokers.

Esse consumo é influenciado pelo avanço dos modelos que, à medida que se tornam mais capazes, sua demanda de energia aumenta com a mesma rapidez, causando alta pressão sobre as redes de eletricidade e preocupações sobre o custo ambiental dessa tecnologia.

Assim, embora seja difícil estimar a quantidade de energia necessária para realizar o processo de inferência de um modelo, pois ela varia de acordo com o tamanho da consulta, a eficiência da execução ou o número de usuários, a pesquisa realizada pelo laboratório de IA da Universidade de Rhode Island concluiu que o ChatGPT-5 consome entre 2 e 45 watts por mensagem de tamanho médio.

Isso equivale a um consumo médio de cerca de 18,9 watts-hora, o que já é mais de 50 vezes a potência de uma pesquisa típica do Google, como observou a empresa, com base em um estudo realizado pelo Electric Power Research Institute nos Estados Unidos.

CONSUMO EQUIVALENTE AO DE MADRID POR MAIS DE 7 MESES

Mas o consumo de energia vai além disso, ofuscando a alta demanda de eletricidade de alguns países e cidades da Europa. Especificamente, a empresa esclareceu que somente o consumo anual do ChatGPT equivale a aproximadamente 17,3 terawatts-hora de eletricidade por ano.

Em comparação com a Espanha, que tem um consumo médio de cerca de 29 kWh por domicílio por dia, a energia usada pelo ChatGPT poderia abastecer os cidadãos por 23 dias e 6 horas. Da mesma forma, em comparação com o consumo de Madri, ela poderia abastecer a cidade por aproximadamente 7 meses e 19 dias.

O mesmo se aplica a outras grandes cidades, como Paris (França), onde poderia abastecer a cidade por mais de um mês, Londres (Reino Unido) por mais de cinco meses e Berlim (Alemanha) por cerca de um ano e cinco meses. Mesmo em países como Copenhague (Dinamarca) e Amsterdã (Holanda), o consumo de ChatGPT é equivalente a mais de 4 anos.

Também se espera que, com esse consumo, ele possa abastecer o Reino Unido por quase 20 dias, a Alemanha por 12 dias e a França por 13 dias, de acordo com os cálculos da BestBrokers.

Além disso, para manter a operação contínua do modelo, a OpenAI tem um custo anual de energia estimado em US$ 2,42 bilhões, levando em conta as atuais tarifas comerciais de eletricidade. Isso destaca as demandas significativas de recursos envolvidas na implementação de IA em larga escala.

Como avaliou o analista de dados da BestBrokers, Alan Goldberg, "as operações diárias consomem eletricidade em uma escala que rivaliza com a de nações inteiras, enquanto as demandas computacionais de treinamento e inferência chegam a dezenas de gigawatts-hora".

Com relação a isso, ele observou que os ganhos de eficiência dos modelos são superados pelo crescimento constante do uso global e pela "expansão incessante dos parâmetros do modelo".

Com tudo isso em mente, ele colocou na mesa a necessidade de "transparência rigorosa" e "padrões de otimização aplicáveis". Sem isso, a rápida aceleração da IA corre o risco de "impor profundas pressões infraestruturais e ambientais, levantando questões urgentes sobre a sustentabilidade dessa trajetória tecnológica", disse Goldberg.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado