Quanta energia é necessária para treinar uma IA?
Treinar um único modelo de inteligência artificial pode consumir tanta eletricidade quanto uma casa comum gasta em 100 anos.
Modelos avançados de IA exigem milhares de processadores potentes funcionando sem parar por meses. O treinamento do GPT-3, por exemplo, consumiu cerca de 1.287 MWh. Como uma residência média consome 10 MWh por ano, esse processo equivale a um século de energia doméstica.
Nerd Mode
O treinamento de modelos de linguagem de grande escala (LLMs) é um dos processos computacionais mais exigentes da atualidade. De acordo com um estudo da Universidade de Massachusetts Amherst, o treinamento de um único modelo de IA de grande porte pode emitir mais de 284 toneladas de dióxido de carbono. Isso equivale a cinco vezes as emissões vitalícias de um carro médio americano, incluindo a fabricação do veículo.O modelo GPT-3 da OpenAI, lançado em 2020, utilizou 175 bilhões de parâmetros e exigiu 1.287 megawatts-hora (MWh) de eletricidade. Para colocar em perspectiva, o consumo médio anual de uma residência nos Estados Unidos é de aproximadamente 10,6 MWh. Portanto, o treinamento desse único modelo consumiu energia suficiente para abastecer 121 casas por um ano inteiro ou uma única casa por mais de um século.A infraestrutura por trás desses modelos envolve milhares de GPUs NVIDIA V100 ou A100 operando em clusters massivos. Além do consumo direto de energia pelos chips, os data centers exigem sistemas de resfriamento intensivos que consomem milhões de litros de água e eletricidade adicional. Pesquisadores do Google e da Universidade da Califórnia, Berkeley, destacam que a eficiência energética tornou-se um pilar crítico para a sustentabilidade do setor tecnológico.
Fato verificado
FP-0007779 · Feb 20, 2026