Pular para o conteúdo

Todos falam sobre IA, mas veja o que ela realmente consome.

Jovem usando laptop em casa com usina nuclear e servidores visíveis pela janela ao fundo.

Por trás da tela, está a acontecer algo bem menos glamoroso.

A inteligência artificial (IA) parece “sem peso”: um chatbot no navegador, um recurso no celular, um botão no aplicativo de e‑mail. Só que cada prompt de IA depende de uma infraestrutura enorme e invisível - centros de dados gigantescos, chips especializados e grandes fluxos de eletricidade e água. Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) estão a alertar que esse alicerce, pouco percebido pelo público, pode transformar o consumo global de energia e recursos muito mais depressa do que reguladores e planeadores conseguem acompanhar.

O que “treinamento” e “inferência” significam de verdade para as emissões da IA

Dois termos técnicos ajudam a entender por que a pegada ambiental da IA cresce tão rápido:

Treinamento é a fase única (ou eventualmente repetida) em que um modelo aprende a partir de bases de dados massivas. Para isso, ele pode ficar semanas rodando em milhares de GPUs (unidades de processamento gráfico), gerando picos elevados de consumo de energia e água. Em modelos de ponta, apenas o treinamento pode emitir tanto CO₂ quanto as emissões de toda a vida útil de centenas de carros.

Inferência é o que acontece toda vez que você digita uma pergunta, ou quando uma empresa roda IA sobre dados de clientes. Uma interação isolada parece pequena; porém, quando milhões ou bilhões de solicitações são processadas diariamente em chatbots, ferramentas de e‑mail, mecanismos de busca e celulares, o consumo acumulado pode igualar - ou até superar - o do treinamento.

Se assistentes de IA virarem a interface padrão para tudo, do trabalho no escritório a recomendações de streaming, a inferência tende a se tornar a parcela dominante da pegada da IA.

A pegada oculta da IA começa pela eletricidade

O primeiro “insumo” que a IA consome é eletricidade - e não em pouca escala, mas em volumes de rede, medidos em megawatts e terawatt-hora.

Treinar um modelo generativo moderno significa executar bilhões de cálculos repetidas vezes em chips potentes. Quando o modelo vai ao ar, a fase de inferência - todas as perguntas do dia a dia - mantém esses chips a funcionar continuamente.

Centros de dados no mundo consumiram cerca de 460 terawatt-hora de eletricidade em 2022, um volume aproximadamente equivalente ao consumo anual total da França - e a tendência é que esse número mais do que dobre até 2026.

Só na América do Norte, a procura de energia por centros de dados saltou de 2.688 megawatts no fim de 2022 para 5.341 megawatts um ano depois. A IA não é o único fator, mas hoje já é o principal motivo para a proposta de novos complexos de servidores nos Estados Unidos, na Irlanda, nos Países Baixos e em outros países.

O problema também é o “desenho” da demanda: ela não é constante. Rodadas de treinamento podem criar picos abruptos de consumo que operadores do sistema elétrico precisam prever. Quando a geração renovável está baixa, esses picos podem levar concessionárias a acionar usinas a gás - ou até geradores a diesel - elevando emissões justamente quando o setor de tecnologia afirma estar a descarbonizar.

Uma pergunta para um chatbot vs. uma busca na web

Para o usuário, perguntar a um chatbot pode parecer tão simples quanto fazer uma busca no Google. No consumo energético, a diferença aparece.

Uma consulta média no estilo do ChatGPT é estimada em consumir cerca de cinco vezes mais eletricidade do que uma busca convencional na web.

À medida que os modelos aumentam de tamanho e capacidade, cresce também a computação exigida por resposta. Isso faz com que o impacto climático dependa muito de duas variáveis: a velocidade de descarbonização do setor elétrico e o risco de a procura por IA ultrapassar a oferta de energia limpa.

Água: o outro recurso que a IA drena

A eletricidade explica apenas parte do impacto. Resfriar dezenas de milhares de chips cria uma procura enorme por água.

A maior parte dos grandes centros de dados usa sistemas de resfriamento baseados em água. Essa água pode vir de redes municipais, rios, lagos ou aquíferos. Além do consumo direto em torres e circuitos de resfriamento, existe a água “indireta” associada à geração de eletricidade em usinas.

Pesquisadores estimam que operar um centro de dados pode exigir cerca de 2 litros de água para cada quilowatt-hora de eletricidade consumida.

Em regiões com escassez hídrica ou ecossistemas já pressionados, isso cria dilemas difíceis entre expansão digital e necessidades locais. Um único campus novo, com grande carga de IA, instalado numa área seca pode competir com agricultura e residências pelo mesmo recurso limitado.

Onde a IA encontra a seca

Países como Espanha, Estados Unidos e partes da Índia já lidam com ondas de calor e reservatórios em queda. Colocar grandes centros de dados nessas regiões pode intensificar a pressão, sobretudo no verão, quando tanto o ar-condicionado quanto o resfriamento de servidores atingem o pico.

  • Temperaturas mais altas exigem mais resfriamento e, portanto, mais água.
  • Secas reduzem a disponibilidade de água superficial, empurrando operadores para extração de água subterrânea.
  • Ecossistemas locais podem sofrer quando rios e aquíferos são reduzidos mais rápido do que conseguem se recompor.

No Brasil, esse tema também merece atenção. Embora a matriz elétrica seja relativamente mais renovável do que a média mundial, eventos de seca prolongada afetam reservatórios e elevam a necessidade de acionamento de termelétricas em certos períodos. Se a expansão de centros de dados for concentrada em regiões com stress hídrico - ou em locais com infraestrutura de água já limitada -, o conflito de usos pode surgir mesmo em estados com forte vocação energética.

O hardware por trás das emissões da IA

Além da operação diária, as máquinas que sustentam a IA carregam um custo ambiental próprio. Produzir servidores e, sobretudo, chips de alto desempenho exige muitos recursos e está fortemente concentrado em poucos países.

As GPUs (unidades de processamento gráfico) são a base do treino de modelos atuais: foram desenhadas para cálculos paralelos e superam com folga CPUs tradicionais no treinamento de redes neurais.

Estima-se que Nvidia, AMD e Intel tenham vendido cerca de 3,85 milhões de GPUs para centros de dados em 2023, acima das 2,67 milhões de 2022 - e 2024 tende a ser ainda maior.

Cada GPU envolve extração e processamento de metais, fabricação sofisticada de semicondutores e transporte global. Em comparação a processadores comuns, chips de IA de alto nível costumam ser maiores, mais complexos e mais intensivos em energia na produção - aumentando a pegada de carbono “incorporada” antes mesmo de serem instalados num rack.

De minas a fábricas de chips e, por fim, ao lixo eletrônico

A trajetória do hardware de IA vai do cobre e de metais raros extraídos do solo a fábricas de chips com uso intensivo de químicos e, depois, ao descarte como resíduo eletrônico.

Os riscos de poluição aparecem em cada etapa:

Etapa Impactos principais
Mineração Destruição de habitats, rejeitos, contaminação da água, alto consumo de energia
Fabricação de chips Químicos tóxicos, gases de efeito estufa usados em processos de gravação, grande demanda por água e energia
Montagem e transporte Emissões da logística, resíduos de embalagens
Fim de vida Lixo eletrônico, reciclagem limitada de componentes avançados, possível lixiviação de materiais perigosos

Com a procura por IA em disparada, operadores de centros de dados renovam hardware com mais frequência para manter competitividade. Isso encurta a vida útil efetiva de dispositivos complexos e acelera a rotatividade de materiais.

Um ponto adicional - raramente discutido fora do setor - é que decisões de projeto podem reduzir parte desse impacto: alongar ciclos de substituição quando possível, priorizar reaproveitamento interno de equipamentos, criar rotas de reciclagem para componentes críticos e adotar metas de compra que considerem carbono incorporado e rastreabilidade na cadeia de fornecimento.

Por que o MIT diz que ainda estamos “voando às cegas” sobre a IA

Pesquisadores do MIT defendem que a sociedade está a subestimar o custo ambiental total da IA, em grande parte porque a tecnologia avança mais rápido do que os métodos de medição e reporte.

Eles apontam pontos cegos importantes:

  • Dados de treinamento e metodologias raramente são divulgados com detalhes, o que dificulta estimar o consumo total de energia no treinamento.
  • Empresas frequentemente reportam emissões globais de forma agregada, sem separar o que é impulsionado por IA.
  • Cadeias de fornecimento de chips e servidores são opacas, com pouca informação pública sobre carbono incorporado e consumo de água.

Cientistas do MIT afirmam que faltam métodos “sistemáticos e abrangentes” para acompanhar, em tempo real, as trocas e custos da rápida evolução da IA.

Sem dados melhores, formuladores de políticas públicas e planeadores de energia têm dificuldade para prever quantas novas usinas, reforços de rede elétrica ou projetos de infraestrutura hídrica serão necessários para sustentar o boom da IA.

Energia mais limpa basta para aliviar a consciência da IA?

Grandes empresas de tecnologia citam compras agressivas de energia renovável e compromissos de neutralidade de carbono como prova de que a IA pode crescer sem destruir metas climáticas. Na prática, o quadro é ambíguo.

Muitas companhias compram certificados ou financiam parques eólicos distantes, mas operam centros de dados intensivos em energia em regiões onde predominam combustíveis fósseis. Quando a demanda por IA sobe à noite, ou em períodos sem vento e com pouca radiação solar, os servidores acabam consumindo a mistura de geração que estiver disponível na rede local naquele momento.

Há caminhos promissores: instalar centros de dados perto de recursos hidrelétricos ou geotérmicos, integrá-los a grandes baterias, ou programar treinos para horários de excedente de renováveis. Ainda assim, essas práticas estão longe de ser regra - e quase nunca resolvem, por si só, o consumo de água e o impacto da fabricação do hardware.

E se o uso de IA continuar dobrando?

Imagine um cenário em que o número de consultas de IA por pessoa dobre a cada ano nos próximos três anos, conforme mais serviços passem a integrar ferramentas generativas por padrão:

  • Ano 1: uso esporádico, sobretudo por quem adota primeiro.
  • Ano 2: integração em softwares de escritório, busca e mensagens; o uso diário vira rotina.
  • Ano 3: muitos aplicativos executam IA em segundo plano, criando resumos, alertas e recomendações sem um comando explícito.

Mesmo que cada resposta se torne um pouco mais eficiente, a demanda total pode disparar. Redes elétricas precisariam crescer, novos centros de dados seriam aprovados com mais rapidez e comunidades locais poderiam enfrentar competição adicional por terra e água.

Ao mesmo tempo, aplicações bem direcionadas de IA podem ajudar o próprio sistema energético: previsão de demanda, integração de renováveis e redução de desperdícios em setores diversos. Por exemplo, controles mais inteligentes de climatização, logística e processos industriais podem cortar emissões e compensar parte da pegada da IA. O saldo final depende de decisões tomadas agora: onde a IA será implantada, como os centros de dados serão abastecidos e resfriados, e quanta transparência as empresas oferecerão sobre os custos reais dessa tecnologia.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário