Império da OpenAI, do ChatGPT, deve gastar tanta energia quanto cidade de Nova York

As novas empreitadas da OpenAI, dona do ChatGPT, para construir data centers ainda maiores nos Estados Unidos podem custar caro — não só financeiramente, mas também em termos de energia elétrica gasta

Isso porque Sam Altman, CEO da OpenAI, e seus parceiros anunciaram planos para um projeto de data centers que consumirão até 17 gigawatts de eletricidade por dia, o equivalente ao consumo combinado de grandes cidades como Nova York e São Diego durante os picos de demanda.

Segundo Andrew Chien, professor de ciência da computação na Universidade de Chicago, em entrevista à Fortune, essa quantidade de energia é praticamente inimaginável em comparação com os níveis de consumo atual.

A OpenAI, em parceria com a Nvidia, está construindo data centers gigantescos, que podem consumir uma quantidade de energia equivalente ao que países inteiros, como a Suíça e Portugal, usam durante picos de consumo.

Por muitos anos, a computação era uma das menores fontes de consumo de energia em nossa economia. No entanto, com o avanço das tecnologias de IA, o quadro está mudando rapidamente. Até 2030, a IA poderá ser responsável por até 12% da energia consumida globalmente.

Em um esforço para atender a essa demanda crescente, Altman tem se mostrado um forte defensor da energia nuclear, apontando a fissão e a fusão nuclear como as únicas fontes capazes de fornecer a quantidade constante e concentrada de energia necessária para alimentar os data centers de IA.

Além das questões energéticas, os impactos ambientais dos data centers também são altos.

O treinamento do modelo GPT-3, por exemplo, emitiu 502 toneladas de CO₂ em 2020, o equivalente a 250 voos entre Nova York e Londres.