Les xifres que apareixen a la infografia són les millors estimacions disponibles avui, però convé saber-ne les limitacions abans de fer-les servir com a veritats absolutes. Les raons són:
- Falta de transparència de les empreses. Només Google (estudi d’agost de 2025) i OpenAI (post de Sam Altman al juny de 2025) han publicat dades oficials sobre el consum dels seus models. Anthropic, Microsoft, Meta o Mistral encara no han fet públiques xifres comparables. A més, les dues empreses que sí que en publiquen utilitzen metodologies diferents i no expliquen del tot què inclouen ni què deixen fora del càlcul (xips, refrigeració, electricitat indirecta, aigua de la central elèctrica…).
- Les dades canvien molt ràpid. El 2023, l’estimació més citada deia que una consulta a ChatGPT consumia 3 Wh. El 2025, el consens oficial l’ha rebaixada a 0,3 Wh, deu vegades menys, gràcies a hardware més eficient i nous models. Qualsevol xifra d’aquesta infografia pot quedar desfasada en pocs mesos.
- Discrepàncies enormes entre fonts. L’aigua per generar 100 paraules amb GPT-4 va de 0,3 ml (segons OpenAI) a 519 ml (segons el Washington Post), una diferència de més de mil vegades. La ubicació del centre de dades també importa molt: el mateix prompt pot consumir sis vegades més aigua a Washington que a Texas, segons el clima i el sistema de refrigeració.
- El que no es compta sovint. Les xifres mostren la inferència (ús final), però no inclouen l’entrenament del model (cost únic però brutal: GPT-4 va consumir uns 50 GWh durant mesos), ni la fabricació del hardware, ni el manteniment dels centres de dades.
👉 Què cal recordar. L’impacte individual d’una consulta és petit, però multiplicat per 2.500 milions de consultes diàries a ChatGPT esdevé enorme. Saber que les dades són imprecises no vol dir que no importin: el missatge real és demanar més transparència a les empreses i fer servir la IA amb criteri —preguntes curtes quan en tinguis prou, raonament i cerca profunda (deep research) només quan calguin de debò.