Vers des limites matérielles…?

© Généré par Midjourney
La croissance presque exponentielle de l'intelligence artificielle risque toutefois d'être freinée côté matériel. Les grands modèles de langage (LLM) ont besoin de beaucoup de puissance pour leur entraînement initial, et leur popularité entraîne nécessairement une consommation élevée en continu. OpenAI ne communique pas de chiffres, mais différentes sources ont tenté d'estimer son impact sur l'environnement. L'entraînement de GPT-3 aurait nécessité 700 000 litres d'eau, et aurait produit 240 tonnes de CO2e, équivalent à 136 voyages aller-retour en avion entre Paris et New-York. Et c'est sans compter sur le fonctionnement au quotidien. ChatGPT aurait besoin de 500 mL d'eau pour répondre à seulement 20 à 50 requêtes…
 
La croissance presque exponentielle de l'intelligence artificielle risque toutefois d'être freinée côté matériel. Les grands modèles de langage (LLM) ont besoin de beaucoup de puissance pour leur entraînement initial, et leur popularité entraîne nécessairement une consommation élevée en continu. OpenAI ne communique pas de chiffres, mais différentes sources ont tenté d'estimer son impact sur l'environnement. L'entraînement de GPT-3 aurait nécessité 700 000 litres d'eau, et aurait produit 240 tonnes de CO2e, équivalent à 136 voyages aller-retour en avion entre Paris et New-York. Et c'est sans compter sur le fonctionnement au quotidien. ChatGPT aurait besoin de 500 mL d'eau pour répondre à seulement 20 à 50 requêtes…  
© Généré par Midjourney