IA, éthique, tout ça

Ah merci de me donner la source du chiffre…par contre ca ne m’a toujours pas donné d’infos sur comment c’est calculé et même dans l’article, concernant la génération d’image, ils parlent d’emission de CO2 mais pas d’énergie utilisée (et l’article linké de 2023 du MIT Tech Review n’en parle pas non plus). Je passerai sur toutes les approximations et melange du reste de l’article. Mais bon peut etre que Emma Bougerol qui se presente comme journaliste, basée en région parisienne. Habituée de la rubrique « société », j’écris surtout sur les droits des femmes et des personnes LGBTQI+, l’ubérisation du monde du travail et l’impact du numérique sur notre société n’etait pas la personne la mieux placée pour rediger un article sur le sujet.
Et je maintiens, 3kwh pour génerer UNE image : LOL (avec ce que consomme mon mac ca voudrait dire que pour générer une image il tourne à fond pendant environ 15h…ca n’est pas le cas)

N’hésite pas à me link un article de https://reporterre.net/ autre grande source d’information tres fiable.

Et je le repete je ne nie pas l’utilisation massive d’energie par ces modele. Par contre, d’autant plus à l’heure actuelle, sortir des données fausses pour servir un narratif, meme si ce narratif « est pour le bien » est tres contre productif voir dangereux. Les faits ont une importance et les mensonges restent des mensonges meme si c’est pour servir une cause juste.

1 « J'aime »

Sur le schéma on comprends que c’est pour 1000 « requêtes ».
Je comprends donc que c’est pour 1000 images.

L’article en question donne ce lien:

Qui pointe vers cette étude:
http://arxiv.org/pdf/2311.16863
Section 3 pour la méthodologie et le calcul de l’énergie consommée.

2 « J'aime »

Si les chiffres ne sont pas exacts, l’ordre de grandeur montre dans tous les cas que c’est beaucoup trop par rapport à ce que ça apporte.
« Je ne nie pas l’impact, mais lancer des chiffres imprecis, gna, gna, gna », c’est la politique de l’autruche, l’IA est bien trop énergivore, et malheureusement ses déclinaisons grand public sont bien trop utilisées pour faire joujou ou de manière dispensable (étudiants, salariés, …).
C’est une hérésie au niveau économique (trop de flux financiers redirigés dessus au détriment de financements utiles), énergétique (ce dont on parlait), éthique (faire bosser des petites mains dans les pays sous-développés pour valider les résultats + accéder aux contenus sans consentement et même sur des plateformes illégales) et humains (on vire déjà des gens pour les remplacer par l’IA, on challenge des salariés à produire plus vite parce que l’IA est dispo, on va vers une perte d’expertise), tout ça pour des résultats qui sont loin de tenir leurs promesses.
Alors bon, on peut se tromper sur quelques chiffres, le problème reste entier et je pressens qu’on n’en n’a pas encore mesuré tous les impacts.

6 « J'aime »

En même temps il porte bien son pseudo pour le coup.

2 « J'aime »

Le problème c’est que ça fait quand même des trucs. Ce n’est pas (encore ?) la révolution annoncée, mais vu que des applications fonctionnent, ça maintient une perspective ou une illusion de succès à terme.
Je l’opposerais aux crypto dont il ne sort rien de concret, ce qui fait qu’à part les ayatollahs, plus personne n’en parle.
Du coup cette dynamique se poursuit, dans plein de secteurs de la société. Avec l’enjeu pour les sceptiques (moi, par exemple) de se dire qu’on est peut-être en train de manquer le train du futur.

2 « J'aime »

Moyenne sur 1000 echantillons 2.9kwh…ecart type 3.1kwh… ok ok.

ouai on est juste peut etre sur un facteur 1000 mais si c’est un ordre de grandeur acceptable pour toi ok.

ok on en est la. bah bisous les gars

1 « J'aime »

Je n’en sais rien, je ne suis pas capable de challenger ces chiffres.
Maintenant, doit-on croire ces comparaisons peut-être biaisées ou les tech-bros qui nous assurent qu’après avoir explosé la consommation électrique de régions entières, l’IA va permettre de consommer moins ? Que ce ne soit pas tes images Midjourney en local, très bien, en attendant les besoins croissants en énergie de tous ces datacenters présents ou à venir, ils sont pour l’IA, globalement, que ce soit équivalent à 350 brosses à dents électriques ou 4,12 vibromasseurs pendant 32mn, ce n’est pas le détail important, ça surconsomme beaucoup mais pour pas grand chose.

1 « J'aime »

J’ai plutôt l’impression que tu n’es pas capable de les comprendre et que tu ne cherches même pas à le faire. Il me semble que tu pars du principe que l’IA générative c’est mal et tu sors des études complètement moisies pour tenter d’appuyer ton propos. Non mais une erreur d’un facteur mille, honnêtement, ça ne te choque même pas ? Si tu ne cherches même pas à vérifier tes sources et si elles ne sont pas fiables, ne les cite pas et ne base pas ton opinion là-dessus.

C’est un faux dilemne. Personellement je ne crois ni l’un ni l’autre, et critiquer la source que tu as partagé ne veut pas dire qu’on adhère à la position des crypto bros vendeurs de NFT, loin de là.

« Pour pas grand chose », c’est un jugement qui n’engage que toi. Il y a peut-être des gens pour qui générer ces image représente un gain d’efforts et/ou de temps significatif. À eux de choisir si ça en vaut le coût énergétique ou pas - d’où l’intérêt d’avoir des sources fiables sur ce coût en question, ce qui est il me semble ce que recherchait blind_man.

2 « J'aime »

Les levers de bouclier, elles ne viennent pas de moi, hein.
J’ai juste initialement lâché une phrase au conditionnel, la première réaction était cordiale, puis ça a vite tourné au déni « les chiffres sont faux donc le fond est faux »…
On ne va pas refaire le débat, oui, l’IA c’est plutôt fantastique et il y a clairement des usages pertinents, sauf que ce qu’on pousse au jour le jour non, c’est une débauche de moyens disproportionnés et beaucoup trop énergivore et ce n’est majoritairement pas pour la recherche ou des applications novatrices.

2 « J'aime »

Donc tu n’utilises pas MidJourney…

C’est ca… l’image est fausse mais c’est clair dans l’étude originale que c’est pour 1000 requêtes, ramené à 1 ensuite pour comparer au smartphone:

For comparison, charging the average smartphone requires 0.022 kWh of energy, which means that the most efficient text generation model uses as much energy as 9% of a full smartphone charge for 1,000 inferences, whereas the least efficient image generation model uses as much energy as 522 smartphone charges (11.49 kWh), or around half a charge per image generation

Mais du coup je n’ai pas compris comment les mecs qui ont fait l’image passent de 11.49kWh à 2.907kWh sur leur chart

La partie sur la Tesla est probablement fausse aussi parceque, vu la capacité de la batterie d’une Tesla (53 kWh) et d’un smartphone (0,022kWh d’après l’étude) on pourrait recharger le telephone presque 2400 fois.
Ca voudrait dire que reconnaitre 1200 objets mettrait une Tesla à plat… heureusement que ce n’est pas le cas :smiley:

Bref, lisez l’étude originale pour de vrais chiffres et pas les approximations de journalistes en mal de clics.

3 « J'aime »

Pour moi, c’est prendre sa voiture qui consomme trop. Beaucoup trop. C’est une aberration de déplacer 2 tonnes de métal pour bouger 80 kg de viande.

Bon bin voilà. Avec des réflexions comme ça tu tombes juste dans du wataboutisme debille. Ça empêche d’échanger en fermant toutes discussions.

Y a un monde entre les cryptobro et les technophobes, ça serait bien de le prendre en compte.

2 « J'aime »

Je pense que tu voulais dire techbro et pas technophobe, mais je ne suis pas persuadé qu’ils soient si eloignés (je parles de ceux qui font, pas de ceux qui utilises), le principe est vertueux, l’implémentation beaucoup moins, l’objectif de ceux qui financent c’est faire du pognon, les moyens pour y arriver, c’est tout les moyens sont bons.

Et finalement :

Avec la source :

2 « J'aime »

Et si on essayait de déterminer si on nous balade ?

Assimiler le coût environnemental de l’IA au seul coût des requêtes est trop simple, on est d’accord ? Les entrainements des IA sont garguantesques en consommation d’énergie, de matériel, d’eau etc … « L’affaire » DeepSeek a fait remonter des chiffres assez intéressant brandi par les sociétés Américaines montrant qu’il faut nécessairement un parc colossal de puces mais aussi d’infrastructure de stockage etc … pour entrainer une version d’un modèle.

Je vous rappelle qu’on a des chiffres pour la consommation globable d’énergie par l’IA, même si le coût ne vous semble pas si élevé à la requête on rate peut-être un truc: en 2022, la consommation de l’IA a été évaluée à une fourchette entre 240 à 340 TWh (bizarrement on n’a plus d’évaluation depuis).

Il y a un milliard de requêtes envoyées à chatgpt SEUL par jour selon openai eux-mêmes.

Donc 1 000 000 000 x 0.3 = 333 333 333 Wh par jour et donc 121 666 666 666 Wh par an donc 121,5 TWh par an minimum pour openAI seul en 2025 (on est d’accord, il y a d’autres modèles mais ils sont plus consomateurs encore).
Vu la gueule de la concurrence (entre Microsoft, Mistral, les chinois comme DeepSeek, etc …), difficile d’expliquer que, non l’IA ç’est vertueux du point de vue écologique…

Je vous fait remarquer au passage que le graphique:


tiré de How much energy does ChatGPT use? | Epoch AI est CLAIREMENT orienté en comparant des échelles de temps différentes avec des échelles de numération ce qui est classique de la manipulation des chiffres à mon avis.
En gros l’impact serait assez limité si on tapait les requêtes à la mimine et qu’elles ne soient pas trop complexes et utilisent cette version de l’algorithme.
Devinez-quoi: c’est absolument pas le cas.

2 « J'aime »

C’est la source du financement d’OpenAI et consors à mon avis… Pas le train mais la peur de le rater. Plus on avance, plus on voit la bulle prête à éclater, avec les amerloques qui passent en mode imperialistes ça pourrait faire mal.

Je n’aurais jamais dû lancer ce sujet :grin:

Alors en fait le : requête IA = 10x requête Google, c’était 2009 pour Google, 2023 pour ChatGPT, les 2 périmées et une scalabilité sans comparaison :face_with_spiral_eyes:
L’apprentissage IA nécessite par contre une conso énorme. L’étude le rapporte au nb de requêtes, ce qui me parait réducteur, c’est mathématiquement cohérent, mais on a une urilisation qui explose, donc une consi globale qui explose aussi, les modèles sont entrainés.une fois pour toute, mais passent en fait tout de suite le relais au modèle suivant, donc ca ne s’arrête pour l’instant jamais et au contraire s’intensifie parce que les modèles se complexifient plus vite que l’efficience de cartes Nvidia ne s’améliorent.

Non, je pense qu’il mettait au contraire les Techbros et les Cryptobros dans le même sac, et les opposait aux Technophobes.
Et tout comme lui je pense qu’il y a beaucoup de place entre les deux (et je pense d’ailleurs m’y trouver).

Il me semble au contraire que certains experts pensent qu’on a atteint les limites du pre-training (c’est à dire les grosses phases d’apprentissage de zéro ultra-énergivores pour faire un nouveau modèle), et que les progrès significatifs qu’on voit récemment avec des modèles comme Deepseek R0 se situent plus sur la phase de raisonnement - c’est à dire des requêtes plus couteuses, mais aussi des avancées sans avoir besoin d’entrainer un nouveau modèle à chaque fois.

À noter égalemment la communication récente sur « Le Chat », sorti des bureaux de Mistral, avec un accent mis sur le fait que le modèle est a priori beaucoup moins coûteux à inférer que la concurrence - c’est donc une problèmatique qui n’est pas ignorée dans la course aux I.A.s.

Tout ça pour dire que je trouve dommage de vouloir à tout prix jeter le bébé avec l’eau du bain sous prétexte que la plupart des LLMs utilisées jusqu’à présent ont des côuts énergétique énormes dans l’absolu.

Laissons la recherche faire son travail, dès qu’ils auront de plus amples informations croyez bien que nous en serons les premiers informés. (ou pas :slight_smile: )

Ce n’est visiblement pas le chemin que veut emprunter les USA. La démonstration de Deepseek n’a pas remis en cause le projet Stargate et ces 100aine de milliard comprenant la construction de nouveaux datacenters.
OpenAI qui utilisait le cloud de Microsoft veut peut-être devenir independant, mais Microsoft ne semble pas non plus pour autant ralentir, puisqu’il est à l’origine de la réouverture de la centrale nucléaire Three miles island pour ses besoins futurs.
Et Meta veut investir dans les mini réacteurs nucléaires privés (Altman et Gates l’ont déjà fait).

Je ne vois aucun signe de ralentissement de cet emballement énergétique, du moins pas aux USA qui concentrent pour l’instant l’essentiel de l’offre IA.

TL;DR: une génération d’image avec Midjourney équivaudrait à sortir une Renault Zoé de son allée.

1 « J'aime »