Selon le type de trajet, le nombre de passagers ne justifie pas toujours l’utilisation d’un TC, mais ok…
Musk est tellement partout que je ne savais même plus où mettre cette info (ça aurait très bien pu aller dans le thread sur Trump tellement le rapprochement avec l’actualité) :
IA : Elon Musk propose près de 100 milliards de dollars pour prendre le contrôle d’OpenAI
Ou dans les trucs complètement idiots…
Tiens leur fameux modèle o3 est uniquement disponible avec l’abo à 200$ ? Parce que lorsqu’on utilise « reason » dans la version gratuite la différence n’est pas transcendante. Dans un podcast ils disaient que ça peut faire des recherches approfondies sur un sujet et fournir une réponse hyper détaillée après une vingtaine de minutes
(et lancer 3000 gpu qui consomment 50 kWh à chaque requête )
Ca c’est Deep Research (même nom que le service de Google d’ailleurs …).
Ils ont vraiment un problème sur le choix des noms …
Ah voilà merci ![]()
les noms ont été générés par I.A. à tous les coups. ![]()
La BBC a fait une analyse poussée sur la manière dont ses contenus sont réinterprétés par des IA lorsqu’on leur pose des questions sur de l’actualité récente.
Dans plus de 50% des réponses des IA, on constate des problématiques d’éditorialisation, de manque de contexte, de distinction entre fait et opinion. Les modèles de langage derrière ces assistants font des hallucinations, inventent des faits ou les réinterprètent.
Générer une image par Midjourney correspondrait en conso électrique à faire 25km en Zoé ![]()
Oui ou à les faire en F150 si ton data center est alimenté par une centrale thermique, et il y en a un bon paquet aux US…
Mais bon, comme d’hab, c’est plus facile d’expliquer à la population qu’elle est responsable de tous les désastres écologiques plutôt que de forcer les entreprises à changer. Faudrait pas « altérer la croissance ». D’ailleurs, en France, on lance des plans IA à la con dont les chances de succès sont ridicules pendant qu’on réduit les dotations à l’écologie. Je ne parle même pas USA, on a un topic déprime et doomscrolling bien assez alimenté sur le sujet.
J’ai maté la vidéo linkée je ne sais plus où par Fask et ré-appuyée par Caf, expliquant ce qu’est vraiment la dette publique de la France, il n’y a aucune bonne raison de diminuer le budget permettant de freiner les désastres écologiques à venir … si ce n’est de rediriger l’argent vers ceux qui n’en n’ont vraiment olus besoin de plus.
Quand on sait que ça va coûter bien plus cher de réparer que de prévenir, on se dit qu’on marche vraiment sur la tête.
Vision égoïste de concentration de richesses et pouvoirs.
Je suis curieux d’avoir le detail du calcul sachant que j’en genere régulièrement sur mon mac book qui est tres tres loin d’avoir une consommation électrique comparable.
C’est 100% offline ?
Dans tous les cas ce n’est pas ton MacBook qui a entraîné le moteur sur les images sources, je suppose.
Oui je fais tourner le modèle en local. Et ca n’est effectivement pas mon macbook qui a entrainé le modele que j’utilise mais c’est pour ca que je dis que je serais curieux d’avoir le détail du calcul.
Si sur la génération d’une image on prend en compte aussi l’énergie utilisée pour entrainer le modele, produire les gpu, amener les gpu de l’usine au datacenter, éclairer les chiottes qu’utilisent ceux qui maintiennent les datacenter…ca peut vite monter.
Bref je me méfie toujours de ces chiffres qui ont bien souvent aucun sens. Et ca ne m’empeche pas de penser qu’on utilise tres certainement trop d’energie pour des usages « futiles » mais ca serait mieux si on avait des chiffres corrects pour réellement se rendre compte de ce que represente en consommation d’energie ces usages par rapport à d’autres. Et en plus en sortant des chiffres calculés n’importe comment on donne le baton pour se faire battre à ceux qui veulent totalement nier le problème de consommation d’énergie.
Mouais, d’une part les vrais chiffres ne vont rien changer parce que les acteurs de l’IA et les gouvernements s’en foutent royalement et d’autre part il n’y a pas vraiment besoin de prouver quoi que ce soit, vu le problème de tension (ah, ah) sur la production d’électricité là où s’installent les data center et les réactivations de centrales ou les projets de réacteur nucléaire privé.
OpenAI déclare qu’il y a 1 milliard de requêtes ChatGPT par jour, just do the math. Une requête IA est plus coûteuse, il y en a plus et les tech bros veulent aller encore plus loin, encore plus haut. Comment ca peut bien se passer ?
Ok. Je suis juste pas sur que balancer des chiffres faux et repeter que quoi qu 'il arrive on va dans le mur soit tres constructif et apporte quelque chose. On va dire let’s agree to disagree hein.
N’est de pire aveugle que celui qui ne veut pas voir…