Ben au contraire si, ça devrait permettre de relativiser, sauf qu’en réalité ça énerve les gens qu’on leur rabâche que y’a urgence alors que nos priorités quotidiennes sont à l’opposé (d’aucun parlent même d’écologie punitive, c’est dire).
Donc bon, nul doute qu’on peut faire des trucs trop cools, sauf que ce n’est pas ça qui est mis en avant et que ce n’est pas non plus l’urgence.
Quant aux datacenters n% en énergie renouvelable, idem, ce n’est pas du tout la bonne approche, compenser des dépenses énergétiques supplémentaires avec même du 100%, c’est juste un besoin supplémentaire loin d’être vital et de la production d’énergie qui pourrait servir à de vrais usages, alimenter une partie de la ville d’a côté, genre là où les gens vivent.
Ouais, c’est Geekzone, le sujet est intellectuellement interessant, mais ça commence à faire beaucoup, quand même.
J’aborde un autre point qu’un article récent de Ars met en avant :
Après avoir compris certains fondamentaux des IA (en particulier le besoin de les alimenter en données pour qu’elles sachent produire quoique ce soit), je pense que c’est un pur fantasme que de croire qu’une IA puisse acquérir une conscience. Et pourtant on trouve des scientifiques qui s’interrogent sur ce point… ça me paraît tellement naïf de croire un tel truc, tellement frappé du sceau de la SF…
Avant de se demander si une IA peut être consciente, il va déjà falloir s’accorder sur ce qu’on entend par « conscience ». Les scientifiques et philosophes n’ont pas vraiment de réponse ferme et définitive à cette question… Du coup, je ne vois pas trop sur quels critères on pourra juger une IA.
J’espère que ce move va être fatal à Intuit, tout le monde s’en portera mieux mais j’ai plutôt l’impression que ça suit la vague globale de licenciements et que l’IA n’a pas grand chose à voir avec ça.
Ce qui est particulièrement piquant c’est que la boite en question, Lattice, est spécialisée dans les outils de gestion des ressources humaines et évaluation de la performance, de l’ambiance à base d’IA bien sûr… Ca ressemble quand même à un coup de com « nos outils IA sont tellement malins qu’on les traites comme des humains ». Etant pessimiste sur la nature humaine et sur le monde du travail US en particulier, je dirai surtout que les humains sont traités comme des machines.
Les machines sont souvent mieux traitées que les humains, ce sont surtout les humains qui ne sont plus traités comme des humains, on se demande pourquoi ils appellent encore ça « Ressources humaines »
On va déjà dans le mur parce qu’on rechigne à changer nos modes de vie, mais là c’est le niveau au-dessus, quand même.
Non mais on garde nos objectifs neutralité en 2030, neutralité encore une fois obtenue par compensation, pas par réduction des consommations.
C’est moche à dire, mais je suis content d’être vieux
Sinon. Histoire de sonder :
Hier j’ai fait passer un entretien pour un poste d’ingénieur et le cas technique que le candidat nous a présenté était 100% pondu par copilot. Il en était même très fière et nous a assuré être incapable de le refaire sans llm.
Comment on gère ça ? Dans l’équipe y a deux sons de cloche :
J’imagine que c’est un peu pareil, Stackoverflow, le mauvais dev ne sait déjà pas adapter si le copier/coller ne suffit pas.
L’IA fera mieux pour s’adapter au contexte, mais ce sera pire si le dev ne sait pas contrôler ce qui a été généré quand il y aura une coquille dedans.