Ben j’ai utilisé l’IA sur un cas super concret et pas trop simple. Sans surprise elle était dans les choux complètement, n’a pas proposé les investigations nécessaires au problème et, en gros, tournait en boucle en reproposant les mêmes étape ad noseam … Si c’est la révolution qui permettrait de se passer des humains on a du souci à se faire. Par contre comme outil ça fait effectivement gagner du temps.
Je pense qu’il manque encore BEAUCOUP d’outillage autour de l’IA générative, des LLM, pour qu’on commence à réellement s’approcher d’une façon humaine de traiter les problèmes.
Les MCP sont un aspect intéressant (ça permet à ton LLM de faire appel à une app externe pour faire certaines actions, récupérer des infos, etc), et y’a peu Anthropic a lancé pour son modèle Claude ce qu’ils appellent les Skills (des sets d’instructions normalisées, utilisés au besoin pour remplir une tâche précise, qui cadre comment agir pour la dite tâche).
A mon sens, c’est une bonne piste à poursuivre pour dresser ces modèles à faire des choses de façon plus prédictives et répétitives et si ça ne sera sûrement pas parfait de suite (voir jamais ?), c’est bien plus sensé comme logique que de vouloir créer le rêve humide des valley bros : l’AGI ( Artificial general intelligence).
J’ai utilisé claude agent pour mon test
Si on m’avait dit qu’un jour, les gens tomberaient amoureux d’un auto-complete… ![]()
Pour notre santé mentale à tous, je vous mets le lien de la dernière newsletter de Martin, qui fait plutôt du bien sur le sujet :
![]()
J’ai du aller vérifier ce qu’était ce site, je ne connaissais pas et j’avais du mal à me dire que ça pouvait être vrai…
Désolé, j’aurais du préciser que c’était satirique peut-être mais ça me semblait assez évident ![]()
Le canard enchaîné pourrait totalement faire un titre comme celui-là pour un article sérieux.
Vous voulez vomir ? Imaginez un repas avec le vieux tonton relou raciste et révisionniste … de nos jours Tonton s’appelle Grok (intégré à X) :
Oui et la Ligue des Droits de l’Homme a porté plainte contre cette publication (hi, hi, c’est une plainte contre X mais pas contre X, du coup
)
Et reprise dans le Grokipedia forcément…
Je suis toujours surpris de voir ce genre de gros titre fin 2025. L’IA est opposée aux étudiants qui n’ont pas réussi à résoudre un problème donné. Mais l’IA n’a pas l’air d’avoir résolu le problème non plus, elle a donné une “idée-clé”. On sait pas si cette idée-clé était dans son set d’entraînement. Et le chercheur annonce lui même que non, ça permet pas de remplacer des chercheurs scientifiques (même des débutants? mais du coup pourquoi ce titre?). Mais comme d’habitude, “il y a du potentiel”, “les progrès sont énormes”, etc. Ça donne l’impression d’une grosse incompréhension sur ce qu’est l’IA générative et ce qu’elle peut faire.
Ça illustre bien l’article linké au dessus sur Yann LeCun et la division entre les personnes qui pensent que l’IA générative a trouvé ses limites et veulent explorer d’autres horizons et les personnes qui pensent qu’en mettant quelques trillions de plus pour entrainer des modèles plus gros, on va finir par arriver à passer le mur de non-intelligence actuel.
PS : warning habituel, je trouve toujours ça incroyable comme outil de productivité sur certains usages
