Nickel…
C’est vraiment le coeur du problème.
En fait quand je faisais des régressions linéaires à l’école, je faisais déjà de l’IA donc !
Voilà, mais chuuut, faut pas le dire trop fort. Au taf on a souvent bien rigolé (jaune) à chaque fois qu’on a creusé les modèles pondus par les data scientists. Ils sont toujours évasifs, rechignent à fournir leur code, etc. Et dans 99% des cas, quand on dépile les couches de merdes qui servent à rien (sinon obfusquer le « coeur » du modèle), ben on tombe sur une pauvre régression linéaire, qui pourrait très bien se suffire à elle même.
Dés que tu déportes une décision a un ordi, tu fais de l’IA.
@canard cest qu’il t’en faut un bon. Capable de modéliser un data scientist, c’est pas un mec qui fait un apply sur un dataset. Ça c’est un stagiaire.
Meilleur moyen de savoir, c’est de lui demander sa baseline et si il fait mieux qu’une moyenne .
Lu via Linuxfr org que je consulte de temps en temps:
Pour moi ce serait à la limite le « bon usage » : faire des corrélations qu’on n’aurait pas cherchées.
En médecine tu ne peux trouver une corrélation que si tu la cherches.
De ce que je comprends des IA (au sens large), on leur donne un paquet de données assez brutes, on leur donne quelques outcomes, et elles vont être capable de dire quelles données d’entrée mènent à chaque outcome. Sans avoir aucune idée du comment.
En médecine, tu leur files des dossiers médicaux, tu leur indiques quelques situations finales (maladie, guérison, invalidité, risque opératoire…) et elles peuvent te dire quels patients seront susceptibles de se retrouver dans ces situations. Sans avoir aucune idée du comment, mais en première intention, nous on s’en fout, on est habitués à ne pas savoir le pourquoi du comment.
Et sur le volume de données d’un dossier médical et comportemental, humainement on ne peut pas chercher toutes les corrélations. Est-ce que tenir sa brosse à dent de la main droite réduit le risque de caries ?
Mais ça ne sert qu’à déblayer un sujet, c’est ce qu’on appelle du rétrospectif, après il faut confirmer les corrélations. Et ça, ce n’est pas un travail d’IA.
Et dans le cas des flics, j’y vois un peu la même idée : est-ce que posséder une Ferrari et habiter à trente kilomètres d’un point de deal ne serait pas le signe d’un baron local qui se met un peu au vert mais garde quand même un œil sur son business ? Après, il faut confirmer la corrélation, c’est du travail d’enquête. Mais ça propose déjà des pistes.
Par contre, dans un dossier donné, une IA qui donne un diagnostic ou qui désigne un coupable à la minority report, je resterai sûrement longtemps sceptique. Parce qu’on a besoin d’argumenter, de prouver, et que le principe de boîte noire le rend impossible.
D’ailleurs je me demande ce que font les IA quand on leur demande de justifier, d’étayer leurs réponses. Elles savent répondre à la question « pourquoi tu m’as répondu ça ? » ?
Non, mais comme pour tout le reste, elle peut faire illusion.
Le plus souvent , tu leur donnes un GROS volumes de données traitées. Tu identifies une target déjà présente dans les datas et tu vas obtenir des coefficients déterminants tes variables explicatives. À toi ensuite d’en tirer des conclusions sur corrélation ou non à l’aide de métriques métier et stats.
En fonction du type d’algorithme, tu auras la liste des sources ou non. Tu peux essayer avec le ML de notion.so. Tu auras une petite bulle sous chaque affirmation avec la page ou les datas qu’il a utilisé.
Ce n’est pas une justification, ça. C’est comme si tu demandais à un étudiant de justifier sa réponse, et qu’il te file le polycop du cours que tu lui as toi-même fait !
Bof. Je dirai que :
C’est comme si tu demandais à un étudiant de justifier sa réponse, et qu’il te file le polycop avec les passages surlignés et le poids de celui ci dans sa réponse.
Quand je lis ça : « answer at the top of the results, pulled from highly ranked web content », je pense au sketch « La Famille en plomb » des Inconnus (et sa source, le jeu « Une Famille en or »), où chaque bonne réponse n’est pas « bonne » en tant que telle, mais simplement la plus fréquente…
Je peux vous dire que j’ai passé une certification Salesforce IA Associate poussé par ma boîte. Bullshit x1000. 1/3 des questions sur l’éthique (houlala faut pas mettre tel ou tel donnée comme indicateur). Quand même des questions sur l’importance d’avoir de bonnes données pour le modèle de training. Quand je vois les sources pourris qu’on se tappe en crm avec des mécanismes à mettre en place pour tenter de redresser la donnée plutôt de corriger la source, on est pas prêt d’avoir un truc potable…
Goodhart's law - Wikipedia all over again.