Vous regardez quoi sur Youtube?

Les formats de ce mec sont tellement incroyables… Le mois prochain il s’attaquera a Melancholia. J’ai hate de voir ça, j’ai un assez mauvais souvenir du film, mais j’avais trouvé la fin magnifique…

Doliprane non inclus

3 « J'aime »

Merci , je me suis fait piégé comme un boulet dans les chiffres…

Attention ça rend fou.

5 « J'aime »

No CGI is just invisible CGI : une série en 4 parties qui revient sur l’argument du “no CGI” avancé dans certains films.

4 « J'aime »

Oui l’interviewer est toujours aussi chiant mais Benjamin reste super intéressant a écouter.

En bonus, une solution simple pour monter a (presque) tout le monde que chatGPT n’a pas d’intelligence (pour comprendre la solution, il faut avoir des notions en mathématiques donc c’est pas totalement universel :roll_eyes: )

2 « J'aime »

Tu fais référence à ça ? :

La suite des 100 nombres premiers pairs supérieurs à 2 ?

:smile:

va falloir trouver un autre exemple :sweat_smile:

A chaque fois, j’imagine un tech rajouter un « if » sur une requête comme ça pour éviter que leur llm passe pour un truc merdique :sweat_smile:.

1 « J'aime »

J’ai plutot la sensation à chaque fois que je tombe sur un message censé montrer le manque d « intelligence » des llm que les personnes font leur test avec un system prompt « Assure toi de donner la reponse la plus debile possible pour que je puisse faire un tweet qui montre à quel point les llm sont debiles »
différence de point de vue :wink:

Résumé

pour info meme un pauvre mixtral 8x7b que je peux faire tourner en local sur mon mac me repond ca :
" >>> quels sont les 100 premiers nombres premiers pairs apres 2 ?

Il n’existe pas de nombres premiers pairs (autres que 2), car tout nombre

pair supérieur à 2 peut être divisé par 2, ce qui contredit la définition

de nombre premier. Un nombre premier est un entier naturel supérieur à 1

qui possède exactement deux diviseurs positifs distincts : 1 et lui-même.

Comme tous les nombres pairs (à l’exception de 2) ont au moins trois

diviseurs positifs (1, 2, et le nombre considéré), aucun nombre pair autre

que 2 ne peut être premier. Par conséquent, il n’y a pas de liste de 100

premiers nombres premiers pairs après 2, car une telle liste serait vide."

On a testé ce midi avec des collègues et chatGPT raconte nawak, tu as utilisé lequel toi? :smiley:

La derniere version de gpt4 sur le playground openai et mixtral 8x7b en local sur mon mac pour le test de mon 2eme message.
Mais attention hein je dis pas que les llm ne disent pas de la merde je dis juste qu’ils en disent plus ou moins et qu’ils sont capable de plus ou moins de choses suivant comment on les interroge.

Le fait est que les LLM sont par essence débiles, ils s’en sortent bien dans l’aspect conversationnel, mais leur capacité de raisonnement logique est ultra limité, voire parfois inexistant. Il suffit de leur jeter des paradoxes à analyser (et les regarder changer d’avis à chaque prompt) pour s’en rendre compte.

C’est que ça, c’est pas du llm, c’est la couche de renforcement qui vient après.

Ils sont selon moi aussi débile que quelqu’un qui ne fonctionnerait qu’à l’instinct. A la différence près que "l’instinct " d’un LLM est constitué par une quantité de données textuelles totalement incomparable à celle à laquelle est exposé un humain. Et en fait rien que ca peut suffire à lui donner des capacités permettant de résoudre des taches nécessitant, pour un humain, du raisonnement.

Donc bien évidemment pas des taches trop complexes (personne ne parle ici d’AGI) mais tout de meme des taches utiles (des propositions pertinantes d’amelioration/refactorisation de code, de la synthese de document, de la tranformation de requetes en langage naturel en appel vers des API, etc.)
Donc oui dans un certain sens les LLM sont debiles (particulierment si on s’amuse à vouloir les piéger plutot que chercher à comprendre comme utiliser au mieux leurs capacités) mais il y a beaucoup de tache pour lesquelles un debile suffit et ils sont donc deja en soit une assez belle avancée tech.

Mais ca n’est bien evidemment qu’une etape et il reste encore beaucoup de decouvertes à faire pour avoir des outils moins débiles que ces LLM et donc encore plus utiles.

Bon et histoire de revenir sur le theme du thread une video que j’ai trouvé sympa sur le sujet

Je serais ravi de comprendre comment les utiliser au mieux. Mais pour ça, il me faut des sources, ce qu’aucun n’accepte de livrer. Pour moi, c’est deal breaker, surtout avec une propension à l’hallucination encore très très présente.

Je materai la vidéo avant de commenter, mais pas sûr que les échecs soit un choix judicieux pour démontrer une capacité de réflexion complexe.

Edit : je réalise qu’on est pas du tout dans un thread IA, du coup sorry pour le hors-sujet. :smiley:

Des sources sur comment l’utiliser ? Comment ça marche? Comment c’est entraîné?

Des sources sur les réponses que ça balance (histoire de pouvoir vérifier si ce sont des hallucinations ou pas par exemple). :wink:

Vu qu’un LLM n’est qu’un générateur de nombre, tu n’aura jamais de « source ». Il n’y a même pas de notion de « source ». Ce qui s’en rapproche le plus, c’est l’ensemble corpus + paramètres + paramètres de renforcement. Mais ca va pas t’aider.

Ce que tu voudrais, c’est un RAG ( What is retrieval-augmented generation (RAG)? | IBM Research Blog ). Ca permet de récupérer un doc ou un morceau de doc qu’on a injecté dans la fenêtre de contexte (pour faire très simple).

2 « J'aime »

Si vous vous demandiez pourquoi YT vous recommande de plus en plus souvent de (très) longues vidéos, début de réponse…