Leur modele semble tres interressant et performant mais je pense qu il y a quand meme une « petite » volonté de faire le buzz avec cette annonce. Et puis bon on sait que les medias sont toujours tres friands de tout ce qui peut faire peur autour de l’ IA…
Un post un peu plus complet sur la “non divulgation” par openai de leur modèle https://www.fast.ai/2019/02/15/openai-gp2/
OpenAI continue ses recherches sur “l’interpretabilité” des modeles de classification d’image.
La version courte : https://openai.com/blog/introducing-activation-atlases/
La version plus complete pour les barbus : https://distill.pub/2019/activation-atlas/
J’aime bien cet article de vulgarisation :
ca sent en peu le fake et le tournevisage mais c’est assez hypnotisant :
Skynet incoming :ninja:
En français on appelle ça « faire du calage en ligne ». On utilise un algo pour affiner un autre.
Un exemple très concret : utiliser un algo générique pour trouver la topographie d’un réseau de neurones. Ou encore utiliser un RNA pour définir les comportements d’agents.
Bref c’est pas nouveau
Oui arrêtez avec ça, Johnny en a assez qu’on essaie de l’apprendre…
Si vous avez trois quarts d’heure devant vous et ne connaissez rien au deep learning, j’ai trouvé cette video très instructive et surtout limpide dans ses explication (je ne connaissais rien au sujet):
un article interressant sur un nouveau modele utilisé entre autre pour de la colorisation ou de la “super resolution” https://www.fast.ai/2019/05/03/decrappify/
et si vous voulez jouer avec vos vieilles photos de famille pour les passer en couleur vous avez un notebook tout pret sur google colab (gratuit) pour ca : ici
En parlant de colab, je vous invite surtout à installer anaconda et le module jupyterlab c’est ultra pratique.
oui mais quand meme un peu plus compliqué à mettre en place que juste ouvrir un lien dans un navigateur
meme si pour le coup le github du projet deoldify contient un environment.yml qui permet de configurer un environnement conda automatiquement
Ouais mais pour s’amuser un peu, la gestion dès fichier dans colab est trop chiante .
Y a quand meme le lien avec google drive qui est assez simple à utiliser mais oui c est sur que ca vaut pas un vrai environnement local
Apres pour un environnement gratuit avec un gpu pas si pourri que ca derriere (surtout avec pas mal de ram) c est quand meme pratique.
J’ai installé Jupyter et Jupyter Hub depuis l’été dernier et c’est vraiment très très pratique pour avoir les instructions R (ou Python) et voir leur résultat en dessous.
Je ne connaissais pas Jupyterlab, j’ai cherché rapidement sur internet je ne comprend pas complétement. En fait il permet davantage d’ouvrir d’autres formats de fichier et à terme il remplacera Jupyter (NoteBook) ? C’est bien cela ?
J’espère qu’ils n’oublieront pas R. Certains modules graphiques qui fonctionnent dans Jupyter avec le moteur Python ne fonctionnent pas avec le moteur R. De même j’espère que la partie multi-utilisateur restera, voire que son installation sera facilitée : j’ai installé Jupyter sur Ubuntu en multi-utilisateurs grâce à Jupyter Hub.
Rien de change, c’est juste un notebook avec plein d’outils autour (une console, un explorateur, un éditeur de csv, etc).
ah ok. Merci.
J’ai trouvé cela, sur leur site, mieux expliqué que sur le précédent lien que j’ai posté.
Tiens en plus cette vidéo docu est en français, je n’avais pas vu. Il faudrait que je regarde ça.
En attendant, une petite question, sur le deep learning, ou machine learning je ne fais pas la différence : en lisant les petits tutos en R à droite et à gauche je vois des formules mathématiques et/ou de stats, de régression linéaire (?), est-ce qu’il faut un bon niveau en maths et ou stats ? Je demande ça car mon niveau en maths va jusqu’au espaces vectoriels et en stats jusqu’aux combinatoires.
Autrement dit est-ce que le ML est à ma porté où il faut être un demi-dieu en maths / stats ? Et sinon qu’est ce que je peux lire d’accessible dans ce domaine pour compléter mes maigres connaissances en stats ?