Je parle donc je suis : quand un robot découvre une certaine conscience de soi

Article publié sur : http://www.geekzone.fr/2015/07/24/je-parle-donc-je-suis-quand-un-robot-decouvre-une-certaine-conscience-de-soi/
Un robot humanoïde a réussi le « puzzle de l’homme-savant » ? Ça y est ! C’est le début de la fin ! Les robots vont prendre le contrôle de la planète ! On est tous foutus ! Skynet is real ! C’est la « singularité » ! Adieu. En fait, ça détend d’écrire des chapôs sensationnalistes, je comprends…

Des sources? Le sujet m’intéresse, j’aimerai un peu approfondir…

[quote=“PERECil, post:2, topic: 56341”][/quote]

Le lien est dans la vidéo en fait, je le rajoute.

C’est vraiment fascinant ! et je en trouve pas que ce soit une petite avancée, clairement… C’est quand même déjà du niveau de ce qu’on considérait comme de la sf y’a meme pas 10 ans…

Du directeur de la recherche de FB:

 

Some articles qualify as AI hype. This is plain AI BS.

Claiming that this thing passed a self-awareness test is like saying that a smoke detector that saved people from a fire passed a compassion test.

Not only is AI nowhere near self awareness, it's not even clear how to define self awareness, let alone test for it.

That's why it's easy to play games with it, like this "experiment" does.

  https://www.facebook.com/yann.lecun/posts/10153022786407143?pnref=story

D’où les pincettes et guillemets à profusion dans le corps de mon texte (j’ai édité le titre pour que ce soit raccord).

[quote=“Faskil, post:1, topic: 56341”][/quote]
Ca m’aurait fait des frissons partout.

Ca se rapproche du test du miroir qu’on fait passer aux animaux. Et que j’ai fait passer à ma fille. J’étais tout content quand elle l’a réussi, alors que c’est le minimum pour un bébé humain, du coup je n’ose pas imaginer la sensation que le chercheur a dû ressentir en voyant son robot répondre ça !

Est-ce que les autres robots ont échoué? Ca serait encore plus extraordinaire si certains n’ont pas réussi. Et si ils continuent à réussir dès lors qu’ils ont réussi une fois.

Je pige pas trop l’avancée en fait, pour moi c’est juste un bête code du style

if(audiomessage.play()){
 if(soundListened == true){
       notmuted = true;
 }
 else { notmuted = false;}
}

Ça n’a rien d’une IA ou d’une conscience de soit, c’est un algo débile :confused:

Non?

En procédurale oui, mais là je pense pas que ça soit le cas, ça serait trop simple effectivement.
A mon avis c’est plus robot qui se “programme” lui-même, et qui a deviné cet algo tout seul. Bref il apprend.

Ouais je prends peut être pas le truc dans le bon sens, en effet

Oui moi je l’ai pris comme un “comportement émergeant”. Ca fait des années qu’on nous en parle, et pour une fois on peut le voir de façon évidente pour un profane.

Je suis le seul à penser qu’il faut tuer ces scientifiques pendant qu’il est encore temps ? :ninja:

[quote=“Cobra, post:12, topic: 56341”][/quote]

lMRgl.gif?c=popkey-web&l=direct&f=.gif

C’est quand même super par clair si l’algo pour déterminer qui est muet ou pas en entendant sa voix a été implémenté par les dev, ou bien si c’est un algo neural évolutif partant d’un réseau vierge, ou à quel point entre deux.

Par ce que dans le premier cas, aucune avancé, aucun intérêt, c’est juste que le labo avait besoin de faire parler de lui (je rappelle que les chercheurs sont notés en fonction du nombre de fois qu’un autre article cite leur travaux), et seulement dans le second, c’est ce que vous croyez.

En regardant rapidement http://rair.cogsci.rpi.edu, je crois comprendre qu’ils ont développé une sorte de langage pour formaliser des relations logiques. Le genre de truc qui existe depuis au moins 50 ans, sauf qu’ils couvrent tous leurs communiqués de mot genre “éthique”, “conscience”, “dilemme moral”, pour faire genre. Du coup, j’aurais tendance à penser que c’est essentiellement de la poudre aux yeux.

Mais après j’en sais rien, peut être que leur DCEC* apporte effectivement quelque chose de plus que les autres système de logiques modaux. Mais j’en doute, si c’était le cas ils seraient suffisamment cités dans les revues scientifiques pour ne pas avoir besoin de ratisser large avec une annonce sensationnaliste.

27/5/2015 Le monde : Stephen Hawking et Elon Musk réclament l’interdiction des « robots tueurs » :blink:

[quote=“JeeP, post:11, topic: 56341”][/quote]

C’est un peu mon domaine de recherche les comportement émergeant. Il y en a partout autour de nous mais c’est assez transparent finalement. Des que tu as des comportement collectif (multi-robots par exemple) des que tu as de l’apprentissage non supervisé, tu as des comportement émergeant.

Ici, c’est clairement le cas… Si ces robot fonctionnent comme les miens, chaque robot a une boucle de décision (Perception, Décision, Action). La perception d’un son qu’il a lui meme provoqué entraine une decision (répondre a “c’est moi qui parle?”) et une action (la preuve mathématique et l’enregistrement)

Le robot va se construir un comportement complexe composé de “brique de comportement élémentaire” que la fonction Décision va assembler pour mener à bien une mission. 

Pour plus d’info, faut regardé du coté des SMA cognitif, de l’IA developpemental, etc…