Cerveau et ordinateur, similitudes?

Fouinant un peu partout, je tombe sur un article intéressant pour les “Bussière et cie.” B)

Il traite de l’hypothèse selon laquelle on pourrait parvenir à une compréhenson globale du cerveau et de la pensée.

C’est un sujet que j’ai toujours trouvé très intéressant de même que la définition de terme.
Selon moi tout est lié à la pensée et donc au point de vue.

Mr O’Reilly a découvert de multiples similitudes entre notre cerveau et le fonctionnement d’un ordinateur.

C’est forcément logique puisque c’est l’homme qui a créer l’ordinateur mais si c’est hypothèse est confirmée on pourrait donc réglé le problème de l’IA:

-en se basant sur le cerveau humain et sa retranscryption directe et non plus sur sa conversion en procédés.

Ptet bien des réactions ptet bien tout le monde s’en fout B)

Source principale
Randall C. O’Reilly’s Home Page
Intelligence artificielle selon wikipédia
Vers la connexion cerveau-ordinateur
Une experience récente sur la connexion cerveau-ordinateur

MoneyBee Des réseaux neuronaux artificiels
Clément D. - GNT Ordinateurs et cerveaux : du pareil au même
Blog de Randall C. O’Reilly Randall C. O’Reilly’s Home Page
Christophe Jacquemin - Automates intelligents Des ordinateurs vivants à base de sangsues

Je fais vite (boulot). C’est un débat très long et bien plus large. Cependant, d’un point de vue épistémologique, on remarque qu’il se crée souvent un lien très fort entre la représentation ou modélisation du cerveau et le contexte technique ou historique associé (voir théorie de l’information de shannon, entre autres).
Typiquement, des théories sur le fonctionnement du cerveau du 19e siècle font référence aux notions de “pistons”, “poussée”, “mécanique”, qu’on retrouve evidemment dans la technologie de cette époque souvent basée sur la vapeur ou l’hydraulique.
En ce moment, la technologie se concrétise, entre autres, par des “réseaux”. Comme par hasard, on les retrouve dans certains modèles en psychologie.

Juste une remarque sur les reseaux de neurones, c’est un abus de langage. En fait c’est principalement un outil de classification statistique parmis d’autres. Le nom de neurone est un peu trop chargé de sens biologique, alors que les “neurones” artificiels ne sont que des objets mathématiques purement théoriques et basés sur une représentation simpliste (volontaire) des neurones du cerveau.
edit: je viens de regarder les sources vite fait sur les rna. Bon. Voilà quoi. C’est hyper vulgarisé.

[quote=“kaneloon, post:2, topic: 31295”]Je fais vite (boulot). C’est un débat très long et bien plus large. Cependant, d’un point de vue épistémologique, on remarque qu’il se crée souvent un lien très fort entre la représentation ou modélisation du cerveau et le contexte technique ou historique associé (voir théorie de l’information de shannon, entre autres).
Typiquement, des théories sur le fonctionnement du cerveau du 19e siècle font référence aux notions de “pistons”, “poussée”, “mécanique”, qu’on retrouve evidemment dans la technologie de cette époque souvent basée sur la vapeur ou l’hydraulique.
En ce moment, la technologie se concrétise, entre autres, par des “réseaux”. Comme par hasard, on les retrouve dans certains modèles en psychologie.

Juste une remarque sur les reseaux de neurones, c’est un abus de langage. En fait c’est principalement un outil de classification statistique parmis d’autres. Le nom de neurone est un peu trop chargé de sens biologique, alors que les “neurones” artificiels ne sont que des objets mathématiques purement théoriques et basés sur une représentation simpliste (volontaire) des neurones du cerveau.
edit: je viens de regarder les sources vite fait sur les rna. Bon. Voilà quoi. C’est hyper vulgarisé.[/quote]
Tout d’abord, bravo pour ton “très vite”, car c’est très bien résumé.
Effectivement, c’est un débat très, très large. Il se trouve que c’est mon taf en plus.
O’Reilly, c’est un modélisateur. C’est à dire qu’il n’a pas “découvert” des similitudes entre le fonctionnement du cerveau et d’un ordinateur, mais plutôt qu’il utilise des modèles (ses présentations sont toujours bien sympathiques car c’est animé dans tous les sens) à forte connotation “informatique”. D’ailleurs, il ne se concentre que sur des fonctions précises, et sur des régions précises du cerveau dans ses modèles (dans mon souvenir, le cortex préfrontal, la planification, pour résumer).
Oulah, je commence juste à répondre et je vois que ça nous entraîne très loin…
Alors moi aussi très vite car je dois me casser : Les modèles d’O’Reilly stipulent un certain nombre de fonctions, comme la mémoire de travail, mais ne les détaille pas. Du coup, oui tu te retrouves avec quelque chose d’équivalent à un ordi, dans le sens où tu as une zone de stockage temporaire, et des zones intermédiaires de traitement.
D’ailleurs, ça marche surement comme ça : en neurosciences, un modèle trouve un intérêt scientifique s’il te permet de reproduire des comportements, et s’il te permet de dresser des prédictions.
Par exemple, tu vires un truc de ton modèle, et hop, tu te retrouves avec une simulation “parkinsonnienne”. Les guillemets sont d’importance, évidemment.
Je reviendrai surement demain en dire un peu plus, mais pour bien des raisons, ça ne fonctionne pas pareil, et pour bien des raisons aussi, tu trouveras forcément les mêmes concepts dans l’ordinateur comme dans le cerveau.
En espérant avoit été clair…
JPC

Continuez, je comprends rien mais j’apprécie de vous lire. B)

Je m’oriente en plein là-dedans perso, donc j’ajouterais du haut des mes très maigres connaissances actuelles (sources à la fin) :

  • La plupart de l’IA “effective” actuelle (donc utilisable vraiment) est issue d’une mouvance “logique” et “probabiliste” (Minsky, McCarthy). Utiliser des modèles mathématiques basée sur la représentation de processus d’inférences logiques, de modélisation d’idées sous forme de concepts. Le but est ici de recréer un processus “intelligent”, la définition de “intelligent” étant par exemple de prouver un théorème mathématique ou de créer une planification ou un diagnostique.
    On est très très loin de la simulation d’un cerveau, on veut directement recréer des processus cognitifs complexes.
  • Autre mouvance, l’approche “naturelle”. Contrairement à la première, on regarde plus du côté de la Nature. L’intelligence dans la Nature est plutôt reliée à la façon de réagir et d’interagir avec le monde, dans le but de survivre et de procréer. Le but est donc de créer des agents pouvant effectuer rapidement des choix et opérations dans un monde doté de propriétés changeantes et partiellement non prédictibles. C’est plutôt de ce côté là que j’imagine pouvoir trouver une “simulation” du cerveau à long terme.
  • Enormément d’autres mouvances que je connais pas. Savoir bien entendu que chaque mouvance a sa définition de l’Intelligence Artificielle, et qu’ils sont bien entendu persuadés d’avoir raison. A noter que les différentes mouvances sont plus à même de résoudres différents problèmes suivant les situations et contraintes.
  • Je citerais quand même la théorie de l’Intelligence d’essaim (Swarm Intelligence), qui essaie de recréer un comportement intelligent à partir d’une multitude d’agents simples et peu intelligents. Voyez les fourmis ou les vols d’oiseaux. Ca m’a l’air sympa, j’en saurai plus dans 6 mois B)

JeanPaulCartable> En quoi consiste ton travail exactement ?

Filez encore des infos, c’est bien passionnant bien que bien complexe. Le côté philosophique arrive vite par contre.

Sources :

  • Polyrama 117, magazine scientifique de l’EPFL. Publié en 2002, il regorge de différents témoignages présentant bien les différentes opinions actuelles.
  • Artifical Intelligence, A Modern Approach. Stuart Russell, Peter Norvig. Chouette bouquin, mais qui ne traite que de la théorie “logique” et “probabiliste”.

+1 c’est juste de l’ethnocentrisme
dans la mesure ou l’on rattache des concepts “nouveaux” ici l’informatique a des choses que l’on essaie de connecter a des concepts ou des choses que l’on explore.

Bref on ramene juste tout a ce que l’on connait.
Je trouve l’idée banale,
Je prefere faire des “raccordement” entre le web et le cerveau,
balises meta balises fonctionnement de la memoire recherche stockage cache etc …, mais je developperai plus un jour.

Bussiere
désolé bras explosé

Bussiere

(repost depuis l’autre topic)

Il y a déjà eu des travaux pour essayer de reverse-engineeré (on va encore m’accuser d’anglicisme, mais je vois pas comment parler du reverse-engineering en français) le cerveau (qui n’est jamais qu’un ensemble de transtor biologique… ou en tout cas en cours de SVT de lycée c’est comme ça qu’on nous l’a presenté, donc même si la réalité est plus complexe ça doit pas non plus être totallement different), mais ça avait foiré pour cause de pas assez de puissance de calcul dispo.

Bon, ça date des années 60/70, d’ailleurs il me semble que c’était l’usage premier de l’ordinateur sur lequel a été codé Spacewar. (premier “jeu informatique”, même si on associe généralement la création du jeu vidéo au potentiometre de Ralph Baer)

[quote=« Azhag, post:5, topic: 31295 »]- La plupart de l’IA « effective » actuelle (donc utilisable vraiment) est issue d’une mouvance « logique » et « probabiliste » (Minsky, McCarthy). Utiliser des modèles mathématiques basée sur la représentation de processus d’inférences logiques, de modélisation d’idées sous forme de concepts. Le but est ici de recréer un processus « intelligent », la définition de « intelligent » étant par exemple de prouver un théorème mathématique ou de créer une planification ou un diagnostique.
On est très très loin de la simulation d’un cerveau, on veut directement recréer des processus cognitifs complexes.[/quote]
Tu parles des cognitivistes, qui, en gros, partent de symboles (principe de boite noire) pour ensuite les lier entre eux par des relations qui peuvent elles aussi être symboliques. Mais le but n’était pas de creer quelque chose d’intelligent, mais de faire résoudre des problèmes à des machines ce qui est différent. Une définition d’intelligence artificielle a été donnée par Turing avec son fameux test (google it) . Ca a donné les systèmes experts qui se sont développés dans l’industrie dans les années 80. Il y a eu beaucoup d’espoir autour de ces applications mais les chercheurs se sont vite retrouvés devant une impasse. Tout simplement parce que ce type de système marche avec un ensemble de règle de type SI (Affirmation) ALORS (Affirmation) et que si on commence à avoir beaucoup de règles, cela devient tout simplement ingérable car on ne sait pas forcément prévoir l’impact des nouvelles règles sur le système entier. Après cet échec, le domaine de l’IA a été (et est toujours) très affecté. Beaucoup de chercheur se sont réorientés vers des domaines connexes.

Je ne vois pas de quoi tu parles. Peut être des agents ? Cela n’a de « naturel » que son analogie avec le darwinisme (est encore, c’est un sous ensemble des agents assez particulier). Un peu comme les algo génétique ne sont que « génétiques » que par analogie.

Plus précisément c’est ce qu’on appelle le phénomène d’émergence (défendu par les connexionnistes) et sur lequel s’appuie, entre autres, les réseaux de neurones artificiels . L’idée est qu’un ensemble d’éléments simples qui échangent des informations peut avoir des propriétés qui n’était pas prévisibles à partir des propriétés des élements eux mêmes (comme la reconnaissance de formes pour un réseau de neurones, en simplifiant).

Yep, exactement ce que je voulais dire, mais tu l’as fait en mieux B)
A noter que je suis pas tant d’accord sur le fait qu’ils ne voulaient pas créer quelque chose d’intelligent, je pense que c’était juste « leur » définition de l’intelligence que de résoudre des problèmes.

C’est directement tiré d’une interview d’un des professeurs de l’EPFL (donc invention moi-même du terme « mouvance naturelle » je sais c’est mal). En gros le but est de créer des robots interagissant correctement avec leur environnement. Avec un robot la relation avec le monde réel est plus forte et contraignante, donc on arrive mieux à recréer le principe darwiniste. Ledit professeur a créé un robot salamandre, capable d’adapter son mode de locomotion au milieu (http://birg.epfl.ch/).
Pas sûr que ca soit vraiment des agents. Il s’agit plutôt de créer des systèmes autonomes.

Phénomène que je défend d’ailleurs ardemment et sur lequel je vais me pencher dès mes études terminées, pour le bout mylife.

Gaffe à ce qu’on fait ! Skynet n’est pas loin de tout faire peter !

(non, les belges, je ne parle pas du FAI de Belgacom B) )

Alors, oui, c’est séduisant comme paradigme. Mais c’est aussi un moyen de résolution de problème qui s’adapte mieux aux topologies complexes (ahahah) comme la reconnaissance des visages, la détection de contour. Dans les faits, c’est beaucoup du bidouillage et le réseau peut se transformer lui aussi en boite noire. C’est à dire que l’état d’un neurone à un temps donné ne t’explique pas la réponse globale du système. Surtout, surtout, ne pas s’emballer sur le terme de neurone. C’est avant tout un outil statistique (et peut se réduire à ça après des démonstrations longues et bien embêtantes).

En effet c’est ce que j’ai cru comprendre des échos que j’en avais eu ici ou là. Je vais attendre d’avoir vu tout ça avant de m’exciter ou de rejeter ça en bloc cela dit B)
Mais pour moi le paradigme d’émergence est plus général et ne devrait pas se restreindre aux réseaux de neurones (qui restent des outils de « cognitifs », donc qui me plaisent pas totalement d’un point de vue concept).

Enfin bon, j’suis insouciant, plein d’illusions et d’idées, faut pas trop faire attention B)

Aucun rapport entre mon cerveau et mon ordi, définitivement. Mon ordi tourne bien, lui, et il peut s’overclocker sans prise de substance illicite.

Ok, je…

Les neurosciences, je sature, dsl B)

[quote=« Kudoz, post:1, topic: 31295 »]Il traite de l’hypothèse selon laquelle on pourrait parvenir à une compréhenson globale du cerveau et de la pensée.
…[/quote]
Alors là, à moins que je me trompe, c’est une citation de Bernard Werber (« l’arbre des possibles »?) dans l’article principale dont tu parles.
Ca me rappelle un vieux thread de la zone, ça…

C’est un peu con car dans les pages que tu mets en lien (et je ne te mets pas en cause, mais les auteurs des pages en question) c’est pas plus développé. Se farcir les PDF de O’Reilly, pourquoi pas, hein, mais ils auraient pu un peu développer !

Alors similitudes : bien sur, ce sont deux entités qui traitent de l’information. Mais hélas, je pense qu’on peut s’arrêter là… On peut jouer tous ensemble au jeu des différences maintenant !

Cerveau :

  • évolue, l’apprentissage se fait (à long terme) par modification des liens entre les cellules ou (à court terme) par le « maintien » en ligne d’un réseau (c’est hypothétique, mais crédible). Le stockage d’information est intégré dans la structure qui traite cette information
  • Notion de « programme », d’« OS » vraisemblablement non pertinent.
  • Architecture localement asservie à la fonction (ce qu’il y avait de bon dans la phrénologie, même si les concepts y étaient bidons), sans doute par des propriétés emergentes des assemblées de neurones (voir la notion de cytoarchitectonie
  • Un cerveau à la base, c’est fait pour que le corps qui l’entoure puisse mieux se reproduire et transmettre son ADN. C’est con à dire, mais ça explique beaucoup, beaucoup de choses. Les notions de récompense, de motivation, sont capitales.

ordi (j’ai plus besoin d’aide pour marquer l’opposition)

  • structure fixe, notion de programme capitale. On différencie bien les zones de traitement et les zones de stockage (même dans le processeur). Est ce qu’il « apprend » ? Ahhh, vaste question… Mais non.
  • notion d’OS et de programme centrale.

Hum, quand j’y pense, est ce qu’on peut attribuer des fonctions à des régions (dans le plan) d’un processeur ? Un peu non ?

Thunderbird ? Softs de reconnaissance vocale ?

D’accord c’est basique, mais à partir du moment où on a un minimum de puissance de calcul et des boucles et des IF, c’est possible.

Et du hasard aussi! C’est super important le hasard (et donc les « erreurs ») si on veut faire évoluer les choses B).

(heu? des boucles if? on m’aurais mentis? B) )

L’if est un petit conifère ou arbuste dont la croissance est relativement lente. Il peut avoir une durée de vie très longue. Mesurant 5 à 8m et pouvant atteindre 20m de haut. Le tronc dressé est recouvert d’une écorce rouge qui a pour propriété de former de petites boucles, les feuilles en forme d’aiguilles plates sont d’un vert foncé avec lequel tranche les arilles rouges.

J’en connais pas autant que certains ici, mais je dirais que sur le fonctionnement, pour ce qui est du cerveau, on en sait vraiment trop peu pour dire quoi que ce soit. Alors bien sûr on le compare à ce qu’on connait (un transitor actuellement, sauf que ça serait un transistor sous l’influence de N autres transistors et des influences internes, donc quelque chose qui n’a plus rien à voir avec un transistor) mais ce ne sont que des analogies didactiques qui ne reflètent pas le véritable fonctionnement. Simplement parcequ’il est inconnu. Bien sûr on connait quelques points sur les fonctions basiques, ou sur les processus de mise en mémoire/restitution, mais pour le fonctionnement des aires associatives et de quelles manière elles aboutissent à l’intelligence, pas grand chose.

Sur le résultat, la différence est pour moi que le cerveau est une machine à comportements émergents (et je reprends moi aussi sur ce coup un concept informatique à la mode): créer un évènement inattendu ou non envisagé par les programmeurs est un morceau de bravoure pour un ordinateur, alors que c’est l’habitude pour un cerveau que de trouver des solutions sans qu’il n’ait été auparavant entrainé ou sensibilisé au problême à résoudre. Et sans recourir à la méthode par essais/erreurs, ce qui le différencie à la fois de l’ordinateur et de l’animal, car ni l’un ni l’autre ne savent faire preuve d’abstraction, alors qu’un être humain peut trouver une solution théorique à un problême théorique.

Sapiens sapiens mais il sait pas comment

(T’as jamais vu tourné mes programmes toi B))

Blague a part, je suis pas tout a fait d’accords avec toi sur 2-3 points. En fait, pour le moment, un ordinateur n’est pas encore un cerveau artificielle, mais plutot une machine artificielle (au sens ou elle répond de manière « mécanique » au stimulis: je clique sur Word → il ouvre Word, sans aucun changement entre 2 clique). Pour la simple raison que c’est le but d’un ordinateur « commun » tournant sous Windows ou autres.

Mais, si on parle un peu de l’ensemble des applications bio-inspirés (réseau de neurones, algo évolutionnaire, etc…), on arrive a des résultats tout a fait proche de ce qu’un cerveau très basique aurais pu produire (solution innatendue « voulus »).

Pour ce qui est de l’incapacité de l’ordinateur a faire face a des problèmes sans y etre entrainé ou sensiblisé, je suis d’accords, mais un cerveau humain peut pas le faire non plus.

Le point critique en générale dans les systemes bio-inspirés (et dans le raisonnement humain), c’est de juger de la pertinence des solutions produites. Pour le raisonnement humain, on apprends depuis gamins des règles pour faire cela. Et cela ce fait, je crois, principalement par essai-erreur (c’est empirique le mot non?).

… dites, vous voulez pas cacher ce postes pour ce soir? Parceque si je tombe dessus en rentrant de ma scéance de biere hebdomadaire je vais dire n’importe quoi. (déja que c’est bien décousu a ce stade, j’ose meme pas imaginé dans 3-4 litres)

Pour approfondir la question mais d’un point de vue anthropologique, je vous invite à lire “A l’image de l’homme” de Philippe Breton.

Le livre traite en fait de l’image que l’homme perçoit de lui même et retranscrit dans ses mythes de créatures artificielles. C’est à dire que pour P. Breton, en étudiant les mythes des créatures artificielles (comme Galatée, le Golem, la créature du Dr. Frankenstein, etc…) à travers l’histoire, on peut en tirer une interprétation sur l’image que l’homme avait de lui dans un contexte socio-historique.

Dans le cadre de sa réflexion, une grande partie de son livre revient sur l’invention de l’ordinateur, comme un sorte de créature artificielle visant à reproduire l’homme sous son aspect le plus important (dans le contexte socio-historique de l’époque), sa capacité à traiter et communiquer une information.
Pour cela il replonge sur les origines de l’ordinateur et de l’informatique, et reprend des textes plus philosophiques que techniques de Von Neumann, Wiener et Turing.

Notamment une conférence dirigée par Norbert Wiener en 1942, avec Von Neumann et Bateson (entre autres). Y est posé les termes d’une comparaison entre l’homme et la machine qui formera la base du paradigme de l’IA.
Ainsi qu’un texte que Turing publie en 1952, où il argumente sa conviction que certaines machines arriveront un jour à penser comme l’homme.
Il parle de l’être informationnel, du test de Turing, etc.

C’est un bouquin qui date de 95…donc certaines choses ont bien évolué (notamment par rapport à ses conclusions de l’époque). Mais pour comprendre les similitudes entre l’ordinateur et le cerveau humain, c’est un angle de vue peu courant chez les geeks =P
Et je suis sûr que la partie qui ne parle pas d’IA, d’ordi, de réalité virtuelle, etc…peut aussi vous intéresser =P

Philippe BRETON, A l’image de l’Homme, Paris, éditions du Seul, 1995. ISBN 2020134160.