Terminator IRL

Je viens de remater Terminator 3 au ciné. Bon, je sais, certains ne comprendront surement jamais pourquoi je suis allé le voir 2 fois, mais c’est pas le sujet.

Ce film me fout la trouille. Pas les scènes d’actions bien sur, mais le scénario. L’idée que le machines se retournent un jour contre nous et prennent le pouvoir me fait flipper.

Il se passe plus ou moins la même chose dans le deuxième court-métrage de Animatrix.

 

Qu’en pensez-vous? Croyez-vous qu’un jour la technologie pourrait permettre ce genre de catastrophe? Et si oui, quand pensez-vous que cela pourrait se produire?

Ce message a été édité par McRemic le 21/08/2003

[quote]Qu’en pensez-vous? Croyez-vous qu’un jour la technologie pourrait permettre ce genre de catastrophe? Et si oui, quand pensez-vous que cela pourrait se produire?[/quote]Bah, il suffit de voir à quel point on galère pour faire une IA potable pour des actions à la con dans les jeux (simplement marcher correctement, ouvrir des portes ou conduire des voitures) et on se rends compte qu’on est SUPER LOIN de la création d’une “conscience” des machines.

Donc non, tu peux dormir tranquille, ton frigo ne viendra pas te tuer en te machouillant horriblement la tête avec sa porte dans ton sommeil (pas avant qu’on leur ait prévu un moyen de se déplacer en tout cas)…

Par contre, j’ai vu un reportage l’autre jour sur un robot du MIT qui aurait une I.A “evolutive”, c-a-d que le robot se goure au début, mais il accumule petit à petit de l’information et devient plus “intelligent”. On est très loin des terminators, mais dans 20 ou 30 ans, quid? je pense qu’on en est encore loin, mais je vois pas impossible qu’un jour on arrivera a créer une I.A plus “performante” que nous.

Comment ça j’ai trop lu Shirow?

Si je crois que la guerre contre les machines fera rage?
Bah oui, elle sera en novembre.

Bon, sinon, je pense sérieusement que dans 50 ans, l’IA sera assez perfectionnée pour nous mettre profond (regardez juste les progrès depuis 20 ans…)

[quote]Qu’en pensez-vous? Croyez-vous qu’un jour la technologie pourrait permettre ce genre de catastrophe? Et si oui, quand pensez-vous que cela pourrait se produire?[/quote]Je suis pas pessimiste, je vis dans mon monde, mais je crois que c’est déjà trop tard. L’homme est gourverné par les machines. Non elles sont pas intelligentes, mais du jour au lendemain, tu ponds un virus qui détruit toutes les données sur les disques, et je te garantit qu’on sera dans le mal.

Hypothèses et interpolations:
Sans ordinateur, de nos jours, l’homme n’est rien. Il suffit que quelqu’un programme un ptin de virus discret qui contient quelques neurones, pour le faire se reproduire a grande echelle, et on aura un cerveau logé dans internet (si chaque machine connecté dans le monde agit comme un neurone, il y en a assez pour tous les neurones d’un cerveau). On assisterai a l’émergence d’une intelligence quasi omnisciente (capable de savoir toutes les données contenues sur chaque ordinateur, ce qui inclus le fait de savoir que t’aimes ta voisine parce que t’en as discuté avec ton cousin par ICQ). Ca serait l’émergence de Dieu…

Bon je retourne me coucher, apres ce bon vieux trip

C’est vrai que sans les machines on est dans la merde quand meme. Il suffit de voir la coupure de courant qu’il y a eu à New York pour s’en rendre compte.

Que serait donc notre vie sans l’informatique ? Question à méditer…

Bien sur que ça va arriver, et on va tous crevé ce jour-là, AH AH AH  !

Nan, je déconne un peu là.

Plus sérieusement, je pense pas que ça pourrait arriver dans 5 ans ni même 10, mais peut-être qu’un jour… on ne sait jamais.

En fait il faudrait pour ça :

  • que les machines soit super malignes, intelligentes, et aient une haine de leur créateurs ( donc pas dans leur programme ).
  • que les machines se soient démocratisées un peu partout, que chacun en possède une ou qu’il n’y ait plus que ça dans les usines et sur les chantiers ( tiens, c’est pas comme dans Animatrix ça par hasard ? ). Mais à mon avis, le prix sera tellement élevé que ça prenda encore du temps après la mise au point de l’IA assez compétente pour nous éliminer.

D’ici là, y’a plus à craindre que votre chien vous morde plutot que votre PC se mette à vouloir vous couper en pièce.

D’autant plus que, malheureusement (ou heureusement?) l’homme n’a pas besoin de machines pour se détruire tout seul comme un grand.

il cocco

Vous croyez vraiment que la technologie est partout mais vous oubliez qu’on (nous qui avons un pc) sommes des privilégiés! Alors si les machines prenaient le controle, ce serait pas encore la fin de l’humanité, à la limite la fin des pays riches.

D’où les inquiétudes de certains scientifiques qui demandent une réglementation internationale concernant l’intelligence artificielle supérieure à celle de l’homme (oui, on prévoit les balbutiements dans plus ou moins 50 ans)… disons qu’on voudrait limiter leurs pouvoirs, leur influence…

Maintenant, il faut voir si des sécurités pourront être intêgrées, style “les trois lois de la robotique”, mais certains chercheurs pensent que c’est beaucoup plus compliqué que ce qu’Asimov imaginait dans ses romans. En même temps, on s’en serait douté .

Bref, ça n’est pas que de la SF, le danger est envisagé, mais à long terme…

De toute façons, on ne sera vraiment en présence d’une intelligence artificielle, que lorsqu’elle aura son libre-arbitre, c’est à dire une “conscience” et la possibilité de choisir entre le Bien et le Mal…

Au fait … Le Bien pour qui ? Le mal pour qui ?

Ce message a été édité par lije le 21/08/2003
Ce message a été édité par lije le 21/08/2003

C’est marrant, pour un peu je pourrais ressortir tout Animatrix et Matrix…

Pour le coup de l’IA qui nous aime pas, la raison la plus simple est la protection en cas d’attaque, a fortiori des humains (Terminator, Matix, n’importe quel truc de SF en fait).
Pour le remplacement généralisé, je pense plus à des robots sur les champs de batailles, programmés pour tuer, et qui finalement se rebellent, ou prennent plaisir à ça.

Quant au fait que les humains doivent dominer la planète à la place des machines (ou l’inverse), on hypothétise un peu Matrix 3 là.

[quote]Vous croyez vraiment que la technologie est partout mais vous oubliez qu’on (nous qui avons un pc) sommes des privilégiés! Alors si les machines prenaient le controle, ce serait pas encore la fin de l’humanité, à la limite la fin des pays riches.[/quote]1. La dépendance des pays entre eux est telle que si 30% des pays riches laches, les pays pauvres, meme libérés de leur dettes, je sais pas s’ils arriveront a remonter la pente tout seul.
2. C qui qui a les gros joujoux de destruction massives? Les pays riches. S’ils se font controler par les machines, ben je donne pas cher de la peau des autres pays.

Certes, l’IA d’aujourd’hui n’est pas assez développée pour prendre conscience de son existence. Tiens, on dirait Ghost In he Shell, avec le Masterpuppets. Mais je pense que le jour où nous aurons créé une IA qui pense vraiment, qui soit capable d’agir directement sur les organes de nos PC, qui soit évolutive et qui ne soit pas confinée dans un programme quelconque, alors là il y aura danger.

Ce jour n’est pas encore prêt d’arriver, mais comme le dit Neomattrix, les progrès effectués ces 20 dernières années sont énormes et nos prouvent que l’avancement de nos recherches est exponentiel je dirais. Hum, je sais pas vraiement comment le dire, mais je crois que tout le monde m’a compris hein?

[quote]D’autant
plus que, malheureusement (ou heureusement?) l’homme n’a pas besoin de
machines pour se détruire tout seul comme un grand.

il cocco[/quote]
Bien envoyé ! Se prendre la tête pour savoir si la machine va "terminer"
l’espèce humaine est effectivement une belle discution d’intellos (ceci dit sans animosité, bien sûr) qui ne
se rendent pas compte que l’homme sait très bien le faire tout seul et
de mieux en mieux.

La pollution et les égarements divers des super-libéraux sont
certainement ce qui ce fait de plus efficace en ce bas monde pour
éliminer à tour de bras de l’humain, bien plus qu’un hypothétique
terminator.

Ce message a été édité par poji le 21/08/2003

[quote]Qu’en pensez-vous? Croyez-vous qu’un jour la technologie pourrait permettre ce genre de catastrophe? Et si oui, quand pensez-vous que cela pourrait se produire?[/quote]Si tu poses cette question après avoir vu Terminator, je pense que tu envisages donc des “machines” relativement antropomorphiques et indépendantes, un peu comme des “robots”. Ce qui suppose que l’homme interviendra pour une grande part dans leur création et l’élaboration des premières bases de leur I.A. (même si elles acquierent ensuite des fonctions d’apprentissage). On est donc en droit de croire qu’un certain nombre de “sécurités” seront incorporées.
Croyez en la puissance des 3 lois de la robotique.
Edit: grillé par lije, forcément, avec un pseudo comme ça, c’était sûr qu’il allait y faire référence! . Mais moi j’ai mis un lien pour ceux qui ne connaissent pas. 

[quote]Je suis pas pessimiste, je vis dans mon monde, mais je crois que c’est déjà trop tard. L’homme est gourverné par les machines. Non elles sont pas intelligentes, mais du jour au lendemain, tu ponds un virus qui détruit toutes les données sur les disques, et je te garantit qu’on sera dans le mal.[/quote]Dans la vision de [PERE]Cil par contre, il y a beaucoup plus de risques, et c’est déjà un peu le cas. Par exemple, entre hier soir et ce matin, une de mes boîtes e-mail s’est prises 2.152 mails, dont plus de 1.000 fois le ver SOBIG.F. Cette boîte était pleine à minuit, empêchant donc toute réception de mails supplémentaires. Cette boîte était donc complètement paralysée, alors que je n’ai même pas été infecté; juste floodé.
Imaginez à quel point ce virus encombre les réseaux et freine les transferts globaux!!! (à raison de 80 à 150 Ko par e-mails mais multipliés par des millions d’occurences)
Et la bonne blague récente de MSBlast permet de mesurer d’autres risques. Hum…

[quote]Hypothèses et interpolations:
Sans ordinateur, de nos jours, l’homme n’est rien. Il suffit que quelqu’un programme un ptin de virus discret qui contient quelques neurones, pour le faire se reproduire a grande echelle, et on aura un cerveau logé dans internet (si chaque machine connecté dans le monde agit comme un neurone, il y en a assez pour tous les neurones d’un cerveau). On assisterai a l’émergence d’une intelligence quasi omnisciente (capable de savoir toutes les données contenues sur chaque ordinateur, ce qui inclus le fait de savoir que t’aimes ta voisine parce que t’en as discuté avec ton cousin par ICQ). Ca serait l’émergence de Dieu…
Bon je retourne me coucher, apres ce bon vieux trip [/quote]Sympa ce trip! Tu as déjà lu des bouquins du cycle d’Ender de Scott Card? Il avait développé ce thème de l’I.A. globale et distribuée dans l’ensemble des réseaux, sans que les humains n’en soient conscients; c’est vraiment intéressant!

[quote]C’est vrai que sans les machines on est dans la merde quand meme. Il suffit de voir la coupure de courant qu’il y a eu à New York pour s’en rendre compte.
Que serait donc notre vie sans l’informatique ? Question à méditer…Même sans l’électricité, ou sans tout ce qu’on utilise au quotidien. Quand je vois que mon premier réflexe lors de la dernière coupure de courant a été d’essayer d’allumer la lumière pour mieux voir, je vois bien que je suis complètement dépendant.
Mais après tout, où est le mal d’être “dépendant” de ces technologies? On utilise tous les jour l’électricité, l’informatique, la médecine moderne, etc., et dans l’ensemble, c’est plutôt bénéfique (mais pas la peine de relancer des discussions sur l’empreinte écologique, je suis d’accord qu’A TERME, faut trouver une alternative).

[quote]D’autant plus que, malheureusement (ou heureusement?) l’homme n’a pas besoin de machines pour se détruire tout seul comme un grand.
[/quote]Certes… Mais je préfère être optimiste et me dire que les hommes peuvent s’en sortir!
Ce message a été édité par koba le 21/08/2003

[quote]Se prendre la tête pour savoir si la machine va “terminer” l’espèce humaine est effectivement une belle discution d’intellos (ceci dit sans animosité, bien sûr) qui ne se rendent pas compte que l’homme sait très bien le faire tout seul et de mieux en mieux.[/quote]Il me semble que vous n’ayez pas saisi la subtilité de la chose.

Les machines ne seraient pas une race, ni une espèce, mais simplement la création de l’homme. Donc lorsqu’on dit que les machines détruiraient l’homme, cela sous entends que c’est en fait l’homme qui se détruirait tout seul!

Ce message a été édité par McRemic le 21/08/2003

[quote]Les machines ne seraient pas une race, ni une espèce, mais simplement la création de l’homme.[/quote]Et Dieu créa la machine, pour régner sur la terre…

Dieu -> Homme -> Machine -> Dieu. Ca serait marrant, ca me rappelles une nouvelle ou un super ordinateur, a la fin des temps alors qu’il ne reste plus aucun soleil du a l’entropie, pense “que la lumière soit” et la lumière fut. Oui c’est un peu hors sujet.

Ce qui a aussi fait de l’Homme une espèce très intelligente, c’est la faculté de se réunir en groupe d’hommes pour combattre un autre groupe d’hommes, autrement dit la faculté de se faire la guerre entre eux ! Cette faculté est apparue au moment de l’homo erectus. Très peu d’autres espèces en sont capables : les dauphins, certains grands singes, euh et c’est tout je crois !

Quand je disais que l’armée a toujours été le moteur du progrès ! Maintenant, personne ne dit qu’elle ne pourra pas être aussi le moteur de notre destruction ahem. En gros une sorte d’accélérateur de l’évolution, dans l’essor, comme dans le déclin…

[quote][quote]Sympa ce trip! Tu as déjà lu des bouquins du cycle d’Ender de Scott Card? Il avait développé ce thème de l’I.A. globale et distribuée dans l’ensemble des réseaux, sans que les humains n’en soient conscients; c’est vraiment intéressant![/quote]Euh non… inspiration Ghost In The Shell, Puppet Master Inside … mais j’ai un peu plus réfléchi sur le concept [/quote]Ouais, ok.
Le Puppet Master c’est plus une conscience qui émerge au sein du réseau et qui s’en extrait (et ça reste une création des hommes qui souhaitaient s’en servir pour de l’espionnage).

Dans le délire d’Orson Scott Card, c’est une I.A. globale, dans le sens où cette I.A. est à la limite de l’omniscience et de l’omni-présence (sans pour aller jusqu’à l’omnipotence).
Cf. par exemple http://www.cafardcosmique.com/auteur/car.html