Et si on lui apprends a improviser avec de la logique floue par exemple ? Elle fera quoi ?
J’ai du mal a voir ou est l’improvisation dans la logique flou. La logique flou permet de localiser une information imprécise ou incertaine pour la traiter.
Ta prise de décision ne se fait pas lors de l’inférence flou mais après defuzzification.
Un système flou produira constamment le même résultat lorsqu’il est soumit au même environnement.
Mais j peux me tromper…
tu peux aussi rouler dans une voiture sans ceinture (dans le sens où la voiture n’est pas équipée de ceinture).
Mais tu n’auras pas de certificat de circulation si tu présentes une voiture sans tout ce que j’ai cité (et d’autres trucs). C’est d’ailleurs pour ça que la Logan européenne a tout ces équipements (sauf esp puisque c’est très récent)
Ok, je ne savais pas pour l’airbag.
La logique floue revient finalement à utiliser des probabilités qui sont déjà ce sur quoi ces modèles reposent. Comme le dit Ewi, il n’y a pas d’improvisation: tu gardes l’incertitude jusqu’au bout et, au moment de prendre la décision finale, tu seuilles (en gros). Donc la réponse apportée dans deux situations similaires (et je me garde bien de définir ce que veut dire « similaire ») sera la même.
Oui, et la machine a beaucoup plus de sens que nous, communique bien plus vite que nous avec ses pairs. Le seul avantage que nous ayons encore, c’est notre imagination et notre faculté à improviser, mais pour combien de temps…
Mais c’est très dur à l’admettre. Combien de pilotes (dire paille lotte) disent savoir faire mieux que l’abs ou l’esp (faites la man�?uvre de l’élan et un freinage d’urgence en même temps et on en reparlera)
Il parait que Michael Schumacher faisait la trajectoire idéale calculée par un ordinateur. N’empêche que le souci de la voiture intelligente c’est qu’elle n’est pas sur le rails, ou sur une piste de Formule 1, mais dans un environnement très chaotique.
Si on arrive assez rapidement à des autoroutes faites pour les voitures automatisées, je ne serais pas trop choqué car finalement le principe d’accès, de sortie et de déplacement est finalement assez balisé dans une autoroute: pas de stop, pas de croisements, 2 fils bien distinctes, chaussées séparées…
Par contre sur les routes et dans les villes je pense qu’on en est très loin encore : enfants qui traversent sans regarder, vélos, tracteurs etc…
Il n’y a pas longtemps, 1 an, j’ai évité une ado qui déconnait sur la rue, donc je fais une embardée sur la droite, et j’ai failli rentrer dans une autre ado, en évitant la première, qui disait coucou à l’autre en plein milieu de la même rue. Sans parler du fait que j’ai du manger la voie de bus. La voiture intelligente elle aurait certes pu calculer si j’aurai mieux fait de freiner plutôt que d’éviter, mais vu l’environnement chaotique la difficulté serait de modéliser tout les cas pour que la voiture prenne la bonne décision, et prier si le cas est non prévu …
Marrant, moi j’ai pas l’ombre d’un doute sur le fait que la voiture intelligente prendrait clairement mieux que nous la bonne decision. Le deuxieme ado, tu l’avais pas vu. 0% de chance que la voiture intelligente ne l’ai pas vu aussi. Pour moi, sur la technicité pure de la conduite, technologie >>>> etre humain.
Mes remarques etaient sur les phases de mise en place, et sur le fait qu’il ne sera pas possible de lancer une voiture intelligente qui n’aura pas justement prouvée qu’elle sait reagir correctement à toutes les situations. C’est que des cas de tests … et c’est pas si infini que ca. C’est juste que ca va prendre du temps ![]()
Avec un apprentissage par renforcement, ca peut aller tres vite surtout que l’apprentissage peut très bien se faire sur simulateur (avec tout les avantages que ca peut avoir).
Non pour moi le frein, c’est qui accepterai de laisser ca voiture conduire en mode auto? Moi oui, parce que je sais tres bien comment ca marche et que je préférerai que ce soit une machine plutôt que ma femme qui me conduise mais pour M. tout le monde�?�
Comme cben je n’ai aucun doute qu’une machine prendra de meilleures décisions que nous. De plus, je ne pense pas qu’il faille modéliser tous les cas il suffit de définir un certain nombre de règles (ie il vaut mieux se manger une ligne de bus que de renverser un cycliste ou un piéton).
serve the public trust,
protect the innocent
and uphold the law.
y’a un moment ou ça va partir en couille pour don’t kill an OCP members, je le sens
et ce serait oublier la regle 34…
La particularité de la voiture google, c’est que précisément, elle était dans du vrai trafic de la vrai vie. Elle avait juste une voiture qui la précédait pour apprendre la route. Sur un système en fonctionnement normal, la voiture leader est remplacée par un apprentissage déjà fait et mis à jour à chaque fois qu’une voiture passe. La prochaine étape serait un système entièrement autonome.
Non, ce n’est pas la faculté à improviser qui sépare les humains des machines (qu’est-ce qu’improviser ? Faire quelque chose d’imprévu ? Imprévu par qui ? Je peux tout à fait créer un algorithme qui pourra prendre des décisions différentes dans des situations identiques, si l’on accepte que le générateur de nombres aléatoires n’est pas partie intégrante de la situation) mais la facilité avec laquelle les humains peuvent généraliser (cf plus bas). Pour apprendre à reconnaître les lettres de l’alphabet avec un faible taux d’erreur, il ne t’a probablement fallu qu’une dizaine ou une centaine d’exemples de chaque lettre. Pour avoir une performance similaire avec un ordinateur, il en faut plusieurs milliers, voire dizaine de milliers.
C’est justement ce dont parle la news. La voiture Google a roulé 200 000 kms dans cet environnement chaotique sans jamais rien percuter. Donc non, on n’en est pas loin.
Mhhh, non, pas d’accord avec le « 0% de chance que la voiture intelligente ne l’ai pas vu aussi » (et pas juste pour l’accord manquant). On (ceux qui n’essaient pas de résoudre ce problème) sous-estime la difficulté de la reconnaissance d’objets. Si l’ado est intégralement visible (sans fausse blague), et c’était peut-être le cas ici, alors c’est jouable. Maintenant, imaginez la situation suivante:
- vous voyez un ballon traverser la route
- vous voyez un gamin courir sur le trottoir en direction du ballon puis passer derrière une voiture arrêtée.
Même si vous ne voyez plus le gamin, vous savez où il est et ce qu’il risque de faire car:
- un gamin ne disparaît pas comme ça
- un gamin court après un ballon
- selon l’âge, un gamin traversera en regardant ou non.
Et tout ce processus déductif (notamment le dernier qui implique aussi d’estimer l’âge dudit gamin) est incroyablement complexe et difficile à reproduire pour un algorithme. Au moment où le gamin sera derrière la voiture, aucun capteur présent sur le véhicule ne détectera sa présence, il faudra utiliser la cohérence temporelle pour en déduire qu’il est quelque part.
Bah justement, le nombre de règles à définir devient vite tellement grand qu’il est plus pratique de dire « fais comme ton instructeur ». La contrepartie de cette méthode est que le nombre d’exemples d’apprentissage nécessaire devient vite énorme. Pour l’histoire du gamin, il faudra par exemple que la situation (ou une similaire) se soit présentée pendant l’apprentissage et que l’instructeur ait freiné pour avoir une chance que le véhicule automatique réagisse correctement.
Dans tous ces problèmes, le graal, c’est la quantité de données d’apprentissage.
C’est le principe des algo de platooning. Mais avec ce systeme, c’est couteux et lent. Avec un simulateur (type MAS), ta voiture sera moins chère (cout d’apprentissage réduit) et opérationnel plus rapidement(« formation de la voiture plus rapide »)
Je vois pas en quoi ca ne pourrait pas etre appris. Ce qui t’alerte ici, c’est la ballon sur la route. Et on t’a appris à toi que « ballon sur la route = peut etre enfant derriere ». On peut donc l’apprendre aussi, de la meme maniere que « personne sur les bords de la route = peut etre traverser sans regarder ».
Et c’est pas parce qu’on met des mecanismes d’apprentissages que tu n’as pas le droit de les combiner avec des regles plus classique.
Pour moi, la vitesse d’execution de la voiture automatique et la quantité d’information qu’elle peut observer sont sans commune mesure avec ce qu’un humain peut faire. Et apprendre a faire attention à l’environnement me semble loin d’etre aussi complexe que ce que tu decris.
Encore une fois, pour moi, le debat n’est pas sur la technicité de la realisation, ou je suis convaincu que la voiture auto >>> etre humain, mais plus dans les garanties qu’on sera en mesure de fournir pour s’assurer qu’un bug n’est pas synonyme de mort des passagers ![]()

(fait avec les pieds)
Ca me rappelle un passage de Tempête Rouge de Tom Clancy, décrivant le Porte Avions Nimitz sur le point de se prendre une volée de missiles sovietiques :
[quote]
Le quatrième et le cinquième [missile] arrivèrent par l’arrière, à moins de 400 mètres d’écart. Le canon mitrailleur arrière les traqua tous les deux mais l’ordinateur ne put décider lequel attaquer en premier. Il se mit en reprogrammation et n’en engagea aucun.[/quote]
![]()
Et ça me rappelle un reportage sur le soldat de base soviétique, dans la vraie vie sous Andropov, qui n’a pas voulu appuyer sur le bouton rouge alors que tout les ordinateurs le voulaient. L’humain avait analysé que le flux d’infos était un exercice, et que l’info déclencheuse de la représailles était un éclat de soleil venant d’un silot, et non le départ du missile balistique.
Pour revenir au cas du gamin qui se jète sous nos roues et qui est commun avec ce brave homme, l’ordinateur est dépourvue d’analyse émotionnelle et d’empirisme. Et donc contrairement à l’ABS, fort freinage-> anti-blocage, ben la gestion de l’anti-collision est bien plus complexe. En plus pour parler du couloir de bus, où je pourrais me prendre un 19 tonnes, comment juger si le plus important c’est ma voiture et ses occupant, écrabouillés par le 19T, les gamines ou les passagers si j’étais au bord d’un précipice.
Il faut en fait que l’ordinateur soit bête et méchant pour un cas simple et standard, mais pour un cas complexe, en plus non prévue, il faut que l’on puisse modéliser la décision de l’ordinateur, ou son apprentissage, de façon émotionnelle. Et le firmware pourrait dans ce cas être diffèrent selon chaque pays.
Je vois pas pas le rapport avec les émotions!
C’est pas les émotions qui a empêché le soldat russe d’appuyer sur le bouton, c’est sa jugeote. Comparé des soft du temps de l’URSS a ceux d’aujourd’hui c’est idiot. De même, dans une voiture, les systèmes de vision sont pousser a l’extreme, ce ne sont pas juste des « photos satellite ».
Les voiture de mon labo sont équipées de:
Camera stereo → detection des obstacle
Lidar → detection des obstacle
GPS centimétrique → positionnement au centimètre par rapport au autre voitures qui utilise ce système
camera fisheye sur le toit → validation du signal gps
Y a rien d’émotionnel et ca marche très bien car pour moi les émotions sont responsable de plus de soucie qu’autre chose lorsqu’on doit prendre une décision rapidement.
Pour la détection d’obstacle et le calcule d’une nouvelle trajectoire, on se base sur les forces de répulsion.
Ex fait a la va vite:
[attachment=1730:Sans titre-1.png]
rond vert position a t
rond noir obstacle
rond rouge destination
vecteur jaune : vecteur position t → obstacle
vecteur gris : normal des vecteur jaune orienté vers la destination normalisé en fonction de la distance avec la position en t ou vecteur position t->destination
spline verte : trajectoire obtenue par la somme et la normalisation * vitesse a chaque pas de temps.
C’est une vision simpliste mais qui nécessite aucune émotion… TOUS les obstacle doivent etre evité
Loin de moi l’idée de mettre en cause la qualité du travail que vous effectuez. Je reconnais que l’homme doive s’appuyer sur l’ordinateur. Si je reprend un exemple d’informatique militaire navale, on a le système Aegis ou PAAMS (systèmes d’armes pour la gestion des cibles aériennes et leur traitement): la plus-value apportée par de tels systèmes est remarquable quand il s’agit de traiter une multitude de cibles, que ce l’homme peut également faire, mais de façon beaucoup moins efficace et en beaucoup plus de temps.
Par mon exemple précédent, je voulais simplement signaler qu’il ne faut pas non plus avoir une confiance sans bornes dans l’informatique, la loi de Murphy aidant… Cela va du simple bug (aussi bonne que soit une équipe j’imagine qu’il y a toujours des erreurs, dont on s’aperçoit une fois une fois le projet distribué) à la panne ou plus connement aux conditions climatiques (ex : ne jamais avoir une confiance absolue en son GPS quand on part en raid : il pourrait souffrir de l’environnement).