L'oeil, un appareil photo ?

Bonjour à tous,

J’ai une question toute simple mais je me la pose depuis des lustres.
Vous savez, quand on laisse ouvert l’obturateur de l’appareil photo pendant très longtemps, par exemple 30s, alors on obtient une photo toute blanche. Ca je le comprends sans peine, c’est même très logique. Ce que je me suis dit c’est que l’oeil humain peut être comparé à un objectif photo mais sans obturateur du coup.
Ce qui voudrait dire que la lumière est reçue sans interruption par la rétine.
D’où ma question… pourquoi ne voit-on pas tout blanc ?

La seule réponse que je me suis faite (sans rien vérifier) est qu’on a sans doute un mécanisme dans l’oeil qui joue le rôle d’échantillonneur. Et alors là du coup peut-on connaitre la fréquence d’échantillonage de notre oeil ?

Rôôôh là là dès le lundi matin comme ça B)

Un appareil photo c’est une camera obscura, c’est pas vraiment le principe de fonctionnement de l’oeil il me semble B)

Il n’y a pas d’obturateur B)
Par contre il y a un équivalent du diaphragme, c’est l’iris. On n’a pas conscience que c’est lui qui se ferme ou s’ouvre, on le voit indirectement par la pupille (la pupille n’étant qu’un trou qui laisse entrevoir la “chambre noire” qu’est l’intérieur de l’oeil). Selon son ouverture, il va laisser passer plus ou moins de lumière. Son adaptation va se faire en fonction de la quantité de lumière que la rétine reçoit, selon un mécanisme réflexe remontant à des zones automatiques du cerveau. On peut le tester soi-même en passant rapidement de la pénombre au plein soleil: ça entraine un éblouissement le temps que le “trop de lumière” soit perçu et que la correction soit faite au niveau de l’iris.
Mais la sensibilité des cellules de la rétine ne varie pas (enfin c’est pas tout à fait vrai, mais un parallèle avec les iso serait excessif).
Pour ce qui est de l’échantillonnage, ça marche pas comme ça. La cellule rétinienne reçoit de la lumière, ça va changer l’état de ses molécules, ce qui va engendrer un signal envoyé au cerveau. Puis, quelle que soit l’évolution de l’exposition (plus, moins ou autant de lumière) la mécanique de la cellule va revenir à son état de base. Donc pas de risque de surexposition due à un temps d’exposition trop long.
On pourrait alors dire qu’il y a un échantillonnage dont la période est le temps de réalisation de ce cycle. Sauf qu’au contraire de nos appareil optiques, les cellules rétiniennes ne sont pas synchronisées. Elles envoient leur signal chaque fois qu’elles le peuvent, peu importe où en est la voisine. Donc il n’y a pas d’échantillonnage de l’image.

Voilà, je crois que ça répond à ta question. C’est simplifié et j’ai essayé de placer tous les mots du langage photo que je connais B)

[quote=“JeeP, post:3, topic: 46132”]Il n’y a pas d’obturateur B)
Par contre il y a un équivalent du diaphragme, c’est l’iris. On n’a pas conscience que c’est lui qui se ferme ou s’ouvre, on le voit indirectement par la pupille (la pupille n’étant qu’un trou qui laisse entrevoir la “chambre noire” qu’est l’intérieur de l’oeil). Selon son ouverture, il va laisser passer plus ou moins de lumière. Son adaptation va se faire en fonction de la quantité de lumière que la rétine reçoit, selon un mécanisme réflexe remontant à des zones automatiques du cerveau. On peut le tester soi-même en passant rapidement de la pénombre au plein soleil: ça entraine un éblouissement le temps que le “trop de lumière” soit perçu et que la correction soit faite au niveau de l’iris.
Mais la sensibilité des cellules de la rétine ne varie pas (enfin c’est pas tout à fait vrai, mais un parallèle avec les iso serait excessif).
Pour ce qui est de l’échantillonnage, ça marche pas comme ça. La cellule rétinienne reçoit de la lumière, ça va changer l’état de ses molécules, ce qui va engendrer un signal envoyé au cerveau. Puis, quelle que soit l’évolution de l’exposition (plus, moins ou autant de lumière) la mécanique de la cellule va revenir à son état de base. Donc pas de risque de surexposition due à un temps d’exposition trop long.
On pourrait alors dire qu’il y a un échantillonnage dont la période est le temps de réalisation de ce cycle.
Sauf qu’au contraire de nos appareil optiques, les cellules rétiniennes ne sont pas synchronisées. Elles envoient leur signal chaque fois qu’elles le peuvent, peu importe où en est la voisine. Donc il n’y a pas d’échantillonnage de l’image.

Voilà, je crois que ça répond à ta question. C’est simplifié et j’ai essayé de placer tous les mots du langage photo que je connais :D[/quote]

Je t’aime ! B)

Superbe réponse Jeep, bien complète et bien vulgarisée.
La question était aussi très interessante, merci chalupit pour la petite enigme scientifique du lundi matin.

[quote=“Monsieur_Max, post:5, topic: 46132”]Superbe réponse Jeep, bien complète et bien vulgarisée.
La question était aussi très interessante, merci chalupit pour la petite enigme scientifique du lundi matin.[/quote]

C’est clair qu’en terme d’efficacité ça arrache le slip, question à 9:50, réponse à 10:10 !! B)

Chapeau bas messieurs et encore merci.

Euh merci c’est gentil B)
Pour la déclaration on va attendre un peu, comme dit sur le thread à coté, il y a déjà trop de mariages de geeks en 2008!

On pourrait rajouter pour être super précis qu’il n’y a pas d’image tout court qui sort de l’oeil. La conversion des signaux par le cerveau est ultra complexe (et consomme beaucoup) et aux dernières nouvelles on a encore du mal à la simuler. Je crois qu’une expérience sur un oeil de chat avait permis de reconstituer les images en live, faudrait retrouver le lien.

Alors la conversion de lumière en signal, comme l’a dit jeep, c’est un changement d’état de molécules, un peu comme l’appareil photo, le truc, c’est que y’a plein de traitements à tous les niveaux de la chaîne pour nous permettre pleins de trucs importants, comme l’augmentation du contraste par exemple. C’est, en gros, géré par les cellules qui captent le signal lumineux qui vont inhiber les cellules proches d’elles (avec une courbe de type “mexican hat” en fonction de la distance).
Ensuite, il y’a plein d’intégration pour la reconnaissance de mouvements, de formes, etc… En fait c’est pas vraiment un “raw” qu’on récupère, c’est déjà un “jpeg traité” dès la sortie de l’oeil.

Y a eu des expériences réussies de données visuels evoyées directement sur le nerf optique ou dans le cortex visuel de personnes ayant des déficiences visuels. Ils avaient réussi à faire distinguer des formes géométriques sur des fonds très contrastés.

http://www.chez.com/parisbuttemontmartre/h…decouvertes.htm

Y a aussi une grosse équipe sur des projets similaires à Boston et une initiative européenne dont je ne connais qu’un prof participant, Verhaart (UCL-Belgique-ingénieurie en médecine ou un truc du genre)

Uh ? Le traitement de l’image brute ne se fait pas dans l’aire visuelle primaire (à l’arrière de la tête) ?

Non, il y a une “intégration du signal” (c’est le terme pour traitement en neuro) dès les cellules sensorielles, selon le principe qu’explique Kaneloon. C’est basique, mais ce n’est déjà plus un signal brut qui transite par le nerf optique.

J’ai retrouvé ce lien : http://news.bbc.co.uk/2/hi/science/nature/468857.stm

C’est en étudiant le cerveau donc, pas directement le nerf optique. Peut etre qu’il y a eu une expérience plus récente sur le nerf directement.

En fait, c’est pas à l’appareil photo qu’il faut comparer l’oeil, mais à une caméra B)

Même s’il n’y a pas d’eblouissement par une exposition trop longue il y a quand meme un persistence retinienne.
Ouvrez un nouveau document a fond blanc.
Ecrivez en gros GEEKZONE dessus en noir.
Preparez vos doigts sur control+Z
Fixez bien pendant 2-3 secondes.
« Control Z »
Non, votre PC n’a pas un coup de la sous paint :wink:

Et puis, notre taux de rafraichissement est de 24images/sec, non? Comme au cinéma?

Je pense qu’il varie selon les personnes. Par exemple je perçois très bien (et consciemment) des images de 1/100s, voire moins. Je suis tout à fait capable de lire les infos du bios au démarrage alors que certains ne les remarques même pas (c’est toujours rigolo : t’as lu ça où ?)

Disons qu’une image nous semble ‘fluide’ à partir de 24 im/s.

[quote=“zontrax, post:16, topic: 46132”]Je pense qu’il varie selon les personnes. Par exemple je perçois très bien (et consciemment) des images de 1/100s, voire moins. Je suis tout à fait capable de lire les infos du bios au démarrage alors que certains ne les remarques même pas (c’est toujours rigolo : t’as lu ça où ?)

Disons qu’une image nous semble ‘fluide’ à partir de 24 im/s.[/quote]

Moi c’est le contraire, je galère pour le Bios.

Par contre j’ai toujours eu des écran super nul et ca m’a jamais dérangé (ca c’est super cool )

J’en profite pour poser ma question conne: par où on voit concrètement?
J’ai lu ce qu’à écrit Jeep, mais j’ai dû louper le “truc”. Je crois savoir qu’on voit par la pupille, donc pourquoia-t’on toujours la même surface de vision, qu’il y ait beaucoup de lumière ou non?

Plus intéressant: pourquoi sur certaine photo, une lumière artificiel peut être “visualisée” par une étoile à 6 branches, voire, un hexagone (ce que je vois, de nuti quand je retire mes lunettes)?
Sûrement une sombre histoire de diffraction, mais après…

Faut chercher du coté du diaphragme…

Et moi qui suis astigmate comme pas possible, je vois des étoiles, mais pas du tout régulères…

Je suis une brêle en optique, mais je vais essayer un peu. Ceux qui comprennent la physique optique répondront bien mieux!
L’iris s’apparente tout à fait à un diaphragme, et de la même façon en se contractant il diminue l’exposition lumineuse sans diminuer la surface d’exposition (je ne crois pas me tromper en disant que fermer le diaphragme ne réduit pas la surface de pellicule ou de capteur CCD exposée). Pourquoi c’est possible, là c’est aux photographes de répondre.
Pour compléter un peu ma réponse à “par où on voit”, la lumière entre dans l’oeil en passant par la pupille (qui est donc un élément “virtuel”, un trou) qui est délimitée par l’iris qui est lui l’élément important. Il traverse ensuite le cristallin qui est une lentille adaptative qui va permettre une réfraction des rayons, et dont l’indice de réfraction va pouvoir varier, afin que quelle que soit la distance où se trouve un point par rapport à l’oeil, les rayons lumineux issus de ce point frappent la rétine sur un point (et pas sur une surface, ce qui est ce qui se produit quand on n’accommode pas, c’est à dire lorsque la réfraction induite par le cristallin n’est pas adaptée à la distance de l’objet observé => c’est comme l’autofocus). Le dernier élément utile est donc la rétine, qui capte cette lumière puis la transforme en signal électrique après un léger degré “d’intégration”. Au-delà, c’est le cerveau qui traite.

Quand à la deuxième question, pour quand tu n’as pas tes lunettes la nuit, ça peut s’expliquer par le fait que les lunettes suppléent à une incompatibilité entre le globe oculaire de l’individu et son cristallin: en gros, on porte des lunettes parce que le cristallin n’arrive pas à focaliser la lumière sur la rétine (soit parce que la rétine est trop loin, soit parce que le cristallin n’est pas assez puissant). Le point dont je parlais tout à l’heure n’est de ce fait pas représenté par un point sur la rétine mais par une surface. La lunette corrige ça en ajoutant une diffraction avant le cristallin pour que la somme des diffractions engendrées par ce verre puis par le cristallin permette une image nette, qu’un point soit un point.
La nuit quand tu enlèves tes lunettes, et que tu regardes une source punctiforme de lumière, tu dévoiles ça: le point lumineux n’est pas focalisé sur la rétine, il “s’étale” sur sa surface, ça donne une forme. Le jour c’est idem, mais comme les éléments de ton champ visuel ne sont pas punctiformes, tu dis juste que tu vois flou.
Comment c’est possible aussi avec un appareil photo, qui lui n’a normalement pas de problèmes de vision, je sais pas B)
Ceci dit j’aurais tendance à te demander par curiosité si tu n’es pas astigmate, parce que dans ce cas mon explication est totalement fausse!