Informations

Quel est l'équivalent de la vitesse d'obturation dans l'œil humain ?


Je viens d'apprendre que dans les caméras vidéo, chaque image de la vidéo a sa propre vitesse d'obturation.

Et je sais comment fonctionne la fréquence d'images dans l'œil humain, enfin, pas complètement, d'où la question.

http://en.wikipedia.org/wiki/Frame_rate

L'œil humain et son interface cérébrale, le système visuel humain, peuvent traiter 10 à 12 images distinctes par seconde, les percevant individuellement.

De combien (ou à quoi correspond) la vitesse d'obturation dans ces images individuelles ?


Le récepteur de lumière de l'œil est une protéine appelée Rhodopsine. Pour moi, l'équivalent de la vitesse d'obturation pour l'œil est la (dé)sensibilisation de la rhodopsine par phosphorylation. Plus la lumière est brillante, plus les sites de la rhodopsine sont phosphorylés, diminuant l'intensité du signal provenant du photorécepteur via la protéine transducine G qui véhicule le signal visuel.

Ce processus prend quelques secondes, mais il est alors possible de voir en entrant au soleil ou dans une pièce sombre.

Cela ressemble plus à un bouton de volume qu'à une vitesse d'obturation puisque le même signal sort au même rythme de chaque capteur de lumière, mais il a un effet similaire - il module l'intensité de l'image.


Il n'y a rien de comparable à un obturateur de l'appareil photo dans l'œil. La paupière est comme un pare-soleil. Lorsque la paupière est ouverte, l'image est projetée en continu sur la rétine contrairement à une caméra de cinéma. Cependant, si la question porte sur les images par seconde (nombre d'images statiques) nécessaires pour produire une impression de mouvement fluide, cet article peut être utile. En caméra vidéo au lieu d'une vitesse d'obturation c'est le nombre de fois que l'image sur le capteur est échantillonnée par seconde électroniquement. L'œil ressemble plus à une caméra vidéo. La rétine a des bâtonnets et des cônes qui ont des taux de « rafraîchissement » variables, ce qui complique le calcul des chiffres exacts.


Toutes vos tiges/cônes ne tirent pas à un moment donné. L'exception est lorsqu'un flash lumineux est visualisé. Le temps de récupération de la cécité flash résultante est assez lent - quelques secondes. Mais il y a du photoblanchiment là-bas, alors ce n'est peut-être pas juste.


Vos yeux sont très différents d'un appareil photo à plusieurs niveaux. D'une part, vos yeux sont arrondis à l'arrière et non plats comme un capteur d'appareil photo, bien que Sony souhaite changer cela. Vos yeux ajoutent également des informations qui ne sont pas toujours là. Par exemple, le débat sur la robe blanche ou bleue. Inutile de dire qu'une comparaison parfaite est non seulement impossible, mais aussi injuste.

Cependant, il existe quelques similitudes techniques dans le fonctionnement de la caméra et de l'optique du globe oculaire, et nous avons pensé qu'il pourrait être amusant de mettre des spécifications de globe oculaire comparables côte à côte avec les spécifications de caméra modernes pour voir combien coûterait une caméra théorique. Pour simplifier les choses, examinons chaque spécification technique individuellement.

(Remarque rapide : je ne suis pas médecin, juste un homme avec Google.)

Distance focale

Lorsque nous parlons de distance focale sur un appareil photo, nous parlons littéralement de la distance entre le centre optique de l'objectif et le capteur de l'appareil photo. La même règle s'appliquerait à votre œil. Donc, techniquement parlant, l'œil humain moyen aurait une distance focale de 17 mm.

  • Distance focale: 17mm
  • Équipement comparable :Objectif Olympus M.Zuiko 17mm f/2.8
  • Prix: $299

Angle de vue

Alors qu'un objectif de 17 mm sur un appareil photo plein format aurait un champ de vision d'environ 93 degrés, l'œil humain moyen a un champ de vision d'environ 180 degrés lorsqu'il est tourné vers l'avant. En utilisant un simple calculateur d'angle de vue, l'angle de vue réel serait égal à celui d'un objectif de 1 mm.

  • Angle de vue: 180 degrés
  • Équipement comparable :Objectif Nikkor 6mm
  • Prix: $100,000

Facteur de culture

Avec un angle de vue à l'esprit, notre globe oculaire de 17 mm a une équivalence focale de 1 mm. Donc, théoriquement, notre œil a un facteur de recadrage négatif de x,05 par rapport à un appareil photo plein format. Inutile de dire que cette technologie n'existe pas dans la vraie vie.

  • Facteur de culture : x.05
  • Équipement comparable :Booster de vitesse Metabones (x 14)
  • Prix: $7000

F-Stop

Un F-stop est en fait une formule très simple :

Dans une situation incroyablement sombre, l'iris d'un œil peut s'étendre jusqu'à environ 8 mm. Donc, si nous devions mettre cette information dans une formule avec notre distance focale étant la longueur de nos yeux (environ 17 mm), nous obtiendrions un f-stop réel d'environ f/2.1. Ce nombre est impressionnant, mais certainement pas bouleversant.

  • F-Stop : f/2.1 – f/8.3
  • Équipement comparable :Objectif Canon EF 35mm f/2 IS USM
  • Prix: $549

Résolution

On estime que l'œil humain moyen peut lire jusqu'à 576 MP d'informations à tout moment, ce qui donne un tout nouveau sens au terme affichage rétine. Malheureusement, les reflex numériques modernes ne peuvent pas encore tout à fait prendre des photos à ce mégapixel. Cependant, en astronomie, il existe une caméra qui se rapproche à 570MP.

  • Résolution: 576MP
  • Équipement comparable :Caméra à énergie noire
  • Prix: $35,000,000

ISO se rapporte à la quantité d'énergie envoyée au capteur de l'appareil photo à un moment donné. Cependant, lorsque vous parlez de vos yeux, vous n'avez pas vraiment la possibilité d'augmenter votre sensibilité bien au-delà de celle de 1 000 ISO sur un appareil photo.

  • ISO : 1 – 1000
  • Équipement comparable :Canon EOS DCS 3
  • Prix: 16 453 $ en 1995

Peu profond

On dit que nos yeux peuvent percevoir jusqu'à 10 millions de couleurs différentes. Bien que cela puisse sembler beaucoup, c'est en fait assez faible par rapport à ce que les caméras actuelles sont capables de percevoir. Tous les jours, les caméras vidéo enregistrent des informations de couleur à 8 bits par canal, mais certaines caméras peuvent enregistrer jusqu'à 14 bits par canal, ce qui représente 4 400 milliards de couleurs !

  • Peu profond: 7,5 bits par canal
  • Équipement comparable : Vidéo DSLR de tous les jours
  • Prix: $1,000

Plage dynamique

La plage dynamique est liée à la capacité de votre appareil photo à traiter à la fois des détails extrêmement lumineux et extrêmement sombres. La plupart des caméras de qualité professionnelle ont une plage dynamique allant de 11 à 14 arrêts. Plus votre appareil photo a d'arrêts, plus sa capacité à enregistrer des images contrastées est grande. Étonnamment, en ce qui concerne la plage dynamique, l'œil humain est à la hauteur de la technologie moderne.

  • Gamme Dymaic :10-14 arrêts
  • Équipement comparable :Sony a7S
  • Prix: $2,498

Vitesse d'obturation

Vos yeux n'ont pas d'obturateur mécanique ou radial, ils ressemblent donc davantage à un appareil photo à obturateur électronique. Cependant, si vous souhaitez comparer le flou de mouvement de votre œil à un flou de mouvement similaire d'un appareil photo, agitez simplement votre main devant votre visage à un rythme constant. Voyez-vous le flou de mouvement?

Si vous deviez régler la vitesse d'obturation d'un appareil photo pour qu'elle corresponde au flou de mouvement trouvé dans votre œil, vous arriverez à une vitesse d'obturation d'environ 1/100-1/200. Vous ne voyez probablement pas beaucoup de flou de mouvement dans la vie de tous les jours, car vos yeux sont habitués à suivre des objets en mouvement incroyablement rapidement. Une technique très similaire à celle-ci serait la façon dont un photographe automobile suit une voiture en mouvement sur une piste de course.

  • Vitesse d'obturation: 1/100 – 1/200
  • Équipement comparable : DSLR de tous les jours
  • Prix: $1,000

Images par seconde

Grâce à la recherche, les scientifiques ont pu découvrir que les humains peuvent interpréter des informations jusqu'à environ 1 000 images par seconde. Bien que vous ne puissiez certainement pas rejouer cette information dans votre esprit au ralenti (du moins pas encore), cela a de plus grandes implications pour l'avenir du cinéma et le nombre de cinéastes FPS devrait tourner. C'est pourquoi un film 48fps comme le Hobbit est tellement différent d'un film à 24 ips.

  • Images par seconde: 1 000 images par seconde
  • Équipement comparable :Fantôme Flex 4K
  • Prix: $140,000

Total général : 35 268 799 $ + taxes

Bien qu'il soit absolument impossible de dire avec certitude quel serait le coût réel d'une configuration équivalente à l'œil humain, si nous devions additionner tous nos prix, notre appareil photo théorique coûterait environ autant que Le film Bob l'éponge : L'éponge hors de l'eau fait le week-end d'ouverture. (Nous vivons des temps sombres.)

Vous voulez en savoir plus sur la comparaison entre l'œil humain et les caméras ? Découvrez quelques-uns des messages suivants :

Vous pensez que ce nombre devrait être supérieur ou inférieur ? Vendriez-vous votre globe oculaire pour 35 000 000 $ ? Partagez vos pensées dans les commentaires ci-dessous.


La règle de l'obturateur à 180°

La règle des 180 degrés est une norme dans l'industrie cinématographique et elle explique la relation entre la vitesse d'obturation et la fréquence d'images lors de l'enregistrement d'un mouvement en vidéo. Pour imiter le mouvement de la même manière que l'œil humain le ressent dans la vraie vie, la règle des 180 degrés stipule que la vitesse d'obturation doit être réglée pour doubler votre fréquence d'images. Lorsque vous entendez les gens parler de «vitesses d'obturation cinématiques», ils font référence à cette norme où la vitesse d'obturation est réglée à une fréquence d'images double, ou aussi proche que possible. (La plupart des reflex numériques ont la possibilité de prendre des photos au 1/50e mais pas au 1/48e, donc si vous filmez à 24 ips, réglez la vitesse d'obturation sur 1/50e).

La règle des 180° peut être enfreinte pour imiter une époque cinématographique spécifique, ou utilisée pour faire une vidéo délibérément tremblante ou carrément discordante. Plus l'angle d'obturation est large, de 270° à 360°, plus le flou de mouvement est important, et plus l'angle d'obturation est étroit (moins de 180°), moins le flou de mouvement est perçu d'une image à l'autre.

Étant donné que la plupart des appareils photo numériques ont un obturateur rideau et non l'obturateur rotatif de style film, un angle d'obturation de 180 ° équivaut à une prise de vue avec une vitesse d'obturation deux fois supérieure à votre fréquence d'images, ou techniquement, 1/[2xfps]. En termes numériques, l'angle d'obturation est la vitesse d'obturation de l'appareil photo par rapport à la fréquence d'images. Sur les reflex numériques et autres appareils photo numériques, les angles d'obturation courants à 180° incluent 1/50e de seconde à 24 ips, ou 1/60e de seconde à 30 ips.

N'oubliez pas qu'une vitesse d'obturation rapide produira une image plus sombre avec peu ou pas de flou de mouvement (selon la vitesse du sujet), tandis qu'une vitesse d'obturation lente produira une image plus claire avec un flou de mouvement plus prononcé.


Appareil photo contre yeux : différences

Mesure absolue ou subjective de la lumière: En termes simples, l'œil humain est un appareil subjectif. Cela signifie que vos yeux travaillent en harmonie avec votre cerveau pour créer les images que vous percevez : vos yeux ajustent la mise au point (en courbant la lumière à travers la lentille de vos globes oculaires) et traduisent les photons (lumière) en une impulsion électrique que votre cerveau peut traiter . À partir de là, tout tourne autour de votre cerveau : il réajuste en permanence sa balance des couleurs en fonction du contexte d'éclairage. En d'autres termes, nos yeux savent ce qui doit être vu comme rouge ou blanc ou noir etc.

Une caméra, par contre, est un appareil de mesure absolue — Il mesure la lumière qui frappe une série de capteurs, mais le capteur est « muet » et les signaux enregistrés doivent être ajustés en fonction de la température de couleur de la lumière éclairant la scène, par exemple

Mise au point de l'objectif : À huis clos, l'objectif se rapproche/s'éloigne du film pour effectuer la mise au point. Dans vos yeux, le cristallin change de forme pour se concentrer : les muscles de vos yeux modifient la forme réelle du cristallin à l'intérieur de vos yeux.

Sensibilité à la lumière : Un film dans un appareil photo est uniformément sensible à la lumière. La rétine humaine ne l'est pas. Par conséquent, en ce qui concerne la qualité de l'image et la puissance de capture, nos yeux ont une plus grande sensibilité dans les endroits sombres qu'un appareil photo classique.

Il existe des situations d'éclairage qu'un appareil photo numérique actuel ne peut pas capturer facilement : les photos seront floues ou dans un barrage de bruit numérique. Par exemple, lors de l'observation d'une image de fluorescence de cellules au microscope, l'image que vous pouvez voir avec vos yeux serait presque impossible à capturer pour un appareil photo ordinaire. Cela est principalement dû au fait que la quantité de lumière entrant dans l'appareil photo (et vos yeux) est si faible.


La caméra contre l'œil humain

Cet article a commencé après avoir suivi une discussion en ligne pour savoir si un objectif 35 mm ou 50 mm sur un appareil photo plein format donne le champ de vision équivalent à la vision humaine normale. Cette discussion particulière a immédiatement approfondi la physique optique de l'œil en tant qu'appareil photo et objectif - une comparaison compréhensible puisque l'œil se compose d'un élément avant (la cornée), d'une bague d'ouverture (l'iris et la pupille), d'une lentille et un capteur (la rétine).

Malgré toutes les mathématiques impressionnantes lancées dans les deux sens concernant la physique optique du globe oculaire, la discussion ne semblait pas tout à fait logique, alors j'ai fait beaucoup de lecture sur le sujet.

Il n'y aura aucun avantage direct à cet article qui vous permettra de sortir et de prendre de meilleures photos, mais vous pourriez le trouver intéressant. Vous pouvez également trouver cela incroyablement ennuyeux, alors je vais d'abord vous donner ma conclusion, sous la forme de deux citations de Garry Winogrand :

Une photographie est l'illusion d'une description littérale de la façon dont la caméra a « vu » un morceau de temps et d'espace.

La photographie ne concerne pas la chose photographiée. Il s'agit de la façon dont cette chose regards photographié.

Fondamentalement, en faisant toutes ces recherches sur la façon dont l'œil humain est Comme un appareil photo, ce que j'ai vraiment appris, c'est comment la vision humaine est pas comme un photographe. D'une certaine manière, cela m'a expliqué pourquoi je trouve si souvent une photographie beaucoup plus belle et intéressante que la scène elle-même.

L'œil comme système de caméra

Superficiellement, il est assez logique de comparer l'œil à un appareil photo. Nous pouvons mesurer la longueur avant-arrière de l'œil (environ 25 mm de la cornée à la rétine) et le diamètre de la pupille (2 mm contractée, 7 à 8 mm dilatée) et calculer des nombres semblables à des lentilles à partir de ces mesures.

Vous trouverez cependant des nombres différents pour la distance focale de l'œil. Certains sont issus de mesures physiques des structures anatomiques de l'œil, d'autres de calculs optométriques, certains tiennent compte du fait que le cristallin de l'œil et la taille de l'œil lui-même changent avec les contractions de divers muscles.

Pour résumer, cependant, une distance focale couramment citée de l'œil est de 17 mm (elle est calculée à partir de la valeur dioptrique optométrique). La valeur la plus communément acceptée, cependant, est de 22 mm à 24 mm (calculée à partir de la réfraction physique dans l'œil). Dans certaines situations, la distance focale peut en fait être plus longue.

Puisque nous connaissons la distance focale approximative et le diamètre de la pupille, il est relativement facile de calculer l'ouverture (f-stop) de l'œil. Avec une distance focale de 17 mm et une pupille de 8 mm, le globe oculaire devrait fonctionner comme un objectif f/2.1. Si nous utilisons la focale de 24 mm et la pupille de 8 mm, elle devrait être de f/3,5. Il y a en fait eu un certain nombre d'études réalisées en astronomie pour mesurer réellement le diaphragme de l'œil humain, et le nombre mesuré est de f/3,2 à f/3,5 (Middleton, 1958).

À ce stade, tous les deux d'entre vous qui ont lu jusqu'ici se sont probablement demandé « Si la distance focale de l'œil est de 17 ou 24 mm, pourquoi tout le monde se demande-t-il si les objectifs de 35 mm ou de 50 mm ont le même champ de vision que l'œil humain ? »

La raison en est que la distance focale mesurée de l'œil n'est pas ce qui détermine l'angle de vue de la vision humaine. J'y reviendrai plus en détail ci-dessous, mais le point principal est que seule une partie de la rétine traite l'image principale que nous voyons. (La zone de vision principale est appelée le cône d'attention visuelle, le reste de ce que nous voyons est la « vision périphérique »).

Des études ont mesuré le cône d'attention visuelle et l'ont trouvé à environ 55 degrés de large. Sur un appareil photo plein format 35 mm, un objectif 43 mm offre un angle de vue de 55 degrés, de sorte que la distance focale offre exactement le même angle de vue que nous, les humains. Merde si ce n'est pas à mi-chemin entre 35 mm et 50 mm. L'argument initial est donc terminé, l'objectif «normal» réel sur un reflex 35 mm n'est ni 35 mm ni 50 mm, il est à mi-chemin entre les deux.

L'oeil est Pas un système de caméra

Après avoir obtenu la réponse à la discussion initiale, j'aurais pu laisser les choses tranquilles et repartir avec une autre anecdote assez inutile classée pour étonner mes amis en ligne. Mais NOOooon. Quand j'ai un tas de travail à faire, je trouve que je vais presque toujours choisir de passer quelques heures de plus à lire plus d'articles sur la vision humaine.

Vous avez peut-être remarqué que la section ci-dessus a omis certaines analogies entre l'œil et l'appareil photo, car une fois que vous avez dépassé les simples mesures d'ouverture et d'objectif, le reste des comparaisons ne correspond pas si bien.

Considérez le capteur de l'œil, la rétine. La rétine a presque la même taille (32 mm de diamètre) que le capteur d'un appareil photo plein format (35 mm de diamètre). Après cela, cependant, presque tout est différent.

La rétine d'un œil humain

La première différence entre la rétine et le capteur de votre appareil photo est assez évidente : la rétine est courbée le long de la surface arrière du globe oculaire, et non plate comme le capteur en silicium de l'appareil photo. La courbure a un avantage évident : les bords de la rétine sont à peu près à la même distance du cristallin que le centre. Sur un capteur plat, les bords sont plus éloignés de l'objectif et le centre plus proche. Avantage rétine - il devrait avoir une meilleure "netteté des coins".

L'œil humain a également beaucoup plus de pixels que votre appareil photo, environ 130 millions de pixels (vous vous sentez humble maintenant, les propriétaires d'appareils photo de 24 mégapixels ?). Cependant, seulement environ 6 millions de pixels de l'œil sont des cônes (qui voient la couleur), les 124 millions restants ne voient que le noir et blanc. Mais avantage rétine à nouveau. Temps fort.

Mais si nous regardons plus loin, les différences deviennent encore plus prononcées…

Sur un capteur de caméra, chaque pixel est disposé selon un quadrillage régulier. Chaque millimètre carré du capteur a exactement le même nombre et le même motif de pixels. Sur la rétine, il y a une petite zone centrale, d'environ 6 mm de diamètre (la macula) qui contient la concentration la plus dense de photorécepteurs dans l'œil. La partie centrale de la macula (la fovéa) est densément remplie de cellules coniques (détection de couleur). Le reste de la macula autour de cette zone centrale de « couleur uniquement » contient à la fois des bâtonnets et des cônes.

La macula contient environ 150 000 « pixels » dans chaque carré de 1 mm (comparé à 24 000 000 pixels répartis sur un capteur 35 mm x 24 mm dans un 5DMkII ou D3x) et fournit notre « vision centrale » (le cône d'attention visuelle de 55 degrés mentionné ci-dessus). Quoi qu'il en soit, la partie centrale de notre champ visuel a une capacité de résolution bien supérieure à celle du meilleur appareil photo.

Le reste de la rétine a beaucoup moins de « pixels », dont la plupart ne détectent que le noir et blanc. Il fournit ce que nous considérons habituellement comme la « vision périphérique », les choses que nous voyons « du coin de l'œil ». Cette partie détecte très bien les objets en mouvement, mais ne fournit pas une résolution suffisante pour lire un livre, par exemple.

Le champ de vision total (la zone dans laquelle nous pouvons voir le mouvement) de l'œil humain est de 160 degrés, mais en dehors du cône d'attention visuelle, nous ne pouvons pas vraiment reconnaître les détails, seulement les formes et les mouvements larges.

Les avantages de l'œil humain par rapport à l'appareil photo diminuent un peu lorsque nous quittons la rétine et retournons vers le cerveau. La caméra envoie les données de chaque pixel du capteur à une puce informatique pour traitement en une image. L'œil a 130 millions de capteurs dans la rétine, mais le nerf optique qui transporte les signaux de ces capteurs vers le cerveau n'a que 1,2 million de fibres, donc moins de 10 % des données de la rétine sont transmises au cerveau à un instant donné. (C’est en partie parce que les capteurs de lumière chimiques dans la rétine mettent un certain temps à se « recharger » après avoir été stimulés. En partie parce que le cerveau ne peut pas traiter autant d’informations de toute façon.)

Et bien sûr, le cerveau traite les signaux très différemment d'un appareil photo. Contrairement aux clics intermittents de l'obturateur d'une caméra, l'œil envoie au cerveau une vidéo d'alimentation constante qui est transformée en ce que nous voyons. Une partie subconsciente du cerveau (le noyau genouillé latéral si vous devez savoir) compare les signaux des deux yeux, assemble les parties les plus importantes en images 3D et les envoie à la partie consciente du cerveau pour la reconnaissance d'images et plus loin En traitement.

Le cerveau subconscient envoie également des signaux à l'œil, déplaçant légèrement le globe oculaire selon un schéma de balayage afin que la vision nette de la macula se déplace sur un objet d'intérêt. En quelques fractions de secondes, l'œil envoie en fait plusieurs images et le cerveau les traite en une image plus complète et plus détaillée.

Le cerveau subconscient rejette également une grande partie de la bande passante entrante, n'envoyant qu'une petite fraction de ses données au cerveau conscient. Vous pouvez contrôler cela dans une certaine mesure : par exemple, en ce moment, votre cerveau conscient dit au noyau genouillé latéral « envoyez-moi des informations à partir de la vision centrale uniquement, concentrez-vous sur les mots tapés au centre du champ de vision, déplacez-vous de gauche à juste pour que je puisse les lire ». Arrêtez de lire une seconde et sans bouger les yeux, essayez de voir ce qu'il y a dans votre champ de vision périphérique. Il y a une seconde, vous n'avez pas "vu" cet objet à droite ou à gauche de l'écran de l'ordinateur parce que la vision périphérique n'était pas transmise au cerveau conscient.

Si vous vous concentrez, même sans bouger les yeux, vous pouvez au moins dire que l'objet est là. Si vous voulez le voir clairement, cependant, vous devrez envoyer un autre signal cérébral à l'œil, déplaçant le cône d'attention visuelle vers cet objet. Notez également que vous ne pouvez pas lire le texte tous les deux et voyez les objets périphériques, le cerveau ne peut pas traiter autant de données.

Le cerveau n'a pas fini lorsque l'image a atteint la partie consciente (appelée cortex visuel). Cette zone se connecte fortement avec les portions de mémoire du cerveau, vous permettant de « reconnaître » les objets de l'image. Nous avons tous vécu ce moment où nous voyons quelque chose, mais ne reconnaissons pas ce que c'est pendant une seconde ou deux. Après l'avoir reconnu, nous nous demandons pourquoi dans le monde ce n'était pas évident immédiatement. C'est parce qu'il a fallu au cerveau une fraction de seconde pour accéder aux fichiers de mémoire pour la reconnaissance d'images. (Si vous n'avez pas encore vécu cela, attendez quelques années. Vous le ferez.)

En réalité (et c'est très évident) la vision humaine est de la vidéo, pas de la photographie. Même lorsqu'il regarde une photo, le cerveau prend plusieurs « instantanés » alors qu'il déplace le centre de mise au point sur l'image, les empilant et les assemblant dans l'image finale que nous percevons. Regardez une photo pendant quelques minutes et vous vous rendrez compte que votre œil a dérivé inconsciemment sur l'image, obtenant une vue d'ensemble de l'image, se concentrant sur des détails ici et là et, après quelques secondes, réalisant certaines choses à ce sujet qui n'étaient pas évidents à première vue.

Alors à quoi ça sert ?

Eh bien, j'ai quelques observations, bien qu'elles soient loin de "quel objectif a le champ de vision le plus similaire à la vision humaine ?". Cette information m'a fait réfléchir à ce qui me rend si fasciné par certaines photographies, et pas tellement par d'autres. Je ne sais pas si ces observations sont vraies, mais ce sont des pensées intéressantes (pour moi du moins). Tous sont basés sur un fait : quand j'aime vraiment une photographie, je passe une minute ou deux à la regarder, à laisser ma vision humaine la scanner, à en saisir le détail ou peut-être à m'interroger sur le détail qui n'est pas visible.

Les photographies prises à un angle de vue « normal » (35 mm à 50 mm) semblent conserver leur attrait quelle que soit leur taille. Même les images de format Web prises à cette distance focale conservent l'essence de la prise de vue. La photo ci-dessous (prise à 35 mm) a beaucoup plus de détails lorsqu'elle est vue dans une grande image, mais l'essence est évidente même lorsqu'elle est petite. Peut-être que le traitement du cerveau est plus à l'aise pour reconnaître une image qu'il voit dans son champ de vision normal. C'est peut-être parce que nous, les photographes, avons tendance à mettre inconsciemment l'accent sur la composition et les sujets dans une photographie à angle de vue « normal ».

La photo ci-dessus montre quelque chose d'autre sur lequel je me suis toujours posé la question : notre fascination et notre amour pour la photographie en noir et blanc se produisent-ils parce que c'est l'une des rares façons dont les récepteurs à cône dense (couleur uniquement) de notre macula sont obligés d'envoyer une échelle de gris image à notre cerveau?

Peut-être que notre cerveau aime regarder uniquement le ton et la texture, sans que les données de couleur n'obstruent cette bande passante étroite entre le globe oculaire et le cerveau.

Comme les prises de vue à « angle normal », les prises de vue téléobjectif et macro ont souvent une belle apparence dans les petits tirages ou les JPG au format Web. J'ai un œil d'éléphant de 8 × 10 et une impression macro d'une araignée de taille similaire sur le mur de mon bureau qui, même de l'autre côté de la pièce, a fière allure. (Au moins, ils me paraissent bien, mais vous remarquerez qu'ils sont accrochés dans mon bureau. Je les ai accrochés à quelques autres endroits de la maison et on m'a dit avec tact qu'ils ne vont vraiment pas avec les meubles du salon", alors peut-être qu'ils ne sont pas si beaux pour tout le monde.)

Il n'y a pas de grande composition ou d'autres facteurs pour rendre ces photos attrayantes pour moi, mais je les trouve quand même fascinantes. Peut-être parce que même à petite taille, ma vision humaine peut voir des détails sur la photographie que je n'ai jamais pu voir en regardant un éléphant ou une araignée avec «l'œil nu».

D'un autre côté, lorsque j'obtiens une bonne prise de vue grand angle ou panoramique, je prends à peine la peine de publier un graphique de la taille d'une toile ou de faire une petite impression (et je ne vais pas commencer pour cet article). Je veux qu'il soit imprimé en GRAND. Je pense peut-être à ce que ma vision humaine puisse balayer l'image en repérant les petits détails qui sont complètement perdus lors de sa réduction. Et chaque fois que je fais un grand tirage, même d'une scène à laquelle je suis allé une douzaine de fois, je remarque des choses sur la photo que je n'ai jamais vues quand j'y étais en personne.

Peut-être que la "vidéo" que mon cerveau fait lors de la numérisation de l'impression fournit beaucoup plus de détails et je la trouve plus agréable que la composition de la photo ne le donnerait lorsqu'elle est imprimée en petit (ou que j'ai vue lorsque j'étais réellement sur les lieux) .

Et peut-être que le « balayage » subconscient que ma vision fait sur une photographie explique pourquoi des choses comme la «règle des tiers» et la mise au point sélective attirent mon œil sur certaines parties de la photographie. Peut-être que nous, les photographes, avons simplement compris comment le cerveau traite les images et en avons profité grâce à l'expérience pratique, sans connaître toute la science impliquée.

Mais je suppose que ma seule vraie conclusion est la suivante : une photographie n'est PAS exactement ce que mes yeux et mon cerveau ont vu sur les lieux. Quand j'obtiens une bonne photo, c'est quelque chose de différent et quelque chose de mieux, comme ce que Winogrand a dit dans les deux citations ci-dessus, et dans cette citation aussi :

Vous voyez quelque chose qui se passe et vous vous en tirez. Soit vous obtenez ce que vous avez vu, soit vous obtenez autre chose - et selon ce que vous imprimez le mieux.

A propos de l'auteur: Roger Cicala est le fondateur de LensRentals. Cet article a été initialement publié ici.


Quel est l'équivalent de la vitesse d'obturation dans l'œil humain ? - La biologie

La façon dont l'œil focalise la lumière est intéressante, car la plus grande partie de la réfraction n'est pas effectuée par le cristallin lui-même, mais par l'humeur aqueuse, un liquide au-dessus du cristallin. La lumière est réfractée lorsqu'elle entre dans l'œil par ce liquide, réfractée un peu plus par le cristallin, puis un peu plus par l'humeur vitrée, la substance gélatineuse qui remplit l'espace entre le cristallin et la rétine.

L'objectif est essentiel pour former une image nette, mais c'est l'une des caractéristiques les plus étonnantes de l'œil humain, qu'il peut ajuster si rapidement lors de la mise au point d'objets à différentes distances. Ce processus d'ajustement est connu sous le nom d'accommodation.

Considérons l'équation de la lentille :

Avec un appareil photo, l'objectif a une distance focale fixe. Si la distance de l'objet est modifiée, la distance de l'image (la distance entre l'objectif et le film) est ajustée en déplaçant l'objectif. Cela ne peut pas être fait avec l'œil humain : la distance image, la distance entre le cristallin et la rétine, est fixe. Si la distance de l'objet est modifiée (c'est-à-dire que l'œil essaie de faire la mise au point sur des objets situés à des distances différentes), la distance focale de l'œil est ajustée pour créer une image nette. Cela se fait en changeant la forme du cristallin, un muscle connu sous le nom de muscle ciliaire fait ce travail.

Corriger la myopie

Une personne myope ne peut créer que des images nettes d'objets proches. Les objets plus éloignés semblent flous parce que l'œil les amène à se concentrer sur un point devant la rétine.

Nous avons besoin d'une lentille divergente pour faire diverger les rayons lumineux juste assez pour que, lorsque les rayons convergent par l'œil, ils convergent vers la rétine, créant une image focalisée.

Corriger l'hypermétropie

Une personne hypermétrope ne peut créer des images claires que d'objets éloignés. Les objets proches sont mis au point derrière la rétine, c'est pourquoi ils semblent flous.

Une lentille convergente est utilisée, permettant aux images d'être mises au point sur la rétine.


Quel est l'équivalent de la vitesse d'obturation dans l'œil humain ? - La biologie

Combien d'images par seconde l'œil humain peut-il voir ?

Combien d'images par seconde dois-je avoir pour que les mouvements aient l'air fluides ?

Combien d'images par seconde font que le film cesse de clignoter ?

Quelle est la monture la plus courte qu'un œil humain remarquerait ?

Imaginez-vous en train de regarder un film d'un brouillard incroyablement lent. Vous ne voyez pas de bords et de bordures nettes. Maintenant, jouez le film avec 10fps. Il aura l'air fluide. Pourquoi? Car la différence d'une image à l'autre est très faible. L'extrême serait un mur totalement immobile : alors 1 fps équivaudrait à 1000 fps.

Maintenant, prenez votre main et déplacez-la lentement devant votre visage. Ensuite, déplacez-le plus rapidement jusqu'à ce qu'il soit flou. Combien d'images par seconde voyez-vous ? Ce doit être peu, car vous ne voyez qu'une main floue sans pouvoir distinguer chaque changement par milliseconde, mais ce doit être beaucoup, car vous voyez un mouvement fluide sans aucune interruption ni saut. Voici donc le tour de l'œil dans les deux exemples : Le flou simule la fluidité, la netteté simule le bégaiement. (C'est similaire à " la rotation simule la gravité".)


Exemple de flou de mouvement1 : Capturez à partir d'une performance en direct de Les Corrs "Que puis-je faire" à MTV Unpluged


Exemple de flou de mouvement 2 : Capturer à partir de "Instinct primaire", où vous voyez une femme plonger un pic à glace dans le corps d'un homme assis sur lui.

Le fait est que l'œil humain perçoit le mouvement typique d'un film de cinéma comme étant fluide à environ 18 images par seconde, en raison de son flou.

Si vous pouviez voir votre main en mouvement de manière très claire et nette, alors votre œil devait en faire plus d'instantanés pour lui donner un aspect fluide. Si vous aviez un film avec 50 images très nettes et nettes par seconde, votre œil distinguerait de temps en temps beaucoup de détails et vous aviez le sentiment que le film bégayait.


Également à 25 images par seconde mais sans flou de mouvement : des images de l'histoire de la BBC sur Ed Gein, le meurtrier, dont l'affaire a inspiré Hitchcock à faire "psychopathe" et Jonathan Demme pour faire "Le silence des agneaux". La musique est de CNN "Les teneurs de marché" (0,52 Mo).

Pensez aux jeux modernes : avez-vous déjà joué à Quake avec 18 ips ? Il n'y a pas de flou de mouvement dans ces jeux, vous avez donc besoin de plus d'images par seconde.

Cependant, vous voyez les taches et la saleté des images individuelles dans un film de cinéma, n'est-ce pas ? Et ces films sont lus à 24 images par seconde. Il y a donc une différence entre voir des mouvements fluides et voir qu'il y a quelque chose (de la saleté). Continuer à lire.

Imaginez que vous regardez un brillant mur blanc. Maintenant, ce mur devient totalement noir pendant 1/25e de seconde. Le remarqueriez-vous ? Vous le feriez sûrement. 1/50e de seconde, bien peut-être plus difficile. 1/100e de seconde ? Très difficile. Pensez à vos téléviseurs 100 Hz. Ils sont appelés sans scintillement, car à des taux de scintillement de 100 fois par seconde, vous vous arrêtez pour remarquer la noirceur de l'écran du téléviseur, bien que l'écran du téléviseur ne brille pas tout le temps, mais palpite 100 fois par seconde. La luminosité mange l'obscurité.

Reprenez le "Test 1 : Fluidité du mouvement". You have a fluid film with 24 fps. The film roll has to roll thru the projector. To not see it rolling you have to make the picture black while the film rolls on. You would have to blacken the screen 24 times per second. But 24 black moments are too visible. Thus you have smooth motions but flicker.
The solution is: Show each frame 3 times and make the screen black 3 times per frame. This makes the black moments shorter and more frequent: "Triple the refresh rate". So you see about 72fps in the cinema, where 3 consecutive frames are the same. Strange solution? Solution of an analog world. And an example how "Brightness eats darkness".

Let's do the opposite test to "Sensitivity to darkness". Let's talk about, how sensitive the eye is to brightness.

Imagine yourself in a very dark room. You have been there for hours and it's totally black. Now light flashes right in front of you. Let's say as bright as the sun. Would you see it, when it's only 1/25th of a second? You surely would. 1/100th of a second? Oui. 1/200th of a second? Oui. Tests with Air force pilots have shown, that they could identifier the plane on a flashed picture that was flashed only for 1/220th of a second.

That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second. Now if you take into consideration, that you have two eyes with different angles and different areas of sensitivity (you probably know, that you see TV flickering best, when you don't look directly into the TV screen, but with the sides of your eyes) and you can move/rotate/shake your head and your eyes to a different position, you probably needed flashes as short as 1/500th of second to make sure, nobody sees them in any case.

Now, what happens if I flashed you 1/500th of a second once in a second for 365 days directly into your eye? Would you feel something strange? Would it feel different than without it? Would you notice that something is wrong?

So, we should add a security value, to make sure nobody sees ANYTHING even unconsciously and feels comfortable about it.

Maybe the industry didn't add enough security factor to CDs and that's why many people still feel that analog is sometimes better. It's like in a room full of neon lights. You just know that something isn't right.

The reasons for the results of Test 2 and Test 3 are afterimages. Bright light creates an afterimage in the eye. The same way you see light in your eye seconds AFTER the doctor shined a light into it. This afterlight makes it possible to see what was there seconds ago. The brightness of the afterimage of the cinema canvas produces such afterimages and thus helps the movie to be flickerfree.

So the question "How many frames do I need to make the movie flickerfree" = to not see the blackness between the frames (about 70-100 fps) doesn't answer the question "How short can a bright image be to see it?" = the Airforce question and this doesn't answer the question "How short can a (not bright) image be to see it?".

So the conclusion is: To make movies/Virtual Reality perfect, you'd have to know what you want. To have a perfect illusion of everything that can flash, blink and move you shouldn't go below 500 fps.

  1. If your screen refreshes at 85Hz and your game runs at 50Hz (=50fps): Are you sure that you don't need to synchronize them? Are you sure, you don't need to play with a multiple of 85 to enjoy synchronized refresh updates? So the game running at 85fps may better than at 100fps. Maybe even a TFT display was better. It displays only with about 40fps but progressively.
  2. Even though single eye cells (rods and cones) may have their limitations due to their chemical reaction times and due to the distance to the brain, you cannot be sure how they interact or complement or synchronize. If 1 cell is able to perceive 10fps, 2 cells may be able to perceive 20fps by complementing one another. So don't confuse "The human eye" with "The cell".
  3. Some eye cells are reacting only when a stimulus is moving. Some react when it's moving from A to B, some when it's moving from D to Z. This may complicate frame-based simulation of reality.
  4. Motion of your body could alter the way how you perceive. Do you get headaches after watching 3 movies in the cinema in a row? Maybe that's because you didn't move with the filmed motion? This is the reason for front-passengers' indispositions (= somebody else moved the car) and seasickness (=the sea moved the ship suddenly). Maybe this is the reason why 3D gaming glasses will never work perfectly. And this has nothing to do with frame rates.
  5. When you look straight (= with the center of your eyes) it's not the same as if it was with the sides of your eyes. The sides are more sensitive to brightness and to flickering. The next time you are in the cinema do the following: Look up to the ceiling while the movie is playing. Especially during bright/white scenes you will clearly notice that the movie flickers.
  6. Sensitivity to blue is different than to green: You see green best, even when it's dark, e.g. leaves in a forest at night. So "blue frames per second" may differ from "green frames per second"
  7. Do you like to play Quake? Do you think "More is better"? Maybe that's why you think 200fps is better than 180fps.
  8. Do you think moving in 3D games is stuttering? Maybe your mouse scans motion with too little dpi (Dots Per Inch) or fps (Frames Per Second)?
  9. Do you think it is important that a graphics card can display 250 fps in your favourite game, because that's a feature they write about in PC magazines and on covers?
    Now this is just a figure to show how fast the card is, not to show that you need such a high frame rate. It's like with cars: 100km/h in 5 seconds. When will you ever need to go 100km/h in 5 seconds?

So what is "Enough fps"? I don't know, because nobody went there so far. Maybe 120fps is enough, maybe you will get headaches after 3 hours. Seeing framewise is simply not the way how the eyerain system works. It works with a continuous flow of lightinformation. (Similar to the effects of cameras' flashlights ("red eyes"): flashing is simply not the way how we see). So there are still questions. Maybe you need as much as 4000fps, maybe less, maybe more.

The same question as for fps will arise for resolution. How many pixels can the human eye see? Does 2000x1000 (=Star Wars Episode II resolution) look like reality? Or is it just enough to make a film "cinemable"?


3. SENSITIVITY & DYNAMIC RANGE

Dynamic range* is one area where the eye is often seen as having a huge advantage. If we were to consider situations where our pupil opens and closes for different brightness regions, then yes, our eyes far surpass the capabilities of a single camera image (and can have a range exceeding 24 f-stops). However, in such situations our eye is dynamically adjusting like a video camera, so this arguably isn't a fair comparison.

Eye Focuses on Background Eye Focuses on Foreground Our Mental Image

If we were to instead consider our eye's instantaneous dynamic range (where our pupil opening is unchanged), then cameras fare much better. This would be similar to looking at one region within a scene, letting our eyes adjust, and not looking anywhere else. In that case, most estimate that our eyes can see anywhere from 10-14 f-stops of dynamic range, which definitely surpasses most compact cameras (5-7 stops), but is surprisingly similar to that of digital SLR cameras (8-11 stops).

On the other hand, our eye's dynamic range also depends on brightness and subject contrast, so the above only applies to typical daylight conditions. With low-light star viewing our eyes can approach an even higher instantaneous dynamic range, for example.

*Quantifying Dynamic Range. The most commonly used unit for measuring dynamic range in photography is the f-stop, so we'll stick with that here. This describes the ratio between the lightest and darkest recordable regions of a scene, in powers of two. A scene with a dynamic range of 3 f-stops therefore has a white that is 8X as bright as its black (since 2 3 = 2x2x2 = 8).

Photos on left (matches) and right (night sky) by lazlo and dcysurfer, respectively.

Sensibilité. This is another important visual characteristic, and describes the ability to resolve very faint or fast-moving subjects. During bright light, modern cameras are better at resolving fast moving subjects, as exemplified by unusual-looking high-speed photography. This is often made possible by camera ISO speeds exceeding 3200 the equivalent daylight ISO for the human eye is even thought to be as low as 1.

However, under low-light conditions, our eyes become much more sensitive (presuming that we let them adjust for 30+ minutes). Astrophotographers often estimate this as being near ISO 500-1000 still not as high as digital cameras, but close. On the other hand, cameras have the advantage of being able to take longer exposures to bring out even fainter objects, whereas our eyes don't see additional detail after staring at something for more than about 10-15 seconds.


Eagles have high-definition vision

When compared to other creatures, human eyesight does see bright, vivid colour crisply and clearly. But this doesn’t hold a candle to how eagles perceive the world. Many birds of prey can see colours on an even wider spectrum than humans do. Their eyes pick up more shades and contrasts. They can even see ultraviolet (UV) light. The ability to make out UV light helps these birds spot traces left by prey—urine or fur, for example. This make their prey stand out against the uniform colour of a field.


Scientists Discover That the Shape of Light Changes Our Vision

Scientists at the UNIGE have shown that the response of the retina to light depends not only on the intensity of the light perceived by the eye, but also on its temporal shape and the order in which the colors are organized.

Vision is a complex process that has been successfully deciphered by many disciplines – physics, biochemistry, physiology, neurology, etc. The retina captures light, the optic nerve transmits electrical impulses to the brain, which ultimately generates the perception of an image. Although this process takes some time, recent studies have shown that the first stage of vision, the perception of light itself, is extremely fast. But the analysis of this decisive step was carried out on molecules in solution in the laboratory.

Scientists from the University of Geneva (UNIGE), in collaboration with EPFL and the University Hospitals of Geneva (HUG), Switzerland, reproduced the experiment on mice, in order to observe the processing of light by a living organism in all its complexity. This non-invasive study shows that light energy alone does not define the response of the retina. Its shape –short or long– also has an impact on the signal sent to the brain to form an image. This discovery, published in the journal Avancées scientifiques, opens up a new field of research into vision, diagnostics, and possibly new curative possibilities.

The cellular mechanism of vision has been successfully studied thanks to the collaboration of several disciplines. “In the eye, the first stage of vision is based on a small molecule – the retinal – which, on contact with light, changes shape,” explains Geoffrey Gaulier, researcher at the Applied Physics Department of the UNIGE Faculty of Science and first author of the study. “When the retinal alters its geometric form, it triggers a complex mechanism that will result in a nerve impulse generated in the optic nerve.”

This process takes some time between the moment the eye perceives the light and the moment the brain decodes it. Physicists looked at the very first molecule in the chain, retinal, to see how long it took to switch its shape. They isolated this molecule in a cuvette and subjected it to laser pulses to test its reaction speed. To their great surprise, the molecule reacted in about 50 femtoseconds!

“By way of comparison, one femtosecond compared to one second is the equivalent of one second compared to the age of the Universe,” points out Jean-Pierre Wolf, professor at the UNIGE Physics Section and the last author of the research. “This is so fast that we wondered whether this speed could be achieved by the molecule only when it was isolated, or whether it possessed the same speed in a living organism in all its complexity.”

Light intensity and shape define the eye’s sensitivity

To study this first stage of vision in detail, the scientists called on biologists, notably Ivan Rodriguez and Pedro Herrera, professors at the UNIGE Faculties of Science and Medicine, respectively, who placed a contact lens and performed an electroretinogram on mice. “This method, which is totally non-invasive, makes it possible to measure the intensity of the signal sent to the optic nerve,” continues Jean-Pierre Wolf. When the light hits the retina, they were able to observe an electrical voltage at the cornea, thanks to an electronic amplifier. And their results showed that this stage took place with the same extreme speed as when the molecule is isolated!

The team continued the study by varying the shape of the pulses over time. “We always send the same energy, the same number of photons, but we change the shape of the light pulse. Sometimes the pulse is short, sometimes long, sometimes sliced, etc,” explains Geoffrey Gaulier. Indeed, changing the shape should not induce any variation in the response of the retina, because until now it was thought that only the number of photons captured by the eye played a role. “But this is not the case!” says the Geneva-based researcher. This result could be explained with the help of computer simulations performed in the group of Ursula Röthlisberger from EPFL.

The scientists observed that the eye did not react in the same way depending on the shape of the light, even though the light energy was identical. “We also discovered that the eye’s reaction differed according to the order in which the colors were varied, for example as in a temporal rainbow, even though they follow each other extremely quickly,” continues Jean-Pierre Wolf. In short, the retina believes that there is more or less light depending on the shape of the light, while the energy is similar, and therefore sends a stronger or weaker current to the brain depending on its response.

This discovery, which was made in the context of a Swiss National Science Foundation (SNSF) Sinergia project, opens up a new field of research into vision. “Now that we know that the shape of light plays a role in perception, we can use this new knowledge to make the eye work differently,” proposes Jean-Pierre Wolf. Areas of investigation into new possibilities for diagnosing or possibly treating eye weaknesses can now be developed.


Voir la vidéo: Teknologia liikunnanopetuksessa: Nopeus ja laukaisututka (Décembre 2021).