¿Cuál es la resolución del ojo humano en megapíxeles?

Es difícil comparar la resolución del ojo humano con la resolución de la cámara digital porque los conceptos son diferentes.

Si tuviera que elegir un número, podría decir que el ojo humano tiene 1 millón de “píxeles” de diferentes tamaños (pequeños píxeles de alta resolución en el centro, grandes píxeles de baja resolución en la periferia). En el centro del campo visual, la resolución en términos de nitidez y claridad podría ser equivalente a una cámara de 10 megapíxeles . ¡Quizás sorprendentemente haya 100 millones de fotorreceptores individuales en la retina!

La “resolución” del ojo humano y el telescopio Hubble (la capacidad de resolver detalles) se mide en “resolución angular” o grados angulares por “píxel”. La resolución angular varía desde 1 minuto de arco (1/60 de un grado angular) en la fóvea hasta posiblemente 1 grado o más en la periferia. Tenga en cuenta que la fóvea es la región de visión más centrada. Tiene alrededor de 2 veces el tamaño de su pulgar con el brazo estirado o un poco más grande que la luna en el cielo.

Aquí hay una representación del ángulo sólido (en grados angulares) con el ojo en el centro:

Para una cámara digital, la resolución angular varía bastante según el factor de zoom junto con la densidad de píxeles del CCD.

En una cámara digital, la “resolución” se refiere al número total de píxeles en la placa de imagen (el CCD) medidos en megapíxeles. Entonces, ¿la analogía para los humanos podría ser la cantidad total de fotorreceptores (“píxeles”?) En la retina, que es de alrededor de 100 millones . O podría ser la cantidad total de fibras nerviosas enviadas desde el ojo al cerebro, que es aproximadamente 1 millón . La mayoría de estos “píxeles” provienen de la fóvea.

Uno podría argumentar en base a la resolución angular y la distancia de visualización típica de las fotografías, que el “equivalente de megapíxeles” del ojo es de alrededor de 10 megapíxeles en la fóvea y 0.1 megapíxeles en la periferia.

Para continuar la confusión de resolución, en los medios impresos, la resolución se refiere a la densidad de píxeles en puntos por pulgada (u otra unidad) en una superficie impresa, por ejemplo, 72 o 300 ppp. La nitidez que resultará dependerá de cuán lejos esté la superficie del observador. La resolución de una impresora de inyección de tinta se refiere a la mayor densidad de píxeles que puede imprimir. Para los monitores de computadora, hay tanto resolución (conteo de píxeles horizontales como verticales) y densidad de píxeles o paso de puntos, medidos en píxeles por pulgada, por ejemplo, 120 PPI o milímetros por píxel, por ejemplo, 20 mm. El tono de punto sería el más análogo a la medida del ojo humano de resolución angular si se asume una distancia de lectura fija. La densidad de píxeles del ojo humano a una distancia de lectura de 20 “puede ser de alrededor de 170 ppp o una distancia de puntos de .14 ​​mm en la fóvea y de 2 ppp o 15 mm en la periferia.

Para resumir, la resolución en tecnología se refiere a la cantidad total de píxeles, sin embargo, la gente lo usa informalmente para significar nitidez, ya que más píxeles para el mismo tamaño de área significan más nitidez. Los megapíxeles no miden directamente la nitidez, ya que la nitidez depende del tamaño de la superficie y la distancia del espectador. La nitidez de la imagen del ojo se mide en términos de “resolución angular” del espectador, que varía desde el centro hacia la periferia. Por el contrario, la nitidez de la imagen de un monitor o impresora se mide en densidad de píxeles en la superficie, mientras que la nitidez visualizada dependerá de la distancia al espectador.

Relacionado
¿Cómo cambia la agudeza visual del centro a la periferia en el campo visual humano?
Percepción visual: ¿Cuáles son algunos hechos alucinantes sobre el ojo humano?
¿Cómo puedo resolver la resolución del ojo humano?
¿Por qué las fotos de gran angular se ven distorsionadas, pero la visión a través del ojo humano con una visión de 120 grados no lo hace?

No coincidiría directamente con una cámara del mundo real … pero sigue leyendo.

En la mayoría de las cámaras digitales, tiene píxeles ortogonales: están en la misma distribución a través del sensor (de hecho, una red casi perfecta), y hay un filtro (generalmente el filtro “Bayer”, llamado así por Bryce Bayer, el científico que se le ocurrió la matriz de colores habitual) que entrega píxeles rojos, verdes y azules.

Entonces, a simple vista, imagine un sensor con una gran cantidad de píxeles, alrededor de 120 millones. Hay una mayor densidad de píxeles en el centro del sensor, y solo alrededor de 6 millones de esos sensores se filtran para permitir la sensibilidad del color. Y, por supuesto, ¡solo alrededor de 100,000 sentido del azul!
Ah, y por cierto, este sensor no está hecho en plano, sino que es semiesférico, por lo que se puede utilizar una lente muy simple sin distorsiones: las lentes de cámara reales tienen que proyectarse sobre una superficie plana, que es menos natural dada la naturaleza esférica de una lente simple (de hecho, las lentes mejores suelen contener algunos elementos asféricos).

Esto es aproximadamente 22 mm de diagonal en promedio, solo un poco más grande que un micro sensor de cuatro tercios … pero la naturaleza esférica significa que el área superficial es de alrededor de 1100 mm ^ 2, un poco más grande que un sensor de cámara de 35 mm de fotograma completo. La resolución de píxel más alta en un sensor de 35 mm se encuentra en la Canon 5Ds, que carga 50.6Mpixels en aproximadamente 860 mm ^ 2.

Entonces ese es el hardware. Pero ese no es el factor limitante en la resolución efectiva. El ojo parece ver “continuamente”, pero es cíclico, hay una velocidad de cuadro muy rápida … pero esa no es la más importante. El ojo está en movimiento constante desde los microtremadores oculares que ocurren a alrededor de 70-110Hz. Tu cerebro está integrando constantemente la salida de tu ojo mientras se mueve en la imagen que realmente percibes, y el resultado es que, a menos que algo se mueva demasiado rápido, obtienes un impulso efectivo de resolución de 120Mpixels a algo más como 480Mpixels, ya que la imagen está construido a partir de muestras múltiples.

Lo cual tiene perfecto sentido: nuestros cerebros pueden hacer este tipo de problemas como un procesador paralelo con un rendimiento comparable al de los supercomputadores más rápidos que tenemos hoy en día. Cuando percibimos una imagen, existe este procesamiento de imágenes de bajo nivel, además de procesos especializados que funcionan en abstracciones de mayor nivel. Por ejemplo, los humanos somos muy buenos para reconocer líneas horizontales y verticales, mientras que nuestros amistosos vecinos de ranas tienen un procesamiento especializado en sus cerebros relativamente simples en busca de un pequeño objeto volando a través del campo visual, esa mosca que acaba de comer. También hacemos un constante emparejamiento de patrones de lo que vemos con nuestros recuerdos de las cosas. Así que no solo vemos un objeto, reconocemos instantáneamente un objeto y llamamos a toda una biblioteca de información sobre esa cosa que acabamos de ver.

Otro aspecto interesante de nuestro procesamiento de imágenes en el cerebro es que no exigimos ninguna resolución particular. A medida que nuestros ojos envejecen y no podemos ver también, nuestra resolución efectiva disminuye y, sin embargo, nos adaptamos. En un plazo relativamente corto, nos adaptamos a lo que el ojo realmente puede ver … y puedes experimentar esto en casa. Si eres lo suficientemente mayor como para haber pasado mucho tiempo delante de la televisión de definición estándar, ya has experimentado esto. Su cerebro se adaptó a la calidad bastante terrible de la televisión NTSC (o la televisión PAL, algo menos terrible pero de mala calidad), y luego tal vez saltó a VHS, que era incluso peor de lo que se podía obtener a través de la transmisión. Cuando comenzó el digital, entre el VideoCD y los primeros DVR como el TiVo, la calidad era realmente terrible … pero si mirabas mucho, dejabas de notar la calidad con el tiempo si no te detenías en ella. Un espectador de HDTV de hoy, volviendo a los viejos medios, estará realmente decepcionado … y sobre todo porque su cerebro pasó a la mejor experiencia de video y eliminó esas malas adaptaciones de TV a lo largo del tiempo.

Volver a la imagen de múltiples muestras por un segundo … las cámaras hacen esto. En condiciones de poca luz, muchas cámaras hoy en día tienen la capacidad de promediar varias fotos diferentes sobre la marcha, lo que aumenta la señal y reduce el ruido … tu cerebro también lo hace en la oscuridad. E incluso estamos haciendo la cosa “microtremor” en las cámaras. La reciente Olympus OM-D E-M5 Mark II tiene un modo de “contratación” que realiza 8 disparos con ajuste de 1/2 píxel, para entregar lo que son esencialmente dos imágenes de 16Mpxeles en RGB completo (porque los pasos completos de píxeles aseguran que cada píxel se muestree en R , G, B, G), uno desplazado por 1/2 píxel del otro. La interpolación de estas imágenes intersticiales como una cuadrícula de píxeles normal ofrece 64 megapíxeles, pero la resolución efectiva es más como de 40 megapíxeles … todavía un gran salto desde 16 megapíxeles. Hasselblad mostró algo similar en 2013 que proporcionó una captura de 200 millones de píxeles, y Pentax también está lanzando una cámara con algo así como incorporado.

También estamos haciendo versiones simples de las funciones cerebrales de más alto nivel en nuestras cámaras. Todos los tipos de cámaras de modelo actual pueden hacer reconocimiento facial y seguimiento, seguimiento de enfoque, etc. No son ni de lejos tan buenos como nuestra combinación ojo / cerebro, pero funcionan bien para un hardware tan débil.

Son solo unos cientos de millones de años de retraso …

Estaba interesado en cómo se compara el ojo humano con la imagen digital y hasta ahora he encontrado y compilado esta tabla a partir de las fuentes que figuran en la parte inferior:
Especificaciones del ojo humano (típico):

  • Sensor (Retina) : 22 mm de diámetro x 0.5 mm de espesor (sección); 10 capas
  • Resolución : 576MP equiv.
  • Agudeza visual : ~ 74 MP (megapíxeles) (impresa) para mostrar detalles en los límites de la agudeza visual humana
  • ISO : 1 – 800 equivalente
  • Velocidad de datos : 500,000 bits por segundo sin color o alrededor de 600,000 bits por segundo, incluido el color.
  • Lente : 2 lentes – 16 mm y 24 mm de diámetro
  • Rango dinámico – Estático : relación de contraste de alrededor de 100: 1 (alrededor de 6 1/2 f-stops) (4 segundos)
  • Rango dinámico – Dinámico : relación de contraste de aproximadamente 1,000,000: 1 (alrededor de 20 f-stops) (30 minutos)
  • Longitud focal : ~ 3.2mm – (~ 22mm 35mm equiv)
  • Apertura : f2.1 – f8.3 (f3.5 dark-adaptado es reclamado por la comunidad astronómica)
  • Campo visual FOV : 95 ° hacia afuera, 75 ° hacia abajo, 60 ° hacia adentro, 60 ° hacia arriba
  • Espacio de color – 3D (no lineal) RGB
  • Sensibilidad del color : 10,000,000 (diez millones)
  • Gama de colores : 380 a 740 nm
  • Balance de blancos : automático (color percibido constante bajo diferentes luces)
  • Frecuencia de actualización : visión foveal (telescópica de alta calidad) – 3-4 fps; visión periférica (muy impreciso): hasta 90 fps

Obviamente, compilar esto crea suposiciones muy grandes, muchas de ellas están interrelacionadas con el procesamiento cerebral de las señales del ojo. Estoy seguro de que, si bien las estadísticas anteriores son objetivas, presentarlas como una correlación directa de manzanas por manzanas a las especificaciones comunes de la cámara probablemente esté plagada de incoherencias. ¡Ten en cuenta que hice esto solo por diversión!
Disfrutar

Fuentes:
http://en.wikipedia.org/wiki/Human_eye
http://en.wikipedia.org/wiki/Color_vision#Theories_of_color_vision
http://en.wikipedia.org/wiki/Visual_perception
http://en.wikipedia.org/wiki/Retina
http://photo.net/photo/edscott/vis00010.htm
http://photo.net/photo/edscott/vis00020.htm
http://www.siliconimaging.com/ARTICLES/CMOS%20PRIMER.htm
Resolución del ojo humano

crédito: ¡Las especificaciones del ojo humano – 576MP!

Gracias por A2A. Dave ya dio una respuesta fabulosa, leyó la primera o en su lugar. Sin embargo, intento siempre que puedo responder a A2A, así que aquí va.

Soy un tipo fundamental de matemáticas / física de límites teóricos.
Nadie parece haber sacado este ángulo en una respuesta (¡juego de palabras!) ¡Así que aquí va!

Detrás de la córnea está la lente del ojo. Juntos enfocan la luz usando la ley de Snell. El tamaño efectivo de la lente humana es ~ 1cm = 10mm, como se ha señalado en otras respuestas de Quora. La luz más nítida (la más estrecha) que vemos es azul (ish), con una longitud de onda ~ 500nm. La teoría de la difracción, que es una consecuencia de las propiedades cuánticas de un fotón, conduce al disco Airy como el límite de la resolución posible. Esto a menudo se denomina límite de difracción de Rayleigh, consulte Resolución angular. Es (aproximadamente) el ancho de la lente dividido por la longitud de onda. Para nosotros eso es 20,000 en cada dimensión o 400 Millones. Las cámaras digitales a veces tienen más píxeles que el límite de resolución de la lente para reducir la distorsión pixelada, consulte Resolución de la imagen. Esto explica las diferentes respuestas (un poco) que da Dave.

La resolución del ojo humano es realmente bastante pobre. Tenemos un área pequeña de visión de alta resolución justo en el centro, pero fuera de ese área pequeña nuestra visión es increíblemente pobre. No nos damos cuenta porque cuando queremos ver algo, automáticamente movemos nuestro ojo para que el centro de nuestra visión se vea reflejado en lo que queremos ver, y nuestro cerebro junta varias imágenes rápidamente para que parezca nuestra visión es buena en todos lados.

Intenta leer una página de un libro manteniendo fijo el centro de tu visión en la esquina de la página y verás cuán terrible es la mayoría de tu campo de visión. Casi todo su campo de visión es de baja resolución, solo lo suficiente para que, si ve algo interesante, pueda colgar la pequeña parte de alta resolución de su visión en él.

Si todo tu ojo tiene la misma resolución que el centro, entonces sí, tendrás 500 megapíxeles o más de resolución. También necesitarías un cerebro diez veces más grande de lo que es solo para el procesamiento visual.

Pero no es así La resolución real de la visión humana es más baja que una DSLR de nivel de entrada.

Voy a poner esto en términos Layman,

La retina humana promedio tiene cinco millones de receptores de cono en ella. Como los conos son responsables de la visión del color, puede suponer que esto equivale a un equivalente de cinco megapíxeles para el ojo humano.

Pero también hay cientos de millones de varillas que detectan el contraste monocromo, que juega un papel importante en la nitidez de la imagen que ves. E incluso este 105MP es una subestimación porque el ojo no es una cámara fija.

Tienes dos ojos (¡no es broma!) Y se dan la vuelta continuamente para cubrir un área mucho más grande que tu campo de visión y la imagen compuesta se ensambla en el cerebro, algo así como unir una foto panorámica. Con buena luz, puede distinguir dos líneas finas si están separadas por al menos 0,6 minutos de arco (0,01 grados).

Esto proporciona un tamaño de píxel equivalente de 0,3 minutos de arco. Si toma un conservador 120 grados como su campo de visión horizontal y 60 grados en el plano vertical , esto se traduce en …

576 megapíxeles de datos de imagen disponibles.

Respuesta de Abhishek Kalyan Adupa a ¿Cómo funciona una cámara? ¿Y por qué no podemos desarrollar una cámara con píxeles más que un ojo humano? ¿Cuáles son los problemas asociados con esto?

Según el artículo de la retina de Wikipedia, la retina humana tiene alrededor de 100 millones de varillas para visión en blanco y negro y 7 millones de conos para visión del color. Entonces, por ojo, una estimación bruta es:

100 megapíxeles para blanco y negro
7 megapíxeles por color

Muchas fuentes afirman que la visión humana supera los 500 megapíxeles, lo que puede ser cierto, una vez que el cerebro procesa la imagen. Es muy probable que una medición directa de la agudeza visual en términos de megapíxeles sea engañosa.

Este es uno de los mejores artículos que encontré, que reclama 74 megapíxeles.
http://www.clarkvision.com/artic

Paul King previamente escribió esta gran respuesta:
¿Cuál es la resolución (en megapíxeles) de la retina del ojo humano, el sistema de varillas y el sistema de conos, dentro de la fóvea y fuera de la fóvea? ¿Qué tan ruidosos son estos dos sistemas en comparación con las cámaras DSLR actuales?

2 puntos importantes a tener en cuenta:
1. La resolución es diferente dependiendo de a qué parte de la retina te refieres.
2. La resolución está mejor representada por la “resolución angular”, que toma distancia de la consideración. Por resolución angular, que en la fóvea es de 1 minuto de arco

Pero si quería analogías con los medios electrónicos, la resolución en la fóvea es de unos 10 megapíxeles a una distancia típica para mirar fotografías.

1920 × 1080 es de aproximadamente 2,1 megapíxeles, por lo que la resolución en la fóvea es aproximadamente 5 veces mayor que la de 1920 × 1080 a las distancias típicas de visualización.

El sistema de visión humana no es simplemente una cámara, es una cámara de video con memoria geográfica y con un sofisticado procesamiento de imágenes.
Enrolle una cámara de video HD de alta velocidad de cuadro con lentes 3D de 360 ​​grados, grabaciones posicionales automáticas por cuadro, y análisis y reconocimiento de objetos, y se está acercando a una descripción correcta.

Google street view con acción 3D en vivo y realidad aumentada.
Convirtiendo un par simple de ojos de 7 megapíxeles como dice Michael Rodney Osborne en algo maravilloso.

En realidad, no deberíamos considerar la resolución del ojo humano y compararla con la de cualquier cámara conocida, ya que el ojo humano no funciona de la misma manera que la cámara, es decir, no es digital. Nuestro ojo humano realmente funciona continuamente y envía señales al cerebro y también el ojo se mueve continuamente. Las señales que se alcanzan al cerebro se unen con el cerebro para obtener una imagen perfecta. Y en nuestro ojo también tenemos millones de sensores, como 120 millones de varillas y 60 millones de conos, y si consideramos cada varilla o cono como un solo sensor y luego calculamos la resolución para 120 grados (a partir del campo de visión de las cámaras son 120) en lugar de considerar el campo de visión real para el ojo humano, obtenemos 576 megapíxeles. Aunque es 576, en una sola vez ‘t’ solo usamos 7 megapíxeles porque la visión nítida para el ojo humano es solo de 2 grados.

En el centro del campo visual, la resolución podría ser equivalente a una cámara de 10 megapíxeles. ¡Hay 100 millones de fotorreceptores individuales en la retina! La ” resolución ” del ojo humano y el telescopio Hubble (la capacidad de resolver detalles) se mide en resolución angular o grados angulares por “píxel”. PARA MÁS

¡El ojo humano tiene alrededor de 576 megapíxeles!

La retina humana promedio tiene cinco millones de receptores cónicos y 100 millones de barras que detectan contraste monocromático. Los receptores de cono son responsables de la visión del color y las varillas desempeñan un papel importante en la nitidez de la imagen que ve.
Tus dos ojos giran continuamente para cubrir un área mucho más grande que tu campo de visión y la imagen compuesta se traduce en tu cerebro. Es similar a unir una foto panorámica. Con buena iluminación, puede distinguir dos líneas finas si están separadas por al menos 0,6 minutos de arco.
Eso le daría un tamaño de píxel equivalente de 0,3 minutos de arco. Con todo, el ojo humano tiene alrededor de 576 megapíxeles. Las mujeres tienen más conos que los hombres y, por lo tanto, ven los colores más brillantes que los hombres. Sin embargo, debido a esto, los hombres pueden ver mejor por la noche.

Esto depende de las condiciones de iluminación.

Los conos se usan en condiciones de luz normales y nos dan una visión del color. Hay 3 tipos de conos (azul, verde y rojo) que componen nuestros espectros de color. Hay alrededor de 4.5 millones de células de cono en su retina que envían su información a la corteza.

Durante las condiciones de la noche, sin embargo, usamos nuestras barras. Las varillas son extremadamente sensibles a la luz (tan sensibles como ver 1 fotón) y tienen un maquillaje de color muy pobre. Hay alrededor de 92 millones de células de barra en la retina, pero muchas células de barra convergen a una más entre las neuronas (interneurona) que amplifica su señal. Por lo tanto, la agudeza visual disminuye por la noche.

Supongo que himan era un error tipográfico y estás preguntando por el ojo humano.

El ojo humano es una parte pequeña pero importante del sistema visual completo en los humanos. Además del ojo humano, hay muchas cosas fisiológicas sucediendo en nuestros cerebros que nos muestran las cosas que nos rodean.

Los ojos humanos también tienen píxeles si se consideran los fotorreceptores de la misma manera. Estos fotorreceptores o células sensibles a la luz convierten la luz en señal eléctrica que nuestro cerebro puede interpretar. Con bastante frecuencia, más de un fotorreceptor trabajan juntos para enviar una sola señal (de manera que a veces múltiples fotorreceptores también funcionan como un solo píxel).

Este artículo podría interesarte – Our Eyes vs Camera

EYE’S IS THE NATURAL DSLR

El ojo no es una cámara instantánea de un solo cuadro. Es más como una transmisión de video. El ojo se mueve rápidamente en pequeñas cantidades angulares y continuamente actualiza la imagen en el cerebro de uno para “pintar” los detalles. También tenemos dos ojos, y nuestros cerebros combinan las señales para aumentar aún más la resolución. También generalmente movemos nuestros ojos alrededor de la escena para reunir más información. Debido a estos factores, el ojo más el cerebro ensambla una imagen de mayor resolución que la posible con la cantidad de fotorreceptores en la retina. Por lo tanto, los números equivalentes de megapíxeles a continuación se refieren al detalle espacial de una imagen que se requeriría para mostrar lo que el ojo humano podría ver al ver una escena.

En base a los datos anteriores para la resolución del ojo humano, intentemos primero un ejemplo “pequeño”. Considere una vista frente a usted que sea de 90 grados por 90 grados, como mirar a través de una ventana abierta en una escena. El número de píxeles sería
90 grados * 60 minutos de arco / grado * 1 / 0.3 * 90 * 60 * 1 / 0.3 = 324,000,000 píxeles (324 megapíxeles).
En cualquier momento, en realidad no percibes tantos píxeles, pero tu ojo se mueve alrededor de la escena para ver todos los detalles que deseas. Pero el ojo humano realmente ve un campo de visión más amplio, cerca de 180 grados. Seamos conservadores y usemos 120 grados para el campo de visión. Entonces veríamos
120 * 120 * 60 * 60 / (0.3 * 0.3) = 576 megapíxeles.
El ángulo completo de la visión humana requeriría aún más megapíxeles. Este tipo de detalle de imagen requiere una cámara de gran formato para grabar.

Bueno, no espere un discurso de ventas de mi parte 🙂 Cuando era vendedor, vendí no con lanzamientos, sino con explicaciones honestas. Lo haré esta vez también, y comenzaré citando al físico alemán del siglo XIX Hermann Helmholtz. Él dijo: “¡Qué malo era un Dios óptico! Consideraría correcto expresar mi más dura opinión sobre la inexactitud del trabajo del óptico y devolverle un aparato con una protesta, ¡si hubiera pensado en venderme un dispositivo óptico tan lleno de defectos como el ojo humano! “. El científico estaba bastante equivocado. , como nuestros ojos están diseñados por la evolución para trabajar en conjunto con el cerebro, y solo así.

No soy ni físico, ni oftalmólogo, ni neurólogo, soy fotógrafo. Diría que, al contrario que las cámaras, la visión humana depende mucho menos del sistema óptico, que consiste en córnea, uvea, pupila, lente y canal hialoideo, y ni siquiera en un sensor (retina), sino en el procesador de imágenes y el almacenamiento. eso es (tanto y parcialmente) nuestro cerebro.

Normalmente, la visión humana tiene características que son casi imposibles de implementar incluso en cámaras digitales.
Primero, es la máxima profundidad de campo: dado que tienes una vista normal, no tienes problemas para ver todo lo afilado casi sin importar la distancia.
En segundo lugar, el sistema focucing más rápido de todos los tiempos: no tiene problemas para cambiar de primer a infinito en fracción de una fracción de segundo.
En tercer lugar, el seguimiento del sujeto más preciso, la detección de rostros y absolutamente ningún obturador rodante.

La reproducción del color en condiciones normales es inmejorable. La capacidad promedio de poca luz es más o menos igual a la de ISO 51’200 a 1 / 25s T2, aunque el cambio entre escenas brillantes y oscuras lleva un tiempo considerable. La visión humana ya ha sido superada por las cámaras digitales modernas en términos de reproducción exacta del color en condiciones de poca luz.

En cuanto a la resolución equivalente … bueno … eso probablemente se pueda calcular, pero la comparación difícilmente será correcta. Lo estimaría como algo así como 2 gigapixels para una persona con vista normal, y puedo confundirme de cualquier manera.

La resolución del ojo humano es muy difícil de medir. Físicamente es aproximadamente 1 megapíxel. Solo para comparar:

Sin embargo, los píxeles en el ojo no están distribuidos uniformemente. Están más concentrados en el medio grado de arco (el tamaño del sol o la luna llena). Dentro de esa región, la resolución es entre 1/2 y 1 minuto de arco. (Un minuto de arco es 1/60 de grado).

Mientras tanto, tenemos hardware y software complicados a la vista que pueden construir una imagen altamente enfocada desde múltiples marcos. Tenemos aproximadamente 1.5 millones de CPU (unidades de procesamiento central) en cada ojo.

O alrededor de 1.5 millones de estos:

Las neuronas de la retina y los nervios ópticos se consideran parte del cerebro. Sin embargo, la parte principal del cerebro hace mucho más procesamiento de imágenes. En particular, tiene uno de estos:

Todo lo que vemos es en realidad una animación 3D fotorrealista creada por el cerebro, casi en tiempo real (con un retraso de 0.1 a 0.4 segundos). Los globos oculares solo proporcionan cosas como puntos de datos de estructura metálica, consejos y pistas sobre el color, la textura, etc.

Sobre la base de lo que Beth Hutton declaró correctamente, la cantidad de luz que entra al ojo importa mucho, al igual que una cámara.

Un aspecto interesante es cuál es el número mínimo de fotos que será detectado por el ojo humano. Bueno, la respuesta es UNA. ¡El ojo puede detectar un fotón INDIVIDUAL!

Sin embargo, el cerebro tiene ‘software’ (o ‘filtros neuronales’) que reducen nuestra respuesta consciente a tan pequeñas cantidades de luz para reducir el “ruido visual” de fondo.

Entonces, la respuesta más práctica es 5-9 fotos provocarán una respuesta detectable en el cerebro consciente. Todavía es bastante sorprendente, ¿no?

El siguiente enlace de “Nuestros ojos frente a la cámara” describe la situación bastante bien. No hay una comparación fácil entre nuestro sistema visual muy complejo y una cámara digital simple.

La distribución de fotorreceptores (células receptoras de luz) no es uniforme dentro del ojo. El 90% de las células sensibles al color (células del cono de la retina) se encuentran dentro de los 10 grados centrales del campo visual. El resto de la retina periférica tiene una densidad mucho menor de fotorreceptores, y la densidad disminuye a medida que se aleja del centro de la fijación.

A diferencia de un chip de imagen digital, hay una gran cantidad de procesamiento del cerebro que tiene lugar dentro del ojo. Cada fotorreceptor se conecta a aproximadamente 1000 otras células en la capa nuclear externa a través de una red muy compleja. Las células horizontales, bipolares y amacrinas se conectan a miles de células compañeras a través de otra red compleja antes de que la información visual llegue a las células ganglionares que llevan las señales al cerebro, donde se lleva a cabo un procesamiento aún más complejo.

Hay aproximadamente 120 millones de fotorreceptores en cada ojo, pero solo 10 millones de fibras nerviosas en el nervio óptico llevan la imagen visual al cerebro, por lo que se produce una gran cantidad de procesamiento de imágenes y reducción de datos antes de que las señales nerviosas salgan del ojo.

Escuché en alguna parte que al menos 12 canales diferentes de información visual fluyen desde el ojo hasta el cerebro. Hay canales que describen los bordes, las formas, los contornos y otro que olvido en este momento. Cada canal está presente para los colores rojo, verde y azul que vemos. De alguna manera, el cerebro integra todas estas diferentes corrientes de información en la imagen consciente que percibimos.

Además, el cerebro llena los defectos en nuestra visión. La retina está diseñada de adentro hacia afuera, con vasos sanguíneos que proyectan una compleja red de sombras a través de la capa de fotorreceptores, y por lo tanto, la imagen que veríamos. Además, está el punto ciego fisiológico que produce un gran agujero en nuestra percepción, sin embargo, el cerebro de alguna manera oculta la presencia de estos defectos de nuestra conciencia. Además, el cerebro integra las dos imágenes diferentes que provienen de los dos ojos en una imagen consciente, utilizando las similitudes para la parte que “vemos”, y extrae la información de diferencia para proporcionar información de percepción de profundidad (estereopsis). No hay nada como eso en cualquier cámara digital en este momento.

Simple aunque experimental (métrico, porque eso es lo que uso a diario): tome una imagen de 4000 x 3000 (técnicamente, una imagen de 4: 3 con 12 millones de píxeles) e imprima en un panel realmente grande de 20 mx 15 m.

Un píxel en ese panel va a ser un cuadrado de 5 mm x 5 mm. Si lo miras desde cerca, puedes ver claramente los píxeles individuales de la imagen. Si va a mirar el panel desde, digamos, 100 metros, no podrá discernirlos.

Tenga en cuenta que la imagen es la misma en ambos casos (12 Mpixel), pero la capacidad de ver los píxeles individuales no depende solo de la resolución de la imagen: también depende de la distancia del espectador.

En otras palabras: lo que cuenta es la resolución angular (es decir, el número de píxeles por grado) del ojo humano desnudo, que parece ser de aproximadamente 60 píxeles por grado (o 1 píxel por minuto de arco).


Edición : agreguemos algo de matemática a la mezcla (solo para contraponer el argumento de la pantalla retina de Apple)

Entonces … suponga que la distancia mínima que puede enfocar el ojo humano desnudo es de 15 cm o 5,906 pulgadas (1 pulgada = 2,54 cm).

La distancia angular de 1 pulgada a esa distancia de visión es de aproximadamente 580 segundos de arco. En Python:

  importación de matemáticas
 print math.degrees (math.atan ((1.0 / 2) / (15.0 / 2.54))) * 2 * 60

Se dice que el ojo humano desnudo es capaz de discernir 1 punto por segundo de arco, por lo tanto 580 debería ser el número mágico, y no 326 como dice Apple (por cierto, imprimimos texto en blanco y negro a 600 + DPI en impresoras láser).

En una nota lateral, recuerdo poder enfocar mis ojos tan cerca en mi juventud Ahora, en mis 40 años, tengo una ligera presbicia, así que tengo que usar gafas para enfocar a esa distancia.

Sin gafas , mi distancia de enfoque mínima es de aproximadamente 30 cm . A esa distancia, 1 pulgada es aproximadamente 291 segundos de arco (por lo tanto, 300 + DPI deberían estar bien cuando te olvidas de tus gafas …).

También se dice que no debe mirar una pantalla de computadora / tableta a menos de 40 cm . A esa distancia, 1 pulgada es aproximadamente 218 segundos de arco (por lo tanto, más de 300 DPI es aún más aceptable).