martes, 27 de octubre de 2009

Círculo de confusión


El círculo de confusión es un valor estadístico. Simplemente éso. Una persona promedio colocada a una distancia de alrededor de 40 cm de una fotografía de 20 x 30 cmm ve como un punto (sin dimensiones) cualquier cículo menor de 0.25 mm. Esto significa que cualquier círculo en una fotografía con un tamaño inferior a 0.25 mm se verá con nitidez absoluta, sin ninguna sensación de borrosidad. Hasta aquí todo claro.

Imaginemos que hemos tomado la fotografía con una cámara de película de 36 mm x 24 mm. Esto significa que hemos realizado una ampliación a lo ancho(30/3.6) y a lo largo (24/20) de 8.33. Haced el cálculo.Por tanto, cualquier círculo en el negativo con un tamaño inferior a 0.25/8.33 se verá nítido. O lo que es lo mismo todo círculo con un tamaño inferior a alrededor de 0.03 mm se verá con absoluta nitidez. Se suele decir que el círculo de confusión en una cámara réflex analógica es de 0.03 mm. Pero recordemos que éste número sólo tiene sentido al considerar su ampliación en una imagen de 20 x 30 cm y observarla a una distancia de alrededorde 40 cm.

¿Y si utilizáramos una réflex digital de formato completo (Con sensor de 36mm x 24 mm)? ¿Habría alguna diferencia?. La respuesta es No. Siempre, por supuesto, que obtengamos una copia impresa de 20 x 30 cm. Pero, insistiendo, ¿No tendrá alguna influencia la propia resolución del sensor? ¿Dará lo mismo que sea de 2000 x 3000 pixeles (aproximadamente 6 megapixeles) a que sea de 4000 x 6000 (aproximadamente 24 megapixeles). Fijémonos en el caso de menor resolución. Cada pixel ocupa una longitud de (36mm/3000) en una dimensión y (24mm/2000) en la otra. Es decir 0.012 mm en ambas dimensiones. Esta cantidad es menor de 0.03 mm. Si el sensor fuera de mayor resolución la longitud del pixel en ambas dimensiones sería aún menor. En cualquiera de los casos lo que ocurriría sería que el círculo estaría formado por varios pixeles en la imagen, en lugar de consistir en una zona de haluros de plata con imagen latente. Pero ésto no cambiaría las cosas.

Si utilizamos un sensor más pequeño, por ejemplo uno de tipo APS-C utilizado por las réflex digitales no profesionales, la situación cambia. En este caso el factor de ampliación sería mayor y por tanto el cículo de confusión sería distinto. El formato APS-C es alredor de 24 x 16 mm. Realizando los mismos cálculos que en el caso anterior, nos encontramos con que 30/2.4 es 12.5, al igual que 20/1.6. Por tanto si hacemos la división 02.5/12.5 nos dará 0.20 que es el valor del cículo de confusión para los sensores de formato APS-C.

La gran pregunta en este momento es por qué demonios vamos a encontar en la imagen del sensor círculos con un tamaño superior al círculo de confusión y que nos proporcionen esa sensación de borrosidad. La respuesta no está en el viento sino en el hecho de que una imagen es una visión bidimensional de algo inherentemente tridimensional.Y ya vimos en un artículo anterior que solamente los puntos de un único plano de la escena convergían, por acción del objetivo, en un único punto en la imagen. ¿Qué pasa entonces con aquellos que se encuentran un poco más lejos o un poco más cerca del objetivo?. La respuesta la podemos apreciar en la figura que encabeza el artículo. Aquellos que se encuentran más alejados convergen más cerca del objetivo, tal como los correpondientes al punto 2, que converge en 2'. Los más próximos al objetivo, tal como el punto 3,convergen más alejados, por detrás del plano focal y por tanto no se aprecia en la figura.

En estas condiciones, cuanto más nos alejemos en la escena del plano de enfoque (aquél cuyos puntos convergen en una único punto en el plano focal de la imagen) los puntos formarán cículos más grandes en el plano focal hasta el momento en que traspasen el tamaño de 0.03 mm si usamos una réflex de formato completo, o bien 0.20 mm si usamos una réflex de formato APS-C. En ese momento se formará un círculo en la imagen que al ampliarlo e imprimirlo en 20 x 30 y observarlo a 40 cm. nos proporcionará una sensación de borrosidad. El concepto de cículo de confusión es la base de la comprensión de las ideas de profundidad de campo y profundidad de foco que explicaremos posteriormente.

sábado, 17 de octubre de 2009

Límites en la manipulación de fotografías digitales

Cuando un ser humano observa una escena se producen tres circustancias cruciales en la formación de la imagen en su cerebro.
a) El movimiento de los ojos a diferentes partes de la escena produce el efecto de conseguir enfoques a diferentes distancias.
b) Si el ojo se mueve a una zona clara la pupila se cierra. Si se mueve a una zona oscura se abre.
c) La respuesta a la luminosidad no es lineal. Si aumenta mucho la luminosidad su percepción no aumenta en la misma medida.
Cuando una cámara fotográfica registra una escena, las cosas suceden de una forma muy distinta.
a) El punto de enfoque es único para toda la escena. Esto puede dar lugar a desenfoques selectivos.
b) La apertura del diafragma es única.
c) La respuesta a la luminosidad es lineal (en cámaras digitales).
Por tanto, si deseamos acercar el resultado de una toma a nuestra percepción humana, en el momento en que fue realizada, es necesario procesar la imagen de alguna manera. El resultado de la toma, tal como sale de la cámara, es meramente un paso intermedio. Esto es tanto más cierto, en cuanto que la toma haya producido un fichero raw, que ni siquiera es una imagen digital.
La pregunta que surge en ese momento es ¿cuáles son los límites en ese procesamiento?. La actualidad está llena de informaciones que denuncian la manipulación de imágenes mediante "photoshop".
En este asunto hay tantas respuestas posibles como personas. Aquí yo proporcionaré la mía particular.
En general creo que una manipulación fotográfica que se limite a luminosidad y color es permisible. Esto puede dar lugar a fotografías que poco tienen que ver con la realidad -HDR extremo, por ejemplo- pero la creatividad del fotógrafo, desde mi punto de vista, está por encima de la fidelidad a la realidad. Manipulaciones necesarias para evitar ruido o enfocar la escena se pueden realizar siempre, sin ningún tipo de limitaciones.
Si se trata de eliminar elementos de la escena, lo fundamental es que no sean esenciales para esa escena. El problema es que decidir qué es esencial o qué no lo es tiene una enorme carga de subjetividad. Las famosas eliminaciones de personas que, en algunas fotografías, acompañan a Stalin , según eran purgadas, es un ejemplo en el que la mayoría convendrá que se elimina un elemento esencial (La manipulación ya existía en la época de la fotografía química). Eliminar un cable de un paisaje, una persona de un monumento, etc serían, desde mi punto de vista, eliminaciones permitidas.
El asunto más polémico es el que se refiere al fotomontaje. Es decir a la construcción de imágenes que nunca han existido a partir de fragmentos de otras imágenes. En ese punto mi opinión particular es que no debe de utilizarse salvo que haya unas muy buenas razones para ello. Y entre esas razones no me vale la llamada a la creatividad. Reconozco que la creación de fotomontajes es una actividad perfectamente razonable, pero yo no la llamaría ya fotografía sino imagen digital.
¿Qué tipo de razones harían permisible el fotomontaje para que aún pudiéramos llamarlo fotografía?.Lo mejor será utilizar una ejemplo. Si utilizamos el enlace http://picasaweb.google.com/fotosdearanda2/SerieDeEdificiosHistoricos, podremos observar una fotografía sobre el Parador Nacional de Alarcón que es un fotomontaje. El problema es que a pesar de obtener cinco tomas adecuadas (histograma mediante) para HDR, el resultado del proceso mediante más de un software específico ha resultado insatisfactorio. Por algún motivo que desconozco, en este caso particular, el software HDR ha sido incapaz de procesar adecuadamente las fotografías aunque las diferentes tomas cubrían adecuadamente el rango dinámico necesario. La única solución ha consistido en utilizar el cielo de una toma y el parador de otra.
Mención aparte exigen las burdas manipulaciones realizadas en el contexto de fotografías de modelos, donde la modificación introducida es una profunda distorsión del original. Aun cuando técnicamente no es un fotomontaje, dado que no se utilizan elementos de diferentes tomas, se produce una modificación apreciable de las líneas maestras de la toma que no es una mera modificación de color y/o luminosidad. Esta actividad no es ética desde ningún punto de vista y coincido con muchas personas en que fotografías de este tipo debieran llevar anexa una etiqueta que informase de su manipulación digital extrema.

jueves, 15 de octubre de 2009

Espacios de color




Un modelo de color permite asignar valores numéricos a los colores. Pero esto no significa que estos valores puedan identificar colores determinados. Esta característica es la que define un espacio de color.
Algunos modelos de color (LaCie xyz, Lab, etc ) son tanto modelos de color como espacios de color. Otros como RGB y CMYK son únicamente modelos de color. Es muy importante el caso especial del modelo RGB porque es precisamente el que se utiliza con más frecuencia en los editores gráficos.
El problema es que si decimos que el valor rgb de un color (con 8 bits de profundidad) es (10, 30, 20), lo único que afirmamos es que hay una parte de rojo por tres verde y dos azul, pero ¿cuánto de verde es el verde, o dicho de otra forma, cómo es de saturado el verde que utilizamos para la mezcla tricolor?. Por ese motivo es necesario utilizar una escala independiente que muestre la pureza de rojo, verde y azul que usamos.De esta manera surgen los diferentes espacios de color RGB. Los hay de dos tipos:
a) Dependientes de dispositivo
En este caso, cada scanner, monitor e impresora poseen su propio espacio de color. Y cuando hablo de cada monitor, impresora, etc no me estoy refiriendo a cada modelo de monitor, impresora, etc, sino a cada aparato en particular. Evidentemente las diferencias en cuanto al espacio de color de los diferentes integrantes de un mismo modelo no pueden diferir mucho si el proceso de fabricación es correcto.
b) Independientes de dispositivo
Son espacios teóricos utilizados con intención de realizar una adecuada interpretación de los colores desde los programas de edición fotográfica.
El caso más evidente es el del espacio Adobe RGB, que utiliza de manera predeterminada tanto Photoshop como la mayoría de las réflex digitales. Otros ejemplos son sRGB o ProPhotoRGB.
Esta multiplicidad de espacios de color presenta un grave problema. Estudiemos, por ejemplo, el siguiente flujo:
a) Una cámara réflex toma una fotografía en su propio espacio de color y la transforma en Adobe RGB. Esta información se almacena como un fichero gráfico, por ejemplo un jpeg.
b) Ese fichero es transferido al disco duro de un ordenador.
c) Desde ahí se carga en un editor gráfico - que, para simplificar, imaginamos que utiliza Adobe RGB- y lo muestra en el monitor. Éste, posee su propio espacio de color. ¿Cómo es posible mantener la integridad del color en todas estas transformaciones?. La respuesta es que usando perfiles de color, pero éste será el tema de otro artículo.
Por último, en la imagen que encabeza esta aportación, se puede observar el modelo (y espacio) LaCie xyZ, que es una variante del original y que utiliza dos canalesde color x e y, y un canal de luminosidad. Se puede apreciar fácilmente que los colores más puros se encuentran hacia el exterior y los menos saturados hacia el centro.Con referencia a este espacio se muestra tanto el espacio sRGB como el Adobe RGB. Si observamos con atención podremos comprobar que el rango del Adobe RGB se extiende hacia colores más puros que el correspondiente al sRGB. Por ese motivo se afirma que Adobe RGB es un espacio de color mayor que sRGB.

jueves, 8 de octubre de 2009

Formación de imágenes utilizando un objetivo



Dado que una cámara estenopeica no proporcionada los niveles de calidad mínimos en la formación de imágenes, deberemos utilizar algún otro mecanismo alternativo. Éste es la utilización de un objetivo.
Para entender su necesidad deberemos profundizar un poco en su estructura y funcionamiento.
En primer lugar, el fenómeno óptico básico involucrado, es el conocido como refracción de la luz. Si un rayo de luz incide sobre una superficie que dividide dos materiales diferentes - tales como aire y vidrio - sufre una alteración en su trayectoria. Si utilizamos un elemento de vidrio de caras no paralelas, tal como el que aparece en la primera figura, obtenemos una desviación apreciable. Eligiendo adecuadamente tanto las propiedades físicas del vidrio como su geometría, podemos construir una serie de elementos de vidrio que permitan que todos los rayos de luz que son emitidos desde un único punto del sujeto confluyan en un único punto en la imagen. Es lo que se observa en la figura 2.
En realidad, los objetivos son unas superficies pulidas y circulares de vidrio que, en conjunto, producen este mismo resultado. Es lo que refleja la figura 3.
En un sujeto, tal como la lámpara de la figura 4, todos los puntos de un plano que intersecta (o corta) esa figura, formarán una imagen. Si tenemos la posibilidad de colocar algún tipo de pantalla en la posición correcta, cada punto del sujeto estará representado, a su vez, por un único punto.
La felicidad no va a ser absoluta. Los puntos del sujeto que se encuentren un poco más adelantados o retrasados que aquellos pertenecientes al plano de intersección, no formarán en su imagen un punto sino un círculo, tanto mayor cuanto mayor sea la separación de ese plano.
El concepto de enfocar en fotografía consiste en decidir para una caso concreto cuál es precisamente el plano elegido para que todos los puntos del sujeto que se encuentran en él tengan como imagen un punto y no un círculo. El mecanismo práctico consiste en mover la pantalla con respecto a la posición del objetivo.
Ese círculo que forman los puntos del sujeto que no se encuentran en el plano correspondiente a la distancia de enfoque están relacionados con el denominado círculo de confusión, que es muy importante en fotografía. Pero ésto será el tema de otro artículo.

viernes, 2 de octubre de 2009

Resolución de monitores

Como ya hemos comentado en un artículo anterior, la resolución de una imagen se puede definir como el número total de pixeles que contiene. La cuestión que abordamos en este momento es cuál es el significado de la resolución de un monitor.
El problema reside en que históricamente ha habido dos significados diferentes para esta palabra. Cuando la mayoría de los monitores utilizaban latecnología de rayos catódicos, es decir la misma de la antiguas televisiones convencionales, la palabra resolución hacía referencia a una densidad de pixeles. En aquellos momentos existía una resolución máxima condicionada por las prestaciones de la tarjeta gráfica que se utilizara. En esas circunstancias, dado el tamaño máximo de las pantallas - en torno a las 15 pulgadas - lo habitual es que su utlización condujera a unas interfaces gráficas en las cuales los elementos básicos, los menús, los iconos, etc resultaran demasiado pequeños para ser visualizados confortablemente. En la práctica la mayoría de usuarios utilizaba una resolución menor de la que permitía la propia tarjeta gráfica. Y la resolución se definía como el número de pixeles por pulgada. Es decir, una densidad de pixeles.
A partir del momento en el que la tecnología de monitores evolucionó a los actuales TFT, la situación dió un giro. En primer lugar estos monitores tienen una resolución nativa dada por el número de pixeles que puden visualizar, algo que no ocurría con los basados en tubo. Por tanto nos basta con hacer coincidir la resolución que es capaz de producir la tajeta gráfica con la propia resolución nativa del monitor. Dado que estos monitores poseen unas dimensiones superiores a los CRT, la mayoría, por no hablar de la totalidad, de los usuarios trabajan habitualmente a la resolución máxima. Se da el hecho adicional de las tarjetas gráficas instaladas suelen tener como resolución máxima la correspondiente a la que considera habitual en los monitores de cada nicho de mercado.
Un hecho adicional que ha convertido la palabra resolución de un monitor en un número absoluto de pixeles y no en una densidad,tal como ocurría en la tecnología anterior, es que los televisores TFT suelen medir su resolución de esta manera desde que las estrategias de marketing han promocionado la alta definición, sobre todo en referencia a lo que se conoce como Full HD (un nombre, por cierto, controvertido), o lo que es lo mismo 1920 x 1080 pixeles.
En este contexto la relación entre la resolución de la imagen (en pixeles reales) y la del monitor quedan perfectamente aclaradas. Si observamos una imagen de (redondeando) 3000 x 2000 pixeles en un monitor de 1600 x 1200 pixeles es obvio que en cada momento sólo podremos visualizar una parte de esa imagen. Moviendo las barras de desplazamiento lateral en cualquier editor podremos, por supuesto, acceder a otras partes de la imagen.
Un asunto adicional es que habitualmente no observamos las imágenes en pixeles reales sino que se aplica un factor de reducción (sólo visualizamosuna parte de los pixeles) con el objetivo de encajar la imagen en el monitor y que pueda verse completa.