jueves, 26 de noviembre de 2009

Resolución de impresoras: ¿Pixeles por pulgada o puntos por pulgada?

Es absolutamente asombroso que un tema menor, no especialmente complicado, resulte ser el que mayor confusión produzca en el ámbito de la fotografía digital.Para tratar de aclararlo, antes de particularizar el caso especial de las impresoras, voy a hacer un pequeño recorrido por otros dispositivos que en realidad será un resumen de lo explicado en artículos previos. Quizás éste me salga un poco extenso, pero así es la vida.
Primero:
La resolución de una imagen es el número de pixeles que contiene.  Punto.
Y el concepto de pixel es puramente abstracto.
Pero .....
Cuando esa imagen debe plasmarse en el mundo real, debe ser dispuesta en una superificie y dependiendo del dispositivo, utilizar una u otra tecnología para dar soporte a cada pixel. Aquí es donde empiezan los problemas.
Segundo: Sensores de cámaras fotográficas
La resolución en los sensores se da simplemente como número de pixeles. Sin más. ¿Es que aquí no existe el concepto de pixeles por pulgada?. Por supuesto, no es lo mismo incluir 10 millones de pixeles en el sensor de una pequeña compacta que en el de una réflex digital de formato completo.
Pero, en este ámbito, la densidad de pixeles por pulgada no se toma en consideración.
Tercero: Monitores de tubos de rayos catódicos
Aquí la resolución siempre se ofreció como una densidad de pixeles por pulgada. Quiero hacer notar que ésta es una densidad lineal. Y las densidades reales son por superficie. La suposición no expresada explícitamente es que esa densidad lineal era la misma tanto a lo ancho como a lo largo. Esta situación se mantiene hasta la actualidad.
¿Por qué aquí la resolución se define como una densidad?
La respuesta es que en estos dispositivos, la pantalla no tenía resolución. Simplificando mucho podemos decir que el interior de la pantalla estaba recubierto de una sustancia fosforescente que brillaba cuando impactaba sobre ella un chorro de electrones. En realidad en este caso la resolución la dictaba únicamente la tarjeta gráfica. Así, modificando los parámetros de la tarjeta gráfica, podíamos obtener resoluciones (densidades) distintas utilizando el mismo monitor.
Cuarto: Monitores TFT
Aquí la resolución se vuelve a dar en número de pixeles. ¿Por qué?
Por que estos monitores tienen una resolución nativa y tienen un patrón de elementos capaz cada uno de visualizar un pixel. Por tanto aquí intervienen tanto la tarjeta gráfica como el propio monitor con las siguientes consideraciones. Aunque activemos la tajeta gráfica en un modo de mayor resolución que la disponible en el monitor no conseguiremos nada. Sólo se podrán ver los pixeles que tiene el monitor. Si la resolución es menor despreciaríamos pixeles de éste. Por tanto, en la práctica, el modo de resolución de la tarjeta gráfica se hace coincidir con la resolución nativa del monitor.
¿Es que aquí no hay densidad de pixeles?. Por supuesto, si queremos cambiar la densidad sólo tendremos que ...........
utilizar un monitor distinto de diferente número de pulgadas. En este ámbito, obviamente nadie habla de densidades.
Quinto: Impresoras
Aquí sí que se habla de densidades. El problema es que se habla de dos densidades distintas. ¿Cuál es la correcta: pixeles por pulgada o puntos porpulgada?
Y la respuesta es ..........
AMBAS.
En realidad son dos densidades distintas. Los pixeles por pulgada indican lo que su nombre indica y los puntos por pulgada indican cuántas gotitas de tinta es capaz de colocar la impresora en una pulgada (Recordemos que la densidad es, en realidad superficial y se mantiene lo dicho más arriba).
En realidad podemos manipular estos dos parámetros de forma completamente independiente.
Para entenderlo mejor utilicemos un ejemplo.
Una imagen decidimos imprimirla con 144 pixeles por pulgada. Y esta densidad la elegimos por software.
Esa misma imagen decidimos imprimirla con 1440 puntos por pulgada. Y esta densidad la elegimos, independientemente de la anterior, también por software.
Esto significa que hay 10 puntos lineales por pixel. O lo que lo mismo 100 = 10 x 10 puntos por pixel.
Si hacemos otra elección diferente, por ejemplo 288 pixeles por pulgada y 2880 puntos por pulgada seguimos teniendo 10 puntos lineales por pixel. Y al igual que antes 100 = 10 x 10 puntos por pixel. Lo único que cambia es que ahora ese pixel en el papel se representa en una superficie que es una cuarta parte de la anterior.
Evidentemente la elección de los números no es inocente, porque coincide con las densidades de puntos habituales en la impresoras de inyección de tinta.
Eso es todo, amigos.

viernes, 20 de noviembre de 2009

Lentes Delgadas


Una lente delgada es una abstracción. En su caso más sencillo es una lente de vidrio fomada por la intersección de dos esferas de igual radio, pero con la particularidad de que su espesor es mucho más pequeño que el radio de las esferas. Una imagen gráfica podría ser la de una naranja que ha sido
partida por la mitad, posteriormente exprimida y los dos casquetes resultantes vueltos a unir. Aunque ésto no sería una lente delgada porque su "espesor" sería el diámetro de la naranja. Una imagen esquemática puede observarse en la figura que acompaña al artículo.
Dos definiciones:
a) Eje de la lente (o eje óptico) es una línea imaginaria que conecta los centros de las dos esferas. (Línea que une C1 y C2 en la figura).
b) Centro óptico es el centro geométrico de la lente. Se encuentra sobre el eje óptico (O en la figura).
Una lente delgada (convergente) se representa de forma simplificada tal como aparece en la figura inferior. Alguna definición más:
c) La longitud focal de una lente delgada puede definirse como:
     c.1) La distancia entre un punto denominado Foco objeto y el centro óptico, cuya imagen se encuentra en el infinito. (F1 en la figura)
     c.2) La distancia entre un punto denominado Foco imagen y el centro óptico, que es le imagen de un punto situado en el infinito en la escena. (F2 en la figura)
Si las dos esferas son exactamente del mismo radio, esta definición es consistente.
Dadas estas condiciones, en una lente delgada se verifican las siguientes circunstancias:
1) Todo rayo paralelo al eje óptico que proviene de la escena, pasa por el foco imagen.
2) Todo rayo que pasa por el foco objeto emerge paralelo al eje óptico.
Es posible utilizar esta información para obtener la imagen de una objeto, PQ en la figura, por métodos puramente gráficos. Así podemos observar en la figura que el rayo que sale de P paralelo al eje óptico, acaba pasando por F2. De igual manere, el rayo que emerge de P y pasa por F1, sale paralelo al eje óptico. Con dos rayos únicamente ya es posible ver cuál será el punto en que intersecten y ahí estará la imagen de P, P'. Dado que cada plano de la escena se convierte en un plano en la imagen, es fácil determinar donde se encuentra la imagen de Q, q'. La imagen completa se ha obtenido.
Esta simplificación de la realidad nos va a servir, en posteriores artículos, para poder determinar dónde se forma la imagen de un objeto de la escena real, cómo varía la profundidad de campo y foco con la variación de la longitud focal y otra serie de cuestiones que serán posteriormente abordadas.

viernes, 13 de noviembre de 2009

Flash de relleno

En un artículo anterior hablamos sobre el flash de sincronización lenta. La idea básica es que estamos interesados en la exposición correcta, tanto del sujeto en primer plano (realizada por el flash), como en la del fondo (realizada por la cámara en la forma habitual).
Cuando hablamos de flash de relleno, técnicamente estamos hablando (habitualmente) de flash de sincronización lenta, pero hay un matiz. Cuando el fondo es más oscuro que el sujeto de primer plano, se utiliza la terminología de flash de sincronización lenta porque las velocidades de obturación son lentas. Cuando el fondo es más luminoso que el sujeto de primer plano, hablamos de flash de relleno. En este caso las velocidades de obturación son más rápidas. En cualquier caso siempre existe el límite superior de la velocidad de sincronización. Por ejemplo, en la Nikon D200, esta velocidad es de 1/250 seg.
Resumiendo: Flash de relleno es la situación en que intentamos exponer adecuadamente tanto el sujeto en primer plano como el fondo, pero con la particularidad de que el fondo es más luminoso que el sujeto en primer plano. En esas circunstancias las velocidades de obturación serán relativamente rápidas.
Existe un problema adicional que se relaciona con lo que habitualmente necesitamos cuando usamos flash de relleno, en contraposición a lo que necesitamos cuando utilizamos estrictamente flash de sincronización lenta. Me explico:
Si utilizamos flash de sincronización lenta, el fondo será oscuro y nuestra intención es que se vea correctamente expuesto y además que se vea con nitidez. Es decir, que la apertura de diafragma será relativamente pequeña (números f grandes). Esto ocurrirá en situaciones de baja iluminación, típicamente por la noche en exteriores. Si utilizamos flash de relleno, desearemos que el fondo quede adecuamente expuesto, pero también, en la mayoría de las ocasiones, desenfocado. En ese caso utilizaremos aperturas de diafragma grandes (números f pequeños).
Esto marca una diferencia, no debida en realidad directamente al flash, entre lo que estrictamente se denomina flash de sincronización lenta y flash de relleno. Será la velocidad de obturación que decidamos utilizar, la que realmente marcará que usemos flash de sincronización lenta o flash de relleno. Y esta decisión vendrá determinada, en realidad, por la luminosidad relativa del fondo con respeto al sujeto principal.
Un último apunte. No debemos esperar encontrar en nuestra cámara ( o flash, si es externo) necesariamente unos modos de operación marcados de esta manera. Por ejemplo, en el caso de la Nikon D200 podemos conseguir flash de relleno de tres formas distintas:  Una es utilizar la modalidad de flash de sincronización lenta , la segunda es una modalidad específica de los flashes de Nikon y la tercera es el modo de sincronización automática, por defecto del flash.

domingo, 8 de noviembre de 2009

Profundidad de campo y profundidad de foco


Los conceptos de profundidad de campo y profundidad de foco están relacionados pero son diferentes. Para poder entenderlos adecuadamente necesitamos partir de una realidad simplificada.
El objetivo de una cámara fotográfica está formado por varias lentes pero, para la explicación que sigue en este artículo y en los siguientes, es más conveniente considerar que utilizamos una única lente convergente equivalente al conjunto. Esta lente presenta un plano de simetría perpendicular al eje óptico (una línea imaginaria que desde la escena, atraviesa el objetivo, posteriormente el sensor, y luego continúa indefinidamente). Le llamaremos el plano del objetivo.
Todos los puntos de cada plano de una escena convergen en puntos que se encuentran contenidos en su correspondiente plano imagen. Cuando utilizamos el anillo de enfoque, lo que estamos haciendo es variar la distancia entre el plano en el que se encuentra el sensor (el denominado plano focal) y el plano del objetivo.
(NOTA: El plano focal está situado sobre la longitud focal, únicamente cuando enfocamos a infinito).
Esto conduce a seleccionar uno de los planos de la escena de tal manera que su plano imagen se constituya en el plano focal . A este plano lo denominaremos plano de enfoque.
La profundidad de campo es el conjunto de planos anteriores y posteriores al plano de enfoque que forman en el plano focal círculos imágenes inferiores en tamaño al círculo de confusión. Debido a la limitación en la visión humana, los observamos en la imagen como perfectamente nítidos, aún cuando en realidad, perfectamente nítido, sólo hay uno: el plano de enfoque. Por tanto, y esto es importante, la profundidad de campo hace referencia a los planos de la escena, en concreto a aquellos que apreciamos con nitidez.
La profundidad de foco mide la mayor o menor dificultad para realizar el enfoque. Para poder entender el concepto debemos recurrir a un experimento imaginario, tal como se observa en la figura que acompaña al artículo. Si movemos (hacia adelante o hacia atrás) el plano focal, manteniendo constante el plano de enfoque, observamos que el punto imagen se convierte en un círculo. Cuando sobrepasemos el tamaño del círculo de confusión empezaremos a
ver la imagen borrosa. Si hay poca profundidad de foco, significa que rápidamente empezaremos a ver borroso, por tanto nos será más sencillo enfocar. Si la profundidad de foco es mayor, tardaremos más en observar el desenfoque y nos costará más enfocar. Es decir que, en este caso, cuanto peor, mejor. Por tanto la profundidad de foco hace referencia al desplazamiento del plano focal necesario para que podamos apreciar la falta de nitidez.
Es muy importante comprender que lo anterior es un experimento imaginario. Si cambiamos realmente la distancia entre el plano focal y el plano del objetivo utilizando el anillo de enfoque, lo que conseguiremos será obtener una plano de enfoque distinto. Y en la premisa de nuestro experimento se consideraba que el plano de enfoque permanecía constante.

lunes, 2 de noviembre de 2009

Perfiles de color

Antes de entrar de lleno en la definición de los perfiles de color, es necesario distinguir algunos conceptos claves en Teoría del Color que funcionan como conceptos previos para su adecuada comprensión.
Existe el concepto de Corrección del Color. Este es un tema en realidad subjetivo. Una fotografía de una puesta de sol puede tener una tonalidad anaranjada que una persona puede percibir como excesiva y a otra le enamore. La primera tratará de eliminarla con las herramientas a su disposición. La segunda la mantendrá: Para una, la tonalidad será correcta y para la otra no. Aquí no intervienen para nada los perfiles de color.
Cuestión diferente es el tema de la Administración del Color. Esta trata de que los colores que se observan en el monitor sean "exactamente" los mismos que se obtendrán en la copia impresa (en realidad, exactamente del todo, es imposible, pues una tecnología es emitiva y la otra reflexiva). Se pueden utilizar también perfiles de otros dispositivos, tales como los Escanneres.
Aquí entran de lleno los perfiles de color, conocidos como perfiles ICC debido a la institución en la que fueron desarrollados. Estos perfiles son unos ficheros informáticos, independientes de Sistema Operativo, que contienen unas tablas de conversión en dos sentidos. Y trabajan con espacios de color RGB. Convierten los números del espacio de color de ese dispositivo concreto en una representación en el espacio (y modelo) de color Lab. Y viceversa. El espacio (y modelo) de color Lab funciona pues como un mecanismo de traducción intermedia entre dispositivos.
En realidad la cuestión anterior debe ser matizada en dos aspectos.
a) Existen perfiles de color genéricos para una modelo de dispositivo, por ejemplo todas las impresoras Epson R800 con papel premium glossy, aunque una unidad particular puede mostrar ligeras diferencias con este perfil. En la práctica la mayoría de los fotógrafos aficionados usamos estos perfiles genéricos.
b) También se contempla la traducción con espacios de color no ligados a un dispositivo. Cuando una fotografía es abierta en un editor gráfico, su representación se hace en el espacio de color Adobe RGB, sRGB u otros. Es necesario un perfil que realice una adecuada representación en el monitor que estamos utilizando.
En relación con la corrección del color, una adecuada administración del color, hará que una fotografía con una tonalidad magenta en el monitor se imprima con ese mismo tono magenta en la impresora.
Un aspecto diferente hace referencia a la calibración de un dispositivo. En este caso nos estamos refiriendo al hecho de que el espacio de color de ese dispositivo puede cambiar con el tiempo. El caso más obvio es el de los monitores. Si usamos un colorímetro y el software adecuado, podemos generar un perfil exacto del dispositivo concreto. Si la representación de colores de ese dispositivo cambia con el tiempo -es decir, cambia su espacio de color- es necesario calibrar el dispositivo para obtener un perfil que sea adecuado a las nuevas circunstancias.