1. QUE ES UNA IMAGEN DIGITAL Y QUE ELEMENTOS LA
CONSTITUYEN
La fotografía consiste en captar de forma permanente una imagen, gracias a la luz que reflejan los objetos. Esta luz entra en la cámara a través del objetivo.
3. Los
píxeles Figura 1: Una imagen digital consta de píxeles yuxtapuestos La imagen
digital consta de millones de celdas llamadas píxeles ordenadas en líneas y
columnas. RECUERDA: El píxel es una unidad de información, no una unidad de
medida, ya que no se corresponde con un tamaño concreto. Un píxel puede ser muy
pequeño -0.1 mm.- o muy grande -1 cm.-.
4. El
color de cada píxel se obtiene mediante tres elementos separados: los
luminóforos. Uno para el rojo, otro para el verde y un tercero para el azul.
Este esquema de colores se conoce como RGB (Red/Green/Blue). Las cantidades
relativas de estos tres colores pueden reproducir casi cualquier color del
espectro visible (más de 16 millones de colores) Figura 2: Cada píxel de una
pantalla consta de tres elementos de color
5. Puntos
de fósforo y color En una cámara digital los píxeles de los captadores están
formados por unos elementos fotosensibles llamados puntos de fósforo, que crean
una corriente eléctrica de acuerdo con la intensidad y el tiempo de exposición
a la luz recibida.
6. Desde
un punto de vista eléctrico, el captador es el mismo. Cada punto de fósforo
está cubierto simplemente por un filtro rojo, verde o azul. Por ejemplo, un
filtro rojo detiene los rayos verdes y azules, pero deja pasar el componente
rojo de la luz. Un filtro cromático sólo deja pasar su propio color
7. Transferencia
de una imagen Cuando toma una fotografía, los varios millones de puntos de
fósforo del captador contienen diferentes cargas eléctricas. La cámara digital
debe ahora guardarlas en forma de un archivo de imagen. Para esto, debe enviar
el contenido de todos los puntos de fósforo a la memoria de la cámara. En una
fracción de segundo, se transfieren todas las cargas eléctricas almacenadas en
los puntos de fósforo a una zona de almacenamiento, liberando los captadores.
Después, se desplaza las cargas de una a otra zona y se les transfiere a la
memoria. Durante esta operación, se amplifica las cargas eléctricas. :
Se desplaza las cargas eléctricas del captador de una a otra zona de
almacenamiento antes de enviarlas a la memoria .
8. Después,
se convierte las cargas eléctricas en valores digitales de 0 a 255. Por
supuesto, se mantiene el orden en el que se ha guardado cada punto de fósforo,
de manera a que los píxeles estén dispuestos correctamente en la imagen final
visualizada en la pantalla del ordenador. En función de la marca y del modelo
de la cámara, se guarda la imagen en distintos formatos gráficos. Pero la
mayoría de las veces, se comprime la imagen. L a compresión de la imagen es la
última fase del proceso de toma de la fotografía. Un programa residente en los
componentes electrónicos de la cámara realiza la compresión. En función de la
calidad elegida por el usuario (en la cámara misma), esta compresión producirá
un archivo de imagen JPEG de tamaño variable. Finalmente, se almacena la imagen
en el soporte de almacenamiento de la memoria de la cámara (tarjeta de memoria,
disco duro, CD-Rom, etc.) y se puede visualizar.
9. Aspectos
a considerar en una imagen digital
10. Profundidad
de color En una imagen en escala de grises cada punto de la imagen se almacena
en un Byte, donde su valor numérico representa su tono, que puede oscilar entre
el blanco (255) y el negro (0). Esto quiere decir que es una imagen donde
existen 256 tonos de gris (de 0 a 255, ambos inclusive). Es decir, la
profundidad de color es el número de bits que definen cada píxel, que
determinan el máximo numero de colores que puede tener. En fotografía digital
hay 2 tipos de imagen, de forma similar a la tradicional: escala de grises y
color. La primera se denomina “escala de grises” precisamente para
diferenciarla del blanco y negro donde solo existen 2 tonos, el blanco y el
negro. Esta última (la imagen de blanco y negro) es una imagen con 1 bit por
píxel. Cuantos más bits definan cada píxel, más tonos podrá tener: si tiene 4
bits por píxel, tendrá 16 grises y si tiene 2 bits tendrá 4 grises. Figura 6 :
Un byte equivale a 8 bits
11. Una
imagen digital en color se genera con sus componentes R, G y B por síntesis
aditiva. Así pues, la imagen en color se compone de 3 “imágenes”: la que
contiene la parte roja, la verde y la azul. Cada una de ellas es una imagen en
escala de grises, pero como va asociada a cada uno de los colores primarios, al
visionarla el ordenador la colorea adecuadamente. La suma de las 3, por
síntesis aditiva, componen la imagen final. Cada píxel va definido por 3 Bytes:
el rojo, el verde y el azul. Si cada uno de ellos tiene una gama de 256 tonos,
en la imagen final habrá una gama de 16,777.216 colores posibles (256 x 256 x
256), que se suele abreviar como “16 millones de colores”. Es lo que se llama
una imagen con una profundidad de color de 24 bits (8 por cada color).
12. En
este esquema se puede apreciar cómo afecta a la gama tonal la reducción del
número de colores:
13. Tamaño
de imagen Se define con las dimensiones en píxeles de la matriz o cuadrícula.
Tamaño de imagen original A continuación, veremos tres imágenes que muestran un
tamaño en píxeles del 50, 25 y 12,5% a la anterior respectivamente:
14. Tamaño
200 x 131 píxeles (50 %) Tamaño 100 x 66 píxeles (25 %) Tamaño 50 x 33 píxeles
(12,5 %)
15. Tamaño
de archivo Tamaño de archivo es la cantidad de información que contiene, medida
en bits, B ytes o alguno de sus múltiplos. Seguro que a todos os suena el
"Mega" o el "Giga". Conviene también
aclarar que una imagen en color en las mismas condiciones que una en escala de
grises no tiene el mismo tamaño. Si una imagen es en color RGB (profundidad de
24 bits) contiene el triple de información que la misma en escala de grises, ya
que se compone de 3 canales y, por tanto, 3 Bytes y no uno por píxel.
16. Resolución
Es la medida de cantidad de píxeles por unidad de longitud, comúnmente píxeles
por pulgada (una pulgada equivale a 2,54 cm de longitud). Se suele abreviar
como “ppp” o “dpi” (dot per inch). Como la resolución mide el número de píxels
por longitud, se deduce que a mayor resolución, mayor número de puntos de
imagen en el mismo espacio y, por tanto, mayor definición. Es decir: resolución
es definición. Este es, posiblemente, uno de los conceptos que más se prestan a
confusiones entre los aficionados, principalmente por creer que resolución es
lo mismo que calidad. Un ejemplo: si una imagen tiene unas dimensiones en
píxeles de 548x366 y se imprime o está mostrando en pantalla con unas
dimensiones de 2x3 pulgadas, entonces tiene una resolución de 72 dpi.
17. Imagine
ahora que se imprime esta imagen con una resolución superior de, por ejemplo,
200 dpi. Eso quiere decir que el ordenador le mandará imprimir la imagen a la
impresora con una tamaño menor para así conseguir que haya 200 y no 72 píxeles
por cada pulgada de papel. Por tanto, la imagen impresa será más pequeña:
18. Y
ahora, la pregunta del millón: ¿Y si se quiere imprimir la imagen al tamaño
anterior, pero con esta última resolución?. Pues la respuesta es muy sencilla:
NO se puede a menos que se modifique la imagen añadiendo más píxeles, que se
conoce como interpolador. Si utilizas Paint Shop Pro para efectuar estos
cambios en la resolución, seguro que conoces la ventana “ Redimensionar ".
Dentro
de las cámaras digitales de tipo profesional, la tendencia de casi todos los
fabricantes consiste en reutilizar los componentes clásicos de una cámara de
gran formato, de forma que el chasis se sustituye por otro computerizado que
debe conectarse a un ordenador, permitiendo que las imágenes se almacenen
directamente en formato digital sobre un fichero procesable informáticamente.
Otro tipo de cámara es en la que la foto queda almacenada en un disquete
pasando directamente al ordenador para su visualización o proceso.
2. DESCRIBA EN QUE
CONSISTE LA DIGITALIZACIÓN DE UNA IMAGEN
Normalmente
estamos acostumbrados a ver la fotografía como materia (algo palpable), es
decir, papel fotográfico, diapositivas, etc. En cambio la fotografía digitalizada
no es tangible para nuestras manos, puesto que en el ordenador la imagen está
compuesta por un código numérico que luego la computadora nos representa en la
pantalla mediante píxeles, que englobados en el ojo humano lo interpreta como
una imagen integra.
El primer proceso
para tratar digitalmente una fotografía es introducirla dentro del ordenador.
Para ello se recurre al escáner que es un aparato el cual capta a través de una
óptica con un sensor los puntos que componen una imagen y los transforman en el
ordenador en píxeles. Aparte de imágenes fotográficas en el escáner también se
pueden poner objetos.
Existen dos tipos
de escáner, el de mesa y el manual. Actualmente los manuales están en desuso,
puesto que no es fiable su resultado. Éste se maneja, como el nombre indica,
ayudado por la mano la cual arrastra la lente por encima de la imagen que se
desea digitalizar.
El escáner de mesa
es un dispositivo rectangular en el que en su interior tiene un mecanismo
apreciable a través de una pantalla de cristal en la que se ponen las imágenes
boca abajo. Se cierra con una tapa de seguridad tanto para proteger la imagen
del exterior, como a la vista de la luz que emite el sensor para captar la
imagen.
Los entornos
gráficos son todos aquellos programas que se utilizan para ver, guardar,
modificar o transformar una imagen anteriormente digitalizada. Con ello podemos
manipular dicha imagen ya sea para mejorar su calidad, modificar su contenido o
cambiar su apariencia. Estos programas disponen de unas herramientas que
facilitan la manipulación de una imagen. Hay distintos tipos de entornos
gráficos, cada uno de ellos dispone de un tipo de herramientas similares entre
sí y en su acción en la imagen, pero de distinto manejo. Para ello podemos
elegir el entorno que más se adapte a nuestro gusto, a nuestra forma de trabajo
y al proceso que en la imagen queremos realizar. Los más utilizados son algunos
como Photoshop, Paint Shop Pro, Corel Draw, Photo Paint, etc. Todos estos
entornos se pueden encontrar programados para las distintas plataformas, ya
sean Windows, Macintosh, Linux... Para poder intercambiar imágenes entre los
distintos sistemas operativos (plataformas informáticas) existe el formato de
imagen, que es la extensión en la que se guarda el archivo de la imagen. Estos
formatos también poseen unas características especiales que les distinguen
entre ellos; estas características son la resolución y la calidad de imagen en
contraste con la capacidad de memoria que ocupa, y algunos la compresión de los
datos para ocupar unos megas. Algunas de las extensiones más conocidas son:
BMP,PSD, GIF, JPEG, JPG, PCX, TIFF, etc. Este último es bastante utilizado para
intercambiar imágenes entre los distintos sistemas operativos debido a su
compatibilidad entre ambos.
Normalmente la calidad
de imagen que posee uno de estos archivos es directamente proporcional a la
memoria que ocupa.
3. HAGA UN RESUMEN DE LA
HISTORIA DE LA FOTOGRAFÍA, EXPLICANDO CÓMO SE PASÓ DE LA FOTOGRAFÍA ANALÓGICA A
LA DIGITAL.
Hace 25 siglos en China se empezó a usar la cámara oscura. Si en una
habitación oscura hacemos un orificio de unos milímetros y colocamos una superficie
plana a unos 20 cm. veremos como se forma una imagen invertida y borrosa de lo
que haya en el exterior. El siguiente paso era fijar esa imagen de forma
permanente, lo que no se logró hasta el siglo XIX.
- Siglo XV. En el estudio de Leonardo da
Vinci se realiza una completa descripción de la cámara oscura.
- 1826 J. N. Niépce produce la primera fotografía utilizando sales de plata. Puede considerarse como el
nacimiento de la fotografía. Era una foto desde su ventana, como puedes ver en
la siguiente imagen.
- 1835 Louis Daguerre crea los daguerrotipos que mejoraban el método de Niépce. Eran láminas de cobre
tratadas con Ioduro de plata. La burguesía comenzó a hacerse retratos con este
método.
- 1846 Abre la fábrica Carl Zeiss en Jena dedicada a la fabricación de objetivos.
- 1855 Frederick Scott crea la técnica del
colodión húmedo que lograba más nitidez que los daguerrotipos. A continuación,
Richard Meaddox crea el colodión seco a base de gelatina de bromuro de plata. A
partir de esta emulsión se fueron mejorando los soportes sobre los que
aplicarla y la fotografía comenzó a crecer y hacerse popular.
-1888 Kodack produce las primeras cámaras con película y servicio de procesado, lo que contribuyó a la expansión
de la fotografía a más capas sociales.
Durante el siglo XIX se realizaron diversos
intentos de fotografía en color que no llegaron a tener éxito, como James Clerk
Maxwell en 1861 que usaba tres fotografías de color rojo, verde y azul.
- 1904. Los hermanos Lumière crearon el procedimiento de la placa autocroma que
lograba una diapositiva
en color con
la que se obtenían copias por contacto.
- 1913. Aparece la primera cámara Leica.
- 1935. En los laboratorios Kodak se crea la
película en color Kodachrome y en 1936 aparece la película Agfacolor. Desde entonces
las cámaras exponian la película negativa que había que llevar al laboratorio
fotográfico para obtener las copias en papel hasta que llegó la fotografía
digital en el siglo XXI.
- 1936. Aparece la primera cámara moderna del
tipo SLR de 35 mm. la Kine-Exacta que puedes ver en esta imagen.
-1947. Películas y cámaras Polaroid Instant (b/n) que permitian obtener la copia en papel sin
pasar por el laboratorio. Aunque la calidad, economía y la mayor durabilidad de
las copias en papel nunca dejó que el sistema Polaroid triunfara masivamente.
-1972. Polaroid SX-70 instantáneas en color.
- Durante los últimos decenios del siglo XX
la fotografía creció en todos los aspectos. Lás cámaras bajaron de precio y
pasaron a ser un artículo más de consumo, millones de personas de aficionaron a
la fotografía y apareció toda una industría a su alrededor. La fotografía pasó a ser considerada como un arte al mismo nivel que lo pueda ser la pintura. Gracias al
fotoperiodismo se han conocido y difundido imágenes de los hechos más
relevantes ocurridos en cualquier parte del mundo.
El paso a digital
- 1969. En los laboratorios Bell se crea el
primer sensor CCD.
-
1975. Steve Sasson crea la primera cámara fotografica digital experimental en la empresa Kodak, pesaba 4
Kg. y tenia una resolución de 0,01 Mpx. Tenía el aspecto experimental que
puedes ver en esta imagen.
- 1988. Aparece el formato JPEG que permite guardar una imagen fotográfica con calidad
aceptable en poco tamaño de archivo.
- 1988. Aparece la DS-1P de Fujifilm con memoria flash extraible.
- 1990. Aparece Photoshop el programa de tratamiento de imagen que permite retocar
fotografías digitales.
- 1991. Se lanza la cámara digital al mercado, la
Logitech Fotoman con un sensor CCD.
- 1995. Aparece la Casio QV-10, la primera
con pantalla incorporada.
- 1998. Se lanzan varias cámaras con 2 Mpx. de resolución, la Agfa ePhoto 1680, la
Epson PhotoPC 750Z con un zoom 3x, la Sony DSC-F55
- 1999. Nikon lanza la D1, una SLR digital con 2,7 Mpx.
- 2002 Las ventas de digitales compactas superan a las analógicas.<<xzsw56
- 2003. Canon crea la EOS 300D una SLR de 6 Mpx. con un precio sobre
los 1000 € y con la que la calidad de las cámaras digitales de aficionado empezó
a igualar, e incluso superar a las cámaras analógicas. En esos años habia una
polémica entre los defensores de las cámaras analógicas y los que se pasaban a
la fotografía digital sobre qué tipo de cámara era mejor. En esa época, si bien
era cierto que la calidad de las buenas cámaras analógicas era mejor que las
digitales del mismo precio, las ventajas adicionales de las digitales, sobre
todo poder ver la foto al instante, ya empezaban a inclinar la balanza de forma
clara a su favor.
- 2006 Nikon anuncia el fin de la producción de cámaras analógicas de consumo. La polémica se cerró de forma definitiva,
incluso para la fotografía profesional ya estaba claro que el futuro sería
digital.
A pesar de ello conviene reconocer que hay algunas cosas buenas que hemos dejado atrás con el fin de la fotografía analógica.
- Antes de hacer una foto pesábamos muy bien si la foto iba a salir bien ya que nos costaba
un dinero, ahora simplemente disparamos y si sale mal, la borramos. Por eso con
la fotografía analógica había más interés en aprender técnica fotográfica.
- Una pila podía durar varios años ya que solo se empleaba para alimentar el fotómetro,
sobre todo en modelos totalmente manuales como la YASHICA FR.
- Con la pila agotada podiamos seguir haciendo fotos,
aunque no pudiesemos usar el fotómetro.
- El momento de revelar las fotos y ver los resultados era un momento emocionante porque siempre esperabamos que las fotos hubieran salido
bien.
La fotografía analógica,1 de rollo o de carrete, también conocida como fotografía tradicional, argéntica2 o química,3 es el retrónimo con el que se describe al proceso fotográfico tradicional, en comparación con la fotografía digital, de aparición más reciente. Se basa habitualmente en un proceso físicoquímico que involucra el uso de un material fotosensible activo (aplicado sobre placas de vidrio o sobre una película flexible de material traslúcido, actualmente plástico) y su estabilización (revelado), para la obtención y el procesado de las imágenes.
La fotografía digital consiste en la obtención de imágenes mediante una cámara oscura, de forma similar a la Fotografía química. Sin embargo, así como en esta última las imágenes quedan grabadas sobre una película fotosensible y se revelan posteriormente mediante un proceso químico, en la fotografía digital las imágenes son capturadas por unsensor electrónico que dispone de múltiples unidades fotosensibles, las cuales aprovechan el efecto fotoeléctrico para convertir la luz en una señal eléctrica, la cual es digitalizada y almacenada en una memoria.
4.las imágenes digitales tienen parámetros que determinan sus
características. Explica a que corresponde
1. El tamaño
2.la resolución
3.la profundidad de color
4.el numero de puntos por pulgada dpi
5.Explica la diferencia entre:
-mapa de bits
-imagen vectorial
-imagen raw
-imagen con compresión
6.explica que son los formatos de imagen y describe las
características de los formatos mas comunes.
3.la profundidad de color
4.el numero de puntos por pulgada dpi
5.Explica la diferencia entre:
-mapa de bits
-imagen vectorial
-imagen raw
-imagen con compresión
6.explica que son los formatos de imagen y describe las
características de los formatos mas comunes.
Glosario
BIT. Del inglés Binary digIT.
El bit es la unidad de información del sistema binario cuyos valores son 0 y 1 (No/Si).
BYTE. Conjunto de 8 Bits. También se traduce por OCTETO.
KILOBYTE.
Un kilobyte son 1.024 bytes, un poco mas de mil.
Abreviatura KB.
MEGABYTE.
Un megabyte son 1.048.576 bytes, un poco mas de un millón de bytes.
Abreviatura MB.
GIGABYTE.
Un gigabyte son 1024 megabytes, comúnmente se utiliza la equivalencia de 1 GB = 1000 MB.
Abreviatura GB.
TERABYTE.
Un terabyte son 1024 gigabytes, comúnmente se utiliza la equivalencia de 1 TB = 1000 GB.
Abreviatura TB.
El bit es la unidad de información del sistema binario cuyos valores son 0 y 1 (No/Si).
BYTE. Conjunto de 8 Bits. También se traduce por OCTETO.
KILOBYTE.
Un kilobyte son 1.024 bytes, un poco mas de mil.
Abreviatura KB.
MEGABYTE.
Un megabyte son 1.048.576 bytes, un poco mas de un millón de bytes.
Abreviatura MB.
GIGABYTE.
Un gigabyte son 1024 megabytes, comúnmente se utiliza la equivalencia de 1 GB = 1000 MB.
Abreviatura GB.
TERABYTE.
Un terabyte son 1024 gigabytes, comúnmente se utiliza la equivalencia de 1 TB = 1000 GB.
Abreviatura TB.
ppp = píxeles o puntos por pulgada (ppi) (1 pulgada =
25,4 mm.)