El Consejo Superior de Investigaciones Científicas (CSIC) cuenta con 24 institutos o centros de investigación -propios o mixtos con otras instituciones- tres centros nacionales adscritos al organismo (IEO, INIA e IGME) y un centro de divulgación, el Museo Casa de la Ciencia de Sevilla. En este espacio divulgativo, las opiniones de los/as autores/as son de exclusiva responsabilidad suya.
La revolución de los sensores electrónicos de imagen
Hace ahora 39 años, allá por 1975, los Rolling Stones abrían sus conciertos del Tour of the Americas’75 a ritmo de su Honky Tonk Women. Si alguno de los asistentes a ese concierto hubiera tenido en sus manos el primer sensor electrónico de imagen, producido por Eastman Kodak ese mismo año –en base a un CCD desarrollado por Fairchild un par de años antes– hubiera podido “grabar” una fotografía electrónica del evento con una resolución de 100x100 píxeles en la cinta magnética que acompañaba a aquella cámara de 3.6 kg de peso.
Apenas 37 años después, en el año 2012, sus satánicas majestades celebraban sus 50 años en la música y las revistas on-line especializadas publicaban una foto de la banda frente al Marquee, el club londinense donde realizaron su primera actuación el 12 de julio de 1962. Esta imagen digital contenía 24 millones de píxeles. Si resulta asombroso que una banda de Rock siga llenando escenarios y colgando los no hay billetes tras 50 años de andadura, no lo es menos que en apenas 39 años, la cantidad de píxeles en ambas imágenes se haya multiplicado por más de dos mil trescientas veces, por no hablar de la calidad de las mismas.
Contar la historia de cómo ha evolucionado la tecnología de fabricación de sensores electrónicos de imagen llenaría cientos de páginas y es en realidad materia para escribir sesudos tratados de recopilación bibliográfica. Además, este relato iría, buena parte del camino, de la mano del relato que explica la evolución de las prestaciones de los circuitos integrados y de sus tecnologías de fabricación en general. Siendo ésta una historia imposible de contar en este foro, nos centraremos en algunos detalles interesantes de la misma.
La inmensa mayoría de los sensores electrónicos de imagen que Ud. tiene a mano a día de hoy, esos en su teléfono móvil, en su tableta, en su ordenador portátil, en su cámara de fotos compacta o DSLR, …, está realizado sobre un chip de silicio empleando una tecnología llamada CMOS (del inglés Complementary Metal Oxide Semiconductor). Ésta es, básicamente, el mismo tipo de tecnología que se usa para fabricar los circuitos que constituyen la CPU de su ordenador, a la que se añaden/modifican algunos pasos de fabricación para mejorar las prestaciones del proceso físico que lleva a que una señal luminosa, es decir, un flujo de fotones, se convierta en una señal susceptible de ser interpretada por los circuitos electrónicos existentes en el chip.
Sin embargo, esto no siempre ha sido así. Históricamente, los primeros sensores electrónicos de imagen de cierta calidad que salieron a la venta empleaban una tecnología distinta conocida por sus siglas en inglés CCD (Charged Coupled Devices), y prácticamente coparon el mercado hasta finales del siglo pasado.
La señal “fotogenerada”
Conceptualmente, tanto los sensores CCD como los sensores CMOS funcionan de la misma forma; por lo general, la luz incidente sobre determinada área del chip, eso que llamamos un píxel, genera, por efecto fotoeléctrico, un determinado nivel de carga eléctrica arrancado electrones que estaban ligados a átomos de silicio y poniéndolos “a disposición” de la circuitería que se encarga de la lectura y/o el procesamiento de la señal “fotogenerada”. Distintas áreas del chip, distintos píxeles, recibirán distintas cantidades de luz –distintas partes de la imagen focalizada sobre el sensor– y generaran, por tanto, distinto número de electrones.
Qué se hace con estos electrones es lo que diferencia una opción de la otra. En el caso de las tecnologías CCD, los píxeles se configuran convirtiéndose en una especie de cadena de transporte de paquetitos de carga eléctrica. Suele usarse la analogía de una secuencia de cubos llenos de agua que con la secuenciación correcta van pasándose su contenido de uno a otro hasta que se llega al punto en el que se recolecta el agua de cada cubo. En el caso de los CCD, lo que se va traspasando es la carga fotogenerada por cada píxel hasta que, paquetito a paquetito, esa carga sale del chip a través de un amplificador de salida y es convertida en una señal digital, llena de unos y ceros, por un bloque llamado ADC o conversor analógico digital (no somos muy ingeniosos poniendo nombres) que ya “habla el mismo lenguaje” que el microprocesador que la comprimirá (para hacer un jpg por ejemplo), la interpretará, la almacenará en memoria, o la enviará a cualquier otro dispositivo al que esté conectado en cualquier parte del mundo.
Por otro lado, en el caso de la tecnología CMOS, lo habitual es que esa carga fotogenerada sea inmediatamente convertida en una diferencia de potencial eléctrico –un voltaje– dentro del propio píxel acumulándola en un pequeño condensador. Posteriormente, esos niveles de tensión, mucho más fáciles de transmitir de un lugar a otro de un chip que un paquete de carga, son convertidos a una señal digital dentro del propio chip usando de nuevo un bloque ADC.
Ventajas competitivas
Durante aproximadamente dos décadas y media, desde mediados de los 70 hasta el fin del siglo pasado, la calidad de imagen proporcionada por los sensores CCD era muy superior a lo que podía proporcionar un sensor CMOS, siendo lo normal que allá donde hiciera falta una imagen de alta calidad, la opción fuera siempre un sensor CCD. De entre las muchas razones detrás de esta circunstancia, tal vez la principal fuera el hecho de que si bien las tecnologías CCD habían sido depuradas exclusivamente para mejorar la calidad del proceso de conversión de luz en carga, y del proceso de transporte y lectura de ésta, las tecnologías CMOS habían evolucionado con un objetivo totalmente distinto: mejorar las prestaciones de los circuitos electrónicos de propósito general que se fabricaban para los grandes mercados de masas de las CPUs y la electrónica de consumo.
Curiosamente, esta evolución hacía que los sensores que podíamos fabricar usando tecnologías CMOS funcionaran cada vez peor debido a cuestiones de escalado tecnológico que está de más comentar aquí. Sin embargo, los sensores CMOS presentaban unas ventajas competitivas para los grandes mercados de masas con las que los sensores CCD no iban a poder competir por mucho tiempo. Por un lado eran capaces de funcionar con consumos de potencia mucho más bajos que los CCD y a menores tensiones de alimentación, por otro lado permitían incorporar en el mismo chip además del sensor, circuitería de procesamiento, corrección de errores, y conversión al dominio digital y por último, su coste de fabricación era muy inferior al de los sensores CCD.
Como suele ser habitual el mercado manda y, poco a poco, los grandes fabricantes de circuitos integrados CMOS se fueron convirtiendo también en fabricantes de sensores de imagen creando procesos especializados en proporcionar sensores de imagen de altas prestaciones a partir de procesos de fabricación estándar que habían sido desarrollados, y amortizados por las ventas, para fabricar CPUs.
A éstos les fueron incorporando las mismas posibilidades que ofrecían las tecnologías CCDs para depositar sobre los píxeles microlentes que focalizan la luz sobre el área sensora de cada pixel, filtros de color para hacer que dentro de un mismo chip, tengamos los tres canales rojo, verde y azul, (RGB) que conforman una imagen a todo color, y una multitud de otras invenciones tecnológicas orientadas a mejorar la imagen proporcionada por estos sensores.
Simultáneamente, las fábricas iban disminuyendo a altísima velocidad el tamaño del píxel más pequeño que se podía meter en un chip, incrementando así la resolución del sensor que un fabricante puede hacer sobre la misma superficie de silicio. En alrededor de 15 años se pasó de sensores de 320x240pix a los 41Mpix de algunos terminales móviles a la venta hoy.
Poco a poco, los sensores CMOS han copado todos los mercados de masas. Empezando por los de más bajo coste y que no requerían gran calidad de imagen, como las primeras webcams, extendiéndose a los sensores de las cámaras compactas de bajo coste, y llegando posteriormente al de las cámaras profesionales DSLR. Sin lugar a dudas, de todos estos nichos de aplicaciones, el de mayor crecimiento ha sido el de los sensores para Smart Phones y Tablets.
Más de 7.000 millones en ventas
Para hacernos una idea de la velocidad con la que crece este mercado y del volumen de dinero que se mueve, en el año 2012, en plena recesión económica mundial, las ventas de sensores CMOS crecieron un 22% con ventas por encima de 7.100 millones de dólares, mientras que las ventas de sensores CCD se han mantenido prácticamente constantes, y limitadas a mercados muy especializados y de muy altas prestaciones, sin tener que estar bajo la espada de Damocles de proporcionar un producto barato.
Por ejemplo, los sensores CCD siguen siendo la opción dominante en aplicaciones de astronomía, aunque nada tiene que ver la primera Wide Field/Planetary Camera del telescopio Hubble –lanzado en 1990– que contenía 4 sensores CCD de 800x800 píxeles, con el sensor CCD de 937Mpix (un mosaico de 106 sensores de 4500x1966 en realidad) que equipa la sonda GAIA, lanzada a final de 2013.
Es difícil predecir qué resolución y qué tipo de sensores tendremos a nuestra disposición en nuestros dispositivos portátiles de aquí a diez años, ni siquiera qué tipo de dispositivos portátiles usaremos. Fantaseando es posible pensar que algunos incorporarán la capacidad de registrar imágenes tridimensionales (mapas de profundidad), otros tal vez puedan captar luz en otras longitudes de onda como ultravioleta, infrarrojo cercano, o TeraHertz, quizás otros permitan hacer espectroscopia, ser flexibles, implantables, etc.
Lo seguro es que toquen donde toquen los Rolling Stones esa noche, sus fans estaremos allí para saltar al ritmo de la telecaster de Keith Richards y grabaremos ese concierto con dispositivos que tal vez hoy estén en la imaginación de los futuros ingenieros o físicos que los diseñarán.
Hace ahora 39 años, allá por 1975, los Rolling Stones abrían sus conciertos del Tour of the Americas’75 a ritmo de su Honky Tonk Women. Si alguno de los asistentes a ese concierto hubiera tenido en sus manos el primer sensor electrónico de imagen, producido por Eastman Kodak ese mismo año –en base a un CCD desarrollado por Fairchild un par de años antes– hubiera podido “grabar” una fotografía electrónica del evento con una resolución de 100x100 píxeles en la cinta magnética que acompañaba a aquella cámara de 3.6 kg de peso.
Apenas 37 años después, en el año 2012, sus satánicas majestades celebraban sus 50 años en la música y las revistas on-line especializadas publicaban una foto de la banda frente al Marquee, el club londinense donde realizaron su primera actuación el 12 de julio de 1962. Esta imagen digital contenía 24 millones de píxeles. Si resulta asombroso que una banda de Rock siga llenando escenarios y colgando los no hay billetes tras 50 años de andadura, no lo es menos que en apenas 39 años, la cantidad de píxeles en ambas imágenes se haya multiplicado por más de dos mil trescientas veces, por no hablar de la calidad de las mismas.