Cinco avances útiles de la ciencia que no serían posibles sin los aceleradores de partículas

En marzo se cumplieron 25 años de la creación del sistema de navegación World Wide Web dentro del Consejo Europeo para la Investigación Nuclear, que es más conocido como el CERN, por su acrónimo en francés. Actualmente, la mayoría de sus usuarios asocian la tecnología de la WWW con el propio concepto de internet, y su crecimiento exponencial ha estado inextricablemente unido a la expansión de la Red en el mundo desarrollado.

Aunque millones de personas acceden cada día a sitios web en busca de entretenimiento, ocio, cultura e información, muchos de ellos desconocen el origen de esta herramienta. En marzo de 1989 Tim Berners-Lee, un científico británico del CERN, propuso el desarrollo de un nuevo método para compartir resultados e información científica entre investigadores de altas energías de todo el mundo. En 1993 ya había desbordado su objetivo inicial, y el CERN permitió que la nueva tecnología fuese de dominio libre.

Ahora bien, no serán pocos los que vinculen al CERN y a otros centros de investigación fundamental a una cantidad ingente de dinero público destinada a la construcción de mastodónticos artefactos, cuyo único propósito es satisfacer la curiosidad de los científicos. Muchos ciudadanos -es decir, contribuyentes- hicieron una mueca confusa ante la noticia bomba del descubrimiento del bosón de Higgs, pero seguro que ninguno necesitó una explicación sobre la WWW al enterarse, quizás gracias a este artículo, de que fue ideada para la misma organización que anunció el descubrimiento de la partícula de Dios.

Por eso es tan importante destacar el retorno que la investigación básica tiene en la sociedad, especialmente en estos tiempos de quebranto. A continuación explicamos 5 ejemplos de aplicaciones interesantes derivadas, o estrechamente relacionadas con la investigación básica desarrollada en el CERN en los aceleradores de partículas de todo el mundo:

Terapia protónica

Se trata de una técnica de tratamiento médico similar a la radioterapia tradicional pero con ventajas sustanciales. En este caso, se ataca el tejido canceroso con protones en lugar de radiación con fotones. La principal diferencia estriba en la capacidad de concentración de la energía sobre el tumor: mientras que la radioterapia tradicional daña los tejidos sanos en su penetración hasta éste, la terapia con protones permite enfocar mucha más energía sobre el área deseada, lo que convierte a este segundo en especialmente indicado para tumores internos.

Además, dichos tumores pueden presentar resistencia a la radioterapia, mientras que son mucho más vulnerables frente al ataque de partículas, lo que eleva los porcentajes de éxito de la terapia protónica muy por encima de los métodos tradicionales. Desgraciadamente, es una tecnología cara, ya que implica la construcción de un pequeño acelerador de protones, similares a los construidos en el CERN.

Tomografía por emisión de positrones

También es conocida como PET por su acrónimo en inglés. Se trata de una técnica in vivo de diagnóstico e investigación, es decir, que permite observar dinámicamente el interior del cuerpo humano y ver cómo se desarrolla a tiempo real. Al paciente se le suministra un fármaco radiactivo de decaimiento rápido que libera positrones, una antipartícula que en contacto con los electrones contenidos en la materia biológica del paciente, libera dos fotones en la misma dirección, pero en sentidos opuestos. El sistema de detección tiene forma de anillo y rodea al paciente, ya que es necesario medir simultáneamente (en escala de nanosegundos) cada uno de los dos fotones emitidos en sentidos opuestos. El sistema de detección del PET está basado en calorímetros, y es esencialmente igual que los utilizados en el CERN.

Transmutación de desechos nucleares

Actualmente, la gran mayoría de las centrales nucleares tradicionales obtienen su energía del procesamiento nuclear de isotopos del Uranio. Cuando se reemplaza el combustible, se extraen los productos de la reacción nuclear y se depositan en una piscina hasta que su radiactividad se reduce lo suficiente como para trasladarlos a un cementerio nuclear donde quedarán confinados. Sin embargo, su desactivación radiactiva llevará decenas de miles de años.

Ante esta perspectiva, la transmutación es una propuesta consistente en reintroducir los productos de fisión en el propio ciclo del combustible nuclear en una suerte de “reciclaje”, donde los desechos se convierten ahora en material fisible, es decir, en combustible de nuevo. Como resultado, los nuevos productos serían ahora isótopos con una vida media de unos 300 años, y por lo tanto, mucho más gestionables. Además, el proceso de transmutación de los productos libera energía por lo que podría aumentarse un 30% la capacidad de las centrales nucleares. Uno de los principales grupos de investigación que desarrollan esta tecnología se encuentra en el CERN y está liderado por el premio nobel Carlo Rubbia.

Radiación de sincrotrón

Hay numerosos aceleradores de radiación sincrotrón en el mundo, incluyendo uno en Barcelona, el ALBA. Probablemente una de las aplicaciones más interesantes del desarrollo de los aceleradores sea el aprovechamiento de la radiación de las partículas para el estudio de la materia en diferentes áreas de la ciencia. Este tipo de aceleradores son construidos ex profeso con varios terminales de medición donde es posible conseguir una resolución energética imposible mediante otros métodos. Esta ventaja junto con otras, permite la caracterización de muestras en un gran rango de aplicaciones que van desde la caracterización de nuevos materiales para la industria aeronáutica o electrónica al funcionamiento biológico de ciertas bacterias, pasando por la medición de reacciones químicas a tiempo real o el desciframiento de la composición de obras prehistóricas en el mundo de la arqueología.

La GRID

Si bien la World Wide Web era un sistema de navegación en internet que permitía el acceso y compartición de información, la GRID es un sistema de computación diseñado para compartir y distribuir recursos entre usuarios. De esta manera, cálculos complejos de procesamiento, pueden ser repartidos por miles de usuarios distintos y heterogéneos (cada uno con su propia capacidad de cálculo).

Los detectores del LHC en el CERN generan unos 700MB por segundo de información. Para agilizar y optimizar el procesamiento de semejante cantidad de datos, el CERN ha desarrollado la Worldwide LHC Computer Grid cuyo propósito es dividir y distribuir la información mediante internet entre miles de centros, para que éstos traten y procesen los datos.

La GRID tiene aplicaciones en cualquier rama de la ciencia y la tecnología que requiera lidiar con una cantidad inmensa de datos. Es por ello que ha tenido un papel importante en el desciframiento del genoma humano o simulaciones de todo tipo de sistemas complejos, desde la predicción de escenarios económicos a la meteorología. Incluso en la búsqueda de vida extraterrestre promovida por la iniciativa SETI@home, donde cualquier persona puede poner los recursos de su ordenador doméstico a disposición de semejante fin.

Cuando pienses que el CERN y la ciencia básica es un sumidero de dinero público, recuerde cómo ha llegado a leer este artículo.

Foto: Henry Mühlpfordt