jueves, 3 de diciembre de 2015

Acerca de la luz, los gatos y los bits cuánticos. Un poquito de información cuántica para noveles.

Introducción . -

Desde hace décadas, nos llega información por diferentes medios acerca del futuro en las tecnologías de la información y cómo podrían afectar éstas a la sociedad del mañana. Inevitablemente, tratándose de predicciones, una parte de estas informaciones se adornan con un cierto grado de fantasía, pero otras en cambio están más fundamentadas en la investigación real que se produce en los laboratorios. Sabemos que uno de los pilares en los que se sustenta el desarrollo tecnológico tal como lo conocemos hoy día ha venido dado por la creciente miniaturización de los transistores, que como saben constituyen la unidad básica con la que podemos procesar información, mediante el registro de dos estados posibles, base del código binario. Unos transistores cada vez más diminutos y una forma de organizarlos cada vez más eficiente ha hecho posible la potencia de proceso  de todos los dispositivos electrónicos que nos rodean.
La pregunta que todos nos hacemos es si podremos continuar progresando en la miniaturización indefinidamente. Aunque sólo sea de una forma intuitiva, percibimos que llegará un momento en que no nos va a ser posible seguir avanzando por el mismo camino y ese momento, por lo que se ve, está más cerca de lo que en principio nos pudiera parecer. Hemos de ser conscientes que estamos llegando a la etapa  final de nuestra capacidad tecnológica de procesamiento de bits de información por unidad de superficie, con los medios tradicionales, y asumir que tenemos delante un obstáculo difícil de superar. 
Si tenemos que ir hacia lo más pequeño, una forma de superar esa barrera sería la de utilizar los conocimientos de la física moderna para manipular los estados, propiedades o cualidades de los átomos y partículas. Podríamos pensar que dando este paso ya tenemos gran parte del problema solucionado, pero nos equivocamos. El problema es que no estamos únicamente enfrentándonos a un cambio de escala sino que al adentrarnos en este nuevo mundo la forma de proceder para realizar cambios de estado o propiedades no tiene nada que ver con nuestra experiencia anterior de procesamiento y obtención de resultados ; obedece a otra lógica, y ésta todavía no la dominamos.

Bueno, quizá he dejado una aseveración demasiado tajante. Digamos que en este nuevo entorno se funciona de otro modo, y éste es muy diferente al que nuestros conocimientos y nuestra intuición nos hubieran predicho.  La física que conocemos, la que estudiamos en el colegio, la que tan inteligentemente expresó Newton en sus fórmulas matemáticas, es válida para todo lo que podemos observar en nuestro sistema de referencia. Newton nos legó una concepción del universo que nos rodea, como el de una entidad que posee un orden propio, que es observable, que se ajusta a una formulación matemática y que por tanto resulta predecible en su comportamiento.  
Y entonces, ¿qué sabemos de  esta otra física, la que funciona en escala atómica y subatómica? Para responder a esta pregunta tenemos que ponernos aunque sea someramente en antecedentes de una serie de descubrimientos y formulaciones que se remontan a varios siglos y que tienen como hilo conductor el estudio de la luz.

Los inicios. ¿Qué es la luz?  ¿Cuáles son sus propiedades? . -

Un elemento tan fascinante como es la luz en nuestro universo ha despertado la curiosidad de muchos personajes en nuestro devenir histórico, pero es a partir de la ilustración cuando su estudio se aborda utilizando métodos experimentales. Como veremos existirán dos concepciones principales para su caracterización, en principio contrapuestas. 
Ya Newton señala que la luz tiene una naturaleza corpuscular que explica su desplazamiento en línea, en contraposición a Huygens y otros científicos que la consideran una onda que se desplaza a través del “éter”, según parecía desprenderse de los experimentos de difracción. Este “éter” curiosamente era una entidad inventada que tenía que existir ya que se suponía que la luz debía disponer de un medio para propagarse, como las olas lo hacen en el agua, o el sonido en el aire. Debido al prestigio de Newton y a que Huygens no desarrolló su hipótesis en términos matemáticos, la idea de su naturaleza corpuscular predominó durante mucho tiempo.
A principios del siglo XIX, Thomas Young demostraría, con su famoso experimento de la doble rendija, que la luz mostraba un comportamiento ondulatorio.  Al estar constituidas por picos y valles las ondas pueden interaccionar unas con otras, sumándose si coinciden picos y anulándose si son coincidentes los picos con los valles. Si la luz estuviera constituida por un chorro de fotones, al hacerla pasar en un cuarto oscuro a través de una rendija realizada en una cartulina, veríamos la forma de la rendija iluminada en la pared del fondo. Así es cuando lo hacemos. ¿Pero qué ocurre cuando en la cartulina realizamos dos rendijas? Podemos pensar que lo que veremos proyectado al fondo serán las dos barras que se corresponden con la luz que pasó por ambos huecos. No es así, lo que vemos es un patrón de múltiples barras que únicamente tienen explicación si en vez de llegar a la pared del fondo dos chorros de fotones, han llegado dos ondas que han interferido entre sí produciendo esa multiplicidad. Este experimento parecía poder zanjar el tema, sin embargo el prestigio de Newton hizo que todavía predominara la concepción corpuscular.
 A mediados del siglo XIX, Maxwell recogió en una serie de ecuaciones las leyes formuladas por Faraday, Ampere y otros, de forma que logró unificarlas y describir el campo electromagnético. Inició así un camino de unificación de fuerzas en la naturaleza, en este caso la de la electricidad y la del magnetismo, que es uno de los empeños en los que la física trabaja desde entonces. Vendría a ser como que la fuerza electromagnética, la fuerza nuclear  fuerte, la fuerza nuclear débil y la gravedad pudieran ser distintas manifestaciones de una fuerza única primigenia, diversificada a partir del Big Bang.  Es fantástico, pero para no perdernos señalaré que Maxwell, trabajando con sus ecuaciones, identificó la luz como una onda electromagnética y señaló que  se propagaba a una velocidad constante, resultados que pudieron comprobarse experimentalmente años después de su muerte. Debemos darnos cuenta que Maxwell estaba planteando algo que no cuadraba en la física clásica y es que un elemento del Universo, la luz,  tenía una velocidad constante independientemente de si es proyectada por un cuerpo en movimiento o en reposo. Esto supondría plantar una semilla que germinaría más adelante  en la teoría de relatividad especial.
Por otra parte, durante todo el siglo XIX, se estudia el comportamiento de radiación de los llamados cuerpos negros que son capaces de absorber toda la luz que se proyecta sobre ellos en diferentes rangos de frecuencias. En los estudios que se realizaban se presentaban una serie de incongruencias ya que las curvas experimentales que se recogían en altas frecuencias no coincidían con los resultados de aplicar el modelo matemático del comportamiento de las ondas.
Estas incongruencias las resuelve Max Planck dejando de lado el modelo establecido sobre la naturaleza ondulatoria de la luz y señalando que su emisión no es contínua sino que está fraccionada en ciertas cantidades de energía;  es decir, cuantizada.
Como podéis observar una parte muy significativa de la física moderna y del trabajo de sus actores principales ha tenido que ver con el estudio de la naturaleza de la luz.
En 1905, Einstein corrobora la tesis de Max Planck y Newton con su famosa explicación del efecto fotoeléctrico, por la que le concedieron el premio nobel. Sin entrar a fondo en el tema, describiré el fenómeno de la manera siguiente. Cuando emitimos fotones de luz sobre la superficie de un metal, los electrones de los átomos de la superficie metálica se cargan de energía, lo que les hace saltar a las órbitas superiores, llegando incluso a salir despedidos con una cierta energía cinética.  Einstein demostró matemáticamente que la energía cinética con la que salen despedidos no depende de la intensidad de la radiación, sino de la frecuencia utilizada, y que la intensidad sólo influye en el número de electrones que se desprenden del metal. Este comportamiento sólo es posible si las ondas electromagnéticas de la luz, en determinadas circunstancias se distribuyen  en  forma de cuantos de luz, es decir en forma de paquetes de energía.
Hubo científicos que pasaron varios años de su vida intentando demostrar experimentalmente que Einstein se equivocaba, sin conseguirlo.
Finalmente, Broglie en 1924 formuló una hipótesis en la que propugnaba que la materia en su conjunto, no sólo la luz,  presentaba comportamientos del tipo ondulatorio o corpuscular en función del experimento que llevemos a cabo. Determinó así mismo que la longitud de onda de cada materia disminuye en proporción a su masa o a su velocidad, por lo que nos es difícil reconocer el comportamiento ondulatorio de la materia macroscópica, los objetos que vemos todos los días.
A la polémica sobre la naturaleza de la luz y de la materia misma se le iban a sumar otras diatribas cada vez más sorprendentes.


 Hacia los bits cuánticos . –

 Así como las leyes del movimiento de la física clásica nos permiten obtener la trayectoria de un cuerpo en movimiento y calcular su posición, Heisenberg establecería en 1925 que no es posible medir simultáneamente ciertos pares de magnitudes físicas cuando tratamos con partículas. Viene a  decir, por ejemplo, que cuanto más nos empeñemos en precisar la posición de una partícula,  menos seguros estaremos acerca de su masa o velocidad. Esta indeterminación abocó  a los científicos a intentar una aproximación probabilística al problema de forma que se trataba de calcular las probabilidades de que una partícula se encontrara en una posición determinada en un momento dado.  Al contrario que los objetos que conocemos, a los que podemos situar en un espacio tridimensional a través de unas coordenadas “x” “y” “z”, las partículas únicamente las podemos intentar posicionar a través de una expresión que recoge las distintas probabilidades de encontrarnos con ella en cada punto del espacio. A esta expresión la denominan la función de onda de una partícula.
Ahora bien, cuando en el mundo real estudiamos el desplazamiento de los cuerpos en el espacio entra en juego la variable del tiempo y así aplicamos las ecuaciones del movimiento que nos enseñan en los colegios. El físico vienés Erwin Schrödinger tuvo el acierto de formular una ecuación que rige los cambios que se producen en las funciones de onda en función del tiempo, de forma que obtenía una expresión matemática válida para determinar el desplazamiento de las partículas, respetando los postulados de Heisenberg.Ahora bien, lo que a nosotros nos interesa es ver qué posibilidades tenemos para medir propiedades de partículas de forma que podamos utilizarlas para codificar información.
Schrödinger, premio Nobel, es también muy conocido por darnos a conocer uno de los fenómenos más curiosos que se producen en esta nueva física que se estaba abriendo paso; el principio de superposición.  Este principio enuncia que en un sistema cuántico una partícula puede presentarse en un estado u otro, o en ambos a la vez; es decir, superpuestos. Estamos hablando de que una partícula en un sistema cuántico pude tener una cualidad, la opuesta o ambas a la vez. Comportamiento que podríamos calificar como sorprendente y paradójico.  Por si fuera poco, y ésto es también muy importante para nuestro tema, cuando intervenimos,  observamos o medimos, se pierde su condición de sistema cuántico por lo que  desaparece su estado superpuesto si lo tuviera y se nos presenta necesariamente con una cualidad o  la otra.
Para ilustrar la interpretación que  Schrödinger y otros físicos tenían de estos efectos, él mismo ideó un experimento mental que se ha convertido en una de las paradojas más célebres que contrapone la física cuántica con la realidad que percibimos cotidianamente. El experimento consiste en introducir un gato en una caja y lo encerramos. Dentro de la caja hay colocado un dispositivo capaz de liberar un veneno letal para el gato. Este dispositivo en el transcurso de una hora podría haberse disparado o no con una probabilidad del  50%, por ejemplo. Evidentemente sólo podremos saber si el veneno ha matado al gato o no si abrimos la caja, pero mientras ha permanecido cerrada, es decir mientras no hemos observado o medido, el gato podría estar en cualquiera de las dos situaciones.  En términos cuánticos, es decir en términos de esta nueva física que estudia estas propiedades, podríamos decir que la propiedad vivo o muerto del gato se encontraba en “superposición”.  
Continuamos con las propiedades de las partículas, ya que tiene gran trascendencia para su  posible utilización en la codificación de información.  Si tenemos una partícula, digamos un electrón o un fotón , vemos que presenta una serie de propiedades que podrían utilizarse  como un código, binario o de más estados, dependiendo de los valores que queramos escoger de la propiedad elegida. Ahora bien, ya sabemos que cuando intentamos medir esas propiedades, éstas pueden verse alteradas. Por ello nos interesa conocer experimentalmente qué pasa cuando realizamos observaciones consecutivas de la propiedad de una partícula, o qué pasa cuando medimos propiedades diferentes.
En los laboratorios se constata que si medimos una determinada propiedad de una partícula, la llamamos propiedad “A”, que tendría valores continuos,  pero que por sencillez en nuestra exposición decimos que puede tener dos resultados posibles, por ejemplo “alto” o “bajo”, y repetimos las mediciones, siempre vamos a obtener los mismos resultados. Es decir si de “A” hemos obtenido “alto”, siempre que repitamos la medición volveremos a obtener “alto”. Esto es consecuente y por tanto prometedor.

Ahora bien, si pudiéramos combinar resultados de mediciones de propiedades diferentes en una misma partícula podríamos multiplicar nuestra capacidad para codificar información, proporcionándonos una potencia revolucionaria. En los laboratorios  se ve que si medimos A  (alto/bajo) y a continuación medimos otra propiedad diferente, la propiedad  B, también para simplificar con dos valores posibles “rojo” y “negro”, y realizamos a continuación una segunda medición de B, que llamaremos , obtendremos un trío de valores del tipo (A=”Alto” ; B=”rojo” ; =”rojo”). En el experimento se constata que la segunda medición B’ es coherente con la primera medición B; sin embargo, no podemos estar seguros de que el resultado de medición  A  se mantenga en el proceso. De hecho se observa en los laboratorios  que si en vez de repetir al final la medición de B, repetimos la de A (tendríamos ahora una ), el resultado puede coincidir o no con la primera medición de A.  
Curiosamente, en esta última variedad del experimento, si no observamos los resultados de B el sistema mantiene sus propiedades, y los valores de A y coincidirán. Por tanto,  y así se constata en los laboratorios, la observación de una de las propiedades de una partícula puede alterar los valores de otra propiedad que hayamos medido.  Aquí el tema se nos complica.

Vayamos un poco  más allá. Empecemos a romper cosas.  Al producir dos partículas a partir de una primera original y medir una de sus propiedades, pongamos por caso la propiedad B, nos encontramos con que  si una de las partículas generadas es “rojo” la otra necesariamente es “negro”. Pareciera que en el mismo momento de su generación pudieran ponerse de acuerdo para que esto sea así. Esta acción, que Einstein con cierta ironía denominó “fantasmal a distancia”, hace que se puedan generar partículas que se comportan como gemelas interrelacionadas en sus propiedades;  es decir si altero una propiedad en una de ellas, de forma inmediata se altera esa propiedad en la otra, independientemente de la distancia a la que se encuentren. Este estado. que denominan de entrelazamiento cuántico no convencia a Einsten que intentó encontrar una explicación para  este fenómeno, aduciendo que seguramente existiría una variable desconocida que le daría explicación, sin salirse de la física clásica. Sin embargo, con el transcurso del tiempo las evidencias de los experimentos realizados en laboratorio no harían más que corroborar empíricamente lo que la nueva física estaba propugnando.
Ahora bien, llegados a este punto nos hemos podido dar cuenta que si podemos determinar el valor de una propiedad de una partícula  para que sea considerado como un bit de información, si podemos alterar ese valor a voluntad según nos sea necesario, y podemos además crear estados entrelazados, nos encontramos con un conjunto de herramientas de gran valor para procesar y "comunicar" información.
A finales del siglo XX se dio un paso más, planteando  y resolviendo con éxito la cuestión de utilizar dos partículas entrelazadas para utilizarlas como puente y transmitir la información cuántica residente en una tercera. Aunque en el proceso se pierde la información original en la tercera, y las dos partículas entrelazadas pierden su estado de entrelazamiento, sí se logra la trasmisión de esa información.
Habiendo llegado hasta aquí podemos apuntar algunas características de los denominados bits cuánticos.
·    Podemos romper la limitación de que un bit de información se limite a dos estados, el código binario conocido de unos y ceros que utilizamos actualmente, y utilizando partículas  jugar con tres, una docena o mil estados posibles codificando información de una forma más eficiente.
·        Los estados de una partícula pueden encontrarse en superposición, una combinación lineal, por lo que no podremos predecir el valor del bit de una forma exacta antes de la medición, sólo especular acerca valor que puede tener en función de los coeficientes de su combinación lineal.
·        Al poder crear situaciones en la que partículas se encuentren entrelazadas, y situarlas en puntos distantes, podemos transmitir información o alterarla a distancia, creando una comunicación entre “emisor” y “receptor” sin necesidad de utilizar un medio.

Feynman, en su momento, llamaría la atención sobre las posibilidades de la física cuántica para procesar información. A partir de entonces, como si de un pistoletazo de salida se hubiera tratado, muchos países se afanan en producir la tecnología necesaria para fabricar el ordenador que sea capaz de aprovechar sus ventajas y solventar los problemas que plantean este tipo de “circuitos”. Tengamos en cuenta que el modelo teórico en que se sustenta nada tiene que ver con la máquina de Turing y el modelo de Neumann que son la base de los ordenadores que conocemos.  Pese a las dificultades el esfuerzo merece la pena, dado que la programación que se puede realizar en base a estos postulados resuelve problemas que con la computación clásica son inabarcables y nos permite abordar otros que de otra manera no nos podríamos plantear.

A modo de ejemplo señalaré que  se han desarrollado algoritmos de recuperación de información que son capaces de hacer lo siguiente. Imaginemos que tenemos una guía telefónica de las antiguas en la que podríamos encontrar por orden alfabético de apellidos de los abonados los números de teléfono de una gran ciudad. Pongamos, por ejemplo, que la guía tuviese los teléfonos de medio millón de usuarios o cualquier otra cantidad (n) . Si lo que tenemos es un teléfono y queremos obtener los apellidos del usuario,  utilizándola al revés de cómo ha sido diseñada, en la programación clásica de nuestros ordenadores nuestro software tendría que hacer (n) comprobaciones en el peor de los casos para localizarlos. Los nuevos algoritmos basados en el modelo cuántico son capaces de resolver el problema con raíz cuadrada de (n) comprobaciones.

Otro ejemplo,  que suele exponerse por las consecuencias que puede tener, es el de la factorización rápida. Sabemos que factorizar es descomponer un número en otros números más pequeños que multiplicados nos den el primero que teníamos. Esto resulta sencillo con cifras pequeñas, pero cuando los números son altos, los ordenadores clásicos con sus programas se quedan calculando  sus factores tiempos demasiado largos; tan largos, que no es práctico intentarlo. Como este problema es de sobra conocido, se aprovecha para utilizarlo como medio para proteger claves (Método RSA). Cojo dos números altos, con bastantes cifras, y los multiplico. El número resultante tiene todavía más cifras. De esta forma sé cuál es la factorización con dos operadores del número resultante. A partir de ahí construyo mi sistema de forma que únicamente el que sepa la factorización del número resultante puede tener acceso a la información. Como no existe ordenador en el mundo capaz de realizar la operación sólo yo, o quien yo desee, puede acceder a ella. Esto que puede parecer trivial es la base de la criptografía actual y lo que asegura la confidencialidad de nuestra información en todos los ámbitos. Los programas basados en las propiedades cuánticas, por el momento modelos teóricos, tienen potencia suficiente para factorizar los números utilizados en criptografía en tiempos reducidos, con lo que esto supone. 

En definitiva, y a pesar de las dificultades que todavía hay que vencer, las oportunidades que nos ofrece la física cuántica para codificar y procesar información, acompañadas por el desarrollo de una nueva lógica de programación que sea capaz de explotarla, nos coloca en la antesala de una nueva revolución en el área de las tecnologías de la información. Esta revolución podría ser de tal magnitud que transformara completamente la sociedad  tal y como la conocemos en la actualidad.


Ricardo Martínez de Madariaga
03/11/2015


2 comentarios:

  1. Que artículo tan ameno e interesante sobre un tema tan fascinante! Ojalá te animes a seguir divulgando para que otros, como yo, podamos ir adentrándonos en temas que se nos vienen encima en el futuro, y costará entender fácilmente. Gracias!

    ResponderEliminar
  2. Resumen Armonioso de como la Luz Mágica logra efectos Maravillosos que nos introduce para Comprender este Mundo ta Inmenso...Gracias.

    ResponderEliminar