Introducción . -
Desde hace décadas, nos llega
información por diferentes medios acerca del futuro en las tecnologías de la
información y cómo podrían afectar éstas a la sociedad del mañana. Inevitablemente, tratándose de predicciones, una parte de estas informaciones se adornan con un cierto grado de fantasía, pero otras en cambio están más fundamentadas en la investigación real que se produce en los laboratorios. Sabemos que uno de los pilares en los que se sustenta el desarrollo tecnológico tal como lo conocemos hoy día ha venido dado por la creciente miniaturización de los transistores, que como saben constituyen la unidad básica con la que podemos procesar información, mediante el registro de dos estados posibles, base del código binario. Unos transistores cada vez más diminutos y una forma de organizarlos cada vez más eficiente ha hecho posible la potencia de proceso de todos los dispositivos electrónicos que nos rodean.
La pregunta que todos nos hacemos es si podremos continuar progresando en la miniaturización indefinidamente. Aunque sólo sea de una forma intuitiva, percibimos que llegará un momento en que no nos va a ser posible seguir avanzando por el mismo camino y ese momento, por lo que se ve, está más cerca de lo que en principio nos pudiera parecer. Hemos de ser conscientes que estamos llegando a la etapa final de nuestra capacidad tecnológica de procesamiento de bits de información por unidad de superficie, con los medios tradicionales, y asumir que tenemos delante un obstáculo difícil de superar.
La pregunta que todos nos hacemos es si podremos continuar progresando en la miniaturización indefinidamente. Aunque sólo sea de una forma intuitiva, percibimos que llegará un momento en que no nos va a ser posible seguir avanzando por el mismo camino y ese momento, por lo que se ve, está más cerca de lo que en principio nos pudiera parecer. Hemos de ser conscientes que estamos llegando a la etapa final de nuestra capacidad tecnológica de procesamiento de bits de información por unidad de superficie, con los medios tradicionales, y asumir que tenemos delante un obstáculo difícil de superar.
Si tenemos que ir hacia lo más pequeño, una forma de superar esa barrera sería la de utilizar los conocimientos de la física moderna para manipular los estados, propiedades o cualidades de los átomos y partículas. Podríamos pensar que dando este paso ya tenemos gran parte del problema solucionado, pero nos equivocamos. El problema es que no estamos únicamente enfrentándonos a un cambio de escala sino que al adentrarnos en este nuevo mundo la forma de proceder para realizar cambios de estado o propiedades no tiene nada que ver con nuestra experiencia anterior de procesamiento y obtención de resultados ; obedece a otra lógica, y ésta todavía no la dominamos.
Bueno, quizá he dejado una
aseveración demasiado tajante. Digamos que en este nuevo entorno se funciona de
otro modo, y éste es muy diferente al que nuestros conocimientos y nuestra
intuición nos hubieran predicho. La
física que conocemos, la que estudiamos en el colegio, la que tan
inteligentemente expresó Newton en sus fórmulas matemáticas, es válida para
todo lo que podemos observar en nuestro sistema de referencia. Newton nos legó
una concepción del universo que nos rodea, como el de una entidad que posee un
orden propio, que es observable, que se ajusta a una formulación matemática y
que por tanto resulta predecible en su comportamiento.
Y entonces, ¿qué sabemos de esta otra física, la que funciona en escala
atómica y subatómica? Para responder a esta pregunta tenemos que ponernos
aunque sea someramente en antecedentes de una serie de descubrimientos y
formulaciones que se remontan a varios siglos y que tienen como hilo conductor
el estudio de la luz.
Los inicios. ¿Qué es la luz?
¿Cuáles son sus propiedades? . -
Ya Newton señala que la luz tiene
una naturaleza corpuscular que explica su desplazamiento en línea, en
contraposición a Huygens y otros científicos que la consideran una onda que se
desplaza a través del “éter”, según parecía desprenderse de los experimentos de
difracción. Este “éter” curiosamente era una entidad inventada que tenía que
existir ya que se suponía que la luz debía disponer de un medio para propagarse,
como las olas lo hacen en el agua, o el sonido en el aire. Debido al prestigio
de Newton y a que Huygens no desarrolló su hipótesis en términos matemáticos,
la idea de su naturaleza corpuscular predominó durante mucho tiempo.
A principios del siglo XIX,
Thomas Young demostraría, con su famoso experimento de la doble rendija, que la
luz mostraba un comportamiento ondulatorio.
Al estar constituidas por picos y valles las ondas pueden interaccionar
unas con otras, sumándose si coinciden picos y anulándose si son coincidentes los picos
con los valles. Si la luz estuviera constituida por un chorro de fotones, al
hacerla pasar en un cuarto oscuro a través de una rendija realizada en una
cartulina, veríamos la forma de la rendija iluminada en la pared del fondo. Así
es cuando lo hacemos. ¿Pero qué ocurre cuando en la cartulina realizamos dos
rendijas? Podemos pensar que lo que veremos proyectado al fondo serán las dos
barras que se corresponden con la luz que pasó por ambos huecos. No es así, lo
que vemos es un patrón de múltiples barras que únicamente tienen explicación si
en vez de llegar a la pared del fondo dos chorros de fotones, han llegado dos
ondas que han interferido entre sí produciendo esa multiplicidad. Este
experimento parecía poder zanjar el tema, sin embargo el prestigio de Newton
hizo que todavía predominara la concepción corpuscular.
A mediados del siglo XIX, Maxwell recogió en
una serie de ecuaciones las leyes formuladas por Faraday, Ampere y otros, de
forma que logró unificarlas y describir el campo electromagnético. Inició así
un camino de unificación de fuerzas en la naturaleza, en este caso la de la
electricidad y la del magnetismo, que es uno de los empeños en los que la física
trabaja desde entonces. Vendría a ser como que la fuerza electromagnética, la
fuerza nuclear fuerte, la fuerza nuclear
débil y la gravedad pudieran ser distintas manifestaciones de una fuerza única
primigenia, diversificada a partir del Big Bang. Es fantástico, pero para no perdernos señalaré que
Maxwell, trabajando con sus ecuaciones, identificó la luz como una onda
electromagnética y señaló que se propagaba
a una velocidad constante, resultados que pudieron comprobarse
experimentalmente años después de su muerte. Debemos darnos cuenta que Maxwell
estaba planteando algo que no cuadraba en la física clásica y es que un
elemento del Universo, la luz, tenía una
velocidad constante independientemente de si es proyectada por un cuerpo en
movimiento o en reposo. Esto supondría plantar una semilla que germinaría más
adelante en la teoría de relatividad
especial.
Por otra parte, durante todo el
siglo XIX, se estudia el comportamiento de radiación de los llamados cuerpos
negros que son capaces de absorber toda la luz que se proyecta sobre ellos en
diferentes rangos de frecuencias. En los estudios que se realizaban se
presentaban una serie de incongruencias ya que las curvas experimentales que se
recogían en altas frecuencias no coincidían con los resultados de aplicar el
modelo matemático del comportamiento de las ondas.
Estas incongruencias las resuelve
Max Planck dejando de lado el modelo establecido sobre la naturaleza ondulatoria
de la luz y señalando que su emisión no es contínua sino que está fraccionada
en ciertas cantidades de energía; es
decir, cuantizada.
Como podéis observar una parte muy significativa de la física moderna y del trabajo de sus actores principales ha tenido que ver con el estudio de la naturaleza de la luz.
Como podéis observar una parte muy significativa de la física moderna y del trabajo de sus actores principales ha tenido que ver con el estudio de la naturaleza de la luz.
En 1905, Einstein corrobora la
tesis de Max Planck y Newton con su famosa explicación del efecto fotoeléctrico, por la que le concedieron el premio nobel. Sin entrar a
fondo en el tema, describiré el fenómeno de la manera siguiente. Cuando
emitimos fotones de luz sobre la superficie de un metal, los electrones de los
átomos de la superficie metálica se cargan de energía, lo que les hace saltar a
las órbitas superiores, llegando incluso a salir despedidos con una cierta energía
cinética. Einstein demostró
matemáticamente que la energía cinética con la que salen despedidos no depende
de la intensidad de la radiación, sino de la frecuencia utilizada, y que la
intensidad sólo influye en el número de electrones que se desprenden del metal.
Este comportamiento sólo es posible si las ondas electromagnéticas de la luz,
en determinadas circunstancias se distribuyen
en forma de cuantos de luz, es
decir en forma de paquetes de energía.
Hubo científicos que pasaron varios años de su vida intentando demostrar experimentalmente que Einstein se equivocaba, sin conseguirlo.
Hubo científicos que pasaron varios años de su vida intentando demostrar experimentalmente que Einstein se equivocaba, sin conseguirlo.
Finalmente, Broglie en 1924
formuló una hipótesis en la que propugnaba que la materia en su conjunto, no
sólo la luz, presentaba comportamientos
del tipo ondulatorio o corpuscular en función del experimento que llevemos a
cabo. Determinó así mismo que la longitud de onda de cada materia disminuye en
proporción a su masa o a su velocidad, por lo que nos es difícil reconocer el
comportamiento ondulatorio de la materia macroscópica, los objetos que vemos
todos los días.
A la polémica sobre la naturaleza
de la luz y de la materia misma se le iban a sumar otras diatribas cada vez más
sorprendentes.
Así como las leyes del movimiento de la física
clásica nos permiten obtener la trayectoria de un cuerpo en movimiento y calcular
su posición, Heisenberg establecería en 1925 que no es posible medir
simultáneamente ciertos pares de magnitudes físicas cuando tratamos con
partículas. Viene a decir, por ejemplo, que cuanto más nos empeñemos en precisar la
posición de una partícula, menos seguros
estaremos acerca de su masa o velocidad. Esta indeterminación abocó a los científicos a intentar una aproximación
probabilística al problema de forma que se trataba de calcular las
probabilidades de que una partícula se encontrara en una posición determinada
en un momento dado. Al contrario que los
objetos que conocemos, a los que podemos situar en un espacio tridimensional a
través de unas coordenadas “x” “y” “z”, las partículas únicamente las podemos intentar
posicionar a través de una expresión que recoge las distintas probabilidades de
encontrarnos con ella en cada punto del espacio. A esta expresión la denominan la
función de onda de una partícula.
Ahora bien, cuando en el mundo
real estudiamos el desplazamiento de los cuerpos en el espacio entra en juego
la variable del tiempo y así aplicamos las ecuaciones del movimiento que nos
enseñan en los colegios. El físico vienés Erwin Schrödinger tuvo el acierto de
formular una ecuación que rige los cambios que se producen en las funciones de
onda en función del tiempo, de forma que obtenía una expresión matemática
válida para determinar el desplazamiento de las partículas, respetando los
postulados de Heisenberg.Ahora bien, lo que a nosotros nos interesa es ver qué posibilidades tenemos para medir propiedades de partículas de forma que podamos utilizarlas para codificar información.
Schrödinger, premio Nobel, es también
muy conocido por darnos a conocer uno de los fenómenos más curiosos que se
producen en esta nueva física que se estaba abriendo paso; el principio de superposición. Este principio enuncia que en un sistema
cuántico una partícula puede presentarse en un estado u otro, o en ambos a la
vez; es decir, superpuestos. Estamos hablando de que una partícula en un sistema cuántico pude tener una cualidad, la opuesta o ambas a la vez. Comportamiento que podríamos calificar como sorprendente y paradójico. Por si fuera poco, y ésto es también muy importante para nuestro tema, cuando intervenimos, observamos o medimos, se pierde su condición de
sistema cuántico por lo que desaparece
su estado superpuesto si lo tuviera y se nos presenta necesariamente con una cualidad o la otra.
Para ilustrar la interpretación
que Schrödinger y otros físicos tenían
de estos efectos, él mismo ideó un experimento mental que se ha convertido en
una de las paradojas más célebres que contrapone la física cuántica con la realidad
que percibimos cotidianamente. El experimento consiste en introducir un gato en
una caja y lo encerramos. Dentro de la caja hay colocado un dispositivo capaz
de liberar un veneno letal para el gato. Este dispositivo en el transcurso de
una hora podría haberse disparado o no con una probabilidad del 50%, por ejemplo. Evidentemente sólo podremos
saber si el veneno ha matado al gato o no si abrimos la caja, pero mientras ha
permanecido cerrada, es decir mientras no hemos observado o medido, el gato podría
estar en cualquiera de las dos situaciones. En términos cuánticos, es decir en términos de
esta nueva física que estudia estas propiedades, podríamos decir que la
propiedad vivo o muerto del gato se encontraba en “superposición”.
Continuamos con las propiedades
de las partículas, ya que tiene gran trascendencia para su posible utilización en la codificación de
información. Si tenemos una partícula, digamos un electrón o un fotón , vemos que presenta una serie de propiedades
que podrían utilizarse como un código,
binario o de más estados, dependiendo de los valores que queramos escoger de la
propiedad elegida. Ahora bien, ya sabemos que cuando intentamos medir esas
propiedades, éstas pueden verse alteradas. Por ello nos interesa conocer
experimentalmente qué pasa cuando realizamos observaciones consecutivas de la
propiedad de una partícula, o qué pasa cuando medimos propiedades diferentes.
En los laboratorios se constata
que si medimos una determinada propiedad de una partícula, la llamamos
propiedad “A”, que tendría valores continuos, pero que por sencillez en nuestra exposición decimos que puede tener
dos resultados posibles, por ejemplo “alto” o “bajo”, y repetimos las
mediciones, siempre vamos a obtener los mismos resultados. Es decir si de “A”
hemos obtenido “alto”, siempre que repitamos la medición volveremos a obtener
“alto”. Esto es consecuente y por tanto prometedor.
Ahora bien, si pudiéramos combinar resultados de mediciones de propiedades diferentes en una misma partícula podríamos
multiplicar nuestra capacidad para codificar información, proporcionándonos una potencia revolucionaria. En los laboratorios se ve que si medimos A (alto/bajo) y a continuación medimos otra
propiedad diferente, la propiedad B,
también para simplificar con dos valores posibles “rojo” y “negro”, y realizamos
a continuación una segunda medición de B, que llamaremos B´, obtendremos un trío de valores
del tipo (A=”Alto”
; B=”rojo”
; B´=”rojo”).
En el experimento se constata que la segunda medición B’ es coherente con la primera medición B; sin embargo, no podemos estar seguros de que el resultado de medición A se mantenga en el proceso. De hecho se observa
en los laboratorios que si en vez de
repetir al final la medición de B, repetimos la de A (tendríamos ahora una A´), el
resultado puede coincidir o no con la primera medición de A.
Curiosamente, en esta última variedad
del experimento, si no observamos los resultados de B el sistema mantiene sus
propiedades, y los valores de A y A´ coincidirán. Por tanto, y así se constata en los laboratorios, la
observación de una de las propiedades de una partícula puede alterar los
valores de otra propiedad que hayamos medido.
Aquí el tema se nos complica.
Vayamos un poco más allá. Empecemos a romper cosas. Al producir dos partículas a partir de una
primera original y medir una de sus propiedades, pongamos por caso la propiedad
B, nos
encontramos con que si una de las
partículas generadas es “rojo” la otra necesariamente es “negro”. Pareciera que
en el mismo momento de su generación pudieran ponerse de acuerdo para que esto
sea así. Esta acción, que Einstein con cierta ironía denominó “fantasmal a
distancia”, hace que se puedan generar partículas que se comportan como gemelas
interrelacionadas en sus propiedades; es
decir si altero una propiedad en una de ellas, de forma inmediata se altera esa
propiedad en la otra, independientemente de la distancia a la que se
encuentren. Este estado. que denominan de entrelazamiento cuántico no convencia a Einsten que
intentó encontrar una explicación para este fenómeno, aduciendo que seguramente existiría
una variable desconocida que le daría explicación, sin salirse de la física
clásica. Sin embargo, con el transcurso del tiempo las evidencias de los
experimentos realizados en laboratorio no harían más que corroborar
empíricamente lo que la nueva física estaba propugnando.
Ahora bien, llegados a este punto nos hemos podido dar cuenta que si podemos determinar
el valor de una propiedad de una partícula para que sea considerado como un bit de
información, si podemos alterar ese valor a voluntad según nos sea necesario, y
podemos además crear estados entrelazados, nos encontramos con un conjunto de
herramientas de gran valor para procesar y "comunicar" información.
A finales del siglo XX se dio un
paso más, planteando y resolviendo con
éxito la cuestión de utilizar dos partículas entrelazadas para utilizarlas como
puente y transmitir la información cuántica residente en una tercera. Aunque en
el proceso se pierde la información original en la tercera, y las dos
partículas entrelazadas pierden su estado de entrelazamiento, sí se logra la
trasmisión de esa información.
Habiendo llegado hasta aquí podemos
apuntar algunas características de los denominados bits cuánticos.
· Podemos romper la limitación de que un bit de
información se limite a dos estados, el código binario conocido de unos y ceros
que utilizamos actualmente, y utilizando partículas jugar con tres, una docena o mil estados
posibles codificando información de una forma más eficiente.
·
Los estados de una partícula pueden encontrarse
en superposición, una combinación lineal, por lo que no podremos predecir el
valor del bit de una forma exacta antes de la medición, sólo especular acerca
valor que puede tener en función de los coeficientes de su combinación lineal.
·
Al poder crear situaciones en la que partículas
se encuentren entrelazadas, y situarlas en puntos distantes, podemos transmitir
información o alterarla a distancia, creando una comunicación entre “emisor” y
“receptor” sin necesidad de utilizar un medio.
Feynman, en su momento, llamaría
la atención sobre las posibilidades de la física cuántica para procesar
información. A partir de entonces, como si de un pistoletazo de salida se
hubiera tratado, muchos países se afanan en producir la tecnología necesaria
para fabricar el ordenador que sea capaz de aprovechar sus ventajas y solventar
los problemas que plantean este tipo de “circuitos”. Tengamos en cuenta que el
modelo teórico en que se sustenta nada tiene que ver con la máquina de Turing y
el modelo de Neumann que son la base de los ordenadores que conocemos. Pese a las dificultades el esfuerzo merece la
pena, dado que la programación que se puede realizar en base a estos postulados
resuelve problemas que con la computación clásica son inabarcables y nos
permite abordar otros que de otra manera no nos podríamos plantear.
A modo de ejemplo señalaré que se han desarrollado algoritmos de recuperación
de información que son capaces de hacer lo siguiente. Imaginemos que tenemos
una guía telefónica de las antiguas en la que podríamos encontrar por orden
alfabético de apellidos de los abonados los números de teléfono de una gran
ciudad. Pongamos, por ejemplo, que la guía tuviese los teléfonos de medio
millón de usuarios o cualquier otra cantidad (n) . Si lo que tenemos es un teléfono
y queremos obtener los apellidos del usuario, utilizándola al revés de cómo ha sido diseñada,
en la programación clásica de nuestros ordenadores nuestro software tendría que
hacer (n) comprobaciones en el peor de los casos para localizarlos. Los nuevos
algoritmos basados en el modelo cuántico son capaces de resolver el problema
con raíz cuadrada de (n) comprobaciones.
Otro ejemplo, que suele exponerse por las consecuencias que puede tener, es el de la factorización
rápida. Sabemos que factorizar es descomponer un número en otros números más
pequeños que multiplicados nos den el primero que teníamos. Esto resulta
sencillo con cifras pequeñas, pero cuando los números son altos, los
ordenadores clásicos con sus programas se quedan calculando sus factores tiempos demasiado largos; tan
largos, que no es práctico intentarlo. Como este problema es de sobra conocido,
se aprovecha para utilizarlo como medio para proteger claves (Método RSA). Cojo
dos números altos, con bastantes cifras, y los multiplico. El número resultante
tiene todavía más cifras. De esta forma sé cuál es la factorización con dos
operadores del número resultante. A partir de ahí construyo mi sistema de forma
que únicamente el que sepa la factorización del número resultante puede tener
acceso a la información. Como no existe ordenador en el mundo capaz de realizar
la operación sólo yo, o quien yo desee, puede acceder a ella. Esto que puede
parecer trivial es la base de la criptografía actual y lo que asegura la
confidencialidad de nuestra información en todos los ámbitos. Los programas
basados en las propiedades cuánticas, por el momento modelos teóricos, tienen potencia suficiente para factorizar los números utilizados en criptografía en tiempos reducidos, con lo que esto supone.
En definitiva, y a pesar de las
dificultades que todavía hay que vencer, las oportunidades que nos ofrece la
física cuántica para codificar y procesar información, acompañadas por el
desarrollo de una nueva lógica de programación que sea capaz de explotarla, nos
coloca en la antesala de una nueva revolución en el área de las tecnologías de
la información. Esta revolución podría ser de tal magnitud que transformara
completamente la sociedad tal y como la conocemos en la actualidad.
Ricardo Martínez de Madariaga
Ricardo Martínez de Madariaga
03/11/2015
Que artículo tan ameno e interesante sobre un tema tan fascinante! Ojalá te animes a seguir divulgando para que otros, como yo, podamos ir adentrándonos en temas que se nos vienen encima en el futuro, y costará entender fácilmente. Gracias!
ResponderEliminarResumen Armonioso de como la Luz Mágica logra efectos Maravillosos que nos introduce para Comprender este Mundo ta Inmenso...Gracias.
ResponderEliminar