Seguramente no sea la primera vez que oyes hablar de la computación
cuántica, o de la informática cuántica, o del tan misterioso y potente
ordenador cuántico. La palabra “cuántica” normalmente se utiliza para
atraer dinero e interés y en el mundo de la tecnología suele venir
acompañada siempre de una aureola de misterio que parece aumentar su
importancia.
¿Pero en qué consiste realmente todo esto de la cuántica y por qué se dice que viene a revolucionar el mundo de los ordenadores?
Para entender como empezó todo debemos viajar hasta encontrarnos con
los jóvenes físicos de los años noventa, quienes empezaron a debatir
sobre las implicaciones que podía tener la física cuántica en la
computación. Apenas era una entelequia, una simple posibilidad teórica
que nadie sabia cómo se podía realizar. Fue gracias a algunos teóricos
que se pasó de algo abstracto a una posibilidad real, que a pesar de los
intentos no se ha logrado aún en nuestros días.
Los hombres que propusieron el concepto de las computadores cuánticas
fueron algunos de los físicos más reputados (y controvertidos, todo sea
dicho) de la época; Richard Feynmann, (California Institute of
Technology, de Pasadena); Paul Benioff, (Argonne National Laboratory, de
Illinois); David Deutsch, (Universidad de Oxford, en Inglaterra),
Charles Bennett, (T.J. Watson Research Center de IBM en Nueva York) y
Peter Shor (AT & T Research), este último fue quién describió en
1994
el primer algoritmo cuántico diseñado para aprovechar la potencia de
estas nuevas computadoras para la factorización de números grandes de
una forma muchísimo más rápida.
A él le siguieron otros físicos como los experimentalistas Isaac L.
Chiang (IBM y Gershenfeld) y Mark G. Kubinec (Universidad de Berkeley)
quienes se lanzaron a construir un ordenador cuántico simple capaz de
ejecutar lo que sus compañeros habían modelizado. En 1998, en la
Universidad de California en Berkeley, consiguieron crear 5 bits
cuánticos (qubits) capaces de ejecutar mediante resonancia magnética el
algoritmo de Grover a partir de átomos de hidrógeno y cloro procedentes
del cloroformo, años después alcanzarían los 7 qubits con un método
similar.
La modelización y búsqueda de nuevos algoritmos continua hasta día de
hoy, y son muchos los físicos que han decidido dedicarse a la
investigación de esta nueva rama que está en plena ebullición. La
conocida Ley de Moore invita a pensar que dentro de unos años
tendremos
un tamaño tan pequeño de nuestro microprocesadores que se nos hará
imposible reducirlos aún más sin vernos interferidos por las leyes que
gobiernan la escala atómica y llegados a este punto las reglas
del juego cambian, hasta tal punto que muchas de las ideas preconcebidas
y deterministas que tenemos del mundo no pueden aplicarse a los
procesos cuánticos.
Qubits, las unidades básicas de la información cuántica
Las ventajas que encontramos en un ordenador cuántico no son otra que las que nos proporciona trabajar con
qubits, el análogo cuántico del bit clásico.
Un ordenador tradicional codifica la información en binario, la
convierte en ceros y unos y nos la devuelve según lo que le hayamos
pedido, nuestro nuevo ordenador hace exactamente lo mismo, pero gracias a
las reglas de la cuántica es posible hacerlo a una velocidad
“infinitamente” superior.
¿Qué es lo que pasa con la cuántica para que hayan estas propiedades?
Básicamente lo que esta parte de la física nos dice es que cuando
estamos tratando escalas atómicas la posición, energía y demás
magnitudes están indeterminadas (no podemos establecerlas en un marco
concreto), esto provoca que por ejemplos las partículas subatómicas o en
nuestro caso
los bits no puedan definirse unívocamente como un cero y un uno, sino que tendremos un vendaval de posibilidades
entre ellos, y aquí llega lo sorprendente, podemos trabajar con el
estado que representa la indeterminación, pues no solo es una
representación matemática sino un estado más en el que pueden
encontrarse los objetos atómicos. Así que podemos trabajar con más
estados que antes. Un vector de
n qubits ahora puede representar a la vez 2n estados, de forma que un vector de dos qubits representaría los estados 00, 01, 10 y 11.
Tenemos muchos sistemas con dos estados discretos distintos, y
cualquier de ellos podría servir como qubit, un spin de electrón que
apunta arriba o abajo, o un spin de fotón con polarización horizontal o
vertical serían buenos ejemplos. Con 8 bits, un Qbyte como el que
consiguieron en 2005 con trampas de iones, tenemos de sobra para asignar
un número a cada signo del teclado, y así digitalizar cualquier texto,
la misma historia pasa con los qubits, pero hay pequeñas diferencias que
como hablaremos después provocan grandes quebraderos de cabeza.
La velocidad para realizar factorización de grandes números se incrementa enormemente con los ordenadores cuánticos.
Utilizando algoritmos cuánticos de factorización diseñados para
aprovechar estos estados extra se estima que realizaríamos operaciones
que un sistema normal tardaría unos 4×10^16 años en apenas ocho meses, y
esto basándonos en un algoritmo idealizado en 1994.
La
eficiencia de estos algoritmos se basa en el ritmo en que se incrementa
el tiempo de resolución de un problema a medida que aumenta el tamaño de
los datos de entrada, y esta diferencia de tiempo es la que
nos permite distinguir realmente si estamos ante un verdadero ordenador
cuántico o ante un número gigantesco de computadores normales. Dicho de
otro modo, estos algoritmos cuánticos puede que arrojen resultados
similares con un número pequeño de qubits, pero al aumentar el número es
donde empezamos a poder apreciar las diferencias entre unos y otros,
haciéndose esta cada vez más grande.
Diversos problemas en el intento de fabricar el primer ordenador cuántico
La parte teórica ha sido bien estudiada y se ha avanzado muchísimo
desde los primeros algoritmos lo que falta es la tecnología para
escalarlo y realizarlo. Los bits son robustos, pero los qubits son
sumamente frágiles ante cualquier intento de medirlos o inspeccionarlos.
La obtención de información sobre un sistema cuántico generalmente lo
perturba. Con qubits debemos tener un cuidado extremo a la hora de
descodificar, pues si se produce un error el resultado es completamente
aleatorio. Esa es otra de las cosas de la cuántica; la medición
determina el estado, cualquier interrupción del proceso hace desaparecer
la decoherencia que permite la computación cuántica.
¿Qué debe tener un buen computador cuántico a fin de realizar una implementación cuántica correcta?
¿Cuáles son los requisitos?
- Es necesario un sistema de qubits bien caracterizados, que puedan ser medidos específicamente.
- Estos deben ser direccionables individualmente, interactuando entre si para formar compuertas lógicas de propósito general.
- Se debe poder inicializar un conjunto universal de puertas cuánticas.
- Se debe tener la posibilidad de extraer los resultados computacionales.
- Es necesario un tiempo de coherencia duradero.
Estas premisas sin embargo son demasiado estrictas para conseguir hoy
en día. Dependiendo de la manera en que se cuenten, se han fabricado
ordenadores cuánticos con muy pocos qubits. Según nos cuenta
Ignacio Cirac
(el referente español y uno de los mayores expertos en la materia) –
“La idea es llegar a 1.000 o 2.000 iones, con los que se podrían hacer
cálculos que son imposibles con los ordenadores actuales; por ejemplo,
se podrían caracterizar algunas reacciones químicas en las que
participen 10 o 20 átomos, y ver como optimizar los productos a los que
dan lugar”.
En el año 2008, un equipo de científicos consiguió almacenar por
primera vez un Qubit en el interior del núcleo de un átomo de fósforo, y
pudieron hacer que la información permaneciera intacta durante 1,75
segundos, consiguiendo un tiempo de coherencia duradero como necesita el
quinto punto.
Pero entonces llegamos a la empresa
D-Wave, vendida recientemente a Lockheed Martin por 10 millones de dólares, consiguió en solo dos años avanzar de 16 a
128 qubits, consiguiendo incluso publicar varios artículos en Nature sobre el tema y apropiándose del título de
primer ordenador cuántico comercial fabricado. Pero hay algunos
críticos que
se preguntan si verdaderamente es un ordenador cuántico. Los chicos de
D-Wave creen que su sistema pierde la decoherencia de forma casi
inmediata en la base de autoestados de la energía (en las fugas
térmicas), pero que creen que no la pierde en la base “computacional”
(se producen algunos entrelazamientos durante las etapas intermedias del
algoritmo). Esta idea es la que subyace a la computación cuántica
adabiática y la razón por la que desde D-Wave se cree que tienen en sus
manos un ordenador cuántico. Si han conseguido reducir el tiempo de
implementación del algoritmo y ello significa entrelazamiento entre
varios qubits puede ser un gran avance, lástima que no hayan conseguido
avanzar más desde entonces y sea tan difícil estudiarlo en profundidad.
¿Para cuándo tendremos las ventajas de la computación cuántica con nosotros?
“Hacer predicciones es muy difícil, especialmente cuando se trata del
futuro.” – Niels Bohr. ¿Qué podrían haber contestado en los años veinte
sobre para cuando tendríamos con nosotros ordenadores clásicos
escalables? No fue sino hasta los 80 donde la electrónica dio un gran
salto y no ha sido hasta entrado este siglo donde la microelectrónica ha
invadido nuestros bolsillos. Cuando nos preguntamos cuando tendremos un
ordenador cuántico en nuestra casa debemos tener en cuenta una vez más
que es
una cuestión de mera dificultad tecnológica.
Necesitamos pulir nuestras herramientas para conseguir un gran número de
qubits (sean fotones, núcleos atómicos o cualquier otra cosa que puedan
ser) y poder luchar contra la decoherencia que pr0voca que no podamos
tener acceso a esos estados. Ahora mismo esto parece prácticamente
imposible, pero la historia ha demostrado que si se invierte
la tecnología nos puede ofrecer cosas inimaginables.
El estudio sobre la computación cuántica ha sido la razón de los recientes premios Nobel de física (
2012)
y de la medalla Wolf (que ha sido para Cirac), aunque no vayamos a
pensar que solo en el mundo académico se tiene en cuenta. Google, por
ejemplo, utiliza un algoritmo que, se rumorea, es el cálculo numérico
más grande llevado a cabo en cualquier parte del mundo. Con la red en
constante expansión, varios investigadores de la Universidad de Carolina
del Sur (USC) han propuesto -y demostrado la viabilidad- de la
utilización de ordenadores cuánticos para acelerar los procesos de búsqueda, en lo que se conoce como el
Quantum Page Rank.
En el mundo de las telecomunicaciones también se habla de
teleportación cuántica, que permite el intercambio de información entre dos puntos de forma instantánea sin importar la distancia que los separe y de
criptografía cuántica
un sistema de seguridad completo y tan protegido que ni siquiera con
toda la potencia de los ordenadores cuánticos podría ser hackeada. Por
su parte
IBM nos
promete que estamos un poquito más cerca gracias a sus qubits de alta
coherencia en tres dimensiones, con tiempos de hasta 100 microsegundos,
suficientemente estables como para medir, trabajar y comprobar si es
posible aplicar los diversos algoritmos cuánticos y conseguir buenos
tiempos.
Las propiedades especiales de los qubits permitirá que los
ordenadores cuánticos trabajen en millones de cálculos a la vez,
mientras que un PC de sobremesa normalmente solo puede manejar un mínimo
de cálculos simultáneos. Los números asustan, por ejemplo, un único
qubit de 250 estados contiene más bits de información que átomos hay en
el universo y de complejidades dignas del cerebro humano. Una escala de
potencia y números que provocará que pensar en los nanómetros de los
chips de los smartphones sea una nimiedad en comparación.
Una
abismal potencia que ahora mismo se utiliza como reclamo para conseguir
atención y financiación, pero no debe cegarnos en la importancia que
puede tener en el futuro de la computación.