Computación cuántica, el futuro de los ordenadores


Seguramente no sea la primera vez que oyes hablar de la computación cuántica, o de la informática cuántica, o del tan misterioso y potente ordenador cuántico. La palabra “cuántica” normalmente se utiliza para atraer dinero e interés y en el mundo de la tecnología suele venir acompañada siempre de una aureola de misterio que parece aumentar su importancia. ¿Pero en qué consiste realmente todo esto de la cuántica y por qué se dice que viene a revolucionar el mundo de los ordenadores?

Para entender como empezó todo debemos viajar hasta encontrarnos con los jóvenes físicos de los años noventa, quienes empezaron a debatir sobre las implicaciones que podía tener la física cuántica en la computación. Apenas era una entelequia, una simple posibilidad teórica que nadie sabia cómo se podía realizar. Fue gracias a algunos teóricos que se pasó de algo abstracto a una posibilidad real, que a pesar de los intentos no se ha logrado aún en nuestros días.

Los hombres que propusieron el concepto de las computadores cuánticas fueron algunos de los físicos más reputados (y controvertidos, todo sea dicho) de la época; Richard Feynmann, (California Institute of Technology, de Pasadena); Paul Benioff, (Argonne National Laboratory, de Illinois); David Deutsch, (Universidad de Oxford, en Inglaterra), Charles Bennett, (T.J. Watson Research Center de IBM en Nueva York) y Peter Shor (AT & T Research), este último fue quién describió en 1994 el primer algoritmo cuántico diseñado para aprovechar la potencia de estas nuevas computadoras para la factorización de números grandes de una forma muchísimo más rápida.

A él le siguieron otros físicos como los experimentalistas Isaac L. Chiang (IBM y Gershenfeld) y Mark G. Kubinec (Universidad de Berkeley) quienes se lanzaron a construir un ordenador cuántico simple capaz de ejecutar lo que sus compañeros habían modelizado. En 1998, en la Universidad de California en Berkeley, consiguieron crear 5 bits cuánticos (qubits) capaces de ejecutar mediante resonancia magnética el algoritmo de Grover a partir de átomos de hidrógeno y cloro procedentes del cloroformo, años después alcanzarían los 7 qubits con un método similar.

La modelización y búsqueda de nuevos algoritmos continua hasta día de hoy, y son muchos los físicos que han decidido dedicarse a la investigación de esta nueva rama que está en plena ebullición. La conocida Ley de Moore invita a pensar que dentro de unos años tendremos un tamaño tan pequeño de nuestro microprocesadores que se nos hará imposible reducirlos aún más sin vernos interferidos por las leyes que gobiernan la escala atómica y llegados a este punto las reglas del juego cambian, hasta tal punto que muchas de las ideas preconcebidas y deterministas que tenemos del mundo no pueden aplicarse a los procesos cuánticos.

Qubits, las unidades básicas de la información cuántica

Las ventajas que encontramos en un ordenador cuántico no son otra que las que nos proporciona trabajar con qubits, el análogo cuántico del bit clásico. Un ordenador tradicional codifica la información en binario, la convierte en ceros y unos y nos la devuelve según lo que le hayamos pedido, nuestro nuevo ordenador hace exactamente lo mismo, pero gracias a las reglas de la cuántica es posible hacerlo a una velocidad “infinitamente” superior.

¿Qué es lo que pasa con la cuántica para que hayan estas propiedades? Básicamente lo que esta parte de la física nos dice es que cuando estamos tratando escalas atómicas la posición, energía y demás magnitudes están indeterminadas (no podemos establecerlas en un marco concreto), esto provoca que por ejemplos las partículas subatómicas o en nuestro caso los bits no puedan definirse unívocamente como un cero y un uno, sino que tendremos un vendaval de posibilidades entre ellos, y aquí llega lo sorprendente, podemos trabajar con el estado que representa la indeterminación, pues no solo es una representación matemática sino un estado más en el que pueden encontrarse los objetos atómicos. Así que podemos trabajar con más estados que antes. Un vector de n qubits ahora puede representar a la vez 2n estados, de forma que un vector de dos qubits representaría los estados 00, 01, 10 y 11.



Tenemos muchos sistemas con dos estados discretos distintos, y cualquier de ellos podría servir como qubit, un spin de electrón que apunta arriba o abajo, o un spin de fotón con polarización horizontal o vertical serían buenos ejemplos. Con 8 bits, un Qbyte como el que consiguieron en 2005 con trampas de iones, tenemos de sobra para asignar un número a cada signo del teclado, y así digitalizar cualquier texto, la misma historia pasa con los qubits, pero hay pequeñas diferencias que como hablaremos después provocan grandes quebraderos de cabeza.

La velocidad para realizar factorización de grandes números se incrementa enormemente con los ordenadores cuánticos. Utilizando algoritmos cuánticos de factorización diseñados para aprovechar estos estados extra se estima que realizaríamos operaciones que un sistema normal tardaría unos 4×10^16 años en apenas ocho meses, y esto basándonos en un algoritmo idealizado en 1994. La eficiencia de estos algoritmos se basa en el ritmo en que se incrementa el tiempo de resolución de un problema a medida que aumenta el tamaño de los datos de entrada, y esta diferencia de tiempo es la que nos permite distinguir realmente si estamos ante un verdadero ordenador cuántico o ante un número gigantesco de computadores normales. Dicho de otro modo, estos algoritmos cuánticos puede que arrojen resultados similares con un número pequeño de qubits, pero al aumentar el número es donde empezamos a poder apreciar las diferencias entre unos y otros, haciéndose esta cada vez más grande.

Diversos problemas en el intento de fabricar el primer ordenador cuántico

La parte teórica ha sido bien estudiada y se ha avanzado muchísimo desde los primeros algoritmos  lo que falta es la tecnología para escalarlo y realizarlo. Los bits son robustos, pero los qubits son sumamente frágiles ante cualquier intento de medirlos o inspeccionarlos. La obtención de información sobre un sistema cuántico generalmente lo perturba. Con qubits debemos tener un cuidado extremo a la hora de descodificar, pues si se produce un error el resultado es completamente aleatorio. Esa es otra de las cosas de la cuántica; la medición determina el estado, cualquier interrupción del proceso hace desaparecer la decoherencia que permite la computación cuántica.

¿Qué debe tener un buen computador cuántico a fin de realizar una implementación cuántica correcta?
 ¿Cuáles son los requisitos?
  • Es necesario un sistema de qubits bien caracterizados, que puedan ser medidos específicamente.
  • Estos deben ser direccionables individualmente, interactuando entre si para formar compuertas lógicas de propósito general.
  • Se debe poder inicializar un conjunto universal de puertas cuánticas.
  • Se debe tener la posibilidad de extraer los resultados computacionales.
  • Es necesario un tiempo de coherencia duradero.

Estas premisas sin embargo son demasiado estrictas para conseguir hoy en día. Dependiendo de la manera en que se cuenten, se han fabricado ordenadores cuánticos con muy pocos qubits. Según nos cuenta Ignacio Cirac (el referente español y uno de los mayores expertos en la materia) – “La idea es llegar a 1.000 o 2.000 iones, con los que se podrían hacer cálculos que son imposibles con los ordenadores actuales; por ejemplo, se podrían caracterizar algunas reacciones químicas en las que participen 10 o 20 átomos, y ver como optimizar los productos a los que dan lugar”.

En el año 2008, un equipo de científicos consiguió almacenar por primera vez un Qubit en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1,75 segundos, consiguiendo un tiempo de coherencia duradero como necesita el quinto punto.

Pero entonces llegamos a la empresa D-Wave, vendida recientemente a Lockheed Martin por 10 millones de dólares, consiguió en solo dos años avanzar de 16 a 128 qubits, consiguiendo incluso publicar varios artículos en Nature sobre el tema y apropiándose del título de primer ordenador cuántico comercial fabricado. Pero hay algunos críticos que se preguntan si verdaderamente es un ordenador cuántico. Los chicos de D-Wave creen que su sistema pierde la decoherencia de forma casi inmediata en la base de autoestados de la energía (en las fugas térmicas), pero que creen que no la pierde en la base “computacional” (se producen algunos entrelazamientos durante las etapas intermedias del algoritmo). Esta idea es la que subyace a la computación cuántica adabiática y la razón por la que desde D-Wave se cree que tienen en sus manos un ordenador cuántico. Si han conseguido reducir el tiempo de implementación del algoritmo y ello significa entrelazamiento entre varios qubits puede ser un gran avance, lástima que no hayan conseguido avanzar más desde entonces y sea tan difícil estudiarlo en profundidad.

¿Para cuándo tendremos las ventajas de la computación cuántica con nosotros?

“Hacer predicciones es muy difícil, especialmente cuando se trata del futuro.” – Niels Bohr. ¿Qué podrían haber contestado en los años veinte sobre para cuando tendríamos con nosotros ordenadores clásicos escalables? No fue sino hasta los 80 donde la electrónica dio un gran salto y no ha sido hasta entrado este siglo donde la microelectrónica ha invadido nuestros bolsillos. Cuando nos preguntamos cuando tendremos un ordenador cuántico en nuestra casa debemos tener en cuenta una vez más que es una cuestión de mera dificultad tecnológica. Necesitamos pulir nuestras herramientas para conseguir un gran número de qubits (sean fotones, núcleos atómicos o cualquier otra cosa que puedan ser) y poder luchar contra la decoherencia que pr0voca que no podamos tener acceso a esos estados. Ahora mismo esto parece prácticamente imposible, pero la historia ha demostrado que si se invierte la tecnología nos puede ofrecer cosas inimaginables.



El estudio sobre la computación cuántica ha sido la razón de los recientes premios Nobel de física (2012) y de la medalla Wolf (que ha sido para Cirac), aunque no vayamos a pensar que solo en el mundo académico se tiene en cuenta. Google, por ejemplo, utiliza un algoritmo que, se rumorea, es el cálculo numérico más grande llevado a cabo en cualquier parte del mundo. Con la red en constante expansión, varios investigadores de la Universidad de Carolina del Sur (USC) han propuesto -y demostrado la viabilidad- de la utilización de ordenadores cuánticos para acelerar los procesos de búsqueda, en lo que se conoce como el Quantum Page Rank.

En el mundo de las telecomunicaciones también se habla de teleportación cuántica, que permite el intercambio de información entre dos puntos de forma instantánea sin importar la distancia que los separe y de criptografía cuántica un sistema de seguridad completo y tan protegido que ni siquiera con toda la potencia de los ordenadores cuánticos podría ser hackeada. Por su parte IBM nos promete que estamos un poquito más cerca gracias a sus qubits de alta coherencia en tres dimensiones, con tiempos de hasta 100 microsegundos, suficientemente estables como para medir, trabajar y comprobar si es posible aplicar los diversos algoritmos cuánticos y conseguir buenos tiempos.


Las propiedades especiales de los qubits permitirá que los ordenadores cuánticos trabajen en millones de cálculos a la vez, mientras que un PC de sobremesa normalmente solo puede manejar un mínimo de cálculos simultáneos. Los números asustan, por ejemplo, un único qubit de 250 estados contiene más bits de información que átomos hay en el universo y de complejidades dignas del cerebro humano. Una escala de potencia y números que provocará que pensar en los nanómetros de los chips de los smartphones sea una nimiedad en comparación. Una abismal potencia que ahora mismo se utiliza como reclamo para conseguir atención y financiación, pero no debe cegarnos en la importancia que puede tener en el futuro de la computación.


comments powered by Disqus
Copyright © 2012 Zona Info.