Openness

Computación cuántica sin morir en el intento – Parte II

¿Cuáles son los retos que afronta actualmente la computación cuántica?, ¿por qué todavía no podemos utilizar ordenadores cuánticos en los hogares?, ¿cuánto falta para que esto sea posible? En este artículo intentamos responder a estas y otras cuestiones sobre la informática cuántica.

En la primera parte de este artículo hablamos de sistemas cuánticos que se encuentran en estados puros (descritos por un único vector de estado). Sin embargo, es posible que el sistema se pueda encontrar en mezcla estadística de estados puros, en cuyo caso hablaremos de sistemas en estados mixtos. Para describir matemáticamente estos sistemas lo más apropiado es hacerlo con lo que se llama matriz de densidad. Esto supone una dificultad adicional que la teoría resuelve perfectamente. Recuerda que el qubit puede definirse alternativamente a partir de un vector de estado o de una matriz de densidad.

¿Y esto cómo se hace?

Evidentemente, las puertas lógicas de los ordenadores convencionales no sirven para la computación cuántica. Ahora necesitamos nuevas puertas cuánticas que sean capaces de manipular controladamente los qubits. Para diseñar estas puertas es preciso tener en cuenta que cada qubit de entrada es un vector y que los objetos matemáticos más adecuados para manipular vectores son las matrices. Por tanto, las nuevas puertas implementan matrices que convierten los vectores de entrada en nuevos vectores de salida. 

Aquí hay un tema matemático que hay que tener en cuenta, ya que se va a ver reflejado en la complejidad (y tamaño) de los diseños físicos de esas puertas. Los estados de nuestro sistema qubit son vectores en un espacio de Hilbert de dimensión 2, ahora bien, si nuestra puerta va a recibir N qubits a su entrada, esos N qubits serán vectores en un espacio de Hilbert que es composición de los N espacios de Hilbert de 2 dimensiones de los qubits individuales. Esto arroja una dimensión 2N para el espacio vectorial resultante (la construcción de este espacio se realiza mediante la operación llamada producto tensorial (⨂) de los espacios individuales). Por eso las matrices que implementan las puertas cuánticas que trabajan con N qubits deben ser matrices 2 elevado a x 2 elevado a N.

La implementación física de las puertas cuánticas depende del sistema que estemos usando como qubit. Por ejemplo, en aquellos sistemas basados en fotones, las puertas son sistemas ópticos compuestos de espejos, fotodetectores, divisores de haces o desplazadores de fase. El reto que existe es disponer, sea la implementación que sea, de un conjunto universal de puertas lógicas que permita hacer controladamente todas las manipulaciones básicas de qubits para implementar algoritmos complejos. Como se puede imaginar, dependiendo de la implementación física escogida, puede haber un problema de miniaturización por resolver.

En un ordenador convencional conseguir los ceros y unos de entrada a las puertas lógicas es fácil. Se consigue aplicando voltajes a los dispositivos electrónicos que componen los circuitos. ¿Cómo generamos los estados cuánticos que manipularán las puertas cuánticas? Se está haciendo de dos maneras. La primera, con tecnología de microondas a través de un chip superconductor. Las entradas a estas puertas cuánticas son como arrays de conectores coaxiales para las que viajan fotones de microondas de frecuencias determinadas que permiten inicializar los qubits a los valores deseados para que luego sean manipulados por los componentes de la puerta siguiendo las leyes de la Mecánica Cuántica. La otra es mediante unos dispositivos de Silicio similares a los actuales transistores. Presentan la ventaja de la facilidad de fabricación, la posibilidad de miniaturización (del orden de un millón de veces menor que la opción basada en superconductores) y además permiten operar a temperaturas más altas.

No puede ser tan bonito

Ahora bien, antes he dicho que cuando observamos un sistema cuántico, al igual que pasaba con el gato de Schrödinger, resulta que este está en un estado determinado, no en todos a la vez. Esto es lo que se denomina problema de la medida de la Mecánica Cuántica (que resulta ser un problema también para la computación cuántica). ¿Y por qué es un problema? Mientras no observemos el sistema, este evoluciona de manera absolutamente predecible como una superposición de todos sus estados posibles (predecible en el sentido de que podemos conocer la evolución de las probabilidades asociadas a cada autovector de la base solamente resolviendo la ecuación de ondas asociada). Por aclarar este punto, observación no significa que haga falta un señor o un aparato que mire el sistema, sino que quiere decir interacción de cualquier tipo con el sistema, controlada o no, consciente o inconsciente.

En el momento de observar el sistema, la superposición de estados en que se encontraba se destruye y el sistema se manifiesta en uno y solo uno de sus posibles estados. Todos los coeficientes de nuestro vector se anulan excepto uno, correspondiente al estado propio en el que se encuentra el sistema, coeficiente que valdrá 1 (probabilidad 100%). Esto es lo que se llama colapso del estado cuántico. Cuando se produce este colapso, ¿podemos saber en qué estado quedará el sistema? Pues resulta que no lo podemos saber a priori. El colapso es un fenómeno genuinamente aleatorio. Si tenemos N sistemas idénticos con dos estados posibles y los sometemos a idéntica observación, podremos saber cuántos de ellos van a estar en un estado y cuántos en el otro, pero no podemos saber cuáles exactamente de los N caerán en uno y cuáles de los N en el otro.

Todo esto está directamente relacionado con lo que se llama decoherencia cuántica. Mientras el sistema mantiene su estado de superposición, se dice que está en un estado coherente (aunque esto tiene algunos matices), siendo la decoherencia la pérdida del mismo producida por el colapso del estado cuántico ante cualquier interacción. Este proceso explica por qué los sistemas físicos macroscópicos generalmente no exhiben comportamientos cuánticos debido a que están continuamente interaccionando con otros sistemas (macroscópicos o microscópicos). Cada sistema tiene un tiempo típico de decoherencia que depende de su tamaño, ruido térmico, presencia de campos,… 

Está claro que esto supone un serio problema para la computación cuántica: cualquier  interacción que pueda afectar de manera incontrolada a nuestro sistema, provocará el colapso del estado cuántico y, en consecuencia, la pérdida de la información que almacenaba. El ordenador cuántico tendrá que operar en unas estrictas condiciones de aislamiento de manera que el tiempo que dure la operación sea inferior al tiempo de decoherencia. Los tiempos de decoherencia típicos se mueven en el rango de los nanosegundos, llegando al orden del segundo si la temperatura es lo suficientemente baja. 

No obstante, se está trabajando en mecanismos de corrección cuántica que permiten proteger la información de estas pérdidas. En el mundo “clásico”, la forma más habitual de detectar y corregir errores se basa en la redundancia (mantener copias repetidas de la información que permitan detectar cambios no deseados y determinar cuál es el valor correcto). Pero en el mundo cuántico, como resultado del teorema de no clonación, no es posible realizar la copia de un estado cuántico desconocido arbitrario. Sin embargo, se ha encontrado una solución basada en el entrelazamiento cuántico, uno de los fenómenos más bizarros de la Mecánica Cuántica según el cual, bajo ciertas condiciones, el estado de dos o más sistemas cuánticos puede ser descrito por un estado único, de manera que cualquier cambio en uno de los subsistemas afectará de manera instantánea al resto, independientemente de la distancia espacial existente entre ellos. 

Usando esta característica de los sistemas cuánticos, se ha podido repartir la información de un qubit entrelazándolo con otros (inicialmente con 9 qubits), generando lo que se ha llamado código cuántico de corrección, que permite corregir los posibles errores. Posteriormente se ha reducido el número de qubits necesario para la corrección hasta 5, demostrándose que constituye un valor límite para conseguir la corrección. El desarrollo de este tipo de mecanismos es vital para poder proteger la información del qubit del indeseado proceso de decoherencia y que el chip cuántico haga correctamente su procesamiento.

Por tanto, lo importante en un ordenador cuántico no es tanto (o no es solo) el número de qubits que maneja sino la tasa de error con que lo hace. Y se debe tener en cuenta que el escalado (el aumento de qubits) aumenta esta tasa de error. En este sentido, IBM ha definido una métrica, el volumen cuántico, que permite evaluar la potencia de un ordenador cuántico teniendo en cuenta la eficiencia del procesamiento. El objetivo de esta métrica es poder comparar distintos ordenadores cuánticos. Para el cálculo de este indicador, además del número de qubits, se tiene en cuenta la tasa de error en las operaciones (relacionada con la decoherencia, es decir, con la estabilidad de los qubits), la conectividad de los qubits (relacionada con el entrelazamiento) o la eficiencia de las puertas cuánticas. A día de hoy, el mayor volumen cuántico ha sido obtenido por Honeywell (64), el doble que los ordenadores cuánticos de IBM y Google (32). A medida que este indicador vaya creciendo, mayor será la capacidad de los ordenadores cuánticos para resolver problemas más y más complejos.

¿Cómo de cerca estamos de todo esto?

No nos debemos engañar, los prototipos existentes de ordenadores cuánticos son maquinaria exclusiva de laboratorio. Como se ha señalado antes, interesa, en aras del éxito de nuestros cálculos, que el tiempo de operación esté por debajo del tiempo de decoherencia, lo cual obliga a que los ordenadores cuánticos deban mantenerse en unas condiciones de muy baja temperatura y en entornos libres de interferencias para poder operar adecuadamente. Y por muy baja temperatura quiero decir rozando el cero absoluto, de orden de los miliKelvins, por lo que no son aparatos que podamos instalar en cualquier sitio. 

No obstante, IBM ha anunciado ya el primer ordenador cuántico comercial, el IBM Q System One, que es un cubo de cristal sellado de casi 3×3 metros (como una habitación de tamaño medio) que contiene la circuitería y que cuenta con una potencia de 20 qubits y un volumen cuántico de 16. No es, por tanto, el prototipo más potente a nivel de qubits (Intel tiene uno de 49 qubits, la propia IBM ha anunciado la pronta disponibilidad de uno de 50 qubits y Google habla de uno de 72 qubits, Bristlecone) ni tampoco a nivel de volumen cuántico.

¿Por qué se le denomina comercial? Desde luego no porque te lo puedan enviar a tu casa, sino porque es una solución integral aunque, en cualquier caso, sigue siendo un objeto de laboratorio, con las necesidades de instalación y configuración tan especiales que he comentado para asegurar la estabilidad de los qubits. Por lo demás, se parece más a las antiguas computadoras de tarjetas perforadas (sin disco duro, memoria, gráficos, lenguajes de programación ni compiladores), lejos aún de la idea habitual de un ordenador que podamos usar en nuestra casa. Todavía estamos muy lejos de eso. No obstante, hasta el más largo viaje de miles de kilómetros, empieza con un paso.