1985 fue el año del nacimiento de Windows, como una interfaz gráfica del sistema operativo MS-DOS. Mientras medio mundo abrazaba los ordenadores personales por primera vez, ese año, un físico de la Universidad de Oxford llamado David Deutsch describió el primer ordenador cuántico universal. Desde entonces, la humanidad ha tratado de construir una máquina de estas características. Pero lo cierto es que, 37 años después, seguimos usando el Windows y los ordenadores cuánticos suenan a cantos de sirena de algunas megacompañías que, de vez en cuando, hablan de una supuesta supremacía de sus computadores.
Publicidad
Ahora, IBM ha vuelto a hacerlo. Enfrentaron su computadora cuánticaEagle de 127 cúbits contra un superordenador convencional. Y la computadora cuántica ganó. Antes ya había pasado. Pero las partidas, por así decirlo, no eran del todo justas para el ordenador clásico.
Ahora, un equipo del centro Thomas J. Watson de IBM ha demostrado que su ordenador cuántico es capaz de resolver problemas científicos imposibles para ordenadores convencionales. No porque tengan un ordenador cuántico particularmente mejor. Sino porque han sido capaces de limpiar o mitigar buena parte del ‘ruido’ y los errores que este tipo de tecnologías producen.
Empecemos por describir a un ordenador cuántico: una máquina que, basándose en las ‘locas’ cualidades de la matera en su escala más, más pequeña –subatómica–, es capaz de realizar operaciones a un nivel desconocido de rapidez respecto a las computadoras clásicas. Y todo, gracias a que no trabajan con bits clásicos (un bit es una unidad de información mínima, como la letra en una palabra, que en sistemas digitales sólo pueden ser o un 0 o un 1).
Los ordenadores cuánticos trabajan con cúbits, que pueden ser 0, 1 y 0 y 1 a la vez. Y, en buena medida, gracias a otro asombroso fenómeno que ocurre a veces en lo más íntimo de la materia: dos partículas pueden estar entrelazadas, de modo que lo que le sucede a una, repercute en la otra, aunque no estén conectadas.
El ordenador cuántico ideal sería capaz de tomar esas propiedades de lo más, más pequeño y aplicarlas a cosas de un tamaño mayor, a escalas en que –por fortuna– no existen fenómenos tan extraños. Y, gracias a ello, hacer operaciones inimaginablemente rápidas. Pero esta somera definición (basada en la ‘rapidez’) empieza a quedar algo anticuada.
Publicidad
El entrelazamiento cuántico implica que lo que pasa en un lado repercute instantáneamente en el otro, aunque no estén conectados.
Explica Göran Wendin (Departamento de Microtecnología y Nanociencia de la Universidad de Gotenburgo, Suiza) que “hubo un tiempo en que se decía que un procesador cuántico podría acelerar la computación exponencialmente, utilizando el hecho de que sus bits pueden codificar una superposición de memorias completas que contienen los 1 y los 0 que almacenan información en las computadoras convencionales”.
Pero con el tiempo, las aproximaciones han sido más modestas. La computación cuántica se ha centrado en operaciones muy específicas como la de los “algoritmos utilizados en la investigación de química, materiales y logística”, precisa. Es decir, un ordenador cuántico no va a equivaler a un Windows ultrapotente, por más que ambos conceptos nacieran a la vez. Hablamos de cosas totalmente distintas.
Publicidad
Tanto que lo que acaba de presentar IBM es un uso que escapa a la necesidad de la inmensa mayoría de los mortales.
Cuando un ordenador cuántico no sirve para nada
Para entender el por qué de esta carrera por la supremacía cuántica, la doctora en tecnologías cuánticas Patricia Contreras explicaba en este stream de Newtrinos que las empresas tratan de conseguir que los efectos de la física de lo extraordinariamente pequeño (como el llamado ‘entrelazamiento’) ocurran a tamaños cada vez más grandes, visibles y, por tanto, prácticos:
¿Por qué es importante el avance publicado esta semana? Porque marca un camino nuevo e interesante. IBM ha desarrollado no un nuevo hardware (una máquina) más potente en sí. Sino un método (unos algoritmos) que prevén y detectan errores y ruido informativo que son muy habituales en la computación cuántica. Y que, de hecho, es lo que hace que sea tan escurridiza.
Publicidad
Las computadoras cuánticas necesitan, además, proteger los cúbits de la interferencia externa, ya sea aislándolos físicamente, manteniéndolos muy fríos o eliminándolos con pulsos de energía controlados. Además se necesitan cúbits adicionales para corregir los errores.
Lo que ahora ha presentado el equipo de Abhinav Kadala en Nature es algo menos seductor que una máquina ultrapotente capaz de hacer nuestro día a día más sencillo. Básicamente, brindan evidencia de que su chip puede generar, manipular y medir de manera fiable estados cuánticos tan complejos que sus propiedades no pueden estimarse con métodos clásicos. Dicho de otro modo. Es un medio, no un fin. Un camino hacia ordenadores capaces de dar respuestas a complejísimas preguntas de la física. Su nicho, por tanto –y por ahora– sería de de una parte de la comunidad científica.
“El contenido del trabajo es bastante técnico, se centra en preguntas como la simulación de problemas de física en estos ordenadores”, precisa desde el IFF-CSIC el profesor Juan José García-Ripoll, quien también trabaja en diseño de simulaciones cuánticas desde hace años. “En concreto, este trabajo se ha centrado en simular lo que se conoce como el ‘modelo de Ising con campo transverso’, un problema físico fundamental en el estudio del magnetismo”, explica, como ejemplo de lo remoto a nuestra cotidianidad de este uso de un ordenador cuántico. Es decir, Kadala y sus colegas de IBM han demostrado que su máquina, servir, sirve. Y no es poco.
En 2019, Google anunció la ‘supremacía’ para una operación complejísima. Pero un equipo chino la pudo resolver con un puñado de tarjetas gráficas, aunque de forma ineficiente.
En 2019, el Sycamore de Google aseguró haber conseguido la llamada ‘supremacía cuántica‘ con una máquina de unos 50 bits cuánticos. “El problema es que, en aquel caso, la tarea no servía para nada –añade en el SMC de EspañaCarlos Sabín, del Departamento de Física Teórica de la UAM–. La tarea estaba diseñada específicamente para que fuera muy difícil de resolver por un ordenador clásico, pero factible para uno cuántico”. Cualquiera con otro cuántico podría resolverlo. Pero un equipo chino dio lo que parecía entonces un baño de humillación a Sycamore: liquidó el mismo problema con los procesadores clásicos de unas tarjetas gráficas.
Es cierto que el trabajo del equipo de Pan Zhang (Academia China de Ciencias) ‘reformuló’ el problema y sacrificó la exactitud del resultado y consumió muchísima más energía que Google. La pregunta abierta es si los ordenadores cuánticos pueden superar a los clásicos en problemas que sí tengan alguna utilidad.
Esta demostración sugiere que para el estudio de modelos físicos, sí; incluso sin corrección de errores. Los autores han usado un procesador de 127 cúbits. Su circuitería cuántica genera estados grandes y altamente entrelazados, que son demasiado exigentes para ser reproducidos de manera fiable en una computadora clásica. En el fondo, algo bastante autorreferente, que nos cuesta imaginar en nuestra cabeza. Pero es que le cuesta también a un ordenador convencional. De ahí que en esto, el computador cuántico de IBM ha resultado ser útil.
Ahora le toca a Google dar la réplica
Desarrollar todo el potencial de los ordenadores cuánticos suele requerir de dispositivos que puedan corregir sus propios errores. Dichos errores ocurren con demasiada frecuencia, y enmendarlos es una tarea difícil. Los sistemas resultantes, conocidos como computadoras cuánticas tolerantes a fallos, han venido siendo la gran aspiración de estas compañías en busca de la supremacía cuántica. Miles de cúbits de alta calidad, con un exquisito sistema de control.
Pero lo de IBM es distinto. La mitigación de errores cuánticos es un método de procesamiento que utiliza software para compensar el ruido generado durante un cálculo. Explica Wendin que no debe confundirse con la ‘corrección de errores cuánticos’. La idea es que un cómputo cuántico que utiliza un número ‘pequeño’ de cúbits (hasta 68) se pueda verificar con una simulación clásica de fuerza bruta.
Sabín lo explica así: “Si entendemos bien las fuentes de error debido al ruido, en un experimento (y cómo varían los resultados del experimento con distintos niveles de ruido), podemos deducir el resultado que tendríamos si no tuviéramos ningún ruido. Esto requiere, por tanto, realizar distintos experimentos y corregir los resultados a posteriori, normalmente, con un ordenador clásico. Es en estos resultados corregidos (“mitigados”) donde los autores afirman haber demostrado su superioridad frente a los ordenadores clásico”.
Si estos resultados se confirman (por ejemplo, por el equipo de la competencia, de Google) significarían un primer paso en la prueba de la utilidad de los ordenadores cuánticos actuales, relativamente pequeños y ruidosos, con mitigación de errores. Aunque “seguramente este cálculo concreto no tiene aplicación práctica directa, al menos el modelo tiene una inspiración física”. Es posible que existan modelos de complejidad similar con aplicaciones más inmediatas.
0 Comentarios