La decoherencia, o cómo evitar el ruido en la computación cuántica
Los avances en computación cuántica anticipan un escenario prometedor, en el que será posible mejorar la eficiencia en algunas tareas de los sistemas de análisis bancarios. Sin embargo, para lograr sistemas cuánticos fiables es necesario superar la barrera de la decoherencia, un fenómeno que se produce cuando estos sistemas entran en contacto con el entorno y pierden sus propiedades. Esto conlleva que la información resultante pueda contener fallos y ser poco fiable.
La computación cuántica se perfila como una herramienta prometedora para el sector financiero, gracias a su capacidad de realizar una gran cantidad de operaciones simultáneamente y de hacer más eficiente el procesamiento de la información. Sin embargo, actualmente su desarrollo se enfrenta a un gran reto: la decoherencia.
La computación cuántica aplica principios de la física cuántica para procesar la información de manera diferente a la computación clásica. Uno de ellos es la superposición, que permite que un qubit (la unidad básica de información) esté en varios estados a la vez. Otro es el entrelazamiento, que permite que los qubits compartan información con mayor correlación de lo que es posible en sistemas clásicos. Gracias a ello, la información contenida en un qubit se puede reflejar en otros del sistema. Estos principios permiten abordar algunos problemas de forma mucho más eficiente que con la computación clásica.
Sin embargo, para que esto sea posible, los qubits necesitan estar en entornos perfectamente estables y con unas propiedades muy controladas, algo muy difícil y costoso de conseguir. Cuando esto falla se produce la decoherencia, un proceso mediante el cual un sistema cuántico pierde sus propiedades y empieza a comportarse de forma clásica.
La decoherencia como reto
Estos estados son muy frágiles y necesitan unas condiciones muy específicas para conservar sus propiedades. Idealmente, un sistema cuántico debería estar completamente aislado del entorno para mantener sus capacidades. Sin embargo, el aislamiento total a día de hoy no es posible, porque siempre habrá interferencias en forma de temperatura, radiación o vibraciones.
Así lo explica Ventura Sarasa, científico cuántico de BBVA: "Un sistema cuántico es muy inestable y se puede alterar en base al ruido ambiental ya sea por cambios de temperatura o el contacto con campos electromagnéticos". Estas interferencias afectan a las propiedades del sistema y hacen que pierda sus capacidades cuánticas. Este es el proceso que se conoce como decoherencia.
Cuando esto sucede, la información que ofrece el sistema deja de ser fiable, lo que impide obtener resultados precisos y confiables. Por ello, estos sistemas no pueden ser utilizados todavía con todas las garantías en entornos críticos ya que los resultados obtenidos pueden contener fallos. En el sector financiero esto supone un impedimento, debido a que el tipo de información que maneja tiene que ser totalmente fiable y comprobable.
Soluciones contra la decoherencia
Actualmente, el gran reto para aislar los sistemas es físico y se traduce en un problema de ingeniería. Es decir, para que los sistemas sean fiables deben estar construidos de forma muy aislada y que puedan operar en temperaturas bajísimas, cercanas al cero absoluto. De esta manera, se conseguirían las condiciones óptimas para evitar el movimiento de partículas y se garantizaría la precisión mientras se manipulan los qubits. Cómo construir este tipo de sistemas no es fácil ni económico, la industria están probando diferentes enfoques:
- Mejorar el aislamiento: consiste en aislar lo máximo posible los sistemas cuánticos para reducir la interacción con el entorno. Es el enfoque tradicional, pero que hace que los sistemas sean mucho más caros.
- Corrección de errores: otra opción pasa por corregir los errores en el estado del qubit que se producen por la interacción con el entorno. Para ello, se trabaja con los qubits físicos, que son los que aparecen en el ‘hardware’ y son ruidosos, y se les aplica códigos de corrección de errores para obtener qubits teóricos y libres de errores, los llamados qubits lógicos, que se usarán para realizar la computación. Este es un gran desafío teórico y algorítmico para poder ajustar los modelos.
- Diseño de qubits más estables: otra de las opciones que está investigando la industria es el diseño de qubits que sean más estables per se y a los que no les afecte tanto el ruido externo.
En la carrera por la ventaja cuántica, IBM, Google y Microsoft han adoptado enfoques diferentes.
Google Quantum AI corrige errores con códigos de corrección de errores, como el conocido como "surface code". Evidencia de esto es uno de sus últimos trabajos, donde generaron qubits lógicos con ordenadores cuánticos de 72 y de 105 qubits físicos. Gracias a ello, mostraron que sus qubits lógicos mantenían las propiedades cuánticas por más tiempo que cualquiera de los qubits físicos en los que se basaban. Además, llegaron a un código de corrección más avanzado para el ordenador de 105 qubits, puntualizando que la corrección de errores puede mejorar con un mayor número de qubits físicos. Esto es consistente con el comportamiento esperado en corrección de errores, ya que dado un código de corrección, la tasa de error disminuye al aumentar el número de qubits físicos.
IBM también ataca el problema desde la corrección de errores, pero con un enfoque diferente. Proponen un nuevo método basado en los códigos cuánticos de verificación de baja densidad (qLDPC) y que permite reducir el número de qubits necesarios para la corrección de errores, bajando así el sobrecoste en un 90% en comparación con otros códigos de corrección de errores, según la compañía. Tales son sus avances en esta área, que en junio de 2025 presentaron un plan para construir un gran ordenador cuántico tolerante a fallos para 2029, y que estará localizado en Nueva York.
Microsoft apuesta por la creación de qubits más estables conocidos como qubits topológicos. Su enfoque se centra en conseguir unas partículas llamadas cuasipartículas de Majorana, partículas que tienen la propiedad única de ser sus propias antipartículas, lo que las hace menos sensibles. Lo que plantea Microsoft es llegar a conseguir un superconductor topológico al que llaman "nuevo estado de la materia", el cual permitiría construir ordenadores cuánticos con muchos menos qubits.
En definitiva, la computación cuántica se plantea como una gran oportunidad para sectores como el financiero, pero para que llegue a convertirse en estándar debe hacer frente a grandes retos operativos y físicos como el de la decoherencia.