Google logra un sistema de corrección de errores necesario para una computación cuántica útil
El modelo permite reducir los fallos, identificarlos y conocer dónde se generan para recuperar la información, un paso crítico para el desarrollo de las más avanzadas computadoras que usan partículas subatómicas

La computación cuántica da otro paso fundamental. El mayor problema para aprovechar las singularidades de las partículas subatómicas, que elevan exponencialmente las posibilidades de procesamiento, reside en los errores generados en la manipulación y la medida de los qubits (unidad cuántica mínima de información). Cualquier interacción con ellos los degrada y anula la ventaja. “Este límite puede superarse gracias a fórmulas de corrección de errores, pero estas técnicas requieren aumentar significativamente el número de qubits”, explica Alberto Casas, profesor de investigación en el Instituto de Física Teórica (CSIC-UAM) de la Universidad Autónoma de Madrid en La revolución cuántica (Ediciones B, 2022). Y a más qubits, más errores. Esta limitación acaba de ser superada por el científico Hartmut Neven y más de un centenar de sus compañeros de Google Quantum AI, quienes aportan, en un trabajo publicado en Nature, “una demostración de computación cuántica donde el error disminuye a medida que aumenta el tamaño del sistema y permite registrar tasas de fallos suficientemente bajas para ejecutar algoritmos cuánticos útiles”. Es la puerta para una computación cuántica robusta sin depender del desarrollo de tecnologías casi imposibles. “Es un hito en nuestro viaje para construir una computadora cuántica útil, un paso necesario por el que tiene que pasar cualquier tecnología informática actual madura”, afirma Neven.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailSi una supercomputadora actual puede hacer millones de operaciones con bits (el Summit de IBM es capaz de procesar más de 200.000 millones de cálculos por segundo), uno cuántico puede ejecutar trillones. Esta potencia se basa en la superposición, una particularidad de las partículas subatómicas que les permite estar en dos estados o en cualquier superposición de ellos. Un bit (la unidad mínima en computación clásica) solo puede tener un valor binario: 0 o 1. El qubit, por el contrario, puede encontrarse en esos dos estados o en ambos a la vez. De esta forma, dos bits pueden almacenar un número, mientras dos qubits almacenan cuatro y diez qubits pueden tener 1024 estados simultáneos, por lo que se amplía exponencialmente la capacidad de cálculo por cada qubit añadido.
Sin embargo, al intentar extraer la información almacenada, el sistema sufre un fenómeno conocido como decoherencia: la degradación de esas superposiciones cuánticas hasta convertirlas en estados clásicos. Y ese efecto lo ocasiona cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia genera ruido y reduce a microsegundos el tiempo en el que se mantienen las superposiciones que multiplican la capacidad de computación.