El desafío de la corrección de errores en la computación cuántica se acerca

La corrección de errores es un desafío crucial en el campo de la computación cuántica. Aunque algunos científicos creen que es inalcanzable, la mayoría está convencida de que eventualmente se logrará

En el campo de juego de los ordenadores cuánticos un desafío sobresale por encima de todos los demás: la corrección de errores. Los prototipos de máquinas cuánticas que tenemos actualmente no tienen la capacidad de enmendar sus propios errores, una deficiencia que limita mucho las aplicaciones en las que pueden ser utilizados. Algunos científicos, como el matemático israelí Gil Kalai, que da clase en la Universidad de Yale (Estados Unidos), defienden que la tan ansiada corrección de errores es inalcanzable.

Otros investigadores, la mayor parte, están convencidos de que esta prestación llegará a los ordenadores cuánticos. Ignacio Cirac, físico español y padre fundacional de la computación cuántica junto al físico austríaco Peter Zoller, cree que es un propósito asumible: «Desarrollar un ordenador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil), pero creo que va a tardar mucho tiempo».

No hay una única estrategia para derribar este muro; hay varias y son contundentes

A mediados del pasado mes de junio un grupo de investigadores de IBM publicó en Nature un artículo extraordinariamente esperanzador. Su tesis pone sobre la mesa con argumentos tangibles la posibilidad de que los ordenadores cuánticos puedan ser utilizados para resolver problemas significativos antes de que llegue la tan ansiada corrección de errores. A grandes rasgos lo que han conseguido es refinar la calibración de los cúbits superconductores de un procesador cuántico Eagle de 127 cúbits, fabricado por IBM, con el propósito de minimizar el ruido al que está expuesto e incrementar su coherencia.

No cabe duda de que este descubrimiento es un paso hacia delante muy importante, pero el propósito último de los científicos que investigan en el ámbito de los ordenadores cuánticos es poner a punto un sistema de corrección de errores robusto. Ignacio Cirac cree que hacen falta muchos cúbits para hacerlo posible: «El número de cúbits dependerá del tipo de problemas que queramos resolver con los ordenadores cuánticos. Para abordar problemas simbólicos necesitaremos tener varios millones de cúbits. Probablemente, incluso, cientos de millones de cúbits».

Pese a todo en IBM están convencidos de que tendrán un ordenador cuántico dotado de la capacidad de enmendar sus propios errores en una década. Su itinerario nos anticipa que a finales de este año tendrá listo Condor, su chip cuántico de 1.121 cúbits; en 2024 llegará Flamingo, con al menos 1.386 cúbits; y en 2025, Kookaburra, con no menos de 4.158 cúbits. A partir de ese momento la interconexión de varios de estos chips le permitirá escalar su hardware cuántico en el rango que se extiende entre los 10.000 y los 100.000 cúbits.

No obstante, el camino hacia la corrección de errores no pasa solo por tener una ingente cantidad de cúbits de gran calidad. Y es que un grupo de investigadores del Centro de Computación Cuántica RIKEN, en Japón, ha demostrado recientemente que es posible utilizar las técnicas de aprendizaje automático, que es un campo de la inteligencia artificial en cuyo interior está confinado el aprendizaje profundo, para implementar la corrección de errores en un sistema cuántico.

«Nuestro trabajo no demuestra solo el potencial del aprendizaje automático en el ámbito de la corrección de errores cuántica; también nos coloca un paso más cerca de la implementación con éxito de esta tecnología en los experimentos», apunta Yexiong Zeng, el científico japonés del Centro RIKEN que ha liderado esta investigación.

Otra línea de investigación extraordinariamente prometedora es la que están siguiendo un grupo de investigadores australiano, otro holandés y un tercer equipo japonés. Lo que han logrado por el momento es poner a punto cúbits superconductores que tienen una precisión superior al 99%. Pero lo mejor de todo es que cuando los errores son tan poco frecuentes es mucho más fácil corregirlos. Probablemente la ansiada corrección de errores robusta conciliará estas tres estrategias. Puede, incluso, que alguna más. En cualquier caso lo realmente importante es que llegue. Crucemos los dedos.

Vía | El desafío de la corrección de errores en la computación cuántica se acerca – Tecnología con Juancho (tecnologiaconjuancho.com)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *