Crédito: Laboratorio Nacional del Noroeste del Pacífico
Las computadoras cuánticas prometen acelerar los cálculos dramáticamente en algunas áreas clave, como la química computacional y las redes de alta velocidad. Pero son tan diferentes de las computadoras actuales que los científicos necesitan para descubrir las mejores formas de alimentarles la información para aprovechar al máximo. Los datos deben estar empaquetados de nuevas maneras, personalizadas para el tratamiento cuántico.
Los investigadores del Laboratorio Nacional del Noroeste del Pacífico del Departamento de Energía han hecho exactamente eso, desarrollando un algoritmo especialmente diseñado para preparar datos para un sistema cuántico. El Código, publicado recientemente en GitHub después de presentarse en el Simposio Internacional IEEE sobre procesamiento paralelo y distribuido, reduce un aspecto clave de la preparación cuántica en un 85%.
Si bien el equipo demostró la técnica anteriormente, la última investigación aborda un cuello de botella crítico relacionado con la escala y muestra que el enfoque es efectivo incluso en problemas 50 veces más grandes que las herramientas existentes.
“La computación cuántica puede ser extremadamente rápida y eficiente, pero debe abordar posibles cuellos de botella. En este momento, preparar información para un sistema cuántico es un factor que nos detiene”, dijo Mahantesh Halappanavar, autor del trabajo y miembro del equipo de liderazgo en el Centro de AI @PNNL.
“Esta es una nueva forma de empaquetar un problema para que una computadora cuántica pueda funcionar de manera eficiente”, agregó Halappanavar.
El trabajo es el resultado de una colaboración de varios expertos en todo el espacio informático en PNNL. Los contribuyentes clave incluyen SM Ferdous, un experto en computación de alto rendimiento y primer autor del documento; Bo Peng, un investigador de computación cuántica; y Reece Neff, estudiante de posgrado en la Universidad Estatal de Carolina del Norte y miembro del Programa de Investigación de Graduados Distinguidos en PNNL, quien fue el desarrollador principal de software para el proyecto. Ferdous es un becario postdoctoral distinguido de Linus Pauling actual, y Peng es un ex becario de Pauling en PNNL.
Los autores adicionales son Salman Shvo y Sayak Mukherjee, con experiencia en aprendizaje automático; Marco Minutoli, que se especializa en computación de alto rendimiento; Karol Kowalski, miembro del laboratorio y experto en computación cuántica; Michela Becchi de la Universidad Estatal de Carolina del Norte; y Halappanavar. El artículo se publica en la revista 2024 IEEE International Parallel and Distributed Processing Symposium (IPDPS).
Para comprender su trabajo, imagine un restaurante con un menú galardonado y camareros sobresalientes. Sin una operación eficiente de cocina de trastienda que pueda mantenerse al día con los platos y la cocina, no importa cuán buena sea la comida si los clientes no pueden obtener un asiento en el restaurante.
Por lo tanto, es con la computación cuántica: las operaciones de la trastienda deben funcionar de manera eficiente para que las computadoras cuánticas alcancen su potencial.
“La computación cuántica no es enchufar y jugar”, dijo Peng. “Debe preparar la entrada de cierta manera para que la computadora cuántica pueda comprender e interactuar con ella. Nuestro algoritmo es una herramienta para la computación híbrida eficiente, donde usamos el cálculo clásico para preparar datos cuánticos para la computación cuántica”.
Picasso slina los datos
Para aligerar la carga computacional, el equipo PNNL recurrió a un tipo de algoritmo conocido como colorante gráfico, una especialidad de Ferdous y Halappanavar. Ese enfoque permite a los investigadores explorar las relaciones en una red y clasificar rápidamente los términos que son similares o diferentes de alguna manera. El objetivo es ordenar todas las relaciones en la menor cantidad de agrupaciones posible.
El algoritmo PNNL se llama Picasso, un guiño al uso del color del pintor y el uso del término en análisis de gráficos.
El equipo probó el color del gráfico en simulaciones de grandes sistemas de modelos de hidrógeno, que son bolas de prueba increíblemente complejas, composiciones químicas simples que exigen una preparación rápida de datos cuánticos que requieren billones de billones de cálculos.
Algunos de los sistemas de hidrógeno que el equipo probó generaron más de 2 millones de elementos cuánticos conocidos como cadenas Pauli, traduciendo a más de un billón de relaciones para que una computadora clásica rastree. Las herramientas actuales generalmente se limitan a sistemas con decenas de miles de cuerdas Pauli.
El equipo de PNNL pudo aligerar la carga computacional sustancialmente mediante el desarrollo de nuevos métodos de análisis de gráficos para agrupar las operaciones de Pauli, reduciendo el número de cadenas Pauli incluidas en el cálculo en aproximadamente un 85%. En total, el algoritmo resolvió un problema con 2 millones de cuerdas Pauli y un billón de relaciones en 15 minutos. En comparación con otros enfoques, el algoritmo del equipo puede procesar la aportación de casi 50 veces más cadenas de Pauli, o vértices, y más de 2.400 veces más relaciones o bordes.
Los científicos redujeron la carga computacional a través de una técnica conocida como partición de camarilla. En lugar de atraer todos los datos disponibles a través de cada etapa de cálculo, el equipo creó una forma de usar una cantidad mucho menor de datos para guiar sus cálculos clasificando elementos similares en grupos distintos conocidos como “camarillas”. El objetivo es ordenar todos los datos en el menor número de camarillas posibles y aún permitir cálculos precisos.
“Desde la perspectiva de la computación de alto rendimiento, este tipo de problema realmente se presenta como un problema de partición de camarilla”, dijo Ferdous. “Podemos representar una cantidad de datos extremadamente grande utilizando análisis gráficos y reducir el cálculo necesario”.
Escasificación
La barrera para los sistemas más grandes se debió al consumo de memoria, dijeron los investigadores.
“Las cuerdas de Pauli y sus relaciones usan rápidamente la memoria, limitando el tamaño de los problemas que se pueden abordar”, dijo Ferdous. “Picasso utiliza herramientas modernas como la transmisión y la aleatorización para esquivar la necesidad de manipular todos los datos sin procesar”.
El trabajo de investigación del equipo PNNL se basa en el trabajo de otros investigadores que presentan un “teorema de dispersión de paleta” en 2019. En lugar de incluir todas las relaciones entre todos los factores en sus simulaciones, el equipo PNNL se basó en un conjunto de datos mucho más escaso, solo alrededor de una décima parte del total, para realizar cálculos precisos. Si bien el gráfico de datos principales mostró todas las relaciones entre los factores, el gráfico complementario del equipo “SPARSER” mostró solo lo que los científicos llaman conflictos dentro de los datos. Los conflictos por sí solos suministraron suficientes datos para cálculos precisos.
“Puede dejar de lado una gran cantidad de datos y aún así lograr un resultado preciso, usando mucha menos memoria”, dijo Ferdous.
Halappanavar agregado: “Es como empacar una casa para un movimiento. Desea tener el menor número de cajas para moverse. Tienes que empacar de manera eficiente”.
Los investigadores creen que Picasso puede extenderse para abordar problemas aún más grandes, incluidos sistemas que requieren de 100 a 1,000 qubits, la frontera de la computación cuántica.
Como beneficio adicional, el equipo también desarrolló un algoritmo AI para ayudar a los usuarios a calcular la mejor compensación entre la cantidad de datos utilizados en los cálculos y la cantidad de memoria requerida.
Más información: Picasso SM Ferdous et al, Picasso: coloración de gráficos eficientes en memoria usando paletas con aplicaciones en computación cuántica, 2024 Simposio de procesamiento paralelo y procesamiento distribuido (IPDPS) (2024). Doi: 10.1109/ipdps57955.2024.00029
Githubub: githubub.com/smferdous1/
Proporcionado por el Laboratorio Nacional del Noroeste del Pacífico
Cita: Preparación de computación cuántica se realizó más rápido con el algoritmo de agrupación de datos basado en gráficos (23 de abril, 23 de abril) recuperado el 23 de abril de 2025 de https://techxplore.com/news/2025-04-quantum-prepwork-faster-graph basado.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.








