¿Avances de la computación cuántica: IBM y Google corren hacia las máquinas de gran escala para fines de la década?
PorAinvest
martes, 12 de agosto de 2025, 9:35 am ET2 min de lectura
GOOGL--
IBM, en particular, ha presentado un nuevo esbozo que, según dice, rellena los huecos de los diseños anteriores y que le sitúa en un camino hacia un sistema viable para 2030. Similarmente, Google, que el año pasado aclaró lo que denominó una de las barreras más difíciles restantes, ha fijado el mismo objetivo. Ambas empresas sostienen que se han resuelto los problemas de física más fundamentales, dejando principalmente retos de ingeniería para alcanzar la escala[1].
No obstante, el camino para el procesamiento cuántico a gran escala está lleno de obstáculos. El aumento del número de qubits no es tan sencillo como añadir más a una placa. Los qubits son por naturaleza inestables y sujetos a factores ambientales o ruido, lo que dificulta mantener sus delicados estados cuánticos por fracciones de segundo. A medida que se añaden más qubits, la interferencia aumenta, y en ocasiones los sistemas se vuelven inviables de gestionar[1].
IBM se encontró con este problema al utilizar su chip Condor, que tenía 433 qubits y sufría de interferencia entre sus componentes. La compañía ha pasado a usar un nuevo tipo de acoplamiento para reducir la interferencia. Por su parte, Google pretende reducir los costos de los componentes en diez veces para que una máquina completa tenga un costo cercano a los $1 000 millones y hacer hincapié en la importancia de la corrección de errores para garantizar la confiabilidad de los ordenadores cuánticos a gran escala.[2].
Las estrategias de corrección de errores difieren entre las dos empresas. Google utiliza un método denominado código superficial, que organiza qubits en una cuadrícula bidimensional. IBM, sin embargo, está persiguiendo un código de corrección de errores distinto, denominado verificación de paridad de baja densidad (LDPC, por sus siglas en inglés), por el que afirma reducir en hasta un 90 por ciento los requisitos de qubit. Mientras que IBM argumenta que su enfoque es más efectivo, expertos afirman que el diseño todavía es teórico y que debe demostrarse en gran escala.[1].
Más allá de los propios qubits, las empresas están replanteándose la arquitectura cuántica. En los primeros sistemas superconductores se unen por cables en grupos densos, un procedimiento que resulta imposible de replicar a escala de millones de qubits. El método principal está integrando muchos componentes en un único chip y después conectando esos chips en módulos. Los módulos requerirán neveras más grandes y sofisticadas capaces de funcionar a temperaturas cercanas al cero absoluto.
La elección de la tecnología cuántica puede determinar cuáles son las empresas que escalan con mayor rapidez. Los qubits superconductores, utilizados por IBM y Google, han presentado los mayores avances prácticos, pero son difíciles de controlar y requieren temperaturas extremadamente bajas. Otras opciones, tales como los iones atrapados, los átomos neutros y los fotones, son más estables pero tienen sus propios obstáculos de escala, tales como una computación más lenta y dificultades para unir varios grupos en un solo sistema.[1].
La financiación del gobierno está cada vez más marcando la dirección del desarrollo de la computación cuántica. Las agencias como Darpa están revisando los caminos más rápidos hacia los sistemas prácticos, mientras que los analistas sugieren que la inversión pública podría reducir el campo a algunos de los principales contendientes. Esta inversión estratégica destaca la potencialidad de la computación cuántica para revolucionar varios sectores, incluyendo la industria financiera y la atención de salud.
Un ordenador cuántico en gran escala podría acelerar exponencialmente ciertos cálculos, permitiendo el rápido diseño de nuevos materiales, la optimización de sistemas complejos y el desciframiento de los métodos de encriptación. Ese potencial ha atraído miles de millones en inversiones privadas y públicas en todo el mundo, aunque el uso práctico aún le queda un largo camino por recorrer. Aun así, el optimismo parece estar creciendo, como lo dice Jay Gambetta de IBM: «Ya no se trata de un sueño. Realmente creo que hemos desvelado el código y podremos construir esta máquina a finales de la década»[1].
Referencias:
[1] https://thequantuminsider.com/2025/08/12/los-líderes-quantum-dicen-a-la-BFT-que-la-corrida por la computación cuántica ha llegado a su final pero que aún persisten los desafíos de la escala
[2] https://www.ainvest.com/news/ibm-google-push-full-scale-quantum-systems-2030-2508/
IBM--
OP--
IBM y Google esperan desarrollar computadoras cuánticas de escala completa para fines de la década, después de los recientes adelantos tecnológicos. IBM afirma que puede construir la máquina de aquí a fines de la década, mientras que Google anunció el año pasado que superó un obstáculo importante y está en camino a llegar a esa fecha. La creación de computadoras cuánticas de escala completa podría revolucionar la industria de la informática y tener implicaciones significativas en industrias tales como las finanzas y la atención de salud.
IBM y Google están logrando avances significativos en sus esfuerzos por desarrollar computadores cuánticos a escala, con el objetivo de completar sus proyectos a fines de la década. Ambas compañías anunciaron recientemente importantes avances tecnológicos que abordan los retos clave de la acuñación de sistemas cuánticos a escala.IBM, en particular, ha presentado un nuevo esbozo que, según dice, rellena los huecos de los diseños anteriores y que le sitúa en un camino hacia un sistema viable para 2030. Similarmente, Google, que el año pasado aclaró lo que denominó una de las barreras más difíciles restantes, ha fijado el mismo objetivo. Ambas empresas sostienen que se han resuelto los problemas de física más fundamentales, dejando principalmente retos de ingeniería para alcanzar la escala[1].
No obstante, el camino para el procesamiento cuántico a gran escala está lleno de obstáculos. El aumento del número de qubits no es tan sencillo como añadir más a una placa. Los qubits son por naturaleza inestables y sujetos a factores ambientales o ruido, lo que dificulta mantener sus delicados estados cuánticos por fracciones de segundo. A medida que se añaden más qubits, la interferencia aumenta, y en ocasiones los sistemas se vuelven inviables de gestionar[1].
IBM se encontró con este problema al utilizar su chip Condor, que tenía 433 qubits y sufría de interferencia entre sus componentes. La compañía ha pasado a usar un nuevo tipo de acoplamiento para reducir la interferencia. Por su parte, Google pretende reducir los costos de los componentes en diez veces para que una máquina completa tenga un costo cercano a los $1 000 millones y hacer hincapié en la importancia de la corrección de errores para garantizar la confiabilidad de los ordenadores cuánticos a gran escala.[2].
Las estrategias de corrección de errores difieren entre las dos empresas. Google utiliza un método denominado código superficial, que organiza qubits en una cuadrícula bidimensional. IBM, sin embargo, está persiguiendo un código de corrección de errores distinto, denominado verificación de paridad de baja densidad (LDPC, por sus siglas en inglés), por el que afirma reducir en hasta un 90 por ciento los requisitos de qubit. Mientras que IBM argumenta que su enfoque es más efectivo, expertos afirman que el diseño todavía es teórico y que debe demostrarse en gran escala.[1].
Más allá de los propios qubits, las empresas están replanteándose la arquitectura cuántica. En los primeros sistemas superconductores se unen por cables en grupos densos, un procedimiento que resulta imposible de replicar a escala de millones de qubits. El método principal está integrando muchos componentes en un único chip y después conectando esos chips en módulos. Los módulos requerirán neveras más grandes y sofisticadas capaces de funcionar a temperaturas cercanas al cero absoluto.
La elección de la tecnología cuántica puede determinar cuáles son las empresas que escalan con mayor rapidez. Los qubits superconductores, utilizados por IBM y Google, han presentado los mayores avances prácticos, pero son difíciles de controlar y requieren temperaturas extremadamente bajas. Otras opciones, tales como los iones atrapados, los átomos neutros y los fotones, son más estables pero tienen sus propios obstáculos de escala, tales como una computación más lenta y dificultades para unir varios grupos en un solo sistema.[1].
La financiación del gobierno está cada vez más marcando la dirección del desarrollo de la computación cuántica. Las agencias como Darpa están revisando los caminos más rápidos hacia los sistemas prácticos, mientras que los analistas sugieren que la inversión pública podría reducir el campo a algunos de los principales contendientes. Esta inversión estratégica destaca la potencialidad de la computación cuántica para revolucionar varios sectores, incluyendo la industria financiera y la atención de salud.
Un ordenador cuántico en gran escala podría acelerar exponencialmente ciertos cálculos, permitiendo el rápido diseño de nuevos materiales, la optimización de sistemas complejos y el desciframiento de los métodos de encriptación. Ese potencial ha atraído miles de millones en inversiones privadas y públicas en todo el mundo, aunque el uso práctico aún le queda un largo camino por recorrer. Aun así, el optimismo parece estar creciendo, como lo dice Jay Gambetta de IBM: «Ya no se trata de un sueño. Realmente creo que hemos desvelado el código y podremos construir esta máquina a finales de la década»[1].
Referencias:
[1] https://thequantuminsider.com/2025/08/12/los-líderes-quantum-dicen-a-la-BFT-que-la-corrida por la computación cuántica ha llegado a su final pero que aún persisten los desafíos de la escala
[2] https://www.ainvest.com/news/ibm-google-push-full-scale-quantum-systems-2030-2508/

Divulgación editorial y transparencia de la IA: Ainvest News utiliza tecnología avanzada de Modelos de Lenguaje Largo (LLM) para sintetizar y analizar datos de mercado en tiempo real. Para garantizar los más altos estándares de integridad, cada artículo se somete a un riguroso proceso de verificación con participación humana.
Mientras la IA asiste en el procesamiento de datos y la redacción inicial, un miembro editorial profesional de Ainvest revisa, verifica y aprueba de forma independiente todo el contenido para garantizar su precisión y cumplimiento con los estándares editoriales de Ainvest Fintech Inc. Esta supervisión humana está diseñada para mitigar las alucinaciones de la IA y garantizar el contexto financiero.
Advertencia sobre inversiones: Este contenido se proporciona únicamente con fines informativos y no constituye asesoramiento profesional de inversión, legal o financiero. Los mercados conllevan riesgos inherentes. Se recomienda a los usuarios que realicen una investigación independiente o consulten a un asesor financiero certificado antes de tomar cualquier decisión. Ainvest Fintech Inc. se exime de toda responsabilidad por las acciones tomadas con base en esta información. ¿Encontró un error? Reportar un problema

Comentarios
Aún no hay comentarios