Actualidades y análisis

La computación cuántica al servicio del Big Data Cuántico


, el 3 Enero 2018 | Leído 3431 veces

Para muchos la informática cuántica es considerada como una nueva era en el desarrollo de los computadores y la programación. Si bien en los últimos años, científicos han logrado significativos avances en la fabricación de simuladores y ordenadores cuánticos, sus usos tanto para la ciencia como para la industria están pasando de la fase experimental de laboratorios a la comercial. ¿La era cuántica, un nuevo mundo de posibilidades para el dominio de la ciencia de los datos que se ve limitada con la tecnología tradicional para analizar y tratar los grandes volúmenes de información y ejecutar los algoritmos de aprendizaje automático?



La computación cuántica al servicio del Big Data Cuántico
La máquina cuántica. Ciento de millones de veces más rápida que los computadores digitales tradicionales. Ultrarrápida. ¿Pero para calcular qué? ¿Algoritmos cuánticos? ¿Qué problemas asociados con Big Data, Machine learning e Inteligencia Artificial puede ser capaz de resolver la computación cuántica que con la computación tradicional no sea posible resolver? Empecemos por comparar, si es que se puede, este tipo de computación con la que todos conocemos. Sin duda, la computadora cuántica es completamente diferente al computador digital que trabaja a nivel de voltajes eléctricos, que basa toda su lógica informática en los bits (0 ó 1) y se basa en la miniaturización de componentes regida por la Ley de Moore, la cual expresa que cada dos años aproximadamente la potencia aumenta doblando la capacidad de los circuitos integrados y disminuyendo el tamaño de los componentes.

El reemplazo cuando la ley de Moore deje de cumplirse

Hasta la fecha, la ley de Moore se ha mantenido notablemente estable. A intervalos de tiempos regulares, los diseñadores de chips duplican la potencia y el rendimiento de los productos y de los ordenadores. Esta evolución, evidentemente, ha sido el motor de la electrónica y del rápido cambio tecnológico. Computadores y dispositivos cada vez más potentes y compactos que cuestan menos y que son mucho más pequeños.
Pero al parecer, la ley de Moore tendrá su límite, a pesar de que se esté en la búsqueda de nuevos tipos de transistores con nuevas estructuras que puedan reemplazar exitosamente a las de silicio. Estas harían sobrevivir la Ley de Moore. Mas, sin embargo, la ley de Moore encontrará una pared física, la de los efectos cuánticos, dándole así paso al mundo cuántico para una nueva gobernanza del tratamiento de información.

El mundo cuántico

El computador cuántico trabaja basándose en las leyes de la física al nivel de cuanto. Aquí le dejamos a la física que resuelva los problemas numéricos que comúnmente resuelven las matemáticas. Este paradigma de la computación es todo un nuevo concepto, por cierto, muy complejo para muchos. Con otra lógica, basada en la mecánica cuántica (disciplina de la física para brindar una descripción fundamental de la naturaleza a escalas espaciales pequeñas y explicar el comportamiento de los átomos y su interacción con la luz), en lugar de bits, la computación cuántica se basa en cúbits (también descrito como Q-bit, qubit), es decir, el 0, 1 y el 0/1 al mismo tiempo, que se representa gráficamente con la esfera de Bloch. Esta esfera me lleva a recordar los cursos "electromagnetismo" y "Ondas y Partículas", que vi en la universidad. A este último graciosamente le llamábamos "Ondas y Pepitas", donde efectivamente se estudiaron los efectos cuánticos, la radiación del cuerpo negro, la dualidad onda-partícula y muchos otros conceptos que solo quedaron en teoría, en mi época como estudiante de ingeniería. El objetivo de ver estos cursos en el "ciclo básico" llevaban a exponer y analizar las leyes físicas que regían ciertos fenómenos para que, como estudiantes, pudiéramos tener una visión del mundo que nos rodeaba y sin duda poderlas aplicar al desarrollo de la tecnología.

Esta representación, en la esfera de Bloch, nos muestra que, en la computación cuántica, la partícula puede estar en superposición de varios estados de la misma variable, es decir, no se tiene un valor definitivo, sino que se tendrán varios valores a la vez; este es un principio totalmente contrario al de la informática tradicional, donde solo existe un valor único, ya sea el estado 0 o el 1. Gracias a la particularidad de superposición y entrelazamiento del cúbit en la computación cuántica, las operaciones pueden realizarse en paralelo, lo que indica que se pueden hacer cálculos mucho más rápidos que con las computadoras clásicas. Una operación lógica cuántica sobre dos cúbits da 4 resultados, es decir, 2n resultados posibles: 00, 01, 10, 11. Entonces, mientras que en la computación tradicional 64 bits implica 64 resultados, en la computación cuántica, 64 qubits son 264 resultados posibles.

Algoritmos cuánticos para el análisis de grandes volúmenes de datos

Entonces, la velocidad de cálculo aumenta de manera exponencial siendo capaz de ejecutar simultáneamente varios estados a la vez. Por lógica, estas bondades exponenciales de la computación cuántica interesan enormemente al tratamiento de grandes volúmenes de información y más aún cuando el poder de los sistemas de computación binarios "tradicionales" limita la explotación y el análisis de algoritmos que requieren mucha más potencia de cálculo.

En la actual era de la información, marcada por el gran crecimiento de los datos -Big Data- los problemas informáticos extremadamente complejos, como los que se abordan a nivel del aprendizaje automático, la inteligencia artificial, análisis de riesgos financieros, genética, las previsiones meteorológicas y la criptografía, no pueden ser abordados eficientemente por los sistemas "tradicionales" y solamente será posible obtener una solución mediante el uso de máquinas cuánticas para los desafíos más difíciles como los que se viven a nivel climático, poblacional, o como por ejemplo, el ambicioso proyecto financiado por la Unión Europea, el denominado Human Brain Project, que define como uno de sus objetivos, simular tecnológicamente el funcionamiento del cerebro humano, y lograr así, significativos avances en el área de la medicina y la neurociencia.

Otro desafío es el relacionado con el protocolo de cifrado que rige actualmente en el sistema criptográfico de clave pública (o criptografía asimétrica), conocido como RSA. Este es el principal algoritmo de encriptación válido para la seguridad de transacciones financieras, la codificación de información transmitida por internet cuando por ejemplo usamos la tarjeta de crédito para compras en línea y otras transmisiones de información secreta. La importancia del RSA se basa en su resistencia frente a ataques. Resistencia que radica en lo difícil de factorizar números enteros. Pareciera un problema muy simple al estilo ejercicios tipo colegio. Pero para un computador tradicional, esto es un problema mayor, ya que el número de operaciones que la máquina tiene que hacer, va a crecer exponencialmente con el tamaño del número a factorizar. Entonces, factorizar un número grande (que supere las 500 cifras) con los computadores tradicionales, se vuelve imposible de resolver ya que el tiempo de factorización no es lineal. De aquí, la necesidad de los algoritmos cuánticos. El profesor estadounidense de matemáticas aplicadas en el MIT, Peter Shor, propuso en 1994 el famoso algoritmo cuántico que lleva su apellido. El algoritmo de Shor es uno de los algoritmos cuánticos más representativos que hace posible la factorización de números enteros en factores de números primos en tiempo polinómico. Dado que la factorización es muy difícil, el lograr romper el método más común e importante de la codificación secreta, a través del descubrimiento del algoritmo de Shor, incita un gran interés por la informática cuántica en la comunicación y la criptografía cuántica.

Infraestructura cuántica para el lenguaje de la información cuántica

Trasladar todo el potencial de los principios cuánticos al hardware "adecuado" es el meollo del asunto. Pareciera que construir un computador cuántico no fuera un problema. Pero mantener el estado cuántico, es decir, mantener las superposiciones cuánticas de los cúbits, es muy difícil de conservar para poder construir un computador cuántico y lograr que funcione correctamente. Los científicos que trabajan sobre este tema, como por ejemplo, los del Institute for Quantum Computing de la Universidad de Waterloo en Canadá están estudiando una variedad de Q-bits que podrían estar hechos de fotones, átomos, electrones u otra cosa para superar el talón de Aquiles de la computación cuántica: la decoherencia. Se requiere que el computador cuántico se mantenga aislado de su entorno y protegido de interacciones no deseadas como, por ejemplo, el polvo o campos magnéticos. Trampa de iones para almacenar los cúbits y circuitos superconductores son los diseños más utilizados para desarrollar los ordenadores cuánticos.

Construidos con materiales superconductores sumergidos en un líquido a unos 260 grados centígrados bajo cero, hace que la apariencia de los computadores cuánticos fabricados hasta la fecha, sean bien particulares, lejos de tener uno en casa. Como los que comercializó por primera vez, la empresa canadiense D-Wave Systems, con sus versiones de computadores cuánticos, y que la comunidad científica no considera que sea un computador cuántico universal sino mas bien un computador cuántico "adiabático" destinado a resolver problemas muy específicos de alta complejidad de optimización combinatoria. Un ejemplo tipo de esta clase de problema, es el problema del vendedor viajero que debe responder a la pregunta: Dada una lista de ciudades y de distancias entre cada par de ellas, ¿Cuál es la ruta más corta posible pasando por cada ciudad una sola vez y finalizando a la ciudad origen? Aparentemente simple ¿verdad? Pero en realidad es más complejo de lo que aparenta ser.

Los que han comprado máquinas cuánticas a nivel industrial

El primer proyecto de D-Wave, D-Wave One, fue vendido por primera vez a finales del 2010 a la sociedad Lockheed Martin, de nuevo otro líder canadiense que se dedica a la investigación e integración de productos de alta tecnología, considerado el principal proveedor de los sistemas de defensa y vigilancia electrónica de Canadá. Esta compañía adquiere en el 2013, un modelo más nuevo y de mayor potencia que utiliza más cúbits. Ese mismo año, Google también se convierte en cliente de D-Wave adquiriendo el D-Wave Two al mismo tiempo que lanza el laboratorio Quantum Artificial Intelligence, iniciativa en conjunto con la NASA, el USRA (Universities Space Research Association) y por supuesto Google Research cuyo objetivo es encontrar cómo la informática cuántica puede ayudar al aprendizaje automático y al cálculo combinatorio para mejorar la eficiencia de los modelos predictivos, grandes desafíos en materia del clima, la salud y la alimentación. Estas empresas pioneros del ecosistema cuántico trabajan con el fin de resolver problemas de optimización, machine learning, Monte Carlo, reconocimiento de patrones, ciberseguridad, análisis de imágenes, análisis financiero, verificación y validación de hardware y software, bioinformática e investigación para el cáncer.

Recientemente Volkswagen anuncia que se suma al grupo de clientes del D-Wave y ha decidido unirse con Google para incorporar en sus investigaciones, a través de los computadores cuánticos D-Wave, y trabajar en la optimización y desempeño operacional en la industria del automóvil sin conductor con el fin de crear vehículos completamente autónomos. Para esto se requerirá investigar en el desarrollo de nuevos materiales, la optimización del tráfico y sin duda en los procesos de aprendizaje automático.

Sistemas comerciales de la computación cuántica

IBM empezó a comercializar su computador cuántico en modo cloud desde 2016, el cual ha denominado IBM Q. IBM recientemente anunció su colaboración con una docena de organizaciones entre compañías de la lista Fortune 500, instituciones académicas y laboratorios de investigación, para explorar otras aplicaciones prácticas de negocio y de la ciencia y seguirá promoviendo el crecimiento del ecosistema de computación cuántica a partir de herramientas de desarrollo y software cuántico de código abierto.

Otros desarrollos prometedores en la misma línea son el de Microsoft, los de Intel, y el simulador cuántico de Atos. Este último denominado Atos Quantum Learning Machine destinado a reproducir el comportamiento de una infraestructura de 30 a 40 cúbits de interés para los centros de investigación que comienzan a desarrollar algoritmos cuánticos para aplicar la informática cuántica principalmente en los dominios de la ciberseguridad, el aprendizaje automático y el big data "cuántico".




Nuevo comentario:
Facebook Twitter

Usted puede comentar o proporcionar más información a todos los artículos de este sitio. Los comentarios son libres y abiertos a todos. Sin embargo, nos reservamos el derecho a eliminar, sin previo aviso ni explicación, todo comentario que no cumpla con nuestras normas internas de funcionamiento, es decir, cualquier comentario difamatorio o sin relación con el tema del artículo. Así mismo, los comentarios anónimos son eliminados sistemáticamente si son demasiado negativos o muy positivos. Exprese sus opiniones, compártalas con los demás y asúmalas. Gracias de antemano. Igualmente, agradecemos tener en cuenta que los comentarios no sean enviados automáticamente a los redactores de cada artículo. Si usted desea realizar una pregunta al autor de un artículo, contáctelo directamente, no utilice los comentarios.


Twitter
Rss
LinkedIn
Google+
Facebook