¿Estamos a las puertas de una revolución en la computación??

Inés García Redondo, estudiante del Doble Grado en Matemáticas y Física, presenta hoy este interrogante a debate.
images-4

Nature isn’t classical, dammit, and if you want to make a simulation of nature, you’d better make it quantum mechanical, and by golly it’s a wonderful problem, because it doesn’t look so easy.Richard Feynman.

Probablemente, tú, lector, estés leyendo esto a través de la pantalla de tu ordenador. O si no, será por medio de tu teléfono móvil o tablet. Dispositivos electrónicos que hemos incorporado hasta tal punto en nuestra vida cotidiana que apenas reparamos en la maravilla tecnológica que suponen. ¿Alguna vez te has preguntado cómo funcionan?

A grandes rasgos, podemos decir que un ordenador es capaz de diferenciar dos estados, a los cuales etiqueta con un 0 o un 1: los famosos bits que se pueden agrupar en cadenas llamadas bytes. Además de leer qué estado corresponde a cada bit, un ordenador puede transformar este estado o mantenerlo como está por medio de operaciones lógicas que alguien ha programado previamente.

Este modelo es lo que se conoce como computación clásica, pues responde a las leyes deterministas de la física clásica. Todos podemos reconocer su eficiencia, y por tanto muchos os preguntaréis cómo se va a poder revolucionar un modelo tan completo, con un desarrollo sin límites, como es este. Pero en realidad, esto último no es del todo cierto: sí hay límites en el poder de los ordenadores para resolver problemas.

Pongamos un ejemplo muy sencillo: la factorización en números primos. Dado un número cualquiera, véase el 6, hallar su descomposición como producto de primos, en este caso, 2 y 3. Con el 6 ha sido bastante fácil, pero ¿qué pasa si tomamos un número muy grande? Pues que un ordenador que funcione como se ha explicado antes, no es capaz de factorizarlo en un tiempo “razonable”. No puede resolver el problema. En este hecho se basa el que la información que enviamos por internet esté encriptada de forma segura. Para desencriptarla habría que factorizar números tan grandes que un ordenador es incapaz de afrontar el problema.

Cuando en ciencia se llega a una frontera como esta, siempre se busca la manera de poder traspasarla. Y algunas soluciones suponen verdaderas revoluciones. Este es el caso de la aparición de la computación cuántica.

De forma devastadoramente simplificada, en la segunda mitad del siglo pasado y ya con la teoría cuántica bastante desarrollada, alguien hizo una reflexión como la que encabeza este texto. Si, en última instancia y a escala microscópica, la naturaleza sigue las leyes cuánticas, ¿por qué no intentar asemejar el comportamiento de los ordenadores a estas leyes?

Hay dos principios que son claves para poder entender hasta qué punto esta nueva perspectiva de la computación supone una revolución. El primero de ellos se conoce como superposición cuántica. Básicamente nos dice que una partícula ya no tiene por qué estar en un estado u otro, un bit no tiene por qué tener una etiqueta 0 o 1, sino que realmente puede tener ambas al mismo tiempo. Nace así el Qubit, el bit cuántico. El otro principio es el famoso Principio de Incertidumbre, que postula que el estado del sistema cambia cuando lo medimos. El observador interfiere en el sistema, que antes de la medición se encuentra en este estado que combina el 0 y el 1, y después de medir se ha colapsado a un estado 0 o 1 bien definido.

Esto que se acaba de explicar es complejo y altamente contraintuitivo. En el mundo macroscópico un cuerpo está en un punto o en otro, no en los dos a la vez, y yo puedo medir su posición sin alterar la misma. Pero a escala microscópica, todo cambia. Ya lo dijo Feynman, de nuevo, «tenemos que abandonar el sentido común con el fin de percibir lo que está sucediendo a nivel atómico».

Solo el cambiar estos dos aspectos de la forma en la que se comporta un ordenador multiplica enormemente el poder computacional del mismo. Hay un ejemplo que hace esto muy claro. Si quisiéramos salir de un laberinto utilizando un ordenador clásico, este comienza rastreando uno de los posibles. Cuando llega a una bifurcación, decide entre derecha o izquierda y sigue con su camino. Al llegar a un callejón sin salida, el ordenador entiende que ese no es el camino de salida, vuelve al punto de partida y toma otro, eliminando el anterior de sus posibilidades. Sin embargo, el ordenador cuántico no haría esto. Lo que haría ante una disyuntiva de caminos sería tomar todos los posibles a la vez gracias a la superposición. Y así, en el tiempo que el ordenador clásico solo ha descartado una posibilidad, el cuántico ha resuelto el problema.

Esto aplica al ejemplo de la factorización: ya se conoce un algoritmo cuántico que resuelva el problema, que permanece sin resolver desde un punto de vista clásico. La existencia de un ordenador que trabajara así echaría por tierra la seguridad en la comunicación tal como la conocemos. Pero no hay que alarmarse, lo que la cuántica nos quita también nos lo devuelve: precisamente por el principio de incertidumbre, siempre podríamos saber si alguien ha espiado nuestra conversación, si alguien ha medido sobre ella, pues alteraría el estado de la misma.

Ante todo esto cabe preguntarse si acaso es posible o es un argumento digno de vender a Marvel. Lo cierto es que este precisamente es uno de los grandes proyectos de la física de los últimos años, y aun a pesar del grado de complejidad que tiene por múltiples factores que escapan del propósito de lo que aquí escribo, hay indicios más que claros de que es una posibilidad real de nuestro futuro cercano el tener a nuestra disposición ordenadores cuánticos.

El que esto suceda abre una serie de interrogantes interesantes: ¿qué pasará en el tiempo de transición de uno a otro modelo de computación? ¿Serán dispositivos accesibles a todos? ¿Solo las grandes empresas podrán hacerse con estos por su coste económico? ¿Qué impacto tendrá en la manera en que hacemos uso de la tecnología? ¿Qué pasará con los problemas que permanecen sin resolver? ¿Qué nuevos horizontes se abrirán para la investigación científica?

Sinceramente, hay factores de riesgo que hacen que uno se pare a considerar si la posibilidad de esta revolución es tan atractiva como parecía en un primer momento. Sin embargo, aun solo por la comprensión del mundo en que vivimos que nos va a proporcionar este nuevo modelo de computación, merece la pena aventurarse al vacío que se abre ante nosotros. 

Artículos relacionados

2017-06-08-14-24-01-900x600-1920w
La Economía, dice Álvaro Aleñá Burgos, estudiante de Economía y ADE y debatiente de renombre en Cánovas Fundación, es la única ciencia sin laboratorio. ¿Cómo analizamos su exactitud?
pexels-fauxels-3184465
Una de las mayores preocupaciones de nuestra juventud es el futuro. ¿Estamos lo suficientemente preparados? José Miguel Cueto Cano, estudiante de Derecho y Director y formador del Aula de Debate de la Universidad de Jaén, trae el debate a este medio.
pexels-singkham-1108572
El medio ambiente es el tema central de numerosos debates que tienen lugar hoy en día, y Gerardo Sobrón Goñi, estudiante de 1º de Bachillerato, nos lo trae a ElDebatiente.
X