Instituto Politécnico Nacional Escuela Superior de Ingeniería Mecánica y Eléctrica Unidad de Culhuacán.
Mecánica cuántica y estadística. Profesor: Rodríguez Sánchez Carlos. Trabajo tercer parcial. Computadora cuántica.
I.
Morales González Oscar Axel.
Grupo: 4EV6
México, Distrito Federal a 16 de mayo de 2013
INTRODUCCION: En 1947, aparece el transistor, un dispositivo electrónico que permitía regular y controlar el paso de la corriente eléctrica. Así, se inició el desarrollo de las actuales computadoras, al permitir transmitir impulsos eléctricos, es decir, bits de información. En 1959, aparece el primer chip o circuito integrado, lo que redujo el tamaño de los ordenadores al minimizar el cableado. La cuarta generación de computadoras aparecería en 1971 con la fabricación del primer microprocesador, el Intel 4004, formado por miles de chips, constituyendo así el elemento central del cálculo y procesado de la información.
En la primera década del siglo XXI, las computadoras más potentes han alcanzado los 1,75 petaflops, es decir, las 1.750 millones de operaciones por segundo, siendo su crecimiento exponencial. Sin embargo, la tecnología actual permite fabricar pistas conductoras de 0.18 micras, 500 veces más delgadas que un cabello humano. Las capas de aislante que las separan pueden tener un espesor de cuatro o cinco átomos. La meta es poder crear pistas conductoras de 0.10 micras, con lo que los transistores poseerían tan solo 100 átomos cada uno. Pero al producir dimensiones tan pequeñas, las leyes de la física comienzan a perder validez y es donde la física cuántica entra en acción. El año pasado se celebró el centenario del nacimiento de Alan Turing. Tras los últimos premios otorgados a científicos que trabajan en el campo de la computación cuántica parece un buen momento para explicar, a nivel básico, qué es un ordenador cuántico y en qué punto se encuentra su desarrollo. En los últimos años, los ordenadores clásicos han experimentado un gran aumento en la velocidad de procesamiento. La miniaturización del tamaño de sus componentes ha facilitado el incremento de la densidad de los circuitos electrónicos que los integran. En 1995, Gordon Moore vaticinó que el número de transistores de un microprocesador se multiplicaría por dos cada dos años. Y esta ley, que se ha venido cumpliendo hasta ahora, cuenta con una limitación: cuando el tamaño de los transistores presenta medidas atómicas las leyes más fundamentales de la física cambian. Los electrones experimentan comportamientos cuánticos y pueden moverse entre distintas líneas de corriente
por “efecto túnel”. Esto produce la aparición de fugas que interfieren en el funcionamiento del circuito. El progreso técnico llega a su fin.
Pero los principios de la cuántica, que limitan la dimensión de los microcircuitos de los ordenadores clásicos, son el germen de una nueva revolución computacional. La física cuántica deja de ser una teoría abstracta, misteriosa y antiintuitiva para convertirse en útil, para ser clave en el desarrollo de una futura teoría de la información. Los primeros físicos teóricos que, en las décadas de 1970 y 1980, propusieron aplicar los fenómenos cuánticos al terreno de la computación fueron Richard Feynmann, Paul Benioff, David Deutsch y Charles Bennett. Una computadora cuántica (Quantum computer) , es un dispositivo informático que hace uso directo del fenómeno de la mecánica cuántica, como la superposición y el entrelazamiento cuántico, para realizar operaciones sobre datos. Las computadoras cuánticas son diferentes de las computadoras tradicionales basadas en transistores. El principio básico detrás de la computación cuántica es que las propiedades cuánticas pueden ser usadas para representar datos y realizar operaciones sobre los mismos. La computación cuántica se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Un modelo teórico es la máquina cuántica de Turing, también conocida como computadora cuántica universal.
Si se pudieran realizar computadoras cuánticas a gran escala, estas serán capaces de resolver ciertos problemas muchísimo más rápido que las actuales. La computación cuántica está todavía "en pañales", habiendo más teorías que prácticas por el momento. De todas maneras los gobiernos de todo el mundo apoyan la investigación de la computación cuántica que, probablemente, será el futuro de la informática. La base de la computación cuántica: qubits En las computadoras clásicas, las memorias están hechas de bits, cada bit representa un uno o un cero. Una computadora cuántica mantiene una secuencia de qubits. Un único qubit puede representar un uno, un cero o, crucialmente, cualquier superposición cuántica de estos; en tanto, dos qubits pueden estar en cualquiera de los cuatro estados de superposición cuántica, y tres qubits en cualquiera de las 8 superposiciones. En general, una computadora cuántica con N qubits, puede estar en una superposición cuántica arbitraria de 2 elevado a la N estados simultáneamente (una computadora normal puede solo estar en uno de esos 2 a la N estados en un único momento). Una computadora cuántica opera manipulando esos qubits con una secuencia fija de puertas lógicas cuánticas. La secuencia de puertas a ser aplicadas es llamada algoritmo cuántico.
Evolución de la computación cuántica A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica. 1981 - Paul Benioff Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica. 1981-1982 Richard Feynman El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su
naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico. 1985 - David Deutsch Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. Años 90 En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos. 1993 - Dan Simon Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor). 1993 - Charles Benett Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas. 1994-1995 Peter Shor Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico. 1996 - Lov Grover Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto. 1997 - Primeros experimentos En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se
realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón. 1998 - 1999 Primeros Qbit Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover. Años 2000 De nuevo IBM, dirigido por Isaac Chuang, creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales. 2001 - El algoritmo de Shor ejecutado IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos. 2005 - El primer Qbyte El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones. 2006 - Mejoras en el control del cuanto Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores. 2007 - D-Wave La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina, llamada Orion, no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.
2007 - Bus cuántico En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo. 2008 - Almacenamiento Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que es un gran avance en el almacenamiento de información. 2009 - Procesador cuántico de estado sólido El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente. 2011 - Primera computadora cuántica La primera computadora cuántica comercial es fabricada por la empresa D-Wave Systems fundada en 1999.
DESARROLLO: Computación cuántica Yuri Rubo y Julia Tagüeña La creación de una computadora cuántica promete revolucionar la ciencia y la tecnología. Sin embargo, hay muchos obstáculos que vencer para realizar este sueño. Las computadoras se han vuelto parte de nuestra vida cotidiana. Están presentes no sólo en las universidades, oficinas y escuelas, sino en las casas de muchas personas. Las computadoras modernas almacenan nuestros datos, nos comunican con los amigos, sacan fotos y sirven para escuchar música. Sin embargo, no hay que olvidar su propósito original: hacer cálculos. Ha habido recientemente un enorme avance en la computación numérica. Cada año aparecen procesadores más rápidos y debemos tirar a la basura las computadoras que orgullosamente compramos hace poco tiempo. ¿Qué nos depara el futuro? El aumento en la velocidad y la potencia de las computadoras en los últimos años y los efectos de esta tecnología son tan espectaculares, que uno podría pensar que no tienen límites. Y ni siquiera hace falta tomar en cuenta los cambios que las computadoras han producido en el comercio y la economía. Basta considerar el efecto de las computadoras en la ciencia para darse cuenta de que han cambiado nuestra manera de estudiar la naturaleza. Hoy en día las computadoras nos permiten simular, por ejemplo, colisiones de galaxias y la formación de las primeras estrellas. Así podemos estudiar y entender estos sucesos sin necesidad de que ocurran ante nuestros ojos. Podemos decir que los científicos cuentan con una nueva herramienta, además de las tradicionales (la teoría y la experimentación): la ciencia computacional. El lenguaje natural de las computadoras Básicamente, no hay diferencia entre las primeras computadoras y las modernas. Todas usan el sistema de numeración binario para codificar y manipular información. En la escuela aprendemos a contar con el sistema decimal. En este sistema, los números se construyen con 10 símbolos fundamentales (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) que, ubicados en distintas posiciones en el número, cuantifican las unidades, decenas, centenas… que contenga la cantidad en cuestión. Seguramente es el más común porque tenemos diez dedos. El sistema binario, en cambio, tiene sólo dos símbolos, el 0 y el 1, y es el más sencillo posible. En el sistema binario las posiciones no indican unidades, decenas, centenas, etecétera (que son las potencias de 10: 10 0 , 10 1 , 10 2 …), sino potencias de 2: 2 0 , 2 1 ,
2 2, 2 3 …. Por ejemplo, en notación binaria los números 0, 1, 2, 3, 4 se escriben así: 0,1,10,11,100. Para hacer operaciones aritméticas en binario basta recordar que en esa notación 1 más 1 es igual a 10 y que 1 multiplicado por 1 es 1. En el sistema decimal, en cambio, tenemos que memorizar muchas sumas y multiplicaciones. El elemento fundamental de todas las computadoras es una celda de memoria llamada bit(contracción de binary digit, o “dígito binario” en inglés), que puede existir en dos estados, normalmente denotados por 0 y 1. Técnicamente estos bits se relacionan con unos dispositivos electrónicos (transistores) que representan los estados 0 y 1 interrumpiendo o dejando pasar una corriente eléctrica. La notación binaria es el lenguaje natural de las computadoras. Pero tiene un problema: que los números, salvo los más pequeños, son muy largos (por ejemplo, el número 40 en binario se escribe 101000). Para manipular la información con más facilidad se define el byte, un grupo de ocho bits. El proceso de computación en general consiste en aplicar una secuencia de operaciones a ciertos bits. La regla que dice qué bits intervienen y en qué orden se llama algoritmo. Cada cálculo particular tiene un algoritmo, definido por el programador usando un lenguaje computacional. Las computadoras que funcionan aplicando algoritmos a información codificada en bits se llaman computadoras clásicas. Las computadoras clásicas (todas las que existen hoy, por rápidas o complejas que sean) son equivalentes a una máquina de Turing, modelo teórico de computadora descrito por Alan Turing en 1936 y perfeccionado por John von Neumann en 1940. Límites de las computadoras clásicas La máquina de Turing, y por lo tanto todas las computadoras de hoy, funcionan de acuerdo con las leyes de la llamada física clásica. Ésta prescribe que los bits tengan uno de dos valores bien definidos, es decir, que los transistores operen como puertas que se abren o se cierran, dejando pasar o interrumpiendo la corriente, sin ambigüedades. Pero la mecánica cuántica, teoría que describe el comportamiento de la materia en la escala de los átomos y las partículas subatómicas como el electrón, ha demostrado que nuestro mundo es más complicado. Richard Feynman, uno de los físicos teóricos más brillantes del siglo pasado, reflexionó en 1982 acerca de las limitaciones de las computadoras clásicas. Le interesaba, en particular, el problema de hacer simulaciones del mundo real, que es cuántico a fin de cuentas, por medio de computadoras clásicas. ¿Se puede? Simular un fenómeno por medio de una computadora exige que le proporcionemos
a ésta las ecuaciones matemáticas que describen el fenómeno. La descripción matemática de los fenómenos cuánticos es la ecuación de Schrödinger. Se trata de una ecuación diferencial que una computadora clásica puede manipular. En otras palabras, nada impide resolver ecuaciones de movimiento cuántico con una computadora clásica. Pero la dificultad, como indicó Feynman, es que sólo podríamos resolver problemas muy simples y de poco interés, en los que intervienen sólo unas cuantas partículas (en un sistema cuántico de interés hay miles de millones de partículas). Si el número de partículas aumenta, la capacidad de la máquina debe aumentar exponencialmente. Para simular procesos cuánticos no triviales la computadora clásica tendría que ser gigantesca, porque su capacidad aumenta en forma lineal. Además de plantear esta crítica de la física computacional clásica, Richard Feynman Propuso la utilización de sistemas cuánticos sencillos, llamados qubits (de quantum bits), como elementos estructurales básicos de una nueva computadora. Así nace el sueño de una computadora cuántica. Los algoritmos La resolución de problemas en un ordenador se realiza a través de algoritmos que son conjuntos precisos de instrucciones. Su eficiencia se evalúa a partir del ritmo en el que se incrementa el tiempo de resolución del problema, a medida que aumenta el tamaño de los datos de entrada. La mecánica cuántica ha introducido nuevos algoritmos que permiten resolver problemas a velocidades increíblemente superiores a las de los más avanzados ordenadores actuales. David Deutsch, junto a Richard Jozsa, fueron pioneros en el campo de la computación cuántica al formular en 1992 el primer algoritmo cuántico: el algoritmo de Deutsch-Jozsa. Éste fue mejorado en 1998 por Richard Cleve, Artur Ekert, Chiara Macchiavello y Michele Mosca. En 1994, Peter Shor, de los Laboratorios Bell, describió el primer gran algoritmo cuántico, diseñado para factorizar números grandes (de varios centenares de dígitos) en un tiempo record. La dificultad que tiene la computación clásica en la factorización de estos números se utiliza actualmente en los códigos de seguridad. Por tanto, el algoritmo de Shor, que puede realizar esta operación con extrema rapidez, se convierte en el sueño de cualquier hacker.
Peter Shor Dos años más tarde, en 1996, Lov Grover descubrió el segundo gran algoritmo cuántico que permite llevar a cabo búsquedas inversas en extensas bases de datos. El tiempo de ejecución es muy inferior al que se necesita en un ordenador convencional, si bien no se da una reducción de tiempo tan acusada entre los dos tipos de computación como en el caso del algoritmo de Shor.
Lov Grover Por el momento, no se han descrito más algoritmos cuánticos. Esto se debe a que, si bien los ordenadores producen gran cantidad de operaciones simultáneas en paralelo, la medición obtiene un único resultado. Es decir, se pierde la información de las otras posibilidades asociadas al resto de estados superpuestos. Por tanto, cualquier nuevo algoritmo que se cree tendrá que expresar la información deseada en una sola medida.
La potencia del ordenador cuántico. En el cómputo cuántico la unidad mínima de información es el qubit (quantum bit) que, a diferencia del bit que sólo puede tomar los valores 0 y 1, se encuentra en una superposición simultánea de dos estados cuánticos I0> y I1>. Por extensión, en dos qubits se da una superposición de los estados I00>, I01>, I10> y I11> y en N qubits se encuentran simultáneamente superpuestos 2N estados. Esta superposición cuántica permite la posibilidad de realizar un procesamiento paralelo a gran escala. Es decir, la capacidad operacional de un ordenador cuántico aumenta exponencialmente con el tamaño del mismo, el número de qubits. El estado de un qubit puede verse como un punto en la superficie de una esfera (llamada esfera de Bloch). En esta representación los polos de la esfera representan los bits clásicos “0″ y “1″ y todos los demás puntos son las distintas posibilidades que puede tomar un qubit.
Al margen de la superposición cuántica de estados, otro fenómeno clave que explica la gran potencia de los ordenadores cuánticos es el entrelazamiento. Dos sistemas cuánticos entrelazados mantienen un vínculo tal que, a pesar de la distancia que haya entre ellos, no pueden describirse separadamente. La aplicación estrella del entrelazamiento cuántico es la teletransportación. A partir de ésta, el cambio en el estado cuántico de uno de los sistemas se teletransporta instantáneamente al sistema cuántico lejano. Es importante señalar que lo que se teletransporta es la información, no la materia. Así pues, en el caso de la computación cuántica, se transmiten qubits sin enviar qubits.
El principal problema al que tiene que hacer frente la computación cuántica es el efecto de la decoherencia. Ésta consiste en la pérdida de información del sistema debido a la interferencia del ambiente en la superposición de estados. En consecuencia, los modelos físicos deben cumplir unos requisitos imprescindibles para actuar como un ordenador cuántico. Por un lado, los qubits deben estar tan aislados del entorno como sea posible para evitar los efectos de la decoherencia y, por el otro, debe permitirse una interacción controlada con otros qubits para poder crear los estados entrelazados y, posteriormente, proceder a la lectura del resultado. De lo expuesto, parece que los errores provocados por la decoherencia podrían ser nefastos para la consecución del cálculo, sin embargo, se están desarrollando métodos basados en la propia teoría cuántica para corregirlos. Recientemente, se ha publicado un artículo en la revista Nature: “Quantum physics: Cruise control for a qubit,” por Howard M. Wiseman, sobre la implementación experimental de un método teórico de control realimentado de la decoherencia cúantica que había sido formulado en 2002. Implementación física. Existen diversos sistemas físicos que cumplen con los requerimientos necesarios para ser ordenadores cuánticos. Se han hecho ordenadores de muy pocos qubits y aún no se puede determinar con seguridad qué sistema físico es el idóneo. Uno de los problemas que tienen algunos de los prototipos, es la falta de escalabilidad a ordenadores que cuenten con los qubits necesarios para desarrollar aplicaciones de interés práctico. Esto se debe a que, a medida que aumenta el número de qubits, se hace más difícil mantener su estabilidad y se requiere el desarrollo de complejos métodos de detección de errores. En 1995 los físicos Juan Ignacio Cirac y Peter Zoller idearon el esquema básico para construir ordenadores cuánticos con trampas de iones. Explicaron cómo podía hacerse algo que hasta entonces era una idea abstracta, una mera entelequia teórica. Dieron un paso fundamental que, como veremos, acaba de recibir su justo reconocimiento.
En general, los principales candidatos a ordenadores cuánticos son los sistemas físicos óptico-cuánticos en los cuales los qubits son átomos (o iones) y su manipulación se realiza mediante luz láser; los sólidos cuyos qubits pueden ser pares de electrones en un lado u otro de un potencial, o bien, electrones en distintos estados de un punto cuántico y los sistemas basados en la resonancia magnética nuclear, en cuyo caso, los qubits son los átomos de una molécula y las lecturas de los resultados se obtienen mediante la técnica de resonancia magnética nuclear. Los puntos cuánticos pueden imaginarse como “átomos artificiales” en los cuales los electrones confinados se encuentran en niveles energéticos similares a los que tendrían en un átomo pero en ausencia de campo electromagnético externo. Lo cierto es que se sucede la publicación de artículos sobre implementaciones de qubits en sistemas físicos. Algunos de los más recientes han sido el almacenamiento de un qubit durante tres minutos en una memoria cuántica basada en silicio (artículo de la revista Science de Christoph Boehme, Dane R. McCamey, “Nuclear-Spin Quantum Memory Poised to Take the Lead,” del 8 Junio de 2012) y el entrelazamiento de un fotón al espín de un electrón confinado en un punto cuántico (artículo de la revista Nature de Sophia E. Economou, “Quantum physics: Putting a spin on photon entanglement,” del 15 de Noviembre de 2012).
Los números primos y la criptografía Los números primos son los que sólo se pueden dividir entre 1 y entre sí mismos. No hay algoritmos sencillos para generar números primos, comprobar si un número dado es primo ni descomponer un número en un producto de números primos (o sea, factorizarlo). Las computadoras clásicas usan el método de ensayo y error. La dificultad del cálculo aumenta exponencialmente con el valor de los números por generar o examinar. Por eso es fácil imaginar el entusiasmo que se dio en la comunidad científica cuando, en 1986, Peter W. Shor demostró que una computadora cuántica podría descomponer un número en factores primos en forma eficiente. La factorización de números, aparte de ser un problema importante para la ciencia computacional, es también la clave de la criptografía moderna. Por ejemplo, el método PGP (Pretty Good Privacy, “Muy Buena Privacidad”) depende de poder
generar dos números primos grandes. Cada usuario del mensaje en clave genera su propio par de números. Un número (llamado la llave derecha o la llave pública) se distribuye en una forma abierta a todos. El segundo (la llave izquierda o la llave privada) lo guarda en secreto cada usuario. Si, digamos, Alicia quiere mandar un mensaje a Beto, ella “cierra” su mensaje con la llave pública de Beto. El mensaje queda revuelto o encriptado. Una vez cerrado con la llave derecha el mensaje sólo puede ser abierto (ordenado y descifrado) con la llave izquierda, y sólo Beto la tiene en secreto. Sólo él puede abrir el mensaje y leerlo, si tiene instalado desde luego el paquete de computación adecuado llamado PGP que se ofrece gratuitamente en la red. Si alguien más quiere saber lo que está escrito, va a tener que generar números primos grandes y comprobar cuál de ellos sirve. Con los métodos de factorización de las computadoras clásicas el proceso puede durar un lapso equivalente a la antigüedad del Universo (que se mide en miles de millones de años). Por eso no es sorprendente que después del descubrimiento de Shor el desarrollo de la computación cuántica haya recibido apoyo económico fuerte de parte de las agencias militares. Bits cuánticos La descripción cuántica tiene varias peculiaridades. Por ejemplo, cuando se lanza al aire una moneda la mecánica clásica nos permitiría saber de qué lado caerá si tuviéramos todos los datos acerca de la posición y la velocidad de la moneda al salir de nuestra mano. Si no tenemos los datos, decimos que hay una probabilidad de 50% de que caiga de un lado o del otro. En cambio, la probabilidad en mecánica cuántica es otra cosa. En los experimentos cuánticos no podemos predecir el resultado, sólo la probabilidad de que ocurra cierto resultado. Pero la peculiaridad cuántica más importante para nuestros propósitos es el llamado principio de superposición. Si en el mundo clásico un objeto puede estar en uno de varios estados distintos (por ejemplo, en distintas posiciones, o con distintos valores de la energía), en mecánica cuántica puede estar, además, en combinaciones de todos los estados posibles. Esta superposición de estados perdura mientras el objeto permanezca aislado. En cuanto interactúa con su entorno (por ejemplo, cuando alguien trata de determinar con una medición en qué estado se encuentra), la superposición se destruye y el objeto cae en uno de sus estados. Por ejemplo, un electrón confinado en cierto volumen puede ocupar al mismo tiempo muchas posiciones. Pero cuando uno trata de localizarlo con una medición, el electrón se manifiesta en una sola posición. La destrucción de los
estados de superposición al interactuar un sistema cuántico con su entorno se llama decoherencia. Las computadoras cuánticas aprovechan el principio de superposición para sacarles más partido a los bits. Un bit cuántico, o qubit, tiene más posibilidades de almacenar información porque, además de los dos estados clásicos 1 y 0, puede encontrarse en una superposición de éstos. Dicho de otro modo, puede estar parcialmente en uno y otro al mismo tiempo. La gama de posibilidades varía continuamente del 0 al 1, con superposiciones que contienen más o menos de los dos estados clásicos. El qubit lleva una vida mucho más rica que el bit clásico. Esto finalmente define la importancia de los sistemas cuánticos para la informática y la computación. Es cómodo imaginar al qubit como un vector. La longitud de este vector es fija, pero puede apuntar en cualquier dirección, a diferencia del bit clásico, que sólo puede apuntar, digamos, hacia arriba y hacia abajo. La computadora cuántica En 1985 David Deutsch dio una base matemática sólida a la propuesta de Feynman. Deutsch explicó cómo podría funcionar una computadora cuántica universal y describió su funcionamiento como secuencias de operaciones elementales sobre qubits. La computadora cuántica de Deutsch es muy parecida a la máquina universal de Turing, pero con qubits en el lugar de bits clásicos. Sin embargo, la operación de una computadora cuántica es muy distinta de la operación de la máquina de Turing. Había que formular algoritmos computacionales cuánticos. Los algoritmos cuánticos hacen uso de las peculiaridades de los qubits. Para iniciar un proceso de cómputo cuántico, podríamos, por ejemplo, poner para empezar todos los qubits que representan la información inicial en una superposición de 0 y 1. El estado inicial de esta computadora contendrá así todos los datos iniciales posibles. Ahora sólo falta hacer un cálculo adecuado (aplicar el algoritmo). Operando sobre los qubits en superposiciones de 1 y 0, el algoritmo cuántico resuelve, en cierta forma, todos los cálculos posibles al mismo tiempo. Uno puede imaginar (muy aproximadamente) una computadora cuántica como un conjunto muy grande de computadoras clásicas que funcionan en paralelo. Esta riqueza de la información se llama paralelismo cuántico, y disminuye drásticamente el número de pasos necesarios para resolver un problema en una computadora cuántica. Pensemos en la siguiente analogía. Supongamos que queremos comunicar información sobre una figura geométrica tridimensional muy complicada por medio de fotografías. La computadora clásica funcionaría entonces como una cámara que sólo maneja fotos en blanco y negro. En cambio una computadora cuántica podría transmitir todos los tonos de gris además del
blanco y negro. Es claro que necesitaremos muchas menos fotos para representar el objeto debido a la riqueza de la descripción cuántica. Obstáculos a vencer El obstáculo principal para la construcción de una computadora cuántica es la fragilidad de los estados superpuestos de los qubits con el mundo exterior debe disminuirse al nivel más bajo posible para evitar la decoherencia de los estados superpuestos. Las influencias no controlables destruirían por completo la delicada superposición y el “enredamiento” de los qubits, propiedades que son la base de todos los algoritmos computacionales cuánticos. Aislar unos cuantos qubits de influencias incontrolables es relativamente fácil y ya se han hecho algunos experimentos. Pero cuanto más grande es un sistema cuántico (cuantos más elementos contiene, o en este caso, más qubits), más probable es que alguno de ellos interactúe con el exterior, y eso basta para producir la decoherencia de todo el sistema. Claro que el problema de aparición de errores por influencias externas también existe en las computadoras clásicas. Por ejemplo, si guardamos un bit de información en el disco duro de una computadora clásica, con el tiempo este bit puede invertirse. Una manera de prevenir este error es guardar copias de cada bit. Después se compara periódicamente el valor de este bit con el de las copias, y si uno de ellos no coincide con los otros, se invierte. Desgraciadamente este método no sirve en una computadora cuántica. Para determinar en qué estado se encuentra un qubit hay que interactuar con él, lo que destruye su estado y afecta el resultado del cálculo. Aunque ya existe un progreso importante en el desarrollo de métodos cuánticos no-destructivos de corrección de errores, todavía falta mucho para la construcción de una computadora cuántica suficientemente grande. Por el momento no está claro todavía si podremos sortear estos obstáculos y construir una computadora cuántica con un gran número de qubits. ¿Vale la pena la lucha para construirla? Si dejamos aparte el problema de la criptografía, cuya importancia es temporal, el único motivo fundamental que queda para construir computadoras cuánticas es el estudio de los problemas del mundo cuántico. Sin embargo, el propio mundo cuántico nos impone un reto: ¿habrá una ley de la naturaleza que no permita que existan objetos cuánticos suficientemente grandes? Es probable que la respuesta sea afirmativa. Independientemente del resultado de estas investigaciones, esperamos que estos estudios nos proporcionen una mejor interpretación de la naturaleza. Además, sólo se puede averiguar más intentando.
Construcción de una computadora cuántica. La arquitectura de una computadora cuántica es similar a la de las computadoras tradicionales, con ciertos elementos propios de la computación cuántica. Oskin et al [Oskin02] propone una arquitectura de una computadora quántica que esta conformada por una ALU cuántica, memoria cuántica, y un planificador dinámico.
La corrección de errores es un aspecto que debe ser tomado muy en cuenta en el diseño de una arquitectura cuántica.
Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son
típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.
CONCLUSIONES:
BIBLIOGRAFIA:
www.comoves.unam.mx/numeros/articulo/67/computacion-cuantica www.alegsa.com.ar/Dic/computadora%20cuantica.php
http://losmundosdebrana.wordpress.com/2013/02/11/que-es-la-computacion-cuantica/ www.slideshare.net/nnachyto/historia-de-la-computacin-cuntica