{"id":377,"date":"2021-01-06T19:26:16","date_gmt":"2021-01-06T18:26:16","guid":{"rendered":"https:\/\/intsight.com\/?p=377"},"modified":"2022-04-21T17:11:58","modified_gmt":"2022-04-21T15:11:58","slug":"estado-cuantico","status":"publish","type":"post","link":"https:\/\/intsight.com\/index.php\/2021\/01\/06\/estado-cuantico\/","title":{"rendered":"Estado cu\u00e1ntico"},"content":{"rendered":"<p><span style=\"font-variant: small-caps\">Este blog se llama<\/span> Quantum Insights porque mi intenci\u00f3n inicial era dedicarlo a la Computaci\u00f3n Cu\u00e1ntica. Me he distra\u00eddo un poco con los preliminares, pero es hora ya de saltar a la materia que nos interesa. No nos har\u00e1 falta saber mucha F\u00edsica para aprender, pero un poco no nos vendr\u00e1 mal tampoco.<\/p>\n<p>Mi plan para las pr\u00f3ximas entradas es el siguiente: primero, voy a explicar qu\u00e9 es el \u00abestado cu\u00e1ntico\u00bb, a grandes rasgos. Segunda entrada: el proceso de medici\u00f3n. En la tercera entrada ya veremos, entonces, c\u00f3mo se define un ordenador cu\u00e1ntico. Entiendo que, por mucho que simplifique, siempre hay temas que necesitar\u00e1n aclaraciones. Utilice los comentarios ad libitum, y si lo cree necesario, env\u00edeme un correo electr\u00f3nico. Mi cuenta es mi nombre, Ian, m\u00e1s el dominio de este blog.<\/p>\n<h4>Tres axiomas<\/h4>\n<p>La primera mitad de la Mec\u00e1nica Cu\u00e1ntica se explica con estos tres axiomas:<\/p>\n<ul>\n<li>El <em>estado<\/em> de un sistema cu\u00e1ntico se describe mediante un vector en un espacio vectorial complejo $\\cal H$, dotado de un producto interior hermitiano.<\/li>\n<li>Los <em>observables<\/em> del sistema se corresponden con operadores lineales auto-adjuntos en $\\cal H$.<\/li>\n<li>La <em>evoluci\u00f3n<\/em> en el tiempo del estado cu\u00e1ntico est\u00e1 determinada por la ecuaci\u00f3n de Schr\u00f6dinger.<\/li>\n<\/ul>\n<p>Hay un mont\u00f3n de t\u00e9rminos t\u00e9cnicos, y por ello vamos a dedicar varias secciones a cada axioma.<\/p>\n<h4>Espacios de Hilbert (I)<\/h4>\n<p>Lo primero es ver qu\u00e9 es un espacio vectorial complejo. Llevamos unas cuantas entradas hablando de vectores a secas, por lo que imagino que el concepto es m\u00e1s o menos intuitivo. Los vectores m\u00e1s populares son los vectores euclidianos: tres valores reales, como en $(1.2,\\,2,\\,-33)$. No obstante, los vectores que nos interesan para la Mec\u00e1nica Cu\u00e1ntica tienen dos diferencias importantes:<\/p>\n<ol>\n<li>Cada componente de estos vectores va a ser un n\u00famero complejo, en vez de un n\u00famero real.<\/li>\n<li>En el espacio euclidiano hay tres dimensiones. El estado cu\u00e1ntico puede tener, dependiendo del sistema que se estudie, un n\u00famero diferente de dimensiones. Puede ser un n\u00famero finito o infinito de dimensiones. Y cuando hay infinitas dimensiones, puede tratarse de infinito numerable o infinito no numerable. S\u00ed: manda&#8230;<\/li>\n<\/ol>\n<p>No se asuste: los estados cu\u00e1nticos que se manejan en Computaci\u00f3n Cu\u00e1ntica son espacios finitos, y el n\u00famero de dimensiones es una potencia de dos, como en $2^N$, donde $N$ es el n\u00famero de qubits del sistema. Por ejemplo, dedicaremos alg\u00fan tiempo a estudiar el sistema de 1 qubit, por ser el m\u00e1s sencillo posible. El estado de un qubit, por lo antes dicho, se puede representar como un vector de dos dimensiones complejas, como estos ejemplos:<br \/>\n$$<br \/>\n\\eqalign{(0,&amp;\\,1)\\cr<br \/>\n(0.7071 + 0.7071i,&amp;\\, 0.7071 &#8211; 0.7071i)}<br \/>\n$$Estos espacios vectoriales complejos, una vez que definimos un producto interior hermitiano (no lo hemos hecho todav\u00eda) se conocen como espacios de Hilbert, si tienen una propiedad adicional: que sean espacios m\u00e9tricos completos. Los espacios que se utilizan en computaci\u00f3n cu\u00e1ntica tienen dimensiones finitas, y cumplen autom\u00e1ticamente con esta regla. De ah\u00ed, la $\\cal H$ caligr\u00e1fica que se menciona en los axiomas.<\/p>\n<h4>Producto interior hermitiano (I)<\/h4>\n<p>Dos vectores se pueden sumar y restar entre s\u00ed, y es f\u00e1cil imaginar c\u00f3mo se hace: componente a componente. Tambi\u00e9n se puede multiplicar un vector por un escalar, casi como con los vectores euclidianos. La diferencia est\u00e1 en que el escalar ahora es un n\u00famero complejo. Esta multiplicaci\u00f3n, naturalmente, tambi\u00e9n se calcula componente a componente. Por ejemplo:<br \/>\n$$\\eqalign{<br \/>\n(0,\\, 1)+(i,\\, 0)=&amp;(i,\\, 1)\\cr<br \/>\ni\\cdot(i,\\, 1)=&amp;(-1,\\, i)}<br \/>\n$$Los vectores euclidianos tienen una operaci\u00f3n de multiplicaci\u00f3n escalar entre vectores, que recibe dos vectores y devuelve un n\u00famero real. Cuando el espacio vectorial es complejo, sin embargo, esta operaci\u00f3n se complica. El problema est\u00e1 en c\u00f3mo se define la longitud de un vector. En un espacio euclidiano, acostumbramos a calcular el producto interior del vector consigo mismo, y aplicarle entonces la ra\u00edz cuadrada:<br \/>\n$$<br \/>\n\\vert\\vert v \\vert\\vert = \\sqrt{v \\cdot v}<br \/>\n$$Si queremos que las longitudes de los vectores complejos sean reales y positivas, entonces tenemos que ajustar la definici\u00f3n del producto interior para que, al menos, el producto de un vector consigo mismo sea no solamente real, sino adem\u00e1s positivo. La generalizaci\u00f3n necesaria es sencilla. Supongamos que tenemos un par de vectores, $x$ e $y$, con componentes reales. En este caso, el producto interior se define cl\u00e1sicamente as\u00ed:<br \/>\n$$<br \/>\n\\eqalign{<br \/>\nx =&amp; [x_1,x_2,x_3\\cdots x_n]\\cr<br \/>\ny =&amp; [y_1,y_2,y_3\\cdots y_n]\\cr<br \/>\nx \\cdot y =&amp; \\sum_{i=1}^n{x_i y_i}<br \/>\n}$$Estos son los productos escalares que hemos estado calculando a gog\u00f3 en entradas anteriores.<\/p>\n<p>Ahora supongamos que los componentes de estos vectores son complejos. La conjugada de un n\u00famero complejo se define como un segundo n\u00famero complejo con la misma parte real y la negaci\u00f3n de la parte imaginaria del n\u00famero original:<br \/>\n$$<br \/>\n(a + b i)^* = a &#8211; b i<br \/>\n$$El producto interior de dos vectores con componentes complejos es, entonces:<br \/>\n$$<br \/>\nx \\cdot y = \\sum_{i=1}^n{x_i^* y_i}<br \/>\n$$En el caso de los vectores reales, el producto interior es sim\u00e9trico. Esto es, $x \\cdot y = y \\cdot x$. Pero para vectores complejos, la propiedad que se cumple es la siguiente:<br \/>\n$$<br \/>\nx \\cdot y = (y \\cdot x)^*<br \/>\n$$La igualdad anterior es f\u00e1cil de demostrar si nos vamos a la definici\u00f3n de producto interior en espacios complejos. Lo que nos importa ahora es lo que ocurre cuando se toma el producto interior de un vector complejo consigo mismo:<br \/>\n$$<br \/>\nx \\cdot x = (x \\cdot x)^*<br \/>\n$$Esto significa que el valor del producto interior de un vector consigo mismo es, a la vez, igual a su valor conjugado. Pero esto s\u00f3lo puede ocurrir cuando el valor es real, o sea, cuando la parte imaginaria es cero. Podemos incluso ir m\u00e1s lejos, y demostrar que el producto interior complejo que acabamos de definir es siempre no negativo cuando se multiplica cualquier vector consigo mismo. Por lo tanto, podemos seguir definiendo la longitud de un vector en un espacio complejo como antes:<br \/>\n$$<br \/>\n\\vert\\vert x \\vert\\vert = \\sqrt{x \\cdot x}<br \/>\n$$<\/p>\n<h4>La notaci\u00f3n de Dirac (I)<\/h4>\n<p>Hagamos una peque\u00f1a pausa: resulta que para calcular un producto escalar, necesitamos una versi\u00f3n modificada de uno de los vectores&#8230; y no del otro. Pero el operador que hemos utilizado para el producto interior (el punto) \u00absugiere\u00bb que se trata de un operador sim\u00e9trico (y no lo es). A Paul Adrien Maurice Dirac se le ocurri\u00f3 una idea: digamos que a todo espacio vectorial $\\mathbb{C}^n$ le corresponde autom\u00e1ticamente un espacio vectorial dual, y que entre ambos espacios hay una transformaci\u00f3n biun\u00edvoca. El dual de un vector es un vector con los mismos componentes, pero conjugados. A los elementos del espacio vectorial original los llamaremos \u00abkets\u00bb y los escribiremos de esta manera:<br \/>\n$$<br \/>\n\\vert \\psi \\rangle<br \/>\n$$A los vectores del espacio dual los llamaremos \u00abbras\u00bb, y el dual del \u00abket\u00bb anterior se representa as\u00ed:<br \/>\n$$<br \/>\n\\langle \\psi \\vert<br \/>\n$$Lo que haremos a continuaci\u00f3n es definir el producto interior como una operaci\u00f3n que siempre toma un primer operando de tipo \u00abbra\u00bb y un segundo operando de tipo \u00abket\u00bb. Si yo quiero calcular el producto interior de $\\vert \\phi \\rangle$ con $\\vert\\psi \\rangle$, tengo que convertir antes el primer operando en un \u00abbra\u00bb, y s\u00f3lo entonces puedo obtener el producto interior:<br \/>\n$$<br \/>\n\\langle \\phi \\vert \\psi \\rangle<br \/>\n$$La expresi\u00f3n anterior es un n\u00famero complejo, un escalar, y se cumple la antisimetr\u00eda conjugada:<br \/>\n$$<br \/>\n\\langle \\phi \\vert \\psi \\rangle = \\langle \\psi \\vert \\phi \\rangle ^*<br \/>\n$$Naturalmente, la longitud de un vector, no importa si es bra o ket, puede definirse as\u00ed:<br \/>\n$$<br \/>\n\\vert\\vert \\psi \\vert\\vert = \\sqrt{\\langle\\psi\\vert\\psi\\rangle}<br \/>\n$$Siendo rigurosos, esto es un poco de abuso de notaci\u00f3n. Pero no nos supondr\u00e1 problema alguno.<\/p>\n<h4>Observables (II)<\/h4>\n<p>Toca explicar qu\u00e9 narices es el operador lineal auto-adjunto del segundo axioma. No es complicado: si el espacio vectorial es un espacio de dimensiones finitas, como en Computaci\u00f3n Cu\u00e1ntica, un operador es simplemente una matriz con componentes complejos. Si tuvi\u00e9semos que tratar con espacios de infinitas dimensiones, tendr\u00edamos que hilar un poco m\u00e1s fino, pero no es necesario en nuestro caso.<\/p>\n<p>\u00bfRecuerda que nuestro producto interior no es sim\u00e9trico? Este detalle provoca que, en general, aplicar un operador al bra y al ket tengan resultados diferentes. En t\u00e9rminos generales:<br \/>\n$$<br \/>\n\\langle Ax\\vert y\\rangle\\neq\\langle x\\vert Ay\\rangle<br \/>\n$$Si queremos mover el operador $A$ al otro lado de la barra central, tenemos que transformar el operador $A$ en su adjunto $A^{&#42;}$:<br \/>\n$$<br \/>\n\\langle Ax\\vert y\\rangle = \\langle x\\vert A^{&#42;}y\\rangle<br \/>\n$$A nivel de celdas, la adjunta de una matriz es una matriz transpuesta creada a partir de los valores conjugados de sus componentes. Por ejemplo:<br \/>\n$$<br \/>\n\\pmatrix{1&amp;-2-i\\cr 1+i&amp;i}^&#42; = \\pmatrix{1&amp;1-i\\cr -2+i&amp;-i}<br \/>\n$$Un operador auto-adjunto, simplemente, es un operador que no cambia al calcular su adjunto: $A = A^&#42;$. Por ejemplo:<br \/>\n$$<br \/>\n\\pmatrix{0&amp;-i\\cr i&amp;0}^&#42; = \\pmatrix{0&amp;-i\\cr i&amp;0}<br \/>\n$$Por lo tanto, si volvemos al producto interior, si el operador $A$ es auto-adjunto, se cumple que:<br \/>\n$$<br \/>\n\\langle Ax\\vert y\\rangle = \\langle x\\vert Ay\\rangle<br \/>\n$$\u00bfQu\u00e9 importancia tienen los operadores auto-adjuntos? Pues que los valores propios, o <a href=\"https:\/\/intsight.com\/index.php\/2020\/04\/03\/valores-y-vectores-propios\/\">eigenvalues<\/a>, de un operador auto-adjunto en un espacio vectorial complejo, son siempre valores reales. Este es el dato t\u00e9cnico. Pasemos a la interpretaci\u00f3n f\u00edsica:<\/p>\n<ol>\n<li>Un \u00abobservable\u00bb de un sistema cu\u00e1ntico es simplemente una propiedad f\u00edsica del sistema que podemos medir. Ejemplos: la posici\u00f3n de una part\u00edcula, la velocidad de una part\u00edcula, la orientaci\u00f3n del esp\u00edn respecto a una direcci\u00f3n predeterminada, etc, etc.<\/li>\n<li>Nosotros no vamos a medir la velocidad de una part\u00edcula en Computaci\u00f3n Cu\u00e1ntica. Lo advierto para la salud mental de todos nosotros. El \u00abobservable\u00bb que vamos a manejar pr\u00e1cticamente siempre en un ordenador cu\u00e1ntico es el estado binario de sus qubits. Esto lo veremos con m\u00e1s detalles en el momento adecuado.<\/li>\n<li>Como bien dice el axioma, cada \u00abobservable\u00bb se asocia a un operador auto-adjunto.<\/li>\n<li>El valor del observable se obtiene mediante un proceso de \u00abmedici\u00f3n\u00bb, que veremos en la pr\u00f3xima entrada.<\/li>\n<li>Matem\u00e1ticamente, la medici\u00f3n consiste en escoger probabil\u00edsticamente uno de los valores propios del operador asociado al observable.<\/li>\n<li>Como las cantidades f\u00edsicas suelen ser magnitudes reales (las anor\u00e9xicas tienen una masa compleja, con una parte real y otra imaginaria), tenemos que exigir que los operadores observables tengan esta conveniente propiedad de ser auto-adjuntos.<\/li>\n<\/ol>\n<h4>La ecuaci\u00f3n de Schr\u00f6dinger (III)<\/h4>\n<p>Ya llegamos al tercer axioma, que es donde se menciona por primera vez la ecuaci\u00f3n de Schr\u00f6dinger:$$<br \/>\ni\\hbar{d \\over dt}\\vert \\psi(t) \\rangle=H\\vert \\psi(t) \\rangle<br \/>\n$$Tengo una buena noticia: \u00a1no necesitaremos resolver la ecuaci\u00f3n de Schr\u00f6dinger! Al menos, mientras no tengamos que enredarnos con el hardware a muy bajo nivel, claro. Sin embargo, menciono la dichosa ecuaci\u00f3n porque conocerla nos va a ayudar a comprender mejor las reglas de la Computaci\u00f3n Cu\u00e1ntica.<\/p>\n<p>A la derecha de la igualdad tenemos la derivada temporal de la funci\u00f3n de onda. Y a la izquierda, el operador de Hamilton del sistema. En pocas palabras: se trata de una ecuaci\u00f3n lineal. Si $\\vert \\psi_0\\rangle$ es una soluci\u00f3n de la ecuaci\u00f3n, y tambi\u00e9n lo es $\\vert \\psi_1\\rangle$, entonces cualquier combinaci\u00f3n<br \/>\n$$\\alpha\\vert \\psi_0\\rangle + \\beta\\vert \\psi_1\\rangle<br \/>\n$$donde $\\alpha$ y $\\beta$ son n\u00fameros reales, vale tambi\u00e9n como soluci\u00f3n.<\/p>\n<p>En la pr\u00f3xima entrada de este blog, trataremos el modelo de medici\u00f3n sobre un sistema cu\u00e1ntico.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Este blog se llama Quantum Insights porque mi intenci\u00f3n inicial era dedicarlo a la Computaci\u00f3n Cu\u00e1ntica. Me he distra\u00eddo un poco con los preliminares, pero es hora ya de saltar a la materia que nos interesa. No nos har\u00e1 falta saber mucha F\u00edsica para aprender, pero un poco no nos vendr\u00e1 mal tampoco. Mi plan [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":383,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[33],"tags":[27,19,20,34,26],"class_list":["post-377","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-quantum","tag-dot-product","tag-linear-algebra","tag-matrices","tag-quantum","tag-vector"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/intsight.com\/wp-content\/uploads\/2021\/01\/qstate.jpg?fit=550%2C330&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/posts\/377","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/comments?post=377"}],"version-history":[{"count":88,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/posts\/377\/revisions"}],"predecessor-version":[{"id":466,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/posts\/377\/revisions\/466"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/media\/383"}],"wp:attachment":[{"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/media?parent=377"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/categories?post=377"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/intsight.com\/index.php\/wp-json\/wp\/v2\/tags?post=377"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}