• *Por Pablo Mininni

    El último 19 de noviembre una de las presentaciones orales mas anticipadas de la reunión anual de la División de Fluidos de la Asociación Americana de Física apareció en diarios y revistas del espectáculo. Los organizadores de la reunión, a la que asisten cada año más de tres mil personas, no pudieron conseguir para esta presentación un recinto lo suficientemente grande y el público se acumuló en las puertas.

    La charla tenía un título -como menos- llamativo: “Ant-Man and The Wasp: Helping Marvel superheroes breathe”. Ant-Man es un superhéroe de Marvel que puede encogerse al tamaño de una hormiga, o crecer por encima de los treinta metros de altura y convertirse en un Goliat. Creado por los legendarios Stan Lee, Larry Lieber y Jack Kirby en 1962, alcanzó la fama fuera del mundo de los cómics en dos películas recientes de Marvel Studios. The Wasp (la avispa), creada solo un año después, es su versión femenina y en los cómics es una de las fundadoras originales de Los Vengadores. Y aunque el interés de la prensa del espectáculo por estos temas puede ser entendible -las películas de superhéroes pueden facturar mas de 500 millones de dólares-, el interés que despertó esta charla y un paper reciente de los mismos autores es un fenómeno propio de otro universo.

    Mientras Ant-Man y The Wasp reducen su tamaño utilizando un traje especial -y unas muy dudosas partículas fundamentales no descubiertas por el momento-, mantienen su masa y su fuerza original. Y aunque el cambio de tamaño podría ser motivo más que suficiente para dudar sobre la verosimilitud científica de toda la historia, los autores de este paper consideraron desde el punto de vista físico los problemas que estos cambios pueden generar a los cuerpos de quienes utilizan los trajes.

    El trabajo fue publicado en 2018 en una revista cuyo nombre es de por sí gracioso: A. Staples y M. Mikel-Stites. "Ant-Man and The Wasp: Microscale respiration and microfluidic technology”. Superhero Science & Technology 1, 2018 (DOI: 10.24413/SST.2018.1.2474) https://journals.open.tudelft.nl/index.php/superhero/article/view/2474

    Para cerrar este año 2018, y como lectura ligera para iniciar el verano, les recomiendo una mirada a este trabajo. Cada cual puede tener sus propias razones: conocer algo sobre la física de los superhéroes, un tema que es cada vez más usado para despertar vocaciones por la ciencia en los adolescentes; satisfacer una curiosidad (¡o algún gusto culposo!) por personajes que se visten con su ropa interior por encima de sus pantalone; poder comentar a sus amigos que en otros países del mundo los científicos también dedican parte de su tiempo a pensar estupideces; o simplemente, divertirse un poco con el uso que hacen los autores de conceptos físicos para intentar explicar cómo funcionan las cosas, aun en situaciones un poco delirantes.

    Los autores, que cuando no dedican su tiempo a pensar en la física de los superhéroes trabajan en el estudio de la dinámica de fluidos biológicos, se concentran en este paper especialmente en temas de microfluídica, y en cómo los dispositivos actuales permitirían que Ant-Man y The Wasp respiren cuando se reducen al tamaño de un insecto. Uno de los principales desafíos que deben resolver estos superhéroes tiene que ver con el volumen de aire que pueden tomar sus pulmone: al reducirse en tamaño la cantidad de aire que pueden tomar en cada bocanada también se reduce, y se vuelve comparable a la que respiran los escaladores cuando se encuentran por encima de los ocho mil metros de altura (aunque en este último caso no se debe a un cambio de tamaño, sino al cambio en la densidad del aire con la altura). Pero como en el caso de los escaladores del Monte Everest, sin aclimatación o ayuda respiratoria, la falta de oxígeno puede generar complicaciones que pueden culminar en la muerte, o aún peor, pueden hacer peligrar la aparición de nuevas películas sobre Ant-Man y The Wasp.

    Con un poco de ingenuidad y algo de publicidad (al fin y al cabo, el paper es también una forma de promocionar algunos resultados previos del mismo grupo sobre la microfluídica de la respiración en insectos), los autores discuten en detalle qué dispositivos microfluídicos sería necesario usar para asistir a la respiración de los superhéroes, y qué tipo de válvulas, compresores, bombas y tuberías se deberían utilizar. Y no contentos con esto, también discuten algunos aspectos sobre los cambios en el metabolismo de los superhéroes asociados al cambio de tamaño, y cómo estos cambios impactarían en la dinámica de fluidos en sus cuerpos. Con un largo de 16 páginas, el paper se lee rápidamente, y por encima de todo, entretiene. ¡Felices vacaciones!

    Pablo Mininni es profesor en el Departamento de Física en Exactas-UBA e Investigador del CONICET.

  • Experimentos simultáneos en cinco continentes desafían el principio de realismo local imaginado por Einstein. Los participantes contribuyeron al experimento generando más de 90 millones de bits, eligiendo en forma impredecible distintas mediciones para eludir la paradoja conocida como “la trampa (loophole) de libertad de elección”. Este estudio fue publicado en la revista Nature.

    El 30 de Noviembre de 2016, más de 100.000 personas alrededor del mundo contribuyeron a un conjunto de experimentos de física, primeros en su género, conocido como The BIG Bell Test. Usando smartphones y otros dispositivos con conexión a internet, los participantes aportaron bits impredecibles, que fueron utilizados para determinar de qué manera iban a ser medidos átomos entrelazados, fotones y dispositivos superconductores en doce laboratorios distribuidos por todo el mundo. Los científicos utilizaron este aporte humano para cerrar un loophole, es decir una ambigüedad, que se presenta en forma ubicua en los experimentos del principio de realismo local de Einstein. Los resultados ya han sido analizados, y se reportan en la edición de esta semana de la revista Nature.

    En un test de Bell (así llamado por el físico John Stewart Bell), pares de partículas entrelazadas como fotones se generan y se envían a distintas ubicaciones, en las que se mide alguna propiedad de estas partículas como el color de los fotones o su tiempo de llegada. Si los resultados de las mediciones tienden a coincidir, independientemente de qué propiedades elijamos medir, esto tiene implicaciones muy sorprendentes: o la medición sobre una partícula afecta en forma instantánea a la otra partícula (a pesar de estar alejadas entre sí), o – aún más extraño – estas propiedades nunca existieron: fueron creadas por la misma medición. Cualquiera de estas posibilidades contradice el realismo local, la cosmovisión de Einstein sobre un universo independiente de nuestras observaciones, en el cual ninguna influencia ni información puede viajar más rápido que la luz.

    El BIG Bell Test les pidió a voluntarios humanos, conocidos como Bellsters, elegir las mediciones, para cerrar el llamado “loophole de libertad de elección” – la posibilidad de que las propias partículas influencien la elección de de la medición. Tal influencia, si existiera, invalidaría el test; sería como si se les permitiera a los estudiantes escribir las preguntas de sus propios exámenes. Este loophole no se puede cerrar eligiendo con un dado o un generador de números aleatorios, porque siempre existe la posibilidad de que estos elementos físicos estén coordinados con las partículas entrelazadas. Las elecciones humanas introducen el componente de libertad de elección, por el cual las personas pueden elegir independientemente de lo que fuera que las partículas pudieran estar haciendo.

    Liderado por el ICFO-The Institute of Photonic Sciences, en Barcelona, el BIG Bell Test reclutó participantes alrededor del mundo para contribuir con secuencias de ceros y unos (bits) impredecibles, a través de un videojuego online. Los bits fueron enrutados a experimentos de vanguardia en Brisbane, Shanghai, Viena, Roma, Munich, Zurich, Niza, Barcelona, Buenos Aires, Concepción (Chile) y Boulder (EUA), donde fueron utilizados para ajustar los ángulos de rotación de polarizadores y otros elementos de laboratorio, que determinaron de qué manera se medirían las partículas entrelazadas.

    Los participantes contribuyeron con más de 90 millones de bits, posibilitando un test severo para el realismo local, así como también otros experimentos sobre realismo en la mecánica cuántica. Los resultados obtenidos muestran una fuerte discrepancia con la visión de Einstein, cierran por primera vez el loophole de libertad de elección, y ensayan varios métodos nuevos para el estudio del entrelazamiento y el realismo local.

    EL EXPERIMENTO de Entrelazamiento en Polarización de Buenos Aires (CITEDEF-UBA)

    Cada uno de los doce laboratorios distribuidos por el mundo llevaron a cabo un experimento diferente, para probar el realismo local en distintos sistemas físicos y para probar otros conceptos relacionados con el realismo. El experimento realizado en el Laboratorio de Óptica Cuántica de CITEDEF (Buenos Aires) por investigadores de CITEDEF, CONICET y la UBA, estudió la violación de la desigualdad de CHSH-Bell (una medida de la discrepancia entre la realidad y las teorías de realismo local) utilizando fotones entrelazados en polarización, generados por conversión paramétrica descendente en un arreglo de cristales no lineales. El experimento completo utilizó 10.033 bits aleatorios, generados por Bellsters distribuidos alrededor del mundo y transmitidas por los servidores del BBT en Barcelona; estos bits definían distintas configuraciones para la medición de la polarización. El experimento resultó en una violación de la desigualdad de CHSH-Bell por siete desviaciones estándar. Esto significa que si el experimento fuera repetido todos los días en un mundo regido por el realismo local, un resultado como el obtenido debería obtenerse una vez en mil millones de años.

    Miguel Larotonda, Profesor en UBA e Investigador en CITEDEF-CONICET: “Es un experimento que tiende a cerrar el abismo existente entre el público en general y los conceptos 'extraños' y anti-intuitivos de la mecánica cuántica, al atraer y motivar a participantes de todo el mundo para producir secuencias impredecibles de bits, que alimentan experimentos simultáneos y de última tecnología en una cantidad de laboratorios de todo el mundo. En Argentina, el experimento BBT generó un interés sin precedentes en los medios, en el periodismo científico en particular y en el público no especializado en general.”

    Carlos Abellán, investigador en ICFO e impulsor del proyecto: “El BIG Bell Test fue un proyecto increíblemente desafiante y ambicioso. En el comienzo parecía de una dificultad imposible de sortear, pero se convirtió en una realidad gracias al esfuerzo de docenas de científicos entusiastas, comunicadores científicos, periodistas y distintos medios, y especialmente a las decenas de miles de personas que contribuyeron al experimento durante el 30 de Noviembre de 2016.”

    Morgan Mitchell, líder del proyecto BBT y Profesor de la Insititució Catalana de Recerca I Estudis Avançats (ICREA) en el ICFO: “Para mí, lo más asombroso es que la discusión entre Einstein y Niels Bohr, después de más de 90 años de esfuerzos para plantearla de forma más rigurosa y estudiarla en forma experimental, aún conserva un componente humano y filosófico. Sabemos que el bosón de Higgs y las ondas gravitacionales existen gracias a máquinas sorprendentes, sistemas físicos construidos para poner a prueba las leyes de la física. Pero la del realismo local es una pregunta que no podemos contestar en forma completa usando una máquina. Pareciera que nosotros mismos debemos ser parte del experimento, para preservar la honestidad del Universo.”

    El equipo del BIG Bell Test quiere agradecer una vez más a los miles de participantes que en forma tan entusiasta y generosa contribuyeron a esta iniciativa. Sin su aporte esencial, este experimento nunca habría sido posible. Referencia: Challenging local realism with human choices, The Big Bell Test Collaboration, Nature 2018.

    https://www.nature.com/articles/s41586-018-0085-3
    https://arxiv.org/abs/1805.04431

     

     

     

  • El desarrollo vocal, tanto en humanos como en vertebrados, es un proceso continuo e interactivo que se genera entre el cuerpo, el sistema nervioso central y la experiencia social. Si bien sería difícil intentar explicar cualquier aspecto del desarrollo vocal sin tener en cuenta estas interacciones, el estudio de este problema suele enfocarse en el sistema nervioso central. En particular, se ha puesto muy poca atención en el rol que juega el cuerpo durante el desarrollo. Esto es un resultado de una perspectiva más general de la neurociencia donde el paradigma predominante es que el cuerpo sigue las instrucciones que recibe del cerebro como si fuera un títere. O sea, cada detalle de cada comportamiento está codificado en el cerebro. Este enfoque se basa principalmente en tener una “perspectiva lineal” del problema. Si modelamos al cuerpo como un sistema que está siendo “forzado” por el cerebro, en un paradigma lineal el cuerpo sigue la frecuencia del forzante. Si en cambio consideráramos que el cuerpo es un sistema no-lineal, entonces la emergencia de sub-armónicos surge naturalmente. O sea, un sistema no-lineal puede presentar mucha más riqueza, donde pequeñas variaciones del sistema forzante podrían generar cambios cualitativos en el sistema que está siendo forzado.

    El trabajo de Zhang y Ghazanfar pone de manifiesto la importancia que puede tener el cuerpo durante el desarrollo, proponiendo una forma específica en la que el crecimiento corporal podría condicionar el proceso. En este trabajo se estudian los cambios en las vocalizaciones de monos tití juveniles (Callithrix jacchus) durante el desarrollo, utilizando para esto una amplia gama de técnicas que incluyen modelos computacionales y experimentos que imitan la reversión del crecimiento. Sus resultados sugieren que los cambios cualitativos que se producen durante el desarrollo se basan en la interacción no-lineal entre el sistema nervioso y la biomecánica implicados en la respiración.

    Brevemente, los autores encuentran que los aumentos en la duración de las vocalizaciones y los cambios en el uso de las mismas, podrían atribuirse al crecimiento de los pulmones, que proporcionan la potencia respiratoria para producir vocalizaciones. En primer lugar, realizaron predicciones específicas sobre los mecanismos de generación de las distintas vocalizaciones, utilizando para esto un modelo biomecánico que incluye la laringe y el sistema respiratorio. Luego, estas predicciones se pusieron a prueba empíricamente registrando las vocalizaciones de los titís juveniles en un ambiente helio y oxígeno (heliox), que reduce la carga respiratoria. El ambiente de heliox simula una reversión en el crecimiento pulmonar y, como se había predicho utilizando modelos computacionales, da como resultado una reversión al comportamiento vocal inmaduro. Este trabajo subraya la importancia de considerar el organismo completo, y no solo el sistema nervioso, cuando intentamos comprender cómo emerge un comportamiento complejo. Metodológicamente, es un ejemplo excepcional de integración entre modelado dinámico de sistemas físicos y experimentos biológicos.

    Yisi S. Zhang and Asif A. Ghazanfar: Vocal development through morphological computation, PLoS biology 16(2): e2003933. February 20, 2018
    https://doi.org/10.1371/journal.pbio.2003933

    *Ana Amador es jefe de trabajos prácticos del Departamento de Física de Exactas UBA e Investigadora de CONICET en IFIBA-UBA.

     

  • El profesor del DF repasa las investigaciones recientes de Juan Maldacena y colaboradores acerca de la relación entre mecánica cuántica y agujeros negros.

    Uno de los resultados sobresalientes arrojados por la investigación en física teórica en los últimos cinco años ha sido la observación de una estrecha relación entre ciertos aspectos de la información cuántica y la geometría de los agujeros negros. Este es un descubrimiento tan sorprendente cuanto inesperado dado que viene a relacionar dos subdisciplinas que, hasta el momento, parecían pertenecer a esferas diferentes.

    La conexión entre información cuántica y gravedad nace del intento de los físicos por tratar de resolver algunas paradojas desconcertantes a las que nos enfrenta el estudio de la evolución de los agujeros negros. Esta conexión se hace concreta en un trabajo de 2013, en el que Juan Maldacena y Leonard Susskind propusieron lo que hoy se conoce como “la correspondencia ER=EPR”, una críptica igualdad entre dos acrónimos que refieren a los nombres de tres célebres físicos: Einstein-Rosen (ER) y Einstein-Podolsky-Rosen (EPR). Pero, antes de explicar qué es la correspondencia ER=EPR, dediquemos unos párrafos a recordar de qué hablamos cuando hablamos de ER y EPR. Comencemos por lo segundo (EPR) dado que se trata de una noción más familiar.

     

    Entrelazamiento cuántico y agujeros de gusano

    Como decíamos, EPR refiere a Albert Einstein, Boris Podolsky y Nathan Rosen, quienes en 1935 escribieron un artículo1 en el que se hacían la pregunta de si “puede la descripción mecano-cuántica de la realidad ser considerada completa”. Como la mayoría de los artículos cuyos títulos cobijan una pregunta por sí o por no, la pretensión del trabajo de estos notables físicos era sugerir una respuesta negativa. Hoy, empero, hemos aprendido a vivir con un “sí” como respuesta. De todas formas, independientemente del error en el espíritu del trabajo original de Einstein y sus colaboradores, el aporte de éstos a la mecánica cuántica ha sido enorme, dado que evidenció la importancia del efecto que conocemos como “entrelazamiento cuántico” –un término acuñado ese mismo año por Erwin Schrödinger–.

    El entrelazamiento cuántico es el fenómeno por el cual un conjunto de partículas puede encontrarse en un estado cuántico que no admite ser descripto por la mera agregación de los estados individuales de las partículas que lo forman. En otras palabras, cuando existe entrelazamiento la función de onda que describe el estado del sistema cuántico refiere inevitablemente al sistema como un todo inescindible, lo que expresa que los subsistemas (cada partícula) se encuentran “entrelazados”. En el caso de que el conjunto de partículas se compone de sólo dos de ellas, el sistema entrelazado recibe el nombre de “par EPR”. El ejemplo por antonomasia de un par EPR es el de dos partículas (llamémoslas A y B) que se envían a dos regiones, distante una de la otra. Debido al entrelazamiento de los estados que describen las dos partículas, la medición de una dada cantidad física de la partícula A que un laboratorista decidiera realizar determinará los resultados posibles de una medición ulterior que un segundo laboratorista, aunque distante del primero, fuera a realizar sobre la partícula B. Esto es, los resultados posibles de una medición realizada sobre B dependen del resultado de la medición realizada sobre A, y esto es así independientemente de si las dos partículas se encuentran a varios pársecs de distancia una de la otra. Esto, aunque a primera vista podría parecer como una acción a distancia, no entra en contradicción con ningún principio de la relatividad ni propiedad local de las leyes físicas. De hecho, este fenómeno, aunque inquietante, no puede ser empleado para transmitir información más rápido que la luz.

    Pasemos ahora a describir el lado izquierdo de igualdad ER=EPR; hablemos de lo que Einstein y Rosen hacían cuando Podolsky no miraba: En un artículo del mismo año, 1935, Einstein y Rosen mostraron que las ecuaciones de la teoría de la relatividad general, que describen la gravedad como una deformación del espacio-tiempo, admiten soluciones que representan un escenario muy peculiar en el cual dos agujeros negros, en principio distantes, podrían estar conectados por un túnel interno; como si se tratara de una suerte de atajo en el espacio y el tiempo, un túnel del cual cada agujero negro es una boca de entrada2. Esto se conoce con el nombre de “puente de Einstein-Rosen” o también como “agujero de gusano”. A diferencia de los agujeros de gusano y pasajes espaciotemporales a los que nos tiene acostumbrados la ciencia-ficción, el puente de Einstein-Rosen no puede ser atravesado; es decir, uno no puede entrar por un lado y salir por el otro. Poder hacerlo requeriría la existencia de materia exótica de un tipo que no existe en nuestro universo –o la preponderancia de efectos cuánticos que son desdeñables para los propósitos del turismo espaciotemporal–. Debido a esta imposibilidad de ser atravesados, y al igual que ocurre con los pares EPR, los agujeros de gusano de ER no pueden ser empleados para transmitir información más rápido que la luz. Aun así, es interesante que, aunque no pueda uno entrar por un agujero negro en una galaxia y salir por un agujero negro de otra, la física sí permita que ambos agujeros negros compartan el mismo interior.

    Como notamos, los pares EPR y los puentes ER son sistemas físicos quea priori pertenecen a reinos muy diferentes. Mientras los primeros nos hablan de las propiedades de entrelazamiento de las partículas, los segundos nos hablan del fabuloso bestiario de topologías que el espacio-tiempo puede adquirir a escalas astrofísicas. Ahora bien, aunque de reinos diferentes, reconocemos inmediatamente que EPR y ER comparten mucho más que dos autores y el año de publicación de los trabajos: Tanto EPR como ER nos cuentan de la interconectividad de sistemas distantes y de cómo esta conectividad se logra sin que atente contra el principio que dicta que no es posible enviar información más rápido que la luz. En este sentido ER y EPR se parecen mucho y cabe la pregunta de si hay, acaso, una conexión más directa entre ellos.

    A esta pregunta parecen responder por la afirmativa Maldacena y Susskind en su artículo de 2013, tituladoHorizontes fríos para agujeros negros entrelazados, en el que arguyen que ER y EPR son dos efectos conectados o, de manera más sucinta, ER=EPR.

     

    La conjetura ER = EPR

    En su trabajo3, Maldacena y Susskind formulan dos conjeturas; la primera, menos especulativa que la segunda. Comienzan afirmando que dos agujeros negros que se encuentran separados por grandes distancias y cuyos interiores están conectados por un puente de ER pueden ser pensados como si se tratara de dos astros cuyos estados cuánticos están máximamente entrelazados. La segunda conjetura de estos dos renombrados físicos va más allá al proponer una versión recíproca de la afirmación anterior: todo par EPR en mecánica cuántica, aunque se trate éste de dos fotones entrelazados como los que se generan en laboratorios, tiene asociado un puente ER. Claramente esto último merece una aclaración ya que de ninguna manera podríamos acepar que cada vez que creamos un par EPR en nuestros laboratorios estamosipso facto abriendo túneles en el espacio-tiempo… ¿O acaso sí?

    Pues bien, Maldacena y Susskind proponen que, en efecto, así es; pero ocurre que esos túneles espaciotemporales, esos puentes de ER que acompañan a cada par de partículas entrelazadas, han de ser microscópicos y de naturaleza cuántica, algo que, a falta de una teoría de la gravedad cuántica, aún no entendemos completamente.

    Maldacena, junto a muchos otros colegas del área, se encuentra trabajando activamente en esta idea con el objetivo de hacer más precisa su formulación, entender sus implicancias y tratar de generalizarla. En relación con esto, recientemente hubo trabajos muy interesantes en los que se ahonda en la relación entre agujeros de gusano y procesos de información cuántica. Por ejemplo, el año pasado se logró entender cómo los protocolos de teleportación cuántica admiten una descripción dual en términos de señales que atraviesan agujeros de gusano –sumado esto a un canal clásico, como suele aparecer en las realizaciones de este tipo de procesos–. También es interesante la línea de investigación reciente que trata de relacionar la descripción geométrica de los agujeros de gusano con lo que se conoce como “red de tensores” y con estructuras matemáticas similares. Esta es un área de gran actividad a la que muchos físicos teóricos se dedican actualmente. Sin ir más lejos, hoy mismo Maldacena y Xiao-Liang Qi acaban de publicar en la base de datos arXiv un interesante trabajo en el que estudian agujeros de gusano que sí permiten ser atravesados y cómo los mismos admiten una descripción análoga en términos de sistemas simples de mecánica cuántica.

     

    La pared de fuego en el horizonte de eventos

    Una de las aplicaciones más importantes de la conjetura ER=EPR, y que fue en efecto la motivación original para que Maldacena y Susskind comenzaran a investigar el problema, es la resolución de lo que se conoce como “la paradoja de Almheiri-Marolf-Polchinski-Sully” (AMPS), también conocida como “la propuesta de la pared de fuego”. En 2012, Polchinski y sus colaboradores publicaron un trabajo4 en el que mostraban la incompatibilidad entre las siguientes tres propiedades físicas:a) la unitariedad de la evolución temporal de la teoría cuántica,b) el principio de equivalencia entre inercia y gravedad de la teoría de la relatividad, yc) la descripción de la naturaleza en términos de una teoría local de campos. Estas tres propiedades físicas, según afirmaban los autores del trabajo4 aduciendo sólidas razones, no pueden ser todas ciertas simultáneamente. Esto representa un serio problema ya que tanto el principio de unitariedad como el principio de equivalencia y la noción de campo son piezas paradigmáticas en las que se basa todo lo que entendemos en física. Si estos tres elementos constitutivos de nuestro corpus teórico son incompatibles, entonces debemos renunciar a uno de ellos al menos; pero ¿a cuál? ¿Por cuál de nuestros pilares predilectos elegir? ¿La unitariedad?, ¿la equivalencia?, ¿la localidad y los campos?

    La respuesta de Polchinski y sus colaboradores fue tajante: De ninguna manera podemos descartar la unitariedad y lo que hemos aprendido de la cuántica; renunciemos, pues, al principio de equivalencia. Parecía la opción más lógica. Pero esto no se logra sin dolor: Abandonar el principio de equivalencia trae aparejados problemas conceptuales no menores. Por ejemplo, según este principio un observador en caída libre no puede experimentar nada que no sea equivalente a lo que experimenta un observador libre de fuerzas. En particular, un observador cayendo libremente hacia un agujero negro –lo suficientemente grande– no debería sentir nada especial al atravesar la superficie del astro, superficie que recibe el nombre de “horizonte de eventos”. Ahora bien, si AMPS están en lo cierto y el principio de equivalencia deja de ser válido en las inmediaciones de los agujeros negros, entonces uno debe aceptar que un observador en caída libre hacia el astro debería incinerarse al instante de atravesar el horizonte de eventos. A este fenómeno de incineración de la información entrante se lo conoce como “pared de fuego”.

     El argumento preciso para abogar en favor de la pared de fuego involucra nociones de información cuántica, pero puede resumirse de manera sencilla así: Por un lado, los agujeros negros emiten una radiación térmica, tenue pero persistente. La unitariedad de la mecánica cuántica demanda que, para un agujero negro lo suficientemente viejo que haya ya transferido al medio interestelar al menos la mitad de su entropía, el estado cuántico que describe las partículas que componen dicha radiación debe estar entrelazado máximamente con el estado cuántico que describe la materia que le dio origen al astro. Por otro lado, el principio de equivalencia demanda que esa misma materia que formó el astro debe estar también en un estado cuántico máximamente entrelazado con aquel que describe lo que el agujero negro encierra en su interior. Pero en esto hay un serio problema ya la mecánica cuántica prohíbe esta poligamia de entrelazamientos: o bien el entrelazamiento se da con la radiación saliente o bien con la materia en el interior, pero no con ambos. Ergo, el principio de unitariedad y el principio de equivalencia no pueden ser ciertos al mismo tiempo. Alguno debe claudicar. Si el segundo de estos principios es el que deja de valer, entonces algo violento debe experimentar el observador que cruza el horizonte, algo que destruya el entrelazamiento –la información– con aquello que entra al agujero negro.

    Esta observación de AMPS desató un vehemente debate; en especial, entre 2012 y 2013. Ante la disyuntiva de si uno debía renunciar al principio de unitariedad o al principio de equivalencia, los físicos teóricos adoptaron distintas posiciones, la mayoría optando por aferrarse al primero de ellos. La conjetura de ER=EPR de Maldacena y Susskind vino a resolver el dilema y calmar las aguas. En efecto, hoy se yergue como una posible solución. Según ER=EPR, el argumento en favor de la pared de fuego encierra una falacia: En el experimento imaginario con el que se proponía exponer la contradicción entre el principio de unitariedad y el principio de equivalencia aparece la instancia de hacer mediciones sobre la radiación emitida por el agujero negro y cotejar los resultados de esas mediciones con otras llevadas a cabo por los observadores que cruzan la superficie del astro. Maldacena y Susskind aducen que esa medición sobre la radiación emitida por el agujero negro no es inocua sino que afecta lo que un observador que cruza el horizonte vaya a experimentar, de manera análoga a como la medición sobre la partícula A de un par EPR determina los posibles resultados de la medición efectuada sobre la partícula B. Esto puede ser interpretado como si existieran puentes de ER entre un agujero negro y las partículas que componen la radiación que él mismo emite. Así, si un observador lejano al agujero negro decide no realizar medición alguna sobre los quanta que componen la radiación emitida por el agujero negro, entonces un observador que cruzara el horizonte de eventos no sentiría nada especial al hacerlo; pero, si por el contrario el observador distante sí realizara una medición sobre la radiación emitida, entonces al hacerlo estaría enviando información a través de los micro-puentes ER que unen cada partícula de la radiación con el agujero negro que las emitió, y esto podría producir una pared de fuego en el interior del astro que terminaría por fulminar al atrevido viajero que desee entrar en él.

     

    Los agujeros negros como hologramas

    La exposición precisa de la conjetura ER=EPR requiere un conocimiento previo de los trabajos de Maldacena5,6, y en especial del que lo hizo famoso: la correspondencia AdS/CFT, enunciada en 1997. La correspondencia AdS/CFT nos permite estudiar la física de los agujeros negros y de la radiación que éstos emiten en términos de teorías de campos que “viven” en un espacio de una dimensión menor. Es decir, permite pensar a los agujeros negros en nuestro espacio-tiempo 4-dimensional en términos de una teoría 3-dimensional más sencilla, como si no fueran esos astros más que hologramas abstrusos cuya información se almacena en un sustrato de una dimensión menor a la del objeto representado.

    La correspondencia AdS/CFT de Maldacena vino a darle sustancia a una idea que ya había sido planteada, aunque vagamente, por otros físicos teóricos antes que él, físicos entre los que se encuentra el mismo Susskind8. Esta idea paradigmática se conoce como “principio holográfico” y establece que el universo todo, con sus tres dimensiones espaciales y su dimensión temporal, puede ser representado por una teoría más simple con tan solo dos dimensiones espaciales –más el tiempo–. Si esto es cierto, todo lo que existe en nuestro universo, y en particular los agujeros negros que éste contiene, serían imágenes holográficas cuya información reside en un mundo de sólo dos dimensiones espaciales y regido por leyes más simples. El espacio-tiempo sería, así, una noción emergente.

    En el marco de esta idea, Maldacena se planteó en 2001 la siguiente pregunta: Si todo sistema físico, y en especial aquellos que involucran agujeros negros, puede ser pensado holográficamente en términos de una teoría “dual” más sencilla, ¿cuál sería tal descripción dual en el caso de un puente6,7 de Einstein-Rosen?; es decir, ¿qué estado cuántico en la teoría dual le corresponde a lo que en nuestro espacio-tiempo es un par de agujeros negros conectados internamente? Maldacena mostró6 que la respuesta a esa pregunta involucra estados entrelazados, estrechamente relacionados con lo que sería un par EPR. Ese trabajo de Maldacena de 2001 fue el punto de partida de la línea de investigación que hoy culmina con la propuesta ER=EPR.

    No hace muchos años, en colaboración con James Lindesay, el mismo Leonard Susskind publicó un libro de divulgación en el que se trata de explicar principio holográfico en un lenguaje accesible8. Su libro, tituladoUna introducción a los agujeros negros, información y la teoría de cuerdas: El universo holográfico, es recomendable. Evitando tecnicismos, Lindesay y Susskind logran contar la idea general acerca de cómo la física que ocurre cerca de los agujeros negros puede ser representada por sistemas físicos de menor dimensionalidad. El libro, empero, fue publicado nueve años antes que el artículo de Maldacena y Susskind sobre ER=EPR, por lo que esto último no está discutido allí. De todos modos, el artículo original3 sobre ER=EPR, publicado enFortschritte der Physik en 2013, tiene un estilo retórico amigable, abunda en argumentos heurísticos y requiere mínimos conocimientos teóricos previos, por lo que es la referencia aconsejable para aquellos interesados en entender por qué EPR=ER o, como algunos parafrasean jocosamente, por qué P=1.

     

    Referencias

    1 A. Einstein, B. Podolsky & N. Rosen, "Can quantum-mechanical description of physical reality be considered complete?", Phys. Rev. 47(10) (1935).

    2 A. Einstein & N. Rosen, "The particle problem in the general theory of relativity", Phys. Rev. 48(73) (1935).

    3 J. Maldacena & L. Susskind, “Cool horizons for entangled black holes”, Fortsch. Phys. 61 (2013) 781.

    4 A. Almheiri, D. Marolf, J. Polchinski & J. Sully, “Black holes: complementarity of firewalls?”, JHEP 1302 (2013) 062.

    5 J. Maldacena, “The Large N limit of superconformal field theories and supergravity”, Int. J. Theor. Phys. 38 (1999) 1113, Adv. Theor. Math. Phys. 2 (1998) 231.

    6 J. Maldacena, “Eternal black holes in anti-de Sitter”, JHEP 0304 (2003) 021.

    7 J. Maldacena & L. Maoz, “Wormholes in AdS”, JHEP 0402 (2004) 053.

    8 L. Susskind, “The world as a hologram”, J. Math. Phys. 38 (1995) 6377.

    9 L. Susskind & J. Lindesay, “An introduction to black holes, information and the string theory revolution: The Holographic Universe”, World Scientific Publishing (2005).

    Gaston Giribet es investigador del Centro de Cosmología y Física de Partículas de New York University, Profesor del Departamento de Física FCEyN-UBA, Investigador Principal IFIBA-CONICET. 

  • Juan Martín Maldacena ha sido premiado con la Medalla Lorentz, de La Real Academia de las Artes y Ciencias de los Países Bajos. El galardón es por las innovaciones que hizo en las últimas dos décadas a la física teórica. "No lo esperaba", dice pero asegura que este reconocimiento es además para todos sus colegas que trabajan en esta área de la física.

    Maldacena fue estudiante del Departamento de Física de Exactas UBA antes de su paso por el Instituto Balseiro y de su carrera en el exterior del país. La famosa conjetura que postuló a fines de 1997 posee récord de citas en la literatura científica internacional. En este último tiempo, el físico estuvo trabajando “en el entendimiento de la relación entre los agujeros de gusano en el espacio tiempo y el entrelazamiento cuántico. También, en la teleportación cuántica y la transferencia de información a través de estos agujeros de gusano".

    Ante la pregunta de cuáles son las cuestiones abiertas, especialmente en teoría de cuerdas, el físico afirma que el interrogante más importante es “si uno se puede describir el comienzo del universo de forma completa y consistente”. Y además, agrega: "nos preguntamos cómo describir el interior de los agujeros negros y la evolución del exterior en forma cuántica, con la misma teoría”. Del mismo modo, “los experimentos que podemos realizar para comprobar la teoría de cuerdas".

    Por otro lado, Maldacena describe los aportes del recientemente fallecido, Stephen Hawking, a la física teórica y a su área de investigación científica: "su contribución fue haber descubierto que los agujeros negros tienen una temperatura y una entropía; también se dio cuenta que este hecho provocaba un problema de consistencia entre la mecánica cuántica y la gravedad". Estas ideas han llevado a muchos desarrollos teóricos importantes, afirma el físico. Por último, rescata que "Hawking tuvo ideas interesantes sobre el origen del universo". Las suyas propias para develar este mismo misterio fueron reconocidas internacionalmente anoche con el galardón.

  • El profesor del DF comparte uno de los resultados recientes más importantes en el proyecto ATLAS de La Organización Europea para la Investigación Nuclear (CERN).

    La Colaboración ATLAS del LHC observó la primera evidencia directa de scattering de dos fotones a altas energías. Esta evidencia confirma una de las predicciones más antiguas, pero no observadas hasta el momento, de la electrodinámica cuántica (QED). La interacción de la luz consigo misma es un fenómeno imposible para una teoría clásica y este resultado provee una prueba sensible de nuestro entendimiento de QED.

    Atlas CernDurante décadas la evidencia de este proceso ha sido elusiva hasta que comenzó la segunda etapa de datos del LHC en 2015. Colisiones de iones pesados a altas energías en el LHC proveen un ambiente único para este tipo de estudios. Cuando iones acelerados a altas energías se encuentran en el centro del detector ATLAS, solo unos pocos colisionan y los fotones que emiten rodean pueden interactuar y dispersarse entre sí. Estas interacciones se conocen como "ultra-periféricas".

    Encontrar esta evidencia requirió el desarrollo de un nuevo tipo de selección de eventos. El estado final, dos fotones altamente energéticos en un detector "vacío" representa el caso diametralmente opuesto al de la topología típica de una colisión de núcleos de plomo a altas energías. El éxito de afrontar este desafío demuestra la flexibilidad del sistema de adquisición de ATLAS.

    De los 4 billones de eventos colectados en 2015, ATLAS encontró 13 candidatos de dispersión entre fotones de los cuales 3 son el fondo esperado. El resultado tiene una significancia de 4.4 desviaciones estándar que permiten reportar la primera evidencia directa de este fenómeno.

    Los invito a leer el paper: "Evidence for light-by-light scattering in heavy-ion collisions with the ATLAS detector at the LHC", The ATLAS Collaboration, Nature Physics 13, 852–858 (2017).

    https://www.nature.com/nphys/journal/v13/n9/full/nphys4208.html

    Gustavo Otero Y Garzón es profesor del Departamento de Física de Exactas UBA, Investigador Independiente de CONICET en IFIBA-UBA, Especialista en física de partículas a altas energías y en partículas elementales.

  • Dos publicaciones recientes del Laboratorio de sistemas dinámicos de IFIBA-UBA tuvieron repercusiones internacionales dentro y fuera del ámbito académico. No es para menos, todos queremos saber sobre los sueños de los pájaros, entender cómo experimentan su canto mientras duermen y si influye en su aprendizaje.

    Gabriel Mindlin, director del laboratorio y profesor del Departamento de Física cuenta las novedades de una línea de investigación que sigue junto a Alan Bush y Juan Doppler: “En la publicación en la revista PeerJ reportamos actividad espontánea en los músculos vocales de las aves durante el sueño. En ese caso, la característica fundamental fue la variabilidad encontrada, ya que no solo aparecían los gestos motores empleados durante el canto, sino otros que durante el día no se ejecutaban”.

    Los investigadores afirman que esta variabilidad sustancial no es consistente con la actividad nocturna que tienen los pájaros en términos de la consolidación de sus experiencias diurnas; y, reconocen que aunque se desconoce la función de esta activación frecuente en las noches, “puede representar un mecanismo para explorar el espacio motor o servir para generar señales internas de error que ayudan a mantener la alta estereotipia de la canción durante el día”. Los diamantes mandarines son una especie de ave que aprende un canto y lo repite casi idénticamente durante toda su vida.

    En el otro trabajo relevante, difundido a través del sitio bioRxivel, Mindlin y su equipo describen y analizan un experimento, también con diamantes mandarines: “mientras el animal dormía reproducimos grabaciones de su canto diurno y pudimos observar que, en ese caso, se perdía la variabilidad. Es decir,  se inducían los mismos gestos motores empleados durante el día para cantar; afirmamos que lo que medimos en el músculo es un correlato de lo que sucede a nivel neuronal”.

    “El ave no enciende la respuesta inmediatamente cuando escucha el estímulo, sino que responde con cierta probabilidad, a veces sí y otras no,  en momentos específicos del canto. Son instancias que llamamos interruptores. Empleamos como estímulo versiones sintéticas del canto -sílabas- y vimos que estas versiones breves fueron menos exitosas para provocar respuesta neuronal. Sin embargo, cuando obtuvimos una respuesta resultó idéntica a la provocada por su canto verdadero no sintetizado”, dice Mindlin.

    La hipótesis del grupo es que las señales neuronales y los movimientos musculares podrían ser parte de un proceso de aprendizaje. “Creemos que el sueño juega un rol fundamental en las especies que aprenden. Por eso nosotros estamos trabajando en paralelo con otras que no aprenden, así podremos comparar y conocer qué sueña un cerebro que no necesita aprender”, concluye el físico.

  • - Comunicación DF -

    En el extremo del segundo piso del pabellón uno, al final de un pasillo muy silencioso, está “Siberia”, un grupo de oficinas que habitan los investigadores Ricardo Piegaia y Gustavo Otero Y Garzón. Desde ese rincón en el sur del mundo están conectados al Gran Colisionador de Hadrones (LHC según sus siglas en francés e inglés), el acelerador de partículas más potente del mundo.

    Los investigadores desarrollan sus actividades dentro de un consorcio internacional, el laboratorio que recrea las condiciones imperantes luego del Big Bang: el CERN. El Centro Europeo de Investigaciones Nucleares es el único responsable en hacer funcionar el acelerador y las universidades deben construir los detectores de partículas, operarlos, analizar los datos y publicar la física que se produce. Argentina es uno de los 37 países que integran el proyecto a través de la UBA y la Universidad de la Plata.

    “Ninguna universidad puede tener un colisionador propio en el sótano o en el techo, aunque hubo una época en que los proyectos fueron nacionales, ahora no podrían concebirse de ese modo, nadie puede hacerlo solo. El laboratorio y la gran máquina exceden las fronteras, por ejemplo, los 27 kilómetros que suma el túnel donde circulan las partículas atraviesa Suiza y Francia. Es el más grande del mundo, aunque hay otros colisionadores, para partículas y energías diferentes”, dice Piegaia, el científico cuyo trabajo en el Observatorio Pierre Auger fue considerado por la revista Physics World como uno de los diez grandes avances en Física de 2017.

    Miles de investigadores de todo el mundo trabajan conectados a la gran red del CERN, aunque los físicos argentinos reconocen que cuando pueden pasar tiempo en las instalaciones del laboratorio en Ginebra logran avances significativos: “Como parte del consorcio tenemos tareas asignadas que debemos cumplir y llevar a cabo; cada grupo, en función del número de miembros que posee le corresponde un tipo de actividades. Por eso, tener la posibilidad de interactuar con quienes trabajamos todos los días, o con el experto que te ayuda a resolver problemas, es una gran ventaja; a veces, sin esa cercanía se hace más difícil. Además, Ginebra es la ciudad más cara de Europa, por lo que la logística es complicada, pero la idea es poder pasar allá el mayor tiempo posible. Nuestros estudiantes de doctorado van como máximo una vez por año para estadías de hasta dos meses, siempre y cuando los recursos lo permitan”.

    Dame precisión te daré partículas

    “El colisionador es una fábrica de partículas, la mejor que hay en este momento. Y, lo logra haciendo desaparecer energía para fabricar masa, a la inversa de un reactor nuclear”, ejemplifica Piegaia y aclara que entre las partículas que aparezcan, esperamos que no sean solo las previstas por el Modelo Estándar, que ya fueron encontradas, sino también aquellas que correspondan a nueva física. “Sin embargo, también buscamos precisión, tratamos de entender la estructura de la materia a distancias cada vez más pequeñas haciendo chocar partículas a mayor energía”.

    Para poder experimentar de manera controlada con altas energías se diseñaron aceleradores, un tipo especial es el ciclotrón -o circular- donde haces de partículas se mueven por la fuerza electromagnética que ejercen los imanes. El primero fue inventado en 1930 por Ernest Lawrence con un costo de 25 dólares; el último y más colosal es el LHC y costó alrededor de diez mil millones de dólares. Es una megamáquina que provee de colisiones de protones a los cuatro detectores situados alrededor del anillo: ALICE, LHCb, CMS y ATLAS. Todos ellos funcionan de un modo similar, aunque sus tecnologías diferentes permiten favorecer algunas medidas concretas sobre otras y, así, lograr evidencias independientes de cualquier nuevo descubrimiento.

    “Cada experimento tiene un propósito predominante, por ejemplo, ALICE (A Large Ion Collider Experiment) busca el estado de la materia que se cree existió en las primeras fracciones de segundo después del Big Bang; se investiga cómo reproducir ese estado original que ya no existe. Por otro lado, LHCb (Large Hadron Collider beauty experiment, donde "beauty" se refiere al quark bottom), se especializa en violación de simetría CP en las desintegraciones de hadrones que contengan dicho quark o la medida de precisión de las fracciones de desintegración -branching ratios-  de algunos procesos extremadamente infrecuentes. Y, tanto ATLAS (A Toroidal LHC Apparatus) como CMS (Compact Muon Solenoid) fueron hechos para explorar un rango de energías más alto, podríamos decir que son dos experimentos que compiten entre sí”, dice Otero.

    Gran parte del trabajo de los investigadores y de los doctorandos se engloba en la medición de precisión, son capaces de explorar entre decenas de decimales en busca de diferencias que pueden parecer sutiles pero no lo son. “En el área de Higgs -ejemplifica Otero- los resultados obtenidos experimentalmente y los predichos por el modelo estándar tienen a veces diferencias por una cuestión estadística y, en el caso de ciertos observables, una medicion de precision se lograría solo si acumulamos datos durante una década más”.

    El detector ATLAS contiene cien millones de canales independientes, cada uno de ellos detecta información de 40 millones de colisiones por segundo, todos los días del año. Los programas que desarrollan para la toma de datos seleccionan automáticamente mil de esos choques por segundo -a través de complejos algoritmos- y el resto de la información se pierde para siempre. “Los eventos que resultaron ser interesantes se guardan en discos rígidos para el análisis detallado, otros programas analizan los datos guardados. Creo que el 95 por ciento del trabajo de un físico experimental de altas energías es desarrollar programas; ese es uno de los grandes desafíos que tenemos,  la masividad de datos genera varios problemas”.

    “El Modelo Estándar predice, por ejemplo, que en un choque protón-protón se puede producir un quark para un lado y un fotón en una dirección diferente, con una cierta frecuencia. Una desviación respecto a esta predicción sería evidencia de la existencia de una partícula X, hasta ahora desconocida. En ese sentido, una de las últimas publicaciones fue la búsqueda de un exceso de quarks+fotones pero obtuvimos resultados negativos, o sea no encontramos evidencia de nueva física. Analizando en detalle los modelos teóricos pudimos afirmar entonces que si existiese X, su masa debería ser superior a una cierta cota MX. Si su masa fuera menor, ¡la hubiésemos observado! Es decir, aunque la búsqueda no tuvo éxito el resultado es preciso y cuantitativo, de ahí la importancia en el desarrollo de técnicas estadísticas refinadas que permitan analizar mejor los datos y correr los límites”, explica Piegaia.

    Otero Y Garzón comenta que sus investigaciones abarcan áreas de nueva física y tecnología específica de los detectores: “en este momento trabajamos en procesos de choque de dos quarks que producirían una partícula mediadora de materia oscura; esto se vería como un exceso de la predicción del Modelo Estándar en eventos con tres jets. Por otro lado, publicamos estudios inherentes al detector, son papers muy técnicos del conjunto de subdetectores, como el calorímetro y su calibración entre una señal y lo que la originó, no es un trabajo trivial, requiere de mucho tiempo. Por ejemplo, DZero es un experimento del Laboratorio Fermilab, la calibración de su calorímetro tardó casi una década en transformarse en una publicación de 150 páginas. Hoy en día, uno de los estudiantes del equipo es editor responsable de la calibración del calorímetro con datos de los últimos tres años”.

    Ante la pregunta de cuándo un hecho es considerado interesante, los físicos ejemplifican con la especialidad del grupo de Buenos Aires: la producción de jets, la señal experimental de quarks y gluones (las partículas intermediarias de la fuerza fuerte, así como los fotones intermediarían el electromagnetismo). Eventos con solo dos jets son muy comunes y solo se guardan unos pocos, salvo que se trate de jets de las más altas energías. Eventos con producción de tres o cuatro jets son más interesantes y se guarda una fracción mayor, mientras que aquellos con más de cuatro jets son muy esporádicos y se guardan en su mayoría pues pueden corresponder a la producción de partículas supersimétricas. En el otro extremo, los eventos monojets resultan los más interesantes, ya que puede tratarse de un fenómeno con materia oscura. Siendo menos entusiastas, reconocen que puede tratarse de neutrinos, pero es necesario guardarlos de todas maneras para investigarlos en detalle.

    “Los detectores funcionan en un régimen que cambia día a día, por lo que las condiciones en que se hicieron hace una década ya no son óptimas, además de la degradación de uso, tienen una vida útil. Para 2024 va a haber un cambio severo en las condiciones de funcionamiento del acelerador que requiere que los detectores se amolden. Entonces hace varios años ya que estamos trabajando en el upgrade de ATLAS. La tecnología va hacia el gigantismo, pero también hay mucho dinero invertido en el desarrollo de tecnologías más eficientes que gigantes”, concluye Piegaia.

     

    Los jets son la manifestación experimental de los quarks y los gluones. Midiendo la dirección y la energía del jet, se conoce la energía del quark o el gluón que lo produjo.

  • Entrevista imperdible al profesor del DF Gabriel Mindlin sobre la biofísica de la fonación y mucho más acerca de la física y los pájaros

    https://www.pagina12.com.ar/89657-la-fisica-y-los-pajaros

  • - Comunicación -

    En una colaboración teórico-experimental, Guillermo F. Quinteiro experto en temas de materia condensada junto a Christian Schmiegelow, físico experimental del Laboratorio de iones y átomos fríos; y al investigador alemán Ferdinand Schmidt-Kaler recibieron un Editors´ Suggestion en la revistaPhysical Review Letters. La publicación resalta el rol determinante que tienen los campos longitudinales en la interacción entre vórtices ópticos y un ion.

    “Compartimos el interés en óptica singular, que es el estudio de la luz con estructura espacial, es decir, haces espacialmente complejos. A partir de una investigación muy relevante que ellos hicieron en Alemania, y desde áreas diferentes pudimos entender juntos todos los resultados que habían obtenido. Cuando Christian regresó a Argentina al finalizar su postdoctorado, pudimos darle una respuesta completa al experimento”, explica Quinteiro.

    Un ion “atrapado” en el laboratorio, al que iluminaron con luz estructurada y mediante el cual pudieron mostrar cómo los estados electrónicos cambiaban gracias a la interacción con los fotones, dieron origen a la colaboración. Esa interacción entre luz y materia producía cambios electrónicos inesperados en el ion que pudieron explicarse de manera cuantitativa recientemente.

    Por otro lado, Quinteiro considera que la publicación implica revisar algunos conceptos que se dan en todas las aulas: “Comúnmente, en la carrera de física nos enseñan que la luz se propaga en el espacio en una dirección dada. Y que sus campos eléctricos y magnéticos son vectores que se consideran perpendiculares a esa dirección de propagación. Esta pintura es una aproximación que se llama "paraxial", suele explicar muy bien numerosos fenómenos en óptica. Sin embargo, nosotros pudimos demostrar que esta aproximación tiene sus limitaciones para describir la interacción de la luz con un ion”.

    Si graficamos la luz, por ejemplo, como si fuera una sábana estirada que se mueve como un frente homogéneo lo hacemos en términos de una onda plana. Pero la luz tiene estructura espacial, no es homogénea en ese plano aunque siga una dirección de propagación, una línea preferencial: “El vórtice óptico tiene lo que se llama la singularidad sobre el eje, una línea donde no pueden definirse algunas propiedades. Este tipo de luz estructurada es espacialmente inhomogénea y tiene una singularidad de fase que está relacionada con el momento angular orbital y con la torsión de la luz”.

    Los vórtices ópticos tienen un momento angular orbital, es decir, poseen un valor expresado en un número entero que puede controlarse y eso es potencialmente importante en aplicaciones como tecnologías de información cuántica, nanofotónica y espintrónica. En este sentido, “así como los campos magnéticos pueden ser muy intensos, los campos longitudinales son especialmente importantes en óptica singular y es importante prestarles atención, porque van a jugar un papel relevante en muchas de las aplicaciones donde se utilice luz estructurada y materia”, concluye el investigador.

    Guillermo F. Quinteiro formó, junto a otros investigadores, un nuevo grupo de estudio sobre el tema e invita a sus colegas y a estudiantes de doctorado interesados a sumarse a las reuniones del grupo de óptica singular.

    Twisted-Light–Ion Interaction: The Role of Longitudinal Fields

    DOI:https://doi.org/10.1103/PhysRevLett.119.253203

     

  • - Comunicación -

    En un coloquio extraordinario del DF, el físico Alberto Rojo contó la investigación detrás de su nuevo libro,El principio de mínima acción. Historia y física.El trabajo fue escrito junto con el matemático Anthony Bloch durante varios años y saldrá al mercado el próximo enero. “Es un libro de divulgación para pares, con pornografía matemática explícita”, bromea.

     

    Rojo se doctoró en el Instituto Balseiro, además es es escritor, popularizador de las ciencias y músico:  “Es un tributo a mi viejo que era filósofo y le gustaba leer sobre física. Él tenía en su biblioteca el libroPrincipia de Newton,  yo una vez quise leerlo pero mi padre me dijo que no se entendía, que tenía una geometría muy fea. Eso quedó en mí como un desafío, por lo que me di el gusto de escribir un capítulo sobre elPincipia, una especie de visita guiada sobre cómo Newton deduce que las órbitas son elípticas y a partir de eso cómo la fuerza va como la inversa del cuadrado de la distancia”.

    Después de reeditar tres vecesBorges y la física cuántica,el autor cuenta cómo fue esta nueva experiencia editorial compartida con Blosch. El disparador parece ser la famosa frase de Aristóteles,  la naturaleza no hace nada en vano.“A la largo de la historia de la física muchos asemejan esta idea con la de que la naturaleza optimiza, sus caminos, relata Rojo y confiesa: “yo traté, casi en vano, de descifrar en qué momento ocurre el salto entre la idea en los Tratados griegos hacia la idea del mínimo, pero no está muy claro cuándo sucede”.

    Durante una hora y media Alberto Rojo relató cómo buscó las fuentes bibliográficas, los escritos, las cartas y lospapers sobre la mínima acción. En el libro las historias se van sucediendo unas a otras, desde la Antigüedad hasta el surgimiento de la mecánica cuántica. Así, en lo que él llama la prehistoria del asunto -matemáticamente hablando- está la leyenda de la reina Dido en La Eneida. Esta mujer que funda Cartago debe ocupar la mayor área posible, señalando el límite de su territorio con tiras de cuero taurino. Lo hace marcando un perímetro fijo en forma de círculo.

    “Muchas de las ideas sobre el principio de mínima acción son desarrolladas antes del cálculo diferencial, como las demostraciones de Zenodoro al discretizar figuras geométricas; o cuando Herón de Alejandría quiere conocer cuál es el camino que sigue un rayo de luz al reflejarse en un espejo; así como Galileo Galilei en 1638 cuando discute la caída de los cuerpos por un plano inclinado con un experimento musical y teóricamente se apoya en la simplicidad para explicar la aceleración uniforme”, enumera el físico.

    Según los autores esta historia tiene un personaje central y ese es Pierre Louis Maupertuis: “aunque nadie conozca muy bien de dónde sacó sus ideas respecto de la mínima acción” -aclara Rojo- el francés afirmó quela naturaleza en la producción de sus efectos lo hace siempre por los medios más simples. “Cuando uno lee a Schrödinger o a de Broglie advierte que se apoyan mucho en Maupertuis, citan el principio de mínima acción, la analogía óptico-mecánica, el isomorfismo entre las trayectorias, es decir, que es una idea que estaba muy viva para ellos”, ilustra.

    Por último, el libro llega al siglo XX:  “Richard Feynman generaliza la idea de mínima acción en términos de caminos, se puede interpretar que en física cuántica una partícula sigue todos los caminos posibles para ir de un punto a otro”, sintetiza Rojo.

    Enlace al video de la charla

DF es docencia, investigación y popularización de la ciencia.