• *Por Carlos Acha - Departamento de Física, UBA & IFIBA-CONICET

    En un trabajo que acaba de ser publicado por la revista Nature [Snider, E. et al. Nature 586, 373–377 (2020)], Ranga Dias y colaboradores lograron materializar un sueño largamente buscado: ¡obtuvieron superconductividad a temperatura ambiente! Necesitaron aplicar presiones de 267 GPa (más de 2 millones de atmósferas) sobre un compuesto a base de Azufre, Carbono e Hidrógeno para lograr observar una transición superconductora resistiva a 15 °C. También vieron que esta transición no cambia al variar la corriente aplicada (descartando así que se tratara de una fase minoritaria) y que se corre a menores temperaturas al aplicar un campo magnético intenso. Adicionalmente lograron medir un apantallamiento magnético por susceptibilidad alterna. Este conjunto de pruebas, reproducidas para varias docenas de muestras, hace pensar que no se trata de un error y que efectivamente los investigadores lograron que el material alcance un estado superconductor, sin que sea uno de los artificios que pudiera aportar, por ejemplo, una transición de fase inducida por presión, dando a lugar a un cambio abrupto en la conducción eléctrica, sin que en realidad haya de por medio una transición superconductora asociada. 

    Por ahora los investigadores desconocen la estequiometría y estructura cristalina del compuesto que sintetizaron fotoquímicamente entre los dos yunques de diamante que emplearon para aplicar estas increíbles presiones al material. Allí mezclaron H2 con S y C, aplicaron una presión de 4 GPa e iluminaron con un láser de 532 nm durante varias horas. A esta presión la longitud de onda de la luz incidente rompe las uniones del S y permite que forme otras estructuras, reaccionando con el H2 para formar H3S. Ajustando la iluminación del láser y la presión aplicada observaron la formación de un cristal homogéneo y  transparente en el que, mediante espectroscopía Raman, verificaron la no existencia de restos de S o de C sin reaccionar. También confirmaron que el material formado es inestable a presiones menores a los 10 GPa y que transiciona a una fase metálica a partir de los 60 GPa.

    Este logro, tan buscado desde el descubrimiento de la superconductividad, se obtuvo tras una serie de investigaciones, iniciadas hace menos de 10 años en hidruros con alto contenido de H2, con la idea de que la superconductividad podría desarrollarse a temperaturas no tan bajas como las requeridas usualmente. Esto sería posible gracias al fuerte acoplamiento entre los electrones y las vibraciones de la red que se puede obtener en el H2 bajo presión. Este trabajo muestra que el estado superconductor puede observarse a temperaturas tan altas como temperatura ambiente y no resulta obvio predecir cuál será la máxima temperatura para la que se observe superconductividad bajo estas condiciones extremas.    

    Un poco de historia

    A principios del siglo pasado (1911), Kamerlingh Onnes y colaboradores se preguntaban cómo sería la conductividad eléctrica de un metal a bajas temperaturas: ellos se imaginaban que los electrones, en buena parte responsables de la conducción eléctrica, se comportarían como un gas, condensándose a temperaturas suficientemente bajas. Así, los portadores de carga perderían movilidad, y el metal se convertiría en un mal conductor, un aislante. Estas ideas, junto con la conjunción tecnológica de su capacidad de licuar Helio y la de poder contar con recipientes para almacenarlo durante un tiempo razonable, -gracias a los termos inventados por el señor Dewar-, les permitieron realizar el experimento.

    Tremenda habrá sido su sorpresa al descubrir que el mercurio, por debajo de una temperatura llamada “crítica” (Tc), cercana a los 4 K (-269 °C), tenía un comportamiento totalmente opuesto al esperado: se convertía en un conductor perfecto, es decir ¡su resistencia eléctrica se hacía literalmente cero! Esto resultó ser el descubrimiento de un nuevo estado electrónico de la materia, que en ese momento llamaron “superconductividad”. Desde entonces, el estudio de los materiales superconductores y de sus propiedades ha sido un campo de mucho interés científico y tecnológico.

    Con el devenir de los años se develaron muchas propiedades adicionales de los superconductores: 30 años luego del descubrimiento de Onnes, se supo que la superconductividad era más que la conducción perfecta, ya que para que un material pertenezca al “club” también tiene que ser un diamagneto perfecto, al menos bajo ciertas condiciones[i]. Esto quiere decir que al someterlo a un campo magnético el superconductor dispone, con cierta gratuidad, de corrientes eléctricas para apantallar el campo magnético y hacerlo nulo en su interior (B=0, el llamado efecto Meissner).  Se habló entonces de superconductores de tipo I y II, siendo los primeros los que frente a un campo magnético creciente mantienen heroicamente B=0, hasta un valor crítico en el que dejan de ser superconductores, y los segundos aquellos que dejan entrar cuantos de flujo magnético (vórtices) conformando una red y manteniéndose en un estado superconductor mixto con propiedades muy interesantes. Y así se fue entendiendo cada vez más de los superconductores, tanto mediante el uso de descripciones macroscópicas de la transición de fase al estado superconductor (teoría de Ginzburg-Landau) como gracias al desarrollo de una teoría microscópica que describe la aparición del estado superconductor gracias a la existencia de una interacción atractiva entre los electrones (teoría BCS[ii]). Se descubrieron propiedades muy llamativas como las que se observan en interfaces entre superconductores y aislantes (efecto Josephson), o entre superconductores y metales normales (efecto de proximidad), entre otras muchas cuestiones que no vamos a describir aquí.

    Una de las aplicaciones de los superconductores que generó mucho interés, ya desde los primeros años de su descubrimiento, fue la de aprovechar su resistencia nula para transportar grandes corrientes eléctricas. En efecto, los metales normales tienen el mal hábito de perder energía como calor cuando circula a través de ellos una corriente (efecto Joule). Por ello, los superconductores serían ideales para su uso en cables de alta tensión o en bobinas, tanto de motores como de solenoides para la generación de grandes campos magnéticos. De hecho, esta es la aplicación industrial más frecuente de los superconductores: la producción de campos magnéticos altos y tremendamente estables que encontramos en los equipos médicos de imágenes por RMN. También existen trenes de alta velocidad levitados e impulsados gracias al uso de bobinados superconductores. El problema es que para que el superconductor funcione como tal, es necesario enfriarlo por debajo de su Tc. Si alcanzar estas temperaturas requiere por ejemplo del uso de Helio líquido, esto impone costos altos y serias limitaciones para el uso masivo que quisiéramos darles. Es por eso que los trenes levitados (Maglevs) son una rareza muy costosa que sólo puede verse en contados lugares.

    Desde los inicios de la superconductividad, los investigadores se han desvelado por encontrar materiales cuya Tc sea lo más alta posible. Sin embargo, la teoría BCS indicaba que no sería posible tener superconductores con una temperatura crítica mayor a 30 K, ya que la interacción atractiva entre electrones requerida por la teoría, por su origen ligado a las vibraciones de la red de iones, se vería disminuida completamente al aumentar la temperatura por arriba de ese límite. Dentro de los intentos por favorecer todos los parámetros que según la teoría BCS darían lugar a la mayor Tc posible, en 1986 los investigadores Bednorz y Muller[iii] se toparon con un importante hallazgo: un superconductor de más de 30 K, que les valdría el premio Nobel por la gran revolución que desencadenó. De esta manera, los cupratos con estructura de perovskita dieron lugar a una nueva familia de superconductores que no respondía a la teoría BCS. Se los llamó superconductores de alta temperatura crítica.     

    Durante toda la década de los 90’s este tema acaparó a la mayor parte de la comunidad de materia condensada, que se orientó a entender esta nueva superconductividad y a generar nuevos materiales que rompieran el récord de la mayor Tc. Experimentos de altas presiones realizados por Paul Chu de la Universidad de Houston mostraron que al comprimir al superconductor estudiado por Bednorz y Muller (LaBaCuO) la Tc aumentaba sensiblemente. Se buscó entonces comprimir la estructura con reemplazos químicos, generando el mismo efecto que con la presión externa. Así, reemplazando el La por un átomo de menor radio (Y), Chu y colaboradores[iv] lograron sintetizar el primer superconductor (YBaCu3O7, Tc=90 K) que “sólo” requería ser enfriado mediante nitrógeno líquido (-196 °C) para ser superconductor. De este modo, con el descubrimiento de nuevos materiales superconductores basados en cupratos, en un período de 5 años, la Tc aumentó más de lo que lo había hecho en cerca de 90 años de investigaciones. El sueño de lograr tener superconductividad a temperatura ambiente tenía resultados alentadores (Tc=138 K para un cuprato basado en Hg – 166 K para un compuesto similar a presiones de 23 GPa, es decir a 230.000 atmósferas*[v]), cuya concreción se haría aún esquiva por un tiempo.

    Primera transición superconductora por encima de la temperatura de ebullición del nitrógeno líquido obtenida en compuesto YBa2Cu3O7. Se observa también los efectos del campo magnético aplicado. (fuente: https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.58.908).

    Por otra parte, en 1968 Neil Ashcroft indicó que el hidrógeno, bajo altísimas presiones (¡más de 4 millones de atmósferas!), podría llegar a ser superconductor a temperatura ambiente, debido al fuerte acoplamiento entre sus electrones y las vibraciones de la red, que es uno de los ingredientes necesarios que indica la teoría BCS para lograr altas temperaturas críticas. Se empezó a pensar en la estrategia de pre-comprimir al hidrógeno mediante reemplazos químicos de manera de reducir las presiones necesarias para lograr la tan buscada meta. A partir de 2004 muchos trabajos teóricos indicaron cuáles compuestos serían posibles candidatos a mantener su estructura estable a tan altas presiones y lograr el estado superconductor a muy alta Tc. Así, algunos grupos que desarrollaron la capacidad de realizar experimentos de conducción eléctrica bajo presiones mayores a los 100 GPa, al comprimir muestras entre yunques de diamante de secciones milimétricas, se concentraron en estudiar la posible superconductividad de compuestos ricos en hidrógeno (H3S, CaH6, LaH10, entre muchos otros) bajo presión.  En 2016 Drozdov y colaboradores[vi] lograron medir una Tc que superó la barrera de los 200 K aplicando 200 GPa en H3S, y la existencia de un campo crítico. También mostraron la existencia de efecto isotópico, que es una de las huellas digitales de la superconductividad que responde a la teoría BCS. La Tc bajo altísimas presiones fue incrementándose así al estudiar distintos compuestos ricos en hidrógeno, trepando hasta cerca de los -20 °C.

    Evolución de la Tc superconductora a través de los años (fuente: https://www.chemistryworld.com).

    Finalmente, tras realizar una síntesis fotoquímica in situ (en el espacio entre dos yunques de diamante) de una mezcla de metano con los precursores de H3S, Ranga Dias y colaboradores de la Universidad de Rochester[vii] lograron la tan ansiada meta: observar superconductividad a 15 °C.   Dieron pruebas contundentes de ello ya que observaron tanto la transición resistiva y su sensibilidad al campo magnético aplicado como el apantallamiento magnético esperado.  Es cierto que tuvieron que aplicar presiones de 267 GPa y que por ahora desconocen la composición química y la estructura del compuesto sintetizado, aunque realizaron estudios espectroscópicos (Raman) que les confirmaron que, al producirse la síntesis del material, los elementos C-H-S se incorporaron efectivamente en una estructura cristalina que alcanza un estado metálico sin descomponerse.

    1. a) Transición superconductora a distintas presiones aplicadas. b) detalle del montaje realizado en la celda de alta presión. c) evolución de la Tc con la presión donde se observa el récord obtenido (fuente: https://www.nature.com/articles/s41586-020-2801-z). 

    Lograr superconductividad a temperatura ambiente bajo muy altas presiones no permite realizar ninguna de las aplicaciones prácticas para las que se soñó esta superconductividad. Sin embargo, además del interés científico que implica su descubrimiento en cuanto a ciencia básica, es la prueba concreta de que el estado superconductor de un material puede lograrse a temperaturas tan altas como la temperatura ambiente. Será entonces un desafío para la ciencia de materiales lograr encontrar la manera de sintetizar algún material que recree las condiciones logradas en los compuestos ricos en hidrógeno bajo los yunques de diamante. Lo que se creía imposible se ha logrado. Hay entonces renovadas esperanzas para imaginar que en algún tiempo podremos contar con materiales superconductores que, sin aplicarles presión, nos permitan sacar un gran partido de sus sorprendentes propiedades. 

    [i] Meissner, W.; Ochsenfeld, R. (1933), Naturwissenschaften. 21 (44): 787–788.

    [ii] Bardeen, J.; Cooper, L. N.; Schrieffer, J. R. (1957), Physical Review. 106 (1): 162–164. 

    [iii] Bednorz, J. G. and Müller, K. A. (1986), Z. Phys. B 64, 189.

    [iv] M. K. Wu, J. R. Ashburn, C. J. Torng, P. H. Hor, R. L. Meng, L. Gao, Z. J. Huang, Y. Q. Wang, and C. W. Chu

    Phys. Rev. Lett. 58, 908.

    [v] Durante casi 10 años este récord de Tc estuvo asociado a una investigación realizada en colaboración entre el LBT del DF y el CNRS de Grenoble: Monteverde, M.; Acha, C.; Núñez-Regueiro, M.; Pavlov, D.A.; Lokshin, K.A.; Putilin, S.N.; Antipov, E.V."High-pressure effects in fluorinated HgBa2Ca2Cu 3O8+δ" (2005) Europhysics Letters. 72(3):458-464

    [vi] A.P. Drozdov, M.I. Eremets, I.A. Troyan, V. V. Ksenofontov, and S. I. Shylin. Conventional superconductivity at 203 K at high pressures. Nature, 525(73), 2015.

    [vii] Snider, E. et al. Nature 586, 373–377 (2020).

  • * Por César Bertucci

    Astrónomo, Dr. en física espacial, investigador y profesor.

    La publicación científica que conocimos ayer es sumamente importante: se detectó de manera clara la presencia de un gas, la fosfina o fosfano (PH3) que en la Tierra está asociado a procesos biológicos. En Venus, sin embargo, podría tener otro origen, uno que no esté contemplado en los modelos químicos de la atmósfera que se utilizan. El paper no habla de “vida en Venus”.



    Los investigadores realizaron la detección utilizando dos telescopios: JCMT en Hawái & ALMA en Chile. Estos instrumentos operan en las regiones submilimétricas del espectro y detectaron presencia de PH3 en ese rango. La señal es clara, distinguible, pudieron incluso determinar la cantidad de gas presente en distintas latitudes y observaron mayores cantidades en las cercanías del Ecuador y una disminución hacia los polos.

    El fosfano se ubicaría en capas poco exploradas de nubes a aproximadamente 50 km de la superficie que están a temperaturas templadas (del orden de las decenas de grados centígrados) y con presión atmosférica del orden de 1 bar, aunque es un ambiente hiper-ácido. La cantidad de PH3 detectada es significativa, pero muy superior a la que puede proveer un volcán Venusino, por ejemplo. Otras fuentes abióticas pueden incluir el efecto de la superficie, el subsuelo, rayos, o meteoritos. Sin embargo, no hay en el presente ningún mecanismo químico conocido capaz de explicar la concentración observada. De manera especulativa, el trabajo menciona que otra posible fuente, por analogía con la Tierra, podría ser la biológica.

    Serán necesarias nuevas mediciones para mejorar los modelos de química atmosférica e identificar las fuentes potenciales de ese gas, así como otros estudios espectrales de PH3 en otras longitudes de onda o mediciones in situ de nubes y la superficie de Venus llevadas a cabo por misiones planetarias.

    En el momento existen varias misiones a Venus en fases tempranas de desarrollo. Los países anotados en la carrera son EEUU (DAVINCI+), India, y Japón, pero están surgiendo ideas de nuevas misiones todo el tiempo. Este hallazgo, sin duda, va a generar nuevos conceptos de misión para explorar nuestro vecino planetario.

  • Comenzamos un  nuevo cuatrimestre, de manera virtual por la situación epidemiólogica que atraviesa el país y el mundo. Ante la necesidad de que los estudiantes pudieran cursar las materias de laboratorio adaptamos los planes de enseñanza y las prácticas. Quienes están cursando Laboratorio III recibieron kits de electricidad y magnetismo que les permitirán desarrollar sus habilidades para el montaje de experimentos, analizar sus resultados y comparar con modelos físicos. Además, el desafío es aprender técnicas computacionales de adquisición de datos, simulación de circuitos y análisis. Por ultimo, comunicar claramente los resultados obtenidos en los experimentos.

    Los profesores responsables son Adriana Márquez, Carlos Acha y César Moreno.

    El personal de laboratorio, Gustavo Loureiro, Damián Pérez y Alejandro Greco; y el administrativo, Patricia Centurión y Sebastián Smerling.

     

     

     

  • Desde el mes de marzo de 2020 se emprendió un proyecto en el Departamento de Física para fabricar máscaras de protección facial en el contexto de pandemia. 
    Investigadores junto a nodocentes desarrollaron estos objetos protectores específicamente para quienes trabajan en hospitales, el desafío fue hacerlos resistentes y reutilizables. Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D que coordinan los profesores Ana Amador y Pablo Cobelli.
    Ya se entregron cien máscaras a los hospitales Roffo, Gutiérrez, de Clínicas y Elizalde.
    Podés ayudar a proteger al personal sanitario donando el valor desde $200.
    ¿Te gustaría colaborar? Ayudanos a mantener nuestro proyecto:

    “Recibimos el llamado de una médica del Hospital Gutiérrez -como su hija había sido estudiante de la Facultad sabía que fabricábamos objetos 3D- nos preguntó si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

     

     

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

     

     

      

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador. Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs.

    Coloquio: los investigadores cuentan detalles del proyecto 

    Testimonios

    Rubén Sosa, médico del Hospital de Niños Pedro de Elizalde

    Ruth Faifman, médica del servicio de endoscopía del Hospital Gutiérrez:

  • *Por Gaston Giribet

    Se anunció en estos días una nueva detección de ondas gravitacionales; detección acaecida, en realidad, el 14 de agosto del año pasado. Ese día los detectores LIGO y VIRGO, en Estados Unidos y Europa respectivamente, sintieron una vez más la perturbación del espacio-tiempo producida por una colisión de astros distantes y enormes.

    Desde 2015, año de la primera detección de ondas gravitacionales, LIGO y VIRGO han venido detectando ondulaciones del espacio-tiempo que son prueba inconfundible de ese tipo de colisiones. De esas detecciones hemos aprendido mucho sobre la población de los agujeros negros en el cosmos, sobre el origen de los elementos pesados en el universo, y hemos confirmado, además, una de las predicciones más interesantes de la teoría de Einstein: la gravedad viaja como ondas a la velocidad de la luz.

    Ahora bien, aunque LIGO y VIRGO nos tienen ya acostumbrados a estas maravillosas detecciones de colisiones cósmicas, el evento del 14 de agosto de 2019 fue especial. Las características de las ondas gravitacionales detectadas ese día indican que las mismas fueron producidas por la colisión de dos objetos densos a 800 millones de años luz de nosotros (una distancia enorme, que, para que nos demos una idea, supera en más de diez veces la que nos separa del agujero negro supermasivo fotografiado el año pasado por la colaboración Event Horizon Telescope). 

    Pero antes de ahondar en las peculiaridades del evento cósmico detectado el 14 de agosto, dediquemos unos minutos a recordar de qué hablamos cuando hablamos de ondas gravitacionales: Desde la teoría de la relatividad general, formulada por Einstein en 1915, entendemos la gravedad, ya no como una fuerza en el sentido newtoniano, sino como la curvatura del espacio-tiempo mismo. Es decir, la teoría de la gravitación de Einstein pone de manifiesto el carácter dinámico del entramado espaciotemporal. Según esto, la atracción gravitatoria entre dos astros se debe a que cada uno de ellos curva el espacio en sus inmediaciones y, al hacerlo, compele al otro a ceñir su trayectoria a las formas que el espacio adopta. Si estos dos astros se encuentran orbitando rápidamente uno en torno a otro, entonces ese curvar al espacio de manera dinámica resulta en una perturbación del entretejido espaciotemporal y, así, en la propagación de ondas sobre éste, como si se tratara de un medio elástico. Esas ondas de espacio-tiempo (de gravedad) portan energía; energía que le roban al movimiento orbital de los astros que las originan. En otras palabras: los astros irradian gravedad y así van perdiendo energía cinética.

    Al irradiar ondas gravitacionales, el par de astros orbitando uno en torno al otro va perdiendo velocidad, y finalmente éstos entran en coalescencia. Al colisionar producen energías enormes. Nosotros, a salvo en la Tierra, a cientos de millones de años luz de allí y equipados con finísimos interferómetros, detectamos esas ondas gravitacionales, las que nos llegan como cansinas y casi imperceptibles vibraciones del mismísimo espacio-tiempo. Escudriñando minuciosamente la forma de esas onditas, y triangulando con los tres detectores con los que disponemos, nos es posible inferir la naturaleza del cataclismo, su distancia y su dirección en el cielo.

    El evento detectado el 14 de agosto de 2019, como decíamos, ha sido especial, y lo ha sido en dos aspectos. Por un lado, se trató de un evento de notable asimetría: Un agujero negro de unas 23 masas solares (23 veces la masa del Sol) colisionó, luego de una espiralada lucha, con un astro 9 veces menor que él, un astro misterioso de tan solo 2,6 masas solares. Por otro lado, y lo que hace al evento aún más interesante, la naturaleza del astro menor es un enigma: ¿Se trata de una gran estrella de neutrones? ¿Se trata de un pequeño agujero negro? Jamás hemos visto una estrella de neutrones tan masiva. Jamás hemos observado un agujero negro tan poco masivo.

    La genealogía de las estrellas de neutrones y la de los agujeros negros son similares: Ambos tipos de astro nacen tras la muerte de estrellas masivas. Si bien la mayoría de las estrellas no terminarán sus vidas siendo ninguno de estas dos especies cósmicas, las estrellas más masivas sí lo harán. Luego de una puja entre la presión debida a los procesos nucleares en sus entrañas y la autogravedad producida por su propio peso, la estrella masiva explota. Esa explosión es lo que se conoce como supernova. Luego de la supernova, y dependiendo de las características del detrito que haya quedado tras ella, la estrella puede seguir su proceso y finalmente convertirse, o bien en una estrella de neutrones, o bien en un agujero negro: Si la masa supera cierto valor crítico, es lo segundo su destino.

    Lo que importa para el caso que nos ocupa aquí es que las estimaciones de la masa crítica que marca la línea divisoria entre agujeros negros y estrellas de neutrones no están muy lejos del valor de masa del menor de los astros detectados por LIGO y VIRGO en agosto: 2,6 masas solares. Cabe así la pregunta siguiente: ¿Hemos detectado la más grande de las estrellas de neutrones jamás observada o, por lo contrario, se trató del menor de los agujeros negros del que hayamos tenido noticia?

    La masa del menor de los agujeros negros del que se tenía certeza ronda las 5 masas solares. Y no sabíamos de estrellas de neutrones con masas que superaran poco más que 2 veces la masa del Sol. Incluso hubo quienes especularon con que el rango de masas entre 2,5 y 5 masas solares podría ser una banda vacante. Al parecer, no es así: Algo cuya masa está en ese rango colisionó en el universo; lo escuchamos.

    Para echar más misterio a esta historia, digamos que, a diferencia de otros eventos detectados por LIGO, como la colisión de dos estrellas de neutrones observada en 2017, en este caso no hay una contraparte electromagnética de la observación. Es decir, no hubo luz en este caso. Esto se debe a dos razones: Por un lado, este evento involucra al menos un agujero negro, y no un par de astros luminosos; por otro lado, esta colisión ocurrió 6 veces más lejos que aquella luminosa de 2017. Así, la luz nos ha dejado solos en ésta. Sólo nos queda escuchar el espacio-tiempo mismo y, de ese tono susurrante, inferir qué aconteció.

    Para terminar, déjenme contar un detalle del evento observado que muestra claramente la escala de energías, velocidades y masas de las que estamos hablando aquí: La colisión entre el agujero negro de 23 masas solares y su misterioso compañero 9 veces menor liberó en forma de ondas gravitacionales (vibración del espacio-tiempo mismo) una energía equivalente al 20% de la masa del Sol. Y eso no fue más que una propina de un evento que dejó como resultado un nuevo agujero negro que, allí, a 800 millones de años luz de nuestra galaxia, comprime sus 25 masas solares en un radio de 75 kilómetros.

     

  • Desde el mes de marzo de 2020 se emprendió un proyecto en el Departamento de Física para fabricar máscaras de protección facial en el contexto de pandemia. 
    Investigadores junto a nodocentes desarrollaron estos objetos protectores específicamente para quienes trabajan en hospitales, el desafío fue hacerlos resistentes y reutilizables. Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D que coordinan los profesores Ana Amador y Pablo Cobelli.
    Ya se entregron cien máscaras a los hospitales Roffo, Gutiérrez, de Clínicas y Elizalde.
    Podés ayudar a proteger al personal sanitario donando el valor desde $200.
    ¿Te gustaría colaborar? Ayudanos a mantener nuestro proyecto:

    “Recibimos el llamado de una médica del Hospital Gutiérrez -como su hija había sido estudiante de la Facultad sabía que fabricábamos objetos 3D- nos preguntó si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

     

     

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

     

     

      

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador. Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs.

    Coloquio: los investigadores cuentan detalles del proyecto 

    Testimonios

    Rubén Sosa, médico del Hospital de Niños Pedro de Elizalde

    Ruth Faifman, médica del servicio de endoscopía del Hospital Gutiérrez:

  • 1 de junio de 2020 • Por: Nora Bär

    Laura Estrada es física y madre de tres hijos: Sofía (8), Nacho (6) y Agustina (3). Un día de 2013, cuando recién había retornado al país después de completar un posdoctorado en los Estados Unidos, se cruzó, en un encuentro sobre mujeres en la ciencia, con Andrea Gamarnik, viróloga molecular multipremiada y nombre de referencia internacional en la biología del virus del dengue. Una le contó a la otra qué estaba investigando y, antes de despedirse, encontraron un interés en común. Recuerda Andrea: "Entonces, Laura me dijo: '¿Y si construimos un microscopio especial para hacer esto?' Le seguí la corriente y redoblé la apuesta: 'Si vos hacés eso, yo te hago un virus específico para que puedas verlo en ese dispositivo".

    Así comenzó un trabajo de varios años que no solo puso a punto técnicas novísimas de microscopía, sino que permitió cartografiar por primera vez el recorrido que realiza dentro de la célula la cápside , proteína que envuelve el material genético del virus del dengue, clave para su replicación en el organismo. El estudio, realizado por cuatro investigadoras mujeres, acaba de publicarse en Scientific Reports , una revista del grupo Nature.

    "Aquella vez, Andrea me contó lo que estaba haciendo y yo, lo que iba a hacer, porque estaba recién llegada y eran todos deseos, anhelos -comenta Laura-. Muy sabiamente, ella me dijo 'Fantástico, cuando tengas todo armado (porque yo prometía muchas cosas), llamame y vamos a tener la oportunidad de trabajar juntas. Un año y medio más tarde, había montado en el laboratorio de Ciudad Universitaria un instrumento que permitió unir la física y la virología. Es algo que requiere mucho esfuerzo, pero acá está nuestro primer trabajo juntas, y felices".

    Alto tránsito
    Estrada se había especializado en técnicas avanzadas de microscopía aplicadas a problemas biológicos, en el laboratorio de Enrico Gratton, biofísico de la Universidad de California en Irvine, Estados Unidos, que había trabajado en Ébola y VIH, y que desarrolla instrumentos que no se venden comercialmente. En particular, en un microscopio que él había creado. Laura armó otro de esos aparatos y volvió a la Argentina con la idea de instalar esa tecnología en el país. "Eso fue lo que le prometí a Andrea: voy a armar un microscopio que te va a permitir seguir la cápside durante horas en una célula viva", recuerda.

    La viróloga molecular Andrea GamarnikLa viróloga molecular Andrea Gamarnik Fuente: LA NACION - Crédito: Mauro Alfieri
    Fue un largo esfuerzo, no solo de Laura y Andrea, sino de sus respectivas becarias, Manuela Gabriel , integrante del grupo de Estrada, y Guadalupe Costa Navarro , del laboratorio de Gamarnik, hoy ya doctorada. Dueñas de una energía capaz de derribar montañas, frecuentemente los mensajes entre estas trabajadoras incansables se cruzaban a altas horas de la noche. "Laura me decía: 'les doy de comer a los chicos, los acuesto y pienso'", comenta Andrea, que no se quedaba atrás.

    La cápside es una proteína infinitesimal que "empaqueta" el genoma viral del dengue, una molécula de ARN como la del coronavirus. "La proteína de cápside forma lo que se llama 'núcleo cápside' -explica Gamarnik-, y se acumula en el corazón de la partícula viral". Es esencial para que se formen los virus y para que éstos puedan infectar nuevas células humanas o del mosquito, por lo que resulta un blanco muy interesante para el desarrollo de estrategias antivirales".

    "Vimos que, cuando el virus infecta una célula, la proteína de cápside rápidamente se acumula en el citoplasma (la parte que rodea el núcleo) y en el lapso de horas se moviliza al núcleo celular, donde se concentra en los nucleolos. Este movimiento lo observamos en tiempo real", comenta la física Manuela Gabriel en un comunicado que distribuyó la Fundación Instituto Leloir. Y agrega que, como resultado de este trabajo, se registró que la proteína se comporta de manera muy diferente según la región en la que se encuentre dentro de la célula. "Por ejemplo, dentro del citoplasma, la cápside se mueve sin una dirección preferencial, mientras que en el núcleo de la célula muestra un movimiento mucho más organizado, lo que sugiere algún grado de interacción con el entorno", destaca.

    Las investigaciones pudieron determinar que la proteína recorre aproximadamente un área de 20 micrones cuadrados por segundo, indica Costa Navarro. Y agrega: "También determinamos que esta velocidad se modifica con el tiempo transcurrido desde el comienzo de la infección, datos que dieron información sobre el comportamiento de la molécula".

    Mapas de las trayectorias
    Lo importante es que esta proteína tiene muchas funciones y durante la infección se mueve a distintos compartimentos celulares. "Sabemos muy poco o nada de las funciones que cumple esta movilidad -subraya Gamarnik-. Se va al núcleo, se concentra en el nucleolo (una región del núcleo), va a las gotitas de lípidos ( lipid droplets ) que están en el citoplasma de las células, y que modulan el metabolismo de producción de lípidos en la célula. Se acumula alrededor de las gotas de lípidos y a su vez modula la producción de lípidos en la célula. Esto indica que el virus modifica procesos celulares que le ofrecen un ambiente más favorable para multiplicarse. Una de las cosas que hace la cápside es ir al núcleo y concentrarse en los nucleolos. ¿Y qué hace ahí adentro? Lo desconocemos. Con Laura, trazamos algo así como mapas de las trayectorias que sigue la proteína en el citoplasma".

    Y agrega Estrada: "Lo que pudimos lograr en este trabajo fue visualizar por primera vez un 'mapa del flujo molecular'. Se podría trazar una analogía con cartografiar las trayectorias de los autos en hora pico en las entradas y salidas de Buenos Aires. Ver qué entradas son más concurridas, en qué dirección se mueven los vehículos, si en todas hay el mismo tránsito...".

    Un detalle de color es que finalmente, para este trabajo, no pudieron emplear el microscopio de última generación que Estrada armó en la Ciudad Universitaria. Se usó para para mediciones de vesículas en neuronas, para fabricar dispositivos tridimensionales en microescala y la dinámica de un compuesto fotoliberable, y está a disposición de científicos y científicas de todo el país. Pero a medio camino, cuando se encontraban con que las mediciones no estaban resultando y estaban a punto de desmoralizarse, el laboratorio donde Estrada había hecho su posdoctorado desarrolló un nuevo método de análisis de imágenes muy cercano a lo que había estudiado en su doctorado.

    Guadalupe Costa Navarro, becaria del laboratorio de GamarnikGuadalupe Costa Navarro, becaria del laboratorio de Gamarnik Crédito: FIL
    "Cuando lo vi -comenta Laura-, rápidamente nos pusimos a trabajar y a los pocos meses ya teníamos esta técnica optimizada y puesta en funcionamiento en la Argentina. Tomamos las imágenes con un microscopio del Instituto Leloir (que se encuentra entre los más avanzados del país) y las procesamos de una manera también muy novedosa. Nuestro paper debe ser el tercero o cuarto que utiliza este método".

    Concluye Gamarnik: "Al ser un trabajo interdisciplinario, al principio las reuniones de discusión de experimentos entre Manuela, Guadalupe, Laura y yo, eran caóticas. Hablábamos en dos idiomas. Llamábamos a la misma cosa con diferente terminología, o usábamos palabras que querían decir cosas distintas para la física y para la virología. Fue un proceso muy enriquecedor".

     

  • Investigadores del Departamento de Física publicaron este trabajo luego de su experiencia en la comisión para respuesta temprana en modelado de COVID, donde brindaron conocimientos y herramientas científicas a las autoridades a través del Ministerio de Ciencia, Tecnología e Innovación de la Nación. El paper es resultado, además, de una colaboración posterior con la empresa GranData, cuyo CEO - físico y egresado del Departamento- aportó datos sobre movilidad de celulares en Argentina.

    Los modelos no son oráculos infalibles, sino herramientas que transforman datos en información, por medio de distintas hipótesis, sobre la propagación del virus. Por lo tanto, la calidad de la información que pueden proporcionarnos resulta tan buena como los datos que reciben y las hipótesis que los sustentan. Hay modelos simples que nos permiten ganar un entendimiento conceptual sobre cómo un virus se propaga en una gran población de individuos, y también modelos más y más complejos que intentan generar pronósticos confiables. 

    En la publicación, los autores exploraron esta jerarquía de modelos -desde lo simple hacia lo complejo- en el contexto de la pandemia, esencialmente en la zona de CABA y el Gran Buenos Aires. El estudio pondera distintas lecciones sobre cómo puede y debe abordarse el modelado temprano de la epidemia; conclusiones para compartir con una comunidad científica que, al igual que el resto de la población, se enfrenta por vez primera a un desafío de esas características. Las dos lecciones más importantes que destacan los investigadores en este trabajo son, por un lado, la necesidad de ser extremadamente cuidadosos en el uso de modelos simples para evaluar efectos de políticas en salud pública. Y por otro, la ventaja que aportan los datos de movilidad provistos por teléfonos celulares para inferir tasas de contagio y vislumbrar la dinámica de la epidemia en el futuro.

    La movilidad de los individuos marca el ritmo de la epidemia

    La primera conclusión del trabajo es que en un país relativamente periférico como Argentina, es indispensable incorporar a los modelos datos sobre los viajeros infectados en el exterior. Los primeros casos registrados en el país no fueron el resultado de propagación local, sino de los llamados casos importados. Los autores advierten que si esta distinción no es tenida en cuenta en los modelos se sobreestima la tasa de infección y el número reproductivo básico R0, ya que se atribuye a contagio local un crecimiento que debe ser explicado por el arribo al país de individuos infectados en otros países.

    Los modelos deterministas basados en compartimientos, tales como el SEIR, tratan a la población como un número continuo, de forma tal que es posible tener, por ejemplo, 0.2 individuos infectados. Y siempre que exista incluso una muy pequeña fracción de infectados, si el número reproductivo es mayor a 1, los modelos predicen una propagación casi total de la enfermedad (cerca del 80% de la población acabará infectada). Para superar estas limitaciones, el presente trabajo investiga también el uso de modelos estocásticos. Los modelos estocásticos tratan a la población como un conjunto de unidades discretas -es decir, personas- y producen pronósticos basados en la probabilidad de contagio, de forma tal que si hay pocos individuos infectados existe una probabilidad significativa de que el modelo pronostique la extinción local de la epidemia. 

    Los modelos como el SEIR son extremadamente sencillos - dado que no se ocupan de modelar los distintos tipos de interacciones que ocurren en un territorio y sus distribuciones geográficas-, son modelos homogéneos, asumen que los individuos pueden mezclarse indistintamente entre sí. La simplicidad de estos modelos suele requerir un ajuste de parámetros, es decir, cuando se los utiliza resulta necesario explorar rango de tasas de infección hasta encontrar aquella que mejor reproduce la curva de casos conocidos. Una vez que se encuentra esa tasa de infección se generan curvas con números de casos acumulados, las cuales se aproximan considerablemente a los datos oficiales. Pero eso no es sorprendente, precisamente porque se  elige la tasa de infección para que ocurra. La pregunta central es si la tasa de infección inferida también será útil para el pronóstico de casos futuros, los cuales no fueron tenidos en cuenta durante el ajuste. 

    Otra de las lecciones importantes reportadas por los investigadores concierne al uso de modelos estocásticos que no incorporen información empírica confiable sobre la población: si para superar las incertezas se producen muchas reproducciones independientes de un modelo estocástico y luego se obtiene el promedio, el resultado converge al predicho por la versión determinista del modelo.  Es necesario, entonces, incrementar el realismo de los modelos, y para eso es necesario inyectar más datos a los mismos.

    Con ese objetivo,  los investigadores recurrieron a datos de movilidad basados en telefonía celular, proporcionados por la empresa GranData. De este modo es posible estimar la circulación local en cada distrito del Gran Buenos Aires y CABA, así como el tránsito entre ellos. Los investigadores observaron una caída abrupta de ambos estimativos de movilidad desde el día 19 de marzo (el comienzo de la cuarentena); luego, combinaron estos datos para construir modelos no-homogéneos y así pudieron modular la tasa de infección en base a la movilidad local. Como resultado de estos esfuerzos, obtuvieron modelos estocásticos y deterministas capaces de reproducir acertadamente la evolución de la pandemia, pero sin necesidad de realizar ajuste de parámetros. Además, verificaron que la estructura de la red de tráfico inferida de telefonía celular es fundamental para la precisión de los modelos. Utilizar una red diferente (por ejemplo, un versión permutada al azar de la red original) reduce la precisión de los modelos. Por lo tanto, es de suponer que obtener una versión mejorada de la red de tráfico resultará en modelos aún más precisos. 

    En conclusión, el modelado de la epidemia no puede prescindir de datos de movilidad, y éstos deben ser lo más realistas y exhaustivos posible. Así, este trabajo mostró que para el caso de una megaciudad como Buenos Aires y sus región metropolitana existe una relación directa entre movilidad y tasa de contagio, y que la información de movilidad provista por teléfonos celulares es muy útil para inferir escenarios futuros de la epidemia. Por otro lado, es recomendable ser extremadamente cuidadosos al utilizar modelos sencillos para evaluar políticas de salud pública, porque las potenciales consecuencias de esas decisiones son demasiado importantes como para sustentarlas con aproximaciones poco realistas.


    Aislamientos intermitentes

    Se estima que el número reproductivo R0 en Argentina se mantuvo en un valor cercano a 1 como resultado del aislamiento que comenzó el 19 de marzo. Los investigadores del trabajo mostraron que en una una pandemia como la actual, el R0 obtenido de implementar una cuarentena periódica será cercano al promedio entre el R0 durante los días de aislamiento extremo y durante los días con mayor contacto social, según la fase de cuarentena que experimenten. Y, para que la pandemia se encuentre controlada, ese número deberá ser menor a uno. 

    A esta limitación se suma otra: en los días de trabajo y actividad normal, el número de infectados crece y por lo tanto aumenta el tamaño de los focos. Así, retroceder en la fase de la cuarentena, aun luego de esperar varios días, no significa regresar al estado previo: el número de personas susceptibles de ser contagiadas crece con cada repetición, llevando al sistema a escenarios que los modelos homogéneos no pueden capturar. ¿Cuán intenso debe ser el distanciamiento para que el promedio sea menor a 1? ¿Es realista esperar que esos niveles de aislamiento logren obtenerse, dado que el esfuerzo continuo de toda la nación apenas alcanzó para llevar el R0 a valores ligeramente inferiores a 1? Estas son algunas de las preguntas que se plantean en el trabajo, cuya respuestas buscan ser críticas; entender el efecto de ciertas medidas de contención; y evitar decisiones desacertadas en política sanitaria.

    Todos los modelos epidemiológicos fallan eventualmente. Ganar confianza en la predicción de los modelos requiere de trabajo constante para la recopilación e incorporación continua de datos actualizados - no solo del número oficial de casos, sino sobre los patrones de movilidad en las regiones donde se desea producir un pronóstico. Y si usamos modelos para proponer políticas de contención, el estándar con el que juzgamos a dichos modelos debería ser altísimo. Es fundamental incorporar la lección de aproximarse a los modelos con una actitud escéptica, cuestionando sus hipótesis y mecanismos, pero al mismo tiempo con esperanza en la posibilidad de una mejora continua, únicamente limitada por la precisión y validez de los datos que sumamos a nuestros modelos.

     

    Lessons from being challenged by COVID-19

    Chaos, Solitons and Fractals: the interdisciplinary journal of Nonlinear Science, and Nonequilibrium and Complex Phenomena

    E. Tagliazucchi1, P. Balenzuela1, M. Travizano2, G.B. Mindlin1, P.D. Mininni1

    1 Universidad de Buenos Aires, Facultad de Ciencias Exactas y Naturales, Departamento de Física, & IFIBA, CONICET, Ciudad Universitaria, Buenos Aires,  Argentina.

    2 Grandata Labs, 550 15th Street, San Francisco, 94103, California, USA.

    Publicado: 23 de mayo de 2020

    https://doi.org/10.1016/j.chaos.2020.109923


    Conceptos relevantes
      

    Tasa de contagio, de contacto efectivo, o de infección: Una medida del número de contactos promedio que ocurren por día entre individuos infectados e individuos susceptibles, y que terminan en un contagio. Da una idea de la “velocidad” a la cual la infección se transmite.

    R0: una cantidad útil para entender si la epidemia está avanzando, retrocediendo, o si se mantiene estable (R0 mayor, menor, y cercano a 1, respectivamente).

    Modelo determinista: un modelo en el que las mismas condiciones de inicio produce siempre la misma evolución del sistema, sin que el azar pueda jugar ningún rol. En epidemiología matemática, este tipo de modelos suele estar descrito por ecuaciones diferenciales.

    SEIR: un modelo epidemiológico sencillo que divide a la población en cuatro compartimentos: los individuos Susceptibles, los Expuestos, los Infecciosos, y los Recuperados. Este tipo de modelos permite considerar infecciones que tienen un tiempo de incubación.

    Modelo estocástico: un modelo en el que las cantidades, aunque tengan reglas prescritas, pueden fluctuar al azar. Este tipo de modelos permite contemplar casos en los que nadie se contagia y una epidemia se extingue rápidamente, o en el que el número de contagios por obra del azar es muy alto.

    ​Modelos homogéneos : En un modelo homogéneo, el contacto de una persona infecciosa puede ocurrir con cualquier otra persona en la población, independientemente del lugar donde vive, su edad, o cualquier otra característica.

    Modelos no-homogéneos o heterogéneos : En estos modelos el contacto entre un individuo infeccioso con otras personas no tiene la misma probabilidad de ocurrencia para todos. La tasa de contactos puede ser diferente de acuerdo a dónde viven, la edad de los individuos, etc.

    ​Foco: una región o lugar con los factores epidemiológicos necesarios para la transmisión de una infección, como por ejemplo individuos infectados, un grupo de individuos susceptibles, y condiciones ambientes que permitan el contagio.

     

  • *Por Gaston Giribet

    En los últimos años se ha acumulado evidencia de la existencia de ciertas anomalías en las órbitas de objetos transneptunianos; es decir, de objetos de nuestro sistema solar que se encuentran más allá de Neptuno. Lo que sigue es una breve reseña de la que, hoy, se yergue como la más osada y fantástica explicación de este fenómeno.

    Anomalías transneptunianas y el Planeta 9

    Neptuno se encuentra a 30 Unidades Astronómicas (UA) del Sol, lo que equivale a decir que el radio de su órbita es unas 30 veces más grande que la distancia que separa a la Tierra del Sol. Comienza allí, en los dominios de Neptuno, una extensa región poblada de asteroides que se extiende por más de 20 UA hacia el exterior del sistema solar. Se la conoce como Cinturón de Kuiper, y cuenta entre sus pobladores a muchos asteroides de gran porte y a varios planetas enanos, incluyendo a los fornidos Makemake y Plutón.

    En los últimos años, las extrañas perturbaciones observadas en las órbitas de objetos lejanos en el Cinturón de Kuiper hicieron resurgir una idea que, con diversas formas, apareció una y otra vez a lo largos del último puñado de décadas; la idea de que podría existir en nuestro sistema solar un noveno planeta: el Planeta 9.

    Según las estimaciones actuales, las anomalías orbitales observadas en el cinturón de Kuiper podrían ser explicadas por la presencia del Planeta 9 si éste se encontrara a algunos cientos de UA del Sol y tuviera una masa de entre 5 y 10 veces la de la Tierra.

     

    Un agujero negro en el fondo de casa

    Hace unos meses, a fines de septiembre de 2019, dos físicos teóricos, Jakub Scholtz y James Unwin, publicaron un trabajo [1] en el que exponen una idea nada convencional acerca de la naturaleza del Planeta 9; una idea que, a primera vista, le parecería lisérgica a casi cualquiera. Scholtz y Unwin se preguntaban en su artículo: ¿Y qué si el Planeta 9 se trata, en realidad, de un agujero negro? [2]

    De tratarse de un agujero negro, y considerando que su masa sería de tan sólo unas pocas masas terrestres, el Planeta 9 sería, no sólo oscuro, sino también extremadamente denso y pequeño: ¡Unos 10 centímetros de diámetro! Scholtz y Unwin, al tanto de esto, aprovecharon para incluir en su paper un dibujo a escala 1:1 del astro.

    Sería un objeto astronómico con una masa 5 veces superior a la de nuestro planeta, pero que se parecería mucho menos a la Tierra que a una bola 8 de pool, aunque mucho más pesada: Su enorme campo gravitatorio perturbaría no sólo las órbitas transneptunianas, sino que afectaría también a la luz en su propio entorno, sumiéndose a sí mismo en una invisibilidad extrema.

    Esta invisibilidad, no obstante, podría verse interrumpida: Dada su considerable masa, un halo de materia oscura se acumularía en torno a él, acompañándolo, y dependiendo de la naturaleza de la materia oscura, algo sobre lo que no tenemos certeza, podría esto resultar en una tenue emisión de luz que emanaría de su entorno cercano. Sería ésa una forma de descubrirlo.

    Agujero negro primordial

    Pero la física no es tan sencilla como el simple imaginar: Hay varios problemas con esto de pensar un agujero negro de tal masa. Para empezar, hasta donde entendemos, los agujeros negros nacen tras la muerte de ciertas estrellas luego de un largo proceso que culmina con el colapso gravitacional de la moribunda sobre sí misma. Para que esto ocurra, la estrella progenitora debe tener una cierta masa crítica, una masa que excede a la del Sol. Esto resulta en que los agujeros negros formados a partir de estrellas no pueden tener menos de 3 masas solares, lo que es mucho más que la masa que tendría el mentado Planeto 9. Esto significa que el Planeta 9, de existir, y de tratarse de un agujero negro, no podría haber nacido de una estrella. Otro tuvo que haber sido su origen, y sólo hay una alternativa: El Planeta 9 debe ser, entonces, un “agujero negro primordial”; es decir, un agujero negro que nació con el universo, en el mismo momento del Big Bang.

    En los últimos años, a partir de que las primeras detecciones de ondas gravitacionales nos alertaran de que parece haber en el cosmos más agujeros negros de los que ingenuamente suponíamos, la atención sobre la posibilidad de que existan agujeros negros primordiales se vio reforzada. Desde mediados de 2015, muchos advirtieron que las cotas observacionales previamente establecidas para la abundancia de agujeros negros primordiales habían sido exageradas: Puede haber más de lo que habíamos creído. Se abre así la posibilidad de aceptar la existencia –y abundancia— de astros oscuros y ultradensos con masas comparables a las de los planetas. El Planeta 9 podría ser de tal suerte.

    Aun así, hay ciertas restricciones: Por un lado, los agujeros negros primordiales no pueden ser muy pequeños, porque, si lo fueran, serían muy calientes y los efectos de radiación térmica predichos por Stephen Hawking los habrían hecho evaporarse en un tiempo menor a la edad del universo, y entonces ya no podrían existir. Por otro lado, los agujeros negros primordiales tampoco pueden ser muy grandes, puesto que, si lo fueran, su gravedad produciría distorsiones ópticas conocidas como “micro-lensing” y que jamás hemos observado … Pará, pará … ¿Dije “jamás”?

    En realidad, hubo en los últimos años una serie de observaciones de distorsiones ópticas que bien podrían corresponder a efectos de micro-lensing. Además, tales distorsiones son compatibles con las que producirían objetos compactos y oscuros de masas comparables a las del Planeta 9. Esto quiere decir que ya tenemos dos evidencias que apuntan en la misma dirección: Por un lado, un inobservado pero necesario planeta allá afuera; por el otro, evidencia creciente de que objetos oscuros y compactos parecen estar dando vueltas por ahí.

    Una legión de naves espaciales

    En un artículo muy reciente [3], publicado hace tan solo tres días, Edward Witten – sí, el mismo— levanta el guante y considera seriamente la idea de que el Planeta 9 pueda tratarse de un agujero negro. Witten se pregunta: ¿Cómo comprobar si, en efecto, existe a 500 UA del Sol un objeto oscuro y compacto de unas pocas masas terrestres y cuyo tamaño podría no exceder el de mi mano? A esta pregunta responde: Pues, vayamos a ver.

    Lo que Witten propone en su trabajo es enviar hacia las regiones externas de nuestro sistema solar una legión de naves espaciales que, una vez allí, podrían comunicarse con la tierra para reportar lo encontrado. Si te parece chiste, no dejes de leer lo que falta…

    … Ahora bien, hay un problema: Las enormes distancias atentan contra esta empresa al nivel de hacerla parecer imposible. De inmediato uno advierte que para llegar a la zona (500 UA) en no más de una década, las naves deberían viajar a cientos de kilómetros por segundo durante todo ese tiempo; algo ciertamente irrealizable. Pero la propuesta de Witten, un entusiasta de los viajes espaciales, es otra: Adaptando ideas de otros, él sugiere que naves pequeñas, de no más de un par de gramos, sean lanzadas al cosmos y aceleradas desde la Tierra con rayos láser potentes. El efecto acumulado de la aceleración podría hacer que las micro-naves alcanzaran el 0.1 % de la velocidad de la luz en un tiempo razonable y, así, llegaran a las 500 UA en unos cuantos años.  Una vez allí, las micro-naves reportarían por radio a la Tierra sus observaciones, y tardaría esa transmisión casi tres días en llegarnos. Si las micro-naves fueran muchas como para cubrir una apertura angular substancial que abarcara la órbita, y si las trayectorias de las micro-naves fueran observadas con precisión meridiana, podríamos, sugiere Witten, tener una observación in situ de la situación y saber confirmar si, en efecto, hay un pequeño agujero negro en el fondo de casa.

     

    Referencias

    [1] J. Scholtz & J. Unwin, “What if Planet 9 is a primordial black hole”, arXiv:1909.11090 [+]

    [2] S. Perkins, “Planet nine may actually be a black hole”, in Science, Sept. 27, 2019 [+]

    [3] E. Witten, “Searching for black hole in the outer Solar system”, arXiv: 2004.14192 [+]

    * Gaston Giribet es profesor e investigador en el Departamento de Física, Exactas, UBA.

  • Investigadores junto a nodocentes desarrollaron máscaras de protección de gran resistencia y reutilizables.

    Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D en el Departamento de Física

    4 de mayo de 2020

    En nuestra Facultad se pusieron en funcionamiento proyectos que contribuyen a la prevención y el cuidado de las personas en el contexto de la pandemia. En este caso, con las impresoras 3D y el personal especializado en manipularlas se están construyendo máscaras faciales para el personal de salud, así como también partes para el ensamblado de otras de uso corriente.

    “Recibimos el llamado de una médica del Hospital Gutiérrez que, como su hija es estudiante de la Facultad y sabía que fabricábamos objetos 3D, nos preguntó puntualmente si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador.

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

    Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs. “Fabricamos ocho máscaras por día, el máximo que podemos imprimir”, explica Cobelli. Para contextualizar esa cantidad, vale decir que ese es el número promedio de trabajadores en un servicio hospitalario de la ciudad.

    La semana pasada realizaron las primeras entregas, ya van 90 producidas y 45 fueron entregadas. Uno de los destinos fue el área de enfermería del Instituto de Oncología Ángel H. Roffo y otra el servicio de endoscopía del Hospital de niños Ricardo Gutiérrez.

    Por ahora fabricamos ocho máscaras por día, pero la producción podría duplicarse. ¿Les gustaría colaborar? Pueden escribir a This email address is being protected from spambots. You need JavaScript enabled to view it. ¡Muchas gracias!

  • Comenzaron las clases de la Licenciatura y el Profesorado en Física de manera remota. 

    Muchas de las materias que se dictan en el DF comparten sus clases en Youtube, pueden acceder a nuestro Canal para verlas.

    Se actualizan diariamente, para recibir notificaciones automáticas pueden suscribirse al Canal

    Cada materia tiene una Lista de reproducción, que permite seguir el orden de las clases.

    Además pueden visitar la Lista de materias y aprovechar los recursos que proponen las cátedras. 

     

     

     

     

  • Un particular objeto, ideado por científicos a partir de una conjetura matemática, llegó al Departamento de Física de la Facultad desde la ciudad de Budapest ayer miércoles 11 de marzo de 2020. 

    El matemático e ingeniero húngaro Gábor Domokos encontró que en una universidad en el hemisferio sur del mundo -la UBA- aparecía la fotografía del objeto que él patentó junto a Péter Várkonyi en 2006. Esta fotografía era un post que el Jefe de Trabajos Prácticos de Mecánica Clásica, Juan Zanella había publicado para los estudiantes de la materia. Gabor Domokos  envió un mail al profesor Pablo Dmitruk, titular de la cátedra de Mecánica, y luego de un interesante intercambio de correos el mismísimo Dr. Domokos se ocupó de hacer llegar un objeto como obsequio al Departamento de Física. 

    Ante estudiantes y curiosos, se llevó a cabo el acto de entrega oficial en el Pabellón 1 de Ciudad Universitaria donde estuvieron presentes el decano de la Facultad Juan Carlos Reboreda, el embajador de Hungría Csaba Gelényi, el director del Departamento de Física Hernán Grecco, la directora del Departamento de Matemática Teresa Krick, el profesor Pablo Dmitruk y el consejero comercial de Hungría en Argentina József Németh.

    El docente Juan Zanella -quien pensó que el Gömböc podría ser un caso interesante de análisis para sus clases- brindó una charla donde contó la historia del objeto y el devenir de las ideas y peripecias desde la famosa conjetura del ruso Vladimir Arnold hasta la patente y fabricación de la pieza. “Los gömböcs son objetos con propiedades particulares, pero no son en sí objetos únicos.  La característica que los distingue es que, cuando se los apoya sobre una superficie horizontal, tienen sólo dos puntos de equilibrio, uno estable y uno inestable. Como en la práctica es imposible balancear un objeto sobre un punto de equilibrio inestable, puestos en cualquier orientación los gömböcs tienden a orientarse según la posición de equilibrio estable”, explicó.

    En 1995 el autor de “Métodos matemáticos de mecánica clásica”, Vladimir Arnold, participó en la Conferencia Internacional de Matemática Industrial y Aplicada en Hamburgo. En su charla plenaria, profundizó en uno de los temas que le interesaban particularmente: la generalización geométrica y topológica del teorema clásico de los cuatro vértices. Frente a la afirmación: “una curva plana tiene al menos cuatro extremos de curvatura”, el matemático conjeturó que el caso tridimensional podría ser una excepción. Es decir, propuso que los cuerpos convexos y homogéneos con menos de cuatro puntos de equilibrio podrían existir.

    La conjetura de Arnold resultó ser correcta: hoy sabemos que existen cuerpos convexos homogéneos con solo dos puntos de equilibrio, se los conoce como objetos mono-monostáticos. A pesar de haber chequeado más dos mil piedras durante un viaje, Domokos y su esposa no pudieron identificar un solo objeto con estas características particulares entre la muestra. Aparentemente, los cuerpos mono-monostáticos escapan de la intuición humana cotidiana. 

     

    El primer gömböc descubierto difería tan poco de una esfera que de ahí deriva su nombre: "gömb" es "esfera" en húngaro, y "gömböc" es una forma familiar diminutiva de "esfera". La palabra "glóbulo", o mejor aún, "globulo", pensada como diminutivo de "globo", sea quizá una buena aproximación en español. Al mirar el Gömböc que nos enviaron notamos que tiene diferencias sustanciales con una esfera pero se parece a algunos cuerpos presentes en la naturaleza como ciertos caparazones de tortugas, por ejemplo. Aunque para sus creadores haber encontrado estas coincidencias es una casualidad, afirman que lo mismo puede decirse para los caminos de la evolución. 

    Hay que hacer una salvedad importante, dice Zanella: los gömböcs genuinos son homogéneos y convexos. Si se relajan estas dos condiciones es muy fácil construir un objeto con las mismas propiedades de estabilidad. De hecho, hay juguetes que consisten en un objeto de forma redondeada con un contrapeso en su base que los hace retornar siempre a la misma orientación. Pero estos juguetes no clasifican como gömböcs.

    La Embajada de Hungría en Argentina y el empresario Ottó Albrecht sortearon todo tipo de dificultades e hicieron posible que el preciado objeto hoy esté en la Facultad. Cada Gömböc tiene una identificación particular, el que ahora habita en la parte más austral del mundo se denomina G-1996, año en que el Departamento de Física de Exactas comenzó a llamarse Juan José Giambiagi.

    En este mapa pueden conocerse los lugares donde los Gömböc ya han desembarcado: https://www.google.com/maps/d/viewer?mid=1yHwcgmIsnfrrGCE3ctNnpAAgfxzxwE8e&ll=17.538675993066157%2C26.26096640000003&z=3

  • Departamento de Física & Instituto de Física de Buenos Aires

    Betti Hartmann
    Investigadora Principal

    Norberto Julio Romanelli
    Investigador asistente
    Director: Pablo Dmitruk

    Guillermo Perez Nadal
    Investigador asistente
    Director: Alan Garbarz. Co-Director: Gaston Giribet

    Emilio Rubin De Celis
    Investigador asistente
    Director: Gaston Giribet

    Uriel Nicolas Morzan
    Investigador asistente
    Directora: Mónica Andrea. Co-directora: Johanna Fuks

  • En el último trabajo publicado en el Laboratorio de Sistemas Dinámicos los investigadores estudiaron los mecanismos físicos mediante los cuales el ave conocida como "Cortarramas" canta de manera honesta. Es decir, su canto además de ser muy distintivo evidencia la envargadura real del animal.

    El profesor Gabriel Mindlin lo explica en este video 

  • El Departamento de Física comparte con la comunidad los nuevos becarios para estudios doctorales y posdoctorales en diversas áreas del conocimiento que se han incorporado recientemente.
    18 jóvenes realizarán su doctorado en el Instituto de Física de Buenos Aires (IFIBA) de UBA-Conicet , así también 11 realizarán sus estadías posdocdoctorales. 3 estudiantes de doctorado y 1 postdoc desarrollarán su trabajo en el Instituto de Física del Plasma (INFIP) de UBA-Conicet. 
    Asimismo, el Instituto de Astronomia y Fisica del Espacio (IAFE), con quien mantenemos estrechos vinculos de colaboracion por razones históricas y temáticas, obtuvo 8 becas posdoctorales y 6 becas doctorales.
    Aquí detallamos a los nuevos integrantes, directoras, directores, institutos donde trabajarán y sus temas de investigación. ¡Bienvenidos!

     

     

  • El jueves 28 de noviembre de 2019 se estrena el documental sobre la vida y obra de Juan José Giambiagi, el gran físico argentino que fue director del Departamento de Física entre 1959 y 1966. 

    Giambiagi, el hombre "multidimensional" como dicen sus amigos y colegas, fue el hacedor del método de regularización dimensional, en coautoría con Carlos Bollini; fue director del Centro Latinoamericano de Física (CLAF); uno de los propulsores del Centre for Theorical Physics (ICTP), en Trieste Italia; profesor e investigador en el Departamento de Física de La Plata; figura clave en el Centro Brasileiro de Pesquisas Físicas (CBPF) de Brasil luego de su exilio; y formador de otros físicos como Miguel Ángel Virasoro, Fidel Schaposnik, Carlos García Canal, Willy Dussel, Huner Fanchiotti y Mario Mariscotti.

    La proyección será en el Aula Magna del Pabellón I a las 14 hs.

     

  • El referente mundial en física teórica de altas energías, Juan Maldacena recibió el Diploma Doctor Honoris Causa de la UBA en un acto en la Facultad de Ciencias Exactas y Naturales. Durante la ceremonia se realizó un elogio académico a su trayectoria y un reconocimiento por parte de la comunidad de Física y Exactas.

    Elogio Académico al Dr. Juan Martín Maldacena, Honoris Causa

    18 de octubre de 2019

    El Doctor Maldacena inició sus estudios superiores en 1986 en la Universidad de Buenos Aires hasta 1988. Continuó en el Instituto Balseiro, donde obtuvo en 1991 su licenciatura en física (dirigido por el Dr Gerardo Aldazabal). En 1996 obtuvo el título de Doctor de la Universidad de Princeton bajo la supervisión del Prof. Curtin Callan y posteriormente comenzó a desempeñarse en un cargo postdoctoral en la Universidad de Rutgers, USA. En 1997 fue nombrado profesor asociado en la Universidad de Harvard —por entonces el profesor asociado más joven de la historia de Harvard. En 1999 ascendió a profesor titular. Desde 2001 es profesor en el Instituto de Estudios Avanzados de Princeton. En 2012 fue honrado con el nuevo Premio Yuri Milner a la física fundamental.

    Fue nombrado en 2013 miembro de la Academia Pontificia de las Ciencias. Antes — en 2002— ya había recibido de manos de Juan Pablo II la Medalla Pío XI por «la sobresaliente investigación en su campo». En 2018, se le otorgó la medalla Lorentz, distinción que entrega cada cuatro años la Real Academia de Artes y Ciencias de los Países Bajos a los físicos más distinguidos del mundo. Sus portadores casi siempre luego son premiados con el Nobel de Física. Este año también recibió la medalla Galileo Galilei, que entrega por primera vez el Instituto Nacional de Física Nuclear (INFN) de Italia en colaboración con el Instituto Galileo Galilei (GGI), en Florencia.

    Juan Maldacena ha realizado importantes avances relacionados con la teoría de cuerdas, un marco de unificación teórica de dos grandes pilares de la física contemporánea: la mecánica cuántica y la teoría de la relatividad general, de Einstein. Propuso una relación sorprendente entre dos sistemas aparentemente diferentes. Su trabajo conocido como «la conjetura de Maldacena», o la «correspondencia AdS/CFT», se trata de una relación entre una teoría con interacciones gravitacionales con una teoría sin gravedad y en un número menor de dimensiones. Este trabajo intentó zanjar inconsistencias que existen entre la teoría de la relatividad general y la mecánica cuántica, un problema de la física teórica que desde hace casi un siglo preocupa a numerosos científicos, y puso en marcha una verdadera revolución en la teoría de cuerdas, dadas sus profundas implicaciones para el estudio de la gravedad cuántica.

    En 1998, tomó estado público a través del New York Times, por la conmoción causada por la presentación, en una conferencia, de su conjetura. El trabajo, titulado “The large N Limit of superconformal field theories and supergravity” (Advances in Theoretical and Mathematical Physics ) es el artículo más citado de todos los tiempos en la Física de altas energías, superando hoy las 14000 citas. El uso de técnicas basadas en la correspondencia AdS/CFT han supuesto nuevos puntos de vista sobre problemas de QCD como el del confinamiento, y están encontrando aplicación en el análisis de las propiedades del plasma de quarks y gluones, donde sus predicciones se han observado mediante mediciones en los laboratorios de Brookhaven y CERN. La conjetura ha sido también utilizada para estudiar problemas complejos de la materia condensada. Maldacena estudió aspectos cuánticos de agujeros negros, fluctuaciones primordiales producidas por la inflación cosmológica, teorías de gauge supersimétricas, entre otros temas.

    Motivado por los resultados de sus trabajos anteriores continúa explorando las relaciones entre las branas y los agujeros negros, que permitirán un mejor entendimiento de nuestro universo y aspectos muy profundos de lo que conocemos como información cuántica y propiedades de entrelazamiento. La propuesta de esta correspondencia por parte de Maldacena, y su amplia y profunda investigación sobre sus diversas ramificaciones, le han significado un reconocimiento mundial de la comunidad científica. Ese reconocimiento se manifiesta por la repercusión de sus trabajos (más de 51000 citas) y por la cantidad y prestigio de los premios con los que el Dr Maldacena ha sido reconocido.

    Entre los muchos premios que el Dr Maldacena ha recibido, podemos mencionar: - Sloan Fellowship (1998) - Packard Fellowship (1998) - Premio Unesco Husein para jóvenes científicos (1999) - Becas MacArthur (1999) - Premio Sackler en física (2000) - Premio Xanthopoulos en Relatividad General (2001) - Medalla Pío XI (2002) - Premio APS Bouchet (2004) - Premio Dannie Heineman de Física Matemática (2007) - Premio y medalla Dirac - ICTP (2008) - Medalla Oskar Klein (2012) - Premio Pomeranchuk (2012) - Premio en Física Fundamental de Yuri Milner (2012) - Premio Konex de Brillante y de Platino, disciplina Física y Astronomía (2013) - Richard E. Prange Prize and Lectureship in Condensed Matter Theory and Related Areas (2018) - Medalla Lorentz (2018) - Medalla Albert Einstein (2018) - Medalla Galileo Galilei (2019) Miembro de la Academia Pontificia de las Ciencias Miembro de la National Academy of Sciences.

    Es importante mencionar también el apoyo del Dr Maldacena al desarrollo de la ciencia en Argentina: realizó varias estadías como profesor visitante en la Facultad de Ciencias Exactas y Naturales de la UBA, produciendo un gran impacto entre los docentes y los alumnos, asistió a reuniones de la AFA y a conferencias relacionadas con sus trabajos de investigación realizadas en el país, jerarquizándolas con su presencia y dictó conferencias para público general en distintas ciudades del país. Asimismo, creó un programa de profesores visitantes en el Instituto Balseiro, permitiendo el acercamiento de prestigiosos científicos a investigadores de todo el país.

    Estos aportes lo hacen merecedor del título de Doctor Honoris Causa de la Universidad de Buenos Aires.

    Dr. Fernando Lombardo, profesor e investigador enel Departamento de Física, Exactas, UBA.

  • Juan nació en Trieste en 1929, pasó su infancia en Austria y su adolescencia en la Argentina.

    En 1952 se doctoró en la Facultad de Ciencias Exactas y Naturales de la UBA. Entre 1956 y 1966 fue Profesor Titular y a partir de 1964, Director del Centro Nacional de Radiación Cósmica. En 1967 emigró con su familia a los Estados Unidos, donde se desempeñó como profesor de física en la Universidad de Denver hasta 1977. Ese año fue designado director del mundialmente reconocido Instituto de Geofísica de la Universidad de Alaska, cargo que ejerció hasta fines de 1986. Además es Senior Consultant del Centre for Theoretical Physics  (ICTP) en Trieste, Italia.

    Roederer es autor de màs de 250 publicaciones en revistas cientìficas sobre temas de física espacial, política científica y psicoacústica, y ha escrito varios textos universitarios. Sus temas de investigación principales son, la magnetósfera de Júpiter, los mecanismos cerebrales de percepción de música, y el significado del concepto información en biología y física. Es miembro de las Academias Nacionales de Ciencias de la Argentina (Buenos Aires, 1983 y Córdoba, 2001), de Austria (1985), y de la Academia de Ciencias del Tercer Mundo (1991). Entre las muchas distinciones recibidas a lo largo de su carrera figuran la medalla “100 Years of International Geophysics” de la antigua Academia Soviética de Ciencias, tres premios de la NASA por su participación como co-investigador en la misión Galileo a Júpiter, y el premio Flinn Year 2000 de la American Geophysical Union (AGU). Y , es Profesor Emérito de Física de la Universidad de Alaska-Fairbanks.

    Sin embargo, para los estudiantes de esta Facultad, Roederer es más conocido como un libro: ”Mecánica Elemental en Física I”, que como el exitosísimo cientifico que les acabo de describir. En este sentido, vale decir que en 2015 publicó ”Electromagnetismo Elemental”, el que podríamos llamar ”el Roederer de Física 3”.

    Como si todo esto fuese poco, Juan es organista, ¡y uno muy bueno!, toca dos horas por semana el órgano más grande de Boulder, ciudad en la que vive actualmente. Y por si alguno esta pensando que no debe tener tiempo para nada más, déjenme decirles que también nada mas de dos kilómetros por semana al aire libre y lo hace sin importar cuán baja sea la temperatura. Puedo dar fe de esto porque nos envió una foto en malla bajo la nieve. Quienes lo conocen bien, destacan mucho su incansable fuerza de trabajo y su permanente excelente sentido del humor, del que seguramente van a poder disfrutar en estas charlas en Buenos Aires.

    Darío rodrigues, investigador.

  • El investigador Peter Alexander participó de la campaña SouthTRAC que acaba de realizarse en el sur argentino. El proyecto busca conocer fenómenos atmosféricos sólo observables en esa región del globo.
    La estrella de la campaña es el avión de investigación HALO, que permitió realizar mediciones atmosféricas de cantidades meteorológicas y gases traza en el hemisferio sur y a altas latitudes.

    Crònica: https://eos.org/postcards-from-the-field

     

DF es docencia, investigación y popularización de la ciencia.