• Laboratorio LAMBDA Inauguración + Workshop

    El Laboratorio Argentino de Mediciones de Bajo umbral de Detección y sus Aplicaciones es un proyecto del Departamento de Física (UBA & Conicet) junto a Fermilab.

    Sumate a las actividades:

  • La carrera del momento

    Por Martín De Ambrosio para La Nación


    -No sé qué estudiar, papá –le dijo Manuela Gabriel a su padre cuando tenía 17 años y ya había fatigado de arriba abajo la Guía del Estudiante, una publicación que ayudaba a los desorientados que terminaban el secundario.

    -Pensá al revés: qué es lo que querés entender.

    -Quiero saber cómo funciona todo.

    -Entonces estudiá física –cerró su padre un diálogo que Manuela aún recuerda. Porque en definitiva le hizo caso: se metió en la carrera que se cursa en Ciudad Universitaria, incluso sin idea de qué tipo de salida laboral podía tener. Hoy, unos años después y ya doctorada, trabaja como científica de datos en Globant, uno de los unicornios argentinos (esas empresas que valen más de mil millones de dólares), dedicada al software.

    “La carrera te da herramientas casi sin que te des cuenta; no son solo datos sobre el campo eléctrico, sobre partículas o sobre el origen del universo, sino sobre cómo razonar, cómo aprender a resolver un problema, aprender a aprender”, dice a LA NACION. Antes de Globant, trabajó unos meses en una empresa de finanzas, donde hizo análisis cuantitativos y automatización de análisis. Ahora trabaja en las áreas de salud, farmacología, genómica, agro y sustentabilidad de la compañía.

    Manuela Gabriel no es una excepción sino más bien una tendencia que hace que los departamentos de los llamados “recursos humanos” busquen cada vez más licenciados y doctores de una carrera que en el imaginario está más relacionada con la docencia y la investigación académica; o, en todo caso, con industrias con alto grado de tecnicidad (como el uso de láseres, por ejemplo).

    Son esas cualidades mencionadas por Manuela las que provocan el interés de empresas bursátiles, bancos, compañías de análisis de riesgos, medios de comunicación, tarjetas de créditos, de videojuegos, de venta de viajes y turismo, de criptomonedas, de imágenes satelitales, de música, medicina, seguridad, y hasta de empresas que generan bots de Whatsapp. Todas ellas, en Argentina y el mundo, emplean físicos.

    El reino de las opciones
    “En los últimos diez años, en Silicon Valley (cuna de la innovación tecnológica californiana) contratan más físicos que programadores”, dice Pablo Mininni, ex director del departamento de física de la Universidad de Buenos Aires, al enmarcar un fenómeno que se repite en la Argentina. “Fue algo que cambió con la explosión de datos disponibles que usan las empresas en general y las fintech (finanzas y tecnología) en particular; sobre todo, aquellas nacidas por el uso casi universal de los teléfonos inteligentes”, define el también investigador principal del Conicet y coordinador del grupo y laboratorio FLIP de fluidos y plasmas.

    Las empresas, entonces, tienen problemas para manejar y generar conclusiones de semejante magnitud de datos. Es ahí que entra el conocimiento dado por la carrera de física y donde aparecen paralelos, por ejemplo, entre la manera en que fluctúan las acciones en las bolsas de comercio y los gases en un sistema determinado.

    Por eso, además de los empleos fijos para desarrollos y análisis, los físicos colaboran en asesorías concretas sobre riesgos, estimaciones de los precios de las acciones en el futuro; también en lo que se conoce como deep learning (aprendizaje profundo), una de las ramas de la inteligencia artificial que se usa profusamente para diversos desarrollos.

    En términos relativos, las empresas deben disputarse camadas exiguas de físicos, dados los números de egresados en el país. En la UBA, que genera la mitad de ellos, son entre 30 y 50 los licenciados por año y alrededor de 20 los doctorados (con un 30% de mujeres, por sobre el promedio internacional).

    “Necesitamos más físicos y más doctores en varios campos, generar más puentes entre la industria y la academia, además de terminar de cambiar ciertas malas lecturas en algunos departamentos de recursos humanos. Saltar el prejuicio de que somos los raritos de los números. En ese sentido, los físicos que ya trabajan con éxito en la industria funcionan como embajadores”, dice Mininni.

    “Hay que tenerle menos miedo a los de Exactas”, dice Manuela Gabriel. “Yo también tenía prejuicios con los físicos, porque te imaginás a un Einstein despeinado que camina de modo singular, un bicho raro. Y ni hablar si sos mujer. Creo que de a poco eso está cambiando y la facultad se abre más a la sociedad”, dice. Entre los desafíos está aprender a llevar el lenguaje matemático a los no-matemáticos y hacerse entender por compañeros de trabajo con otro tipo de formación.

    Ir y volver
    El caso de Sofía del Pozo es similar al de su colega Gabriel, con un poco más de vaivén, si se quiere. Al terminar la secundaria dudaba entre filosofía o física, pero le interesaba más cómo la matemática podía explicar los fenómenos físicos. Su mejor amigo quería estudiar cosmología y hoy prepara su doctorado sobre el sol. “Es un físico estándar, de libro”, define del Pozo.

    “En los últimos diez años, en Silicon Valley (cuna de la innovación tecnológica californiana) contratan más físicos que programadores”, dice Pablo Mininni.

    Ella, en cambio, mientras esperaba una beca de doctorado, buscó trabajo en la esfera privada. Así fue como entró en un banco, para hacer análisis de datos. “Me encontré con bases de datos desorganizadas. Tenían una estructura que funcionaba, pero sabían de las transformaciones tecnológicas que se venían y del mayor uso de aplicaciones, la digitalización de muchos procesos, y querían mejorarla. Había nuevas necesidades para innovar dentro de ese marco, digitalizar todo el banco”, cuenta a LA NACION. Pero, ¿por qué un banco elige físicos para estas tareas y no, por ejemplo, programadores o ingenieros? “Los físicos están en vínculo con los datos, tienen una sensibilidad en combinación con una base matemática muy fuerte. Se trata de pensar los modelos en abstracto, combinar una cierta intuición con una lógica matemática de fondo”, señala.

    Un año después, apareció finalmente la beca de doctorado del Conicet (sobre análisis de redes complejas aplicadas a redes sociales) y del Pozo volvió a la academia, pero no descarta una nueva experiencia en el ámbito privado, donde los salarios pueden hasta triplicar al ingreso de una beca (hoy una beca doctoral ronda los $80.000). “Fue interesante aplicar la formación de la carrera en áreas que no te imaginás; con gente que hace veinte años trabaja en análisis de riesgos. Mi participación fue dentro de ese grupo. Pensar modelos, usar datos de transacciones bancarias, detectar fraudes, ver de dónde salió la primera transacción fraudulenta”, cierra del Pozo.

    Bio-medi-finanzas
    Gastón Maffei, que también entró a la carrera de física sin saber qué iba a hacer cuando egresara, trabaja en un fondo de inversión de capital de riesgo (los llamados venture capital), que invierte en compañías de tecnología que recién comienzan, pero pueden tener crecimiento exponencial. “Mi trabajo es de analista: llegan las posibilidades de inversión y me ocupo de analizarlas y estudiar cuáles son buenas y cuáles no. Lo discutimos en equipo; una actividad súper interdisciplinaria”, dice y reconoce: “Como físico no hago cosas de físico. Estudiar física te da un marco, una estructura lógica para analizar situaciones sin conocimiento específico, encontrar lo esencial dentro de cierto marco de datos”, coincide con sus colegas.

    Manuela Gabriel, por su parte, define a su trabajo como híbrido entre el análisis de datos con modelos matemáticos y la investigación en sí. Por ejemplo, analiza los datos generados de una app que motiva a los usuarios a hacer ejercicio, y hace inferencias “para optimizar los parámetros de probabilidad de que ese ejercicio suceda, maximizar el rendimiento y formar hábitos saludables”. Es más: también participa en el área de investigación en diagnóstico por imágenes a través de la inteligencia artificial para proveer mejores opciones de tratamiento y reducir el tiempo que lleva el diagnóstico y tratamiento de varias enfermedades.

    Otro físico en la rama quizá insospechada de la medicina es Matías Ison, un argentino que actualmente es profesor de psicología en la Facultad de Ciencias de la Universidad de Nottingham (Inglaterra). “Sí, porque la psicología es una ciencia”, sonríe Ison desde el otro lado del océano.

    “Todo tiene que ver con la interdisciplina; hay que desarmar el prejuicio fuerte en Argentina de que las disciplinas tradicionales no se pueden hacer ciertas preguntas de otras áreas”, explica. A él siempre lo fascinó la física como disciplina, pero también le da importancia a las herramientas que se utilizan en la física. “Un momento súper importante para mí fue cuando descubrí (gracias a Gabriel Mindlin) que construir un modelo que explicara un fenómeno físico podía también resultar útil en la biología y otros campos. Así fue como después de un doctorado en mecánica estadística me volqué a las neurociencias”, cuenta.

    Parte importante del trabajo de Ison es interactuar con pacientes para investigar la formación de memorias. “Para eso, aprovechamos una oportunidad que se presenta en algunos pacientes epilépticos, a los que se les implantan electrodos cerebrales para ubicar en forma precisa dónde se originan las crisis epilépticas. Muchas veces (dependiendo exclusivamente de un criterio clínico) estos electrodos se ubican en áreas del cerebro que son fundamentales para la formación de memorias, lo que da una oportunidad increíble de atestiguar qué cambios ocurren en el cerebro cuando, por ejemplo, por casualidad nos encontramos con aquel viejo compañero de escuela en la estación de tren”, detalla Ison. La interdisciplina, por supuesto, es más que clave. “No quiere decir que necesariamente un físico haga modelos, que un ingeniero o ingeniera construya equipos. En general hay mucha más idas y vueltas, lo que hace que todo sea mucho fluido”, agrega.

    En síntesis, las opciones de los físicos para salir de la carrera clásica son muchas y, en general, divertidas, según ellos mismos lo describen. “No son problemas repetitivos, todo el tiempo hay un desafío distintos”, dice Mininni. En eso están estos científicos que buscan saber cómo funciona todo, para, además de describir y entender el mundo, también modificarlo.

    Fuente: https://www.lanacion.com.ar/sociedad/la-carrera-del-momento-sus-egresados-tienen-fama-de-nerds-pero-las-empresas-los-aman-nid20112021/

     

  • Presencialidad

    Durante el ciclo lectivo 2021 estudiantes de todas las etapas de la carrera tuvieron la oportunidad de volver a la facultad, más de veinte materias téorico-prácticas regresaron a las aulas así como los laboratorios de enseñanza. para que esto fuera posible, en  el Departamento de Física acondicionamos aulas para poder dictar materias de forma presencial y virtual en simultáneo; así como reacondicionamos la totalidad de los laboratorios de enseñanza. Por otro lado, se están llevando a cabo las instancias de evaluación en parciales y finales de modo presencial.

  • Enzo Tagliazucchi, Premio Gaviola 2020

    El profesor e investigador Enzo Tagliazucchi ha ganado el premio Enrique Gaviola 2020 de la Academia Nacional de Ciencias por sus excepcionales antecedentes científicos en el área de Física, Matemáticas y Astronomía.

    Noticia

    Dr. Enzo Tagliazucchi

    Tiene 38 años de edad. Es Licenciado en Física en la Facultad de Ciencias Exactas y Naturales (FCEN) de la Universidad de Buenos Aires (UBA) con promedio 9.50. Doctorado en la Goethe University Frankfurt am Main, Alemania 2015. Cuenta con Posdoctorados en Francia y Holanda.
    Trabaja en dinámica cerebral partiendo de la perspectiva de la física de los sistemas complejos (interfase entre la física y las neurociencias). Actualmente su trabajo se centra en investigaciones sobre el uso de neuroimágenes y métodos de la física estadística para comprender los estados no-ordinarios de conciencia y la dinámica cerebral general. Es Investigador Adjunto del CONICET, Profesor Adjunto en la FCEN-UBA  y en la Universidad Adolfo Ibañez (Chile).
    Ha publicado en revistas de alto impacto como NeuronPNASCurrent BiologyPhysical Review LettersScience Advances o Nature Communications.
    Desde su regreso al país en 2018 es director del Laboratorio Interdisciplinario de Conciencia Cultura y Complejidad (IFIBA y Depto de Física –FCEN, UBA-); es director o co-director de 5 tesis doctorales en curso, 2 becarios posdoctorales y 1 investigador. Ha publicado 74 trabajos en revistas internacionales, en 30 de sus publicaciones tiene filiación en Argentina (3 de su etapa pre-doctoral en el país).
    Fue Profesor Adjunto o invitado en 8 Universidades del país y el exterior, y dictó 31 seminarios como invitado en distintas instituciones del mundo. También es miembro del comité editorial de 3 revistas internacionales.
    Además de sus trabajos como investigador, el Dr. Tagliazucchi participa activamente en trabajos de extensión: ha realizado una charla TED X, escrito varios artículos de difusión científica y participando en charlas en escuelas secundarias.

  • El sonido de los sueños

    Desde hace años, un grupo de científicas y científicos argentinos viene estudiando lo que hacen las aves durante el sueño. En una investigación reciente, y a diferencia de lo realizado hasta el momento, llevaron a cabo un trabajo con benteveos, aves que cantan en forma innata y que son poco estudiadas en los laboratorios.

    *Lis Tous

    Conocido popularmente como “bichofeo” por la similitud onomatopéyica de la frase con su canto, este animal de pecho amarillo, pico negro largo con terminación de gancho y una línea blanca sobre los ojos puede escucharse en casi toda América. Son aves suboscinas, cantan de forma innata. En el laboratorio, cuando el ave está completamente dormida, unos pequeños electrodos puestos en sus músculos fonadores detectan activaciones, aunque no haya sonido alguno. Es decir, el sueño provoca un canto silencioso. Hace unos años, el director del Laboratorio de Sistemas Dinámicos del Departamento de Física de la Facultad de Ciencias Exactas y Naturales de la UBA, Gabriel Mindlin, https://nexciencia.exactas.uba.ar/canto-aves-pajaros-neurociencias-diamante-mandarin-gabriel-mindlin', 'demostró junto a otros colegas']);" target="_blank" rel="noopener noreferrer" style="margin: 0px; padding: 0px; color: rgb(21, 74, 127); font-weight: 700; text-decoration: none; border-bottom: 1px solid rgb(204, 204, 204);">demostró junto a otros colegas que la actividad neuronal podía observarse a nivel muscular.

    “Para esta investigación trabajamos con cuatro ejemplares de benteveos. Para nosotros es muy importante el trato con los animales. Hicimos la captura mediante la autorización de la Dirección de Flora y Fauna de la Provincia de Buenos Aires. Las aves se transportan al laboratorio, pasan unos días adaptándose, luego se realiza una cirugía para insertar los electrodos en el músculo, hacemos el experimento, se sacan nuevamente los electrodos y las aves vuelven a su hábitat natural”, enfatiza Juan Doppler, uno de los autores delhttps://royalsocietypublishing.org/doi/abs/10.1098/rspb.2021.0610', ' último trabajo']);" target="_blank" rel="noopener noreferrer" style="margin: 0px; padding: 0px; color: rgb(21, 74, 127); font-weight: 700; text-decoration: none; border-bottom: 1px solid rgb(204, 204, 204);"> último trabajo del grupo.

    Los científicos no han encontrado las estructuras neuronales que controlan el canto de los benteveos que, a diferencia de las aves que sí aprenden (oscinas), no poseen un sistema de núcleos neuronales especializados en cantar, sino que explotan estrategias relacionadas con la biomecánica que les permiten producir vocalizaciones más complejas.

    “No conocemos mucho de cómo se controla a nivel neuronal el canto en las aves suboscinas. Si quisiéramos colocar electrodos en el cerebro del ave y observar cómo se activan sus neuronas mientras duerme no sabríamos dónde hacerlo. En cambio, sabemos cómo hacer eso en los músculos de la siringe, su órgano fonador. Enfocarse en la biomecánica de los músculos fonadores de los pájaros es como abrir ventanas hacia el sueño, interpretarlo de forma más directa”, explica Doppler.

    “La estereotipia del canto se convierte en un patrón de comportamiento: mientras sueñan, la actividad puede variar, pero resulta muy similar a lo que hacen mientras cantan durante el día. En particular, sus patrones de actividad muscular tienen una frecuencia definida; durante la noche esa frecuencia se ve significativamente reducida, lo hacen con lentitud; también juegan más, se permiten variaciones”.

    Celosos de su territorio, cuando los invade un competidor en su espacio emiten una vocalización particular que se llama trino, aletean y muestran la corona que mantienen oculta. ¿Hacen lo mismo durante el sueño? Los investigadores se sorprendieron con la respuesta. Para comprobar que las aves dormían y los registros de actividad correspondieran al sueño y no a la vigilia, colocaron cámaras con luz infrarroja para espiarlos (ver imágenes abajo). “Mientras duermen practican el canto, llaman a su pareja o pelean, ejercitan el trino a nivel muscular”, cuenta Doppler y agrega: “Por otra parte, se inhiben la respiración -por eso no cantan mientras duermen- y también los movimientos de las alas. Esos movimientos desaparecen con el sueño, no así las señales, del orden de cien milisegundos a medio segundo, que nosotros pudimos detectar y estudiar”.

    “Nos interesa saber qué hacen de noche porque queremos ir hacia el comportamiento. Es decir, estamos trabajando para saber cómo se procesa esa información que llega al músculo, de noche, y cómo se convertiría en sonido para así escuchar lo que están soñando. Es un trabajo que desde hace muchos años se viene haciendo en el laboratorio, a partir del cual se han construido modelos que permiten hacer estas traducciones. En este caso particular, buscamos adaptarlo a los benteveos porque tienen dos fuentes sonoras, dos pares de labios que actúan juntos”.

    Doppler reconoce que hay una pregunta que rodea a cada estudio: ¿cuál es el rol que cumplen estas prácticas? “Sabemos que en las aves oscinas el sueño tiene un papel importante en el aprendizaje del comportamiento vocal, les resulta necesario para afianzar. Lo mismo ocurre con otros animales como los ratones. Las aves suboscinas son vecinas, filogenéticamente hablando, de las que sí aprenden; están muy cerca en términos evolutivos. Entonces, nos interesa saber si esto que sucede es anterior al aprendizaje, o no. Y tenemos algunas pistas”.

    La actividad neuronal de las aves que observan, modelan y analizan una docena de personas en el Laboratorio de Sistemas Dinámicos son, en definitiva, átomos bailando al ritmo del azar evolutivo, parafraseando a Gabriel Mindlin, el hombre que oyó por primera vez qué sueñan los pájaros en un laboratorio de Exactas UBA.

    Publicado originalmente en NexCiencia

  • Lanzamos DF INNOVA

    El nuevo espacio del Departamento de Física busca vincular la institución con empresas e industrias a través del diálogo con diferentes actores, así como pensar estrategias de posicionamiento para graduadas y graduados en el mercado laboral actual.
    El primer evento se realizó el 20 de mayo, participaron empresas que utilizan grandes cantidades de datos y valoran la capacidad analítica y creativa de profesionales formados en ciencias físicas para abordar problemas complejos.
    ​​​​​​​La reunión resultó muy productiva e inauguró un canal de comunicación donde recibimos cinco ofertas laborales en pocas horas.
    Para quienes deseen conocer más sobre la iniciativa pueden hacerlo a través del sitio web. También los invitamos a sumarse.

    innova.df.uba.ar

  • Pasajeros en trance

    *Por Federico Kukso

    Un equipo transdisciplinario estudió durante un año qué efectos tienen los alucinógenos en el cerebro de quienes los consumen de manera recreativa, personal o religiosa. 

    Las puertas de la percepción vuelven a abrirse para la neurociencia.

  • Arecibo ya no descifra los mensajes del universo

    *Por Lis Tous

    El 1 de diciembre pasado colapsó el radiotelescopio ubicado en Arecibo, al norte de Puerto Rico. Fue un gigante que ayudó, durante 45 años, a descubrir fenómenos astronómicos nunca antes imaginados. Desfinanciado y con problemas de mantenimiento, su estructura dijo basta. El investigador argentino, Félix Mirabel, quién trabajó en el centro de Arecibo, reflexiona sobre el valor de este proyecto que hizo historia en la ciencia mundial.

    El legendario radiotelescopio de Arecibo ha colapsado luego de sufrir varios deterioros en su estructura. Ubicado en el norte de la isla de Puerto Rico, en los últimos años había soportado tres huracanes, terremotos de magnitud y una desfinanciación constante. Desde agosto se registraron daños importantes, por lo que los ingenieros que debían evaluar el deterioro habían recomendado su desmantelamiento. El 1ro. de diciembre último, mientras se monitoreaba a través de cámaras el estado de los cables, vimos derrumbarse la plataforma de los receptores del radiotelescopio sobre la antena. Novecientas toneladas desplomadas en segundos marcaron el fin de este mensajero del universo.

    Durante medio siglo, el que fuera el detector de ondas de radiofrecuencia más grande del mundo permitió observar y estudiar los púlsares, ese fenómeno que se origina en las estrellas de neutrones, que es una forma particular de morir que tienen las estrellas. Pero no solo eso: el Observatorio de Arecibo abrió las puertas hacia el universo profundo: permitió probar indirectamente la existencia de ondas gravitacionales. En 1974 permitió el descubrimiento del primer sistema binario de púlsares, hallazgo que dio lugar al premio Nobel de Física de 1993.

    En agosto de 1989, el radar de Arecibo hizo posible construir la imagen de un asteroide por primera vez en la historia: el Castalia. A partir de las observaciones realizadas en Arecibo también se detectaron los primeros planetas fuera de nuestro sistema solar y se determinó el período de rotación de Mercurio. Funcionando como radar permitió  explorar la atmósfera superior terrestre así como desentrañar la superficie de Venus.

    Como tantos astrónomos alrededor del mundo, el argentino Félix Mirabel trabajó en el Observatorio de Arecibo. Durante una década desarrolló distintos proyectos de observación, compartió con sus colegas largas temporadas en esa área natural de Puerto Rico que alberga  toneladas de acero, hoy enmarañadas. “Fui por primera vez en 1979, siendo investigador posdoctoral en la Universidad de Maryland. Envié una propuesta para observar durante dos semanas, varias horas por día y obtuve el financiamiento para hacerlo. Luego, durante más de diez años fui regularmente por diferentes proyectos. La última vez que estuve fue en 1989, pero nunca perdí contacto con la gente del lugar, y sé que los dos últimos años han sido muy duros”, dice Mirabel, conmocionado, luego de ver las imágenes del colapso del telescopio que se difundieron por las redes sociales.

    Mirabel es Investigador en el Instituto de Astronomía Física del Espacio de UBA-CONICET, fue director de los Observatorios Europeos del Sur (ESO) en Chile y director de Investigaciones en el departamento de astrofísica de la Comisión de Energía Atómica de Francia. Es miembro de la Academia Nacional de Ciencias Exactas, Físicas y Naturales.

    -¿Por qué este radiotelescopio era tan especial?

    -Esencialmente por la superficie colectora, la cual era equivalente a la suma de todos los radiotelescopios del mundo. El diámetro es de  305 metros, la circunferencia es de casi un kilómetro. Lo recuerdo bien porque hacíamos ejercicio ahí, corríamos alrededor del plato. La superficie colectora de radiación es muy grande y por consiguiente se podían detectar señales muy débiles que otros radiotelescopios no pueden. Para nuestro proyecto de observación de galaxias infrarrojas ultraluminosas, en unos pocos minutos logramos un muy buen espectro, en otros esa observación llevaba horas. Pero, además, es un radiotelescopio que no sólo funcionaba como receptor sino también como radar, el radar más poderoso del mundo, por eso frecuentemente lo utilizaba la NASA para dar seguimiento a sondas espaciales en el espacio interplanetario. También se utilizaba como alarma sobre posibles asteroides que podrían colisionar con la Tierra. Es decir, era un instrumento de una versatilidad muy grande,  era único.

    -Ese plato que usted menciona era básicamente una malla de alambre sobre una depresión del terreno, y en altura había una antena sostenida por tres cables de acero, la estructura que vimos derrumbarse. ¿Cómo funcionaba?

    -En este radiotelescopio, en lugar de mover el espejo primario, se mueve el foco sobre una plataforma en altura, y así se simula el movimiento de esa malla receptora, y dependiendo de la declinación de las fuentes se podía observar cada objetivo por un intervalo máximo de dos horas. La plataforma colapsó, este problema comienza a ser agudo cuando se proyecta la instalación de más instrumentos de hasta 200 toneladas sobre la plataforma y uno de los cables empezó a deshilacharse.

    -¿Cuáles cree que han sido los descubrimientos más importantes que se lograron gracias al radiotelescopio de Arecibo?

    -Según mi parecer, el más importante fue el que dio lugar al premio Nobel de 1993, a Joseph Taylor y  Russell Hulse a partir del descubrimiento de un sistema binario de púlsares. Conocí a Taylor años antes de que él ganara el Premio Nobel. Pasó su año sabático en Arecibo, trabajando muchas horas diarias en un sistema instrumental de detección muy sofisticado para la resolución temporal de señales pulsantes y escribiendo un libro. Cuando yo era estudiante de licenciatura se descubrieron los púlsares por primera vez y por la precisión de los períodos de pulsación se llegó a creer que eran los hombres verdes enviándonos señales, no se conocía ningún fenómeno natural que pudiera producir ese tipo de señales. Fue -en 1974- el profesor Carlos Jaschek, del Observatorio de La Plata, quien nos comentó la noticia. Durante las observaciones de ese púlsar binario, Taylor fue constatando que el período orbital entre las dos estrellas de neutrones decrecía con el tiempo, lo que quiere decir que había una pérdida de energía orbital que se producía por la radiación de ondas gravitacionales. El Nobel 2017 fue entregado por esta detección indirecta de ondas gravitacionales a LIGO. El otro gran descubrimiento fue la observación de un par de objetos alrededor de un púlsar que llamaron planetas porque producían un tironeo de la estrella de neutrones y, por consiguiente, variaciones en los pulsos de los púlsares asociados a la estrella de neutrones. Esto fue un descubrimiento muy importante, pero quizás no con el impacto del descubrimiento posterior de un sistema planetario como se produjo más tarde por medio de observaciones ópticas. Además, Arecibo fue utilizado como radar para hacer la prospección de la superficie de Venus, un planeta con una atmósfera muy densa, y también como alarma de posibles asteroides que se acercan a la Tierra.

    -Imagino que era un lugar único, también, para encontrarse con colegas y pasar temporadas de observación.

    -Es un lugar muy especial. Aleksander Wolszczan, el polaco que descubrió el par de planetas asociados a un púlsar, era staff permanente de Arecibo, y cuando visité Varsovia para dar conferencias, descubrí que allí  lo llamaban el Copérnico del siglo XX.  También pude conversar con Michel Mayor, quien recibió el premio Nobel por el descubrimiento del primer sistema planetario extrasolar.

    -Arecibo es muy importante para usted, para su carrera. ¿Cuáles han sido sus trabajos allí?

    -Mi primer estudio fue sobre nubes de gas de hidrógeno atómico provenientes de las galaxias satélites llamadas “Nubes de Magallanes”.  Ese gas cae hacia la Vía Láctea a velocidades de 400 km por segundo, y en aquella oportunidad encontré evidencia directa de la colisión de esas nubes de hidrógeno con la Vía Láctea. Esa fue la primera evidencia indirecta de la existencia de un medio intergaláctico de gas ionizado con temperaturas de cien mil grados Kelvin, muy difícil de detectar directamente, pero que en la actualidad se piensa constituye una fracción importante de la masa bariónica -materia- del universo. Pero mi proyecto más importante en el Observatorio de Arecibo vino después con el inicio del descubrimiento de un nuevo tipo de galaxias, muy extrañas por su forma irregular, que más tarde confirmé con mi colega Dave Sanders, de Caltech: eran galaxias en colisión en avanzado estado de fusión. Usando el satélite Infrared Astronomical Satellite (IRAS) de NASA, descubrimos que eran galaxias con radiación equivalente en energía a los cuásares, pero en el infrarrojo. Son galaxias ultraluminosas, en el infrarrojo radian tanto como un millón de millones de soles pero no se detectan de forma óptica, son oscuras a los ojos. Este fue mi proyecto más productivo en Arecibo porque significó la apertura de nuevos horizontes de investigación.

    -¿Qué piensa que sucederá con el resto del Observatorio y los grupos de trabajo que estaban allí?

    -Hay proyectos que solo podían ser desarrollados en Arecibo y serán definitivamente abortados, a menos que puedan ser continuados con el nuevo radiotelescopio FAST de 500 metros de diámetro en China. Supongo que una fracción importante de los trabajadores del observatorio perderá su trabajo. Con seguridad será una gran pérdida a nivel educativo y recursos para los habitantes de la región de Arecibo y Puerto Rico en general.

     

  • Buscando la superconductividad de temperatura ambiente

    *Por Carlos Acha - Departamento de Física, UBA & IFIBA-CONICET

    En un trabajo que acaba de ser publicado por la revista Nature [Snider, E. et al. Nature 586, 373–377 (2020)], Ranga Dias y colaboradores lograron materializar un sueño largamente buscado: ¡obtuvieron superconductividad a temperatura ambiente! Necesitaron aplicar presiones de 267 GPa (más de 2 millones de atmósferas) sobre un compuesto a base de Azufre, Carbono e Hidrógeno para lograr observar una transición superconductora resistiva a 15 °C. También vieron que esta transición no cambia al variar la corriente aplicada (descartando así que se tratara de una fase minoritaria) y que se corre a menores temperaturas al aplicar un campo magnético intenso. Adicionalmente lograron medir un apantallamiento magnético por susceptibilidad alterna. Este conjunto de pruebas, reproducidas para varias docenas de muestras, hace pensar que no se trata de un error y que efectivamente los investigadores lograron que el material alcance un estado superconductor, sin que sea uno de los artificios que pudiera aportar, por ejemplo, una transición de fase inducida por presión, dando a lugar a un cambio abrupto en la conducción eléctrica, sin que en realidad haya de por medio una transición superconductora asociada. 

    Por ahora los investigadores desconocen la estequiometría y estructura cristalina del compuesto que sintetizaron fotoquímicamente entre los dos yunques de diamante que emplearon para aplicar estas increíbles presiones al material. Allí mezclaron H2 con S y C, aplicaron una presión de 4 GPa e iluminaron con un láser de 532 nm durante varias horas. A esta presión la longitud de onda de la luz incidente rompe las uniones del S y permite que forme otras estructuras, reaccionando con el H2 para formar H3S. Ajustando la iluminación del láser y la presión aplicada observaron la formación de un cristal homogéneo y  transparente en el que, mediante espectroscopía Raman, verificaron la no existencia de restos de S o de C sin reaccionar. También confirmaron que el material formado es inestable a presiones menores a los 10 GPa y que transiciona a una fase metálica a partir de los 60 GPa.

    Este logro, tan buscado desde el descubrimiento de la superconductividad, se obtuvo tras una serie de investigaciones, iniciadas hace menos de 10 años en hidruros con alto contenido de H2, con la idea de que la superconductividad podría desarrollarse a temperaturas no tan bajas como las requeridas usualmente. Esto sería posible gracias al fuerte acoplamiento entre los electrones y las vibraciones de la red que se puede obtener en el H2 bajo presión. Este trabajo muestra que el estado superconductor puede observarse a temperaturas tan altas como temperatura ambiente y no resulta obvio predecir cuál será la máxima temperatura para la que se observe superconductividad bajo estas condiciones extremas.    

    Un poco de historia

    A principios del siglo pasado (1911), Kamerlingh Onnes y colaboradores se preguntaban cómo sería la conductividad eléctrica de un metal a bajas temperaturas: ellos se imaginaban que los electrones, en buena parte responsables de la conducción eléctrica, se comportarían como un gas, condensándose a temperaturas suficientemente bajas. Así, los portadores de carga perderían movilidad, y el metal se convertiría en un mal conductor, un aislante. Estas ideas, junto con la conjunción tecnológica de su capacidad de licuar Helio y la de poder contar con recipientes para almacenarlo durante un tiempo razonable, -gracias a los termos inventados por el señor Dewar-, les permitieron realizar el experimento.

    Tremenda habrá sido su sorpresa al descubrir que el mercurio, por debajo de una temperatura llamada “crítica” (Tc), cercana a los 4 K (-269 °C), tenía un comportamiento totalmente opuesto al esperado: se convertía en un conductor perfecto, es decir ¡su resistencia eléctrica se hacía literalmente cero! Esto resultó ser el descubrimiento de un nuevo estado electrónico de la materia, que en ese momento llamaron “superconductividad”. Desde entonces, el estudio de los materiales superconductores y de sus propiedades ha sido un campo de mucho interés científico y tecnológico.

    Con el devenir de los años se develaron muchas propiedades adicionales de los superconductores: 30 años luego del descubrimiento de Onnes, se supo que la superconductividad era más que la conducción perfecta, ya que para que un material pertenezca al “club” también tiene que ser un diamagneto perfecto, al menos bajo ciertas condiciones[i]. Esto quiere decir que al someterlo a un campo magnético el superconductor dispone, con cierta gratuidad, de corrientes eléctricas para apantallar el campo magnético y hacerlo nulo en su interior (B=0, el llamado efecto Meissner).  Se habló entonces de superconductores de tipo I y II, siendo los primeros los que frente a un campo magnético creciente mantienen heroicamente B=0, hasta un valor crítico en el que dejan de ser superconductores, y los segundos aquellos que dejan entrar cuantos de flujo magnético (vórtices) conformando una red y manteniéndose en un estado superconductor mixto con propiedades muy interesantes. Y así se fue entendiendo cada vez más de los superconductores, tanto mediante el uso de descripciones macroscópicas de la transición de fase al estado superconductor (teoría de Ginzburg-Landau) como gracias al desarrollo de una teoría microscópica que describe la aparición del estado superconductor gracias a la existencia de una interacción atractiva entre los electrones (teoría BCS[ii]). Se descubrieron propiedades muy llamativas como las que se observan en interfaces entre superconductores y aislantes (efecto Josephson), o entre superconductores y metales normales (efecto de proximidad), entre otras muchas cuestiones que no vamos a describir aquí.

    Una de las aplicaciones de los superconductores que generó mucho interés, ya desde los primeros años de su descubrimiento, fue la de aprovechar su resistencia nula para transportar grandes corrientes eléctricas. En efecto, los metales normales tienen el mal hábito de perder energía como calor cuando circula a través de ellos una corriente (efecto Joule). Por ello, los superconductores serían ideales para su uso en cables de alta tensión o en bobinas, tanto de motores como de solenoides para la generación de grandes campos magnéticos. De hecho, esta es la aplicación industrial más frecuente de los superconductores: la producción de campos magnéticos altos y tremendamente estables que encontramos en los equipos médicos de imágenes por RMN. También existen trenes de alta velocidad levitados e impulsados gracias al uso de bobinados superconductores. El problema es que para que el superconductor funcione como tal, es necesario enfriarlo por debajo de su Tc. Si alcanzar estas temperaturas requiere por ejemplo del uso de Helio líquido, esto impone costos altos y serias limitaciones para el uso masivo que quisiéramos darles. Es por eso que los trenes levitados (Maglevs) son una rareza muy costosa que sólo puede verse en contados lugares.

    Desde los inicios de la superconductividad, los investigadores se han desvelado por encontrar materiales cuya Tc sea lo más alta posible. Sin embargo, la teoría BCS indicaba que no sería posible tener superconductores con una temperatura crítica mayor a 30 K, ya que la interacción atractiva entre electrones requerida por la teoría, por su origen ligado a las vibraciones de la red de iones, se vería disminuida completamente al aumentar la temperatura por arriba de ese límite. Dentro de los intentos por favorecer todos los parámetros que según la teoría BCS darían lugar a la mayor Tc posible, en 1986 los investigadores Bednorz y Muller[iii] se toparon con un importante hallazgo: un superconductor de más de 30 K, que les valdría el premio Nobel por la gran revolución que desencadenó. De esta manera, los cupratos con estructura de perovskita dieron lugar a una nueva familia de superconductores que no respondía a la teoría BCS. Se los llamó superconductores de alta temperatura crítica.     

    Durante toda la década de los 90’s este tema acaparó a la mayor parte de la comunidad de materia condensada, que se orientó a entender esta nueva superconductividad y a generar nuevos materiales que rompieran el récord de la mayor Tc. Experimentos de altas presiones realizados por Paul Chu de la Universidad de Houston mostraron que al comprimir al superconductor estudiado por Bednorz y Muller (LaBaCuO) la Tc aumentaba sensiblemente. Se buscó entonces comprimir la estructura con reemplazos químicos, generando el mismo efecto que con la presión externa. Así, reemplazando el La por un átomo de menor radio (Y), Chu y colaboradores[iv] lograron sintetizar el primer superconductor (YBaCu3O7, Tc=90 K) que “sólo” requería ser enfriado mediante nitrógeno líquido (-196 °C) para ser superconductor. De este modo, con el descubrimiento de nuevos materiales superconductores basados en cupratos, en un período de 5 años, la Tc aumentó más de lo que lo había hecho en cerca de 90 años de investigaciones. El sueño de lograr tener superconductividad a temperatura ambiente tenía resultados alentadores (Tc=138 K para un cuprato basado en Hg – 166 K para un compuesto similar a presiones de 23 GPa, es decir a 230.000 atmósferas*[v]), cuya concreción se haría aún esquiva por un tiempo.

    Primera transición superconductora por encima de la temperatura de ebullición del nitrógeno líquido obtenida en compuesto YBa2Cu3O7. Se observa también los efectos del campo magnético aplicado. (fuente: https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.58.908).

    Por otra parte, en 1968 Neil Ashcroft indicó que el hidrógeno, bajo altísimas presiones (¡más de 4 millones de atmósferas!), podría llegar a ser superconductor a temperatura ambiente, debido al fuerte acoplamiento entre sus electrones y las vibraciones de la red, que es uno de los ingredientes necesarios que indica la teoría BCS para lograr altas temperaturas críticas. Se empezó a pensar en la estrategia de pre-comprimir al hidrógeno mediante reemplazos químicos de manera de reducir las presiones necesarias para lograr la tan buscada meta. A partir de 2004 muchos trabajos teóricos indicaron cuáles compuestos serían posibles candidatos a mantener su estructura estable a tan altas presiones y lograr el estado superconductor a muy alta Tc. Así, algunos grupos que desarrollaron la capacidad de realizar experimentos de conducción eléctrica bajo presiones mayores a los 100 GPa, al comprimir muestras entre yunques de diamante de secciones milimétricas, se concentraron en estudiar la posible superconductividad de compuestos ricos en hidrógeno (H3S, CaH6, LaH10, entre muchos otros) bajo presión.  En 2016 Drozdov y colaboradores[vi] lograron medir una Tc que superó la barrera de los 200 K aplicando 200 GPa en H3S, y la existencia de un campo crítico. También mostraron la existencia de efecto isotópico, que es una de las huellas digitales de la superconductividad que responde a la teoría BCS. La Tc bajo altísimas presiones fue incrementándose así al estudiar distintos compuestos ricos en hidrógeno, trepando hasta cerca de los -20 °C.

    Evolución de la Tc superconductora a través de los años (fuente: https://www.chemistryworld.com).

    Finalmente, tras realizar una síntesis fotoquímica in situ (en el espacio entre dos yunques de diamante) de una mezcla de metano con los precursores de H3S, Ranga Dias y colaboradores de la Universidad de Rochester[vii] lograron la tan ansiada meta: observar superconductividad a 15 °C.   Dieron pruebas contundentes de ello ya que observaron tanto la transición resistiva y su sensibilidad al campo magnético aplicado como el apantallamiento magnético esperado.  Es cierto que tuvieron que aplicar presiones de 267 GPa y que por ahora desconocen la composición química y la estructura del compuesto sintetizado, aunque realizaron estudios espectroscópicos (Raman) que les confirmaron que, al producirse la síntesis del material, los elementos C-H-S se incorporaron efectivamente en una estructura cristalina que alcanza un estado metálico sin descomponerse.

    1. a) Transición superconductora a distintas presiones aplicadas. b) detalle del montaje realizado en la celda de alta presión. c) evolución de la Tc con la presión donde se observa el récord obtenido (fuente: https://www.nature.com/articles/s41586-020-2801-z). 

    Lograr superconductividad a temperatura ambiente bajo muy altas presiones no permite realizar ninguna de las aplicaciones prácticas para las que se soñó esta superconductividad. Sin embargo, además del interés científico que implica su descubrimiento en cuanto a ciencia básica, es la prueba concreta de que el estado superconductor de un material puede lograrse a temperaturas tan altas como la temperatura ambiente. Será entonces un desafío para la ciencia de materiales lograr encontrar la manera de sintetizar algún material que recree las condiciones logradas en los compuestos ricos en hidrógeno bajo los yunques de diamante. Lo que se creía imposible se ha logrado. Hay entonces renovadas esperanzas para imaginar que en algún tiempo podremos contar con materiales superconductores que, sin aplicarles presión, nos permitan sacar un gran partido de sus sorprendentes propiedades. 

    [i] Meissner, W.; Ochsenfeld, R. (1933), Naturwissenschaften. 21 (44): 787–788.

    [ii] Bardeen, J.; Cooper, L. N.; Schrieffer, J. R. (1957), Physical Review. 106 (1): 162–164. 

    [iii] Bednorz, J. G. and Müller, K. A. (1986), Z. Phys. B 64, 189.

    [iv] M. K. Wu, J. R. Ashburn, C. J. Torng, P. H. Hor, R. L. Meng, L. Gao, Z. J. Huang, Y. Q. Wang, and C. W. Chu

    Phys. Rev. Lett. 58, 908.

    [v] Durante casi 10 años este récord de Tc estuvo asociado a una investigación realizada en colaboración entre el LBT del DF y el CNRS de Grenoble: Monteverde, M.; Acha, C.; Núñez-Regueiro, M.; Pavlov, D.A.; Lokshin, K.A.; Putilin, S.N.; Antipov, E.V."High-pressure effects in fluorinated HgBa2Ca2Cu 3O8+δ" (2005) Europhysics Letters. 72(3):458-464

    [vi] A.P. Drozdov, M.I. Eremets, I.A. Troyan, V. V. Ksenofontov, and S. I. Shylin. Conventional superconductivity at 203 K at high pressures. Nature, 525(73), 2015.

    [vii] Snider, E. et al. Nature 586, 373–377 (2020).

  • Una lectura del paper sobre el particular gas detectado en las nubes de Venus

    * Por César Bertucci

    Astrónomo, Dr. en física espacial, investigador y profesor.

    La publicación científica que conocimos ayer es sumamente importante: se detectó de manera clara la presencia de un gas, la fosfina o fosfano (PH3) que en la Tierra está asociado a procesos biológicos. En Venus, sin embargo, podría tener otro origen, uno que no esté contemplado en los modelos químicos de la atmósfera que se utilizan. El paper no habla de “vida en Venus”.



    Los investigadores realizaron la detección utilizando dos telescopios: JCMT en Hawái & ALMA en Chile. Estos instrumentos operan en las regiones submilimétricas del espectro y detectaron presencia de PH3 en ese rango. La señal es clara, distinguible, pudieron incluso determinar la cantidad de gas presente en distintas latitudes y observaron mayores cantidades en las cercanías del Ecuador y una disminución hacia los polos.

    El fosfano se ubicaría en capas poco exploradas de nubes a aproximadamente 50 km de la superficie que están a temperaturas templadas (del orden de las decenas de grados centígrados) y con presión atmosférica del orden de 1 bar, aunque es un ambiente hiper-ácido. La cantidad de PH3 detectada es significativa, pero muy superior a la que puede proveer un volcán Venusino, por ejemplo. Otras fuentes abióticas pueden incluir el efecto de la superficie, el subsuelo, rayos, o meteoritos. Sin embargo, no hay en el presente ningún mecanismo químico conocido capaz de explicar la concentración observada. De manera especulativa, el trabajo menciona que otra posible fuente, por analogía con la Tierra, podría ser la biológica.

    Serán necesarias nuevas mediciones para mejorar los modelos de química atmosférica e identificar las fuentes potenciales de ese gas, así como otros estudios espectrales de PH3 en otras longitudes de onda o mediciones in situ de nubes y la superficie de Venus llevadas a cabo por misiones planetarias.

    En el momento existen varias misiones a Venus en fases tempranas de desarrollo. Los países anotados en la carrera son EEUU (DAVINCI+), India, y Japón, pero están surgiendo ideas de nuevas misiones todo el tiempo. Este hallazgo, sin duda, va a generar nuevos conceptos de misión para explorar nuestro vecino planetario.

  • ¡El laboratorio va a tu casa!

    Comenzamos un  nuevo cuatrimestre, de manera virtual por la situación epidemiólogica que atraviesa el país y el mundo. Ante la necesidad de que los estudiantes pudieran cursar las materias de laboratorio adaptamos los planes de enseñanza y las prácticas. Quienes están cursando Laboratorio III recibieron kits de electricidad y magnetismo que les permitirán desarrollar sus habilidades para el montaje de experimentos, analizar sus resultados y comparar con modelos físicos. Además, el desafío es aprender técnicas computacionales de adquisición de datos, simulación de circuitos y análisis. Por ultimo, comunicar claramente los resultados obtenidos en los experimentos.

    Los profesores responsables son Adriana Márquez, Carlos Acha y César Moreno.

    El personal de laboratorio, Gustavo Loureiro, Damián Pérez y Alejandro Greco; y el administrativo, Patricia Centurión y Sebastián Smerling.

     

     

     

  • Campaña: Máscaras para los trabajadores de la salud

    Desde el mes de marzo de 2020 se emprendió un proyecto en el Departamento de Física para fabricar máscaras de protección facial en el contexto de pandemia. 
    Investigadores junto a nodocentes desarrollaron estos objetos protectores específicamente para quienes trabajan en hospitales, el desafío fue hacerlos resistentes y reutilizables. Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D que coordinan los profesores Ana Amador y Pablo Cobelli.
    Ya se entregron cien máscaras a los hospitales Roffo, Gutiérrez, de Clínicas y Elizalde.
    Podés ayudar a proteger al personal sanitario donando el valor desde $200.
    ¿Te gustaría colaborar? Ayudanos a mantener nuestro proyecto:

    “Recibimos el llamado de una médica del Hospital Gutiérrez -como su hija había sido estudiante de la Facultad sabía que fabricábamos objetos 3D- nos preguntó si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

     

     

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

     

     

      

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador. Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs.

    Coloquio: los investigadores cuentan detalles del proyecto 

    Testimonios

    Rubén Sosa, médico del Hospital de Niños Pedro de Elizalde

    Ruth Faifman, médica del servicio de endoscopía del Hospital Gutiérrez:

  • Ondas gravitacionales: Una detección curiosa

    *Por Gaston Giribet

    Se anunció en estos días una nueva detección de ondas gravitacionales; detección acaecida, en realidad, el 14 de agosto del año pasado. Ese día los detectores LIGO y VIRGO, en Estados Unidos y Europa respectivamente, sintieron una vez más la perturbación del espacio-tiempo producida por una colisión de astros distantes y enormes.

    Desde 2015, año de la primera detección de ondas gravitacionales, LIGO y VIRGO han venido detectando ondulaciones del espacio-tiempo que son prueba inconfundible de ese tipo de colisiones. De esas detecciones hemos aprendido mucho sobre la población de los agujeros negros en el cosmos, sobre el origen de los elementos pesados en el universo, y hemos confirmado, además, una de las predicciones más interesantes de la teoría de Einstein: la gravedad viaja como ondas a la velocidad de la luz.

    Ahora bien, aunque LIGO y VIRGO nos tienen ya acostumbrados a estas maravillosas detecciones de colisiones cósmicas, el evento del 14 de agosto de 2019 fue especial. Las características de las ondas gravitacionales detectadas ese día indican que las mismas fueron producidas por la colisión de dos objetos densos a 800 millones de años luz de nosotros (una distancia enorme, que, para que nos demos una idea, supera en más de diez veces la que nos separa del agujero negro supermasivo fotografiado el año pasado por la colaboración Event Horizon Telescope). 

    Pero antes de ahondar en las peculiaridades del evento cósmico detectado el 14 de agosto, dediquemos unos minutos a recordar de qué hablamos cuando hablamos de ondas gravitacionales: Desde la teoría de la relatividad general, formulada por Einstein en 1915, entendemos la gravedad, ya no como una fuerza en el sentido newtoniano, sino como la curvatura del espacio-tiempo mismo. Es decir, la teoría de la gravitación de Einstein pone de manifiesto el carácter dinámico del entramado espaciotemporal. Según esto, la atracción gravitatoria entre dos astros se debe a que cada uno de ellos curva el espacio en sus inmediaciones y, al hacerlo, compele al otro a ceñir su trayectoria a las formas que el espacio adopta. Si estos dos astros se encuentran orbitando rápidamente uno en torno a otro, entonces ese curvar al espacio de manera dinámica resulta en una perturbación del entretejido espaciotemporal y, así, en la propagación de ondas sobre éste, como si se tratara de un medio elástico. Esas ondas de espacio-tiempo (de gravedad) portan energía; energía que le roban al movimiento orbital de los astros que las originan. En otras palabras: los astros irradian gravedad y así van perdiendo energía cinética.

    Al irradiar ondas gravitacionales, el par de astros orbitando uno en torno al otro va perdiendo velocidad, y finalmente éstos entran en coalescencia. Al colisionar producen energías enormes. Nosotros, a salvo en la Tierra, a cientos de millones de años luz de allí y equipados con finísimos interferómetros, detectamos esas ondas gravitacionales, las que nos llegan como cansinas y casi imperceptibles vibraciones del mismísimo espacio-tiempo. Escudriñando minuciosamente la forma de esas onditas, y triangulando con los tres detectores con los que disponemos, nos es posible inferir la naturaleza del cataclismo, su distancia y su dirección en el cielo.

    El evento detectado el 14 de agosto de 2019, como decíamos, ha sido especial, y lo ha sido en dos aspectos. Por un lado, se trató de un evento de notable asimetría: Un agujero negro de unas 23 masas solares (23 veces la masa del Sol) colisionó, luego de una espiralada lucha, con un astro 9 veces menor que él, un astro misterioso de tan solo 2,6 masas solares. Por otro lado, y lo que hace al evento aún más interesante, la naturaleza del astro menor es un enigma: ¿Se trata de una gran estrella de neutrones? ¿Se trata de un pequeño agujero negro? Jamás hemos visto una estrella de neutrones tan masiva. Jamás hemos observado un agujero negro tan poco masivo.

    La genealogía de las estrellas de neutrones y la de los agujeros negros son similares: Ambos tipos de astro nacen tras la muerte de estrellas masivas. Si bien la mayoría de las estrellas no terminarán sus vidas siendo ninguno de estas dos especies cósmicas, las estrellas más masivas sí lo harán. Luego de una puja entre la presión debida a los procesos nucleares en sus entrañas y la autogravedad producida por su propio peso, la estrella masiva explota. Esa explosión es lo que se conoce como supernova. Luego de la supernova, y dependiendo de las características del detrito que haya quedado tras ella, la estrella puede seguir su proceso y finalmente convertirse, o bien en una estrella de neutrones, o bien en un agujero negro: Si la masa supera cierto valor crítico, es lo segundo su destino.

    Lo que importa para el caso que nos ocupa aquí es que las estimaciones de la masa crítica que marca la línea divisoria entre agujeros negros y estrellas de neutrones no están muy lejos del valor de masa del menor de los astros detectados por LIGO y VIRGO en agosto: 2,6 masas solares. Cabe así la pregunta siguiente: ¿Hemos detectado la más grande de las estrellas de neutrones jamás observada o, por lo contrario, se trató del menor de los agujeros negros del que hayamos tenido noticia?

    La masa del menor de los agujeros negros del que se tenía certeza ronda las 5 masas solares. Y no sabíamos de estrellas de neutrones con masas que superaran poco más que 2 veces la masa del Sol. Incluso hubo quienes especularon con que el rango de masas entre 2,5 y 5 masas solares podría ser una banda vacante. Al parecer, no es así: Algo cuya masa está en ese rango colisionó en el universo; lo escuchamos.

    Para echar más misterio a esta historia, digamos que, a diferencia de otros eventos detectados por LIGO, como la colisión de dos estrellas de neutrones observada en 2017, en este caso no hay una contraparte electromagnética de la observación. Es decir, no hubo luz en este caso. Esto se debe a dos razones: Por un lado, este evento involucra al menos un agujero negro, y no un par de astros luminosos; por otro lado, esta colisión ocurrió 6 veces más lejos que aquella luminosa de 2017. Así, la luz nos ha dejado solos en ésta. Sólo nos queda escuchar el espacio-tiempo mismo y, de ese tono susurrante, inferir qué aconteció.

    Para terminar, déjenme contar un detalle del evento observado que muestra claramente la escala de energías, velocidades y masas de las que estamos hablando aquí: La colisión entre el agujero negro de 23 masas solares y su misterioso compañero 9 veces menor liberó en forma de ondas gravitacionales (vibración del espacio-tiempo mismo) una energía equivalente al 20% de la masa del Sol. Y eso no fue más que una propina de un evento que dejó como resultado un nuevo agujero negro que, allí, a 800 millones de años luz de nuestra galaxia, comprime sus 25 masas solares en un radio de 75 kilómetros.

     

  • Campaña: Máscaras para los trabajadores de la salud

    Desde el mes de marzo de 2020 se emprendió un proyecto en el Departamento de Física para fabricar máscaras de protección facial en el contexto de pandemia. 
    Investigadores junto a nodocentes desarrollaron estos objetos protectores específicamente para quienes trabajan en hospitales, el desafío fue hacerlos resistentes y reutilizables. Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D que coordinan los profesores Ana Amador y Pablo Cobelli.
    Ya se entregron cien máscaras a los hospitales Roffo, Gutiérrez, de Clínicas y Elizalde.
    Podés ayudar a proteger al personal sanitario donando el valor desde $200.
    ¿Te gustaría colaborar? Ayudanos a mantener nuestro proyecto:

    “Recibimos el llamado de una médica del Hospital Gutiérrez -como su hija había sido estudiante de la Facultad sabía que fabricábamos objetos 3D- nos preguntó si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

     

     

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

     

     

      

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador. Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs.

    Coloquio: los investigadores cuentan detalles del proyecto 

    Testimonios

    Rubén Sosa, médico del Hospital de Niños Pedro de Elizalde

    Ruth Faifman, médica del servicio de endoscopía del Hospital Gutiérrez:

  • Investigadoras argentinas logran ver un mecanismo clave para la replicación del dengue

    1 de junio de 2020 • Por: Nora Bär

    Laura Estrada es física y madre de tres hijos: Sofía (8), Nacho (6) y Agustina (3). Un día de 2013, cuando recién había retornado al país después de completar un posdoctorado en los Estados Unidos, se cruzó, en un encuentro sobre mujeres en la ciencia, con Andrea Gamarnik, viróloga molecular multipremiada y nombre de referencia internacional en la biología del virus del dengue. Una le contó a la otra qué estaba investigando y, antes de despedirse, encontraron un interés en común. Recuerda Andrea: "Entonces, Laura me dijo: '¿Y si construimos un microscopio especial para hacer esto?' Le seguí la corriente y redoblé la apuesta: 'Si vos hacés eso, yo te hago un virus específico para que puedas verlo en ese dispositivo".

    Así comenzó un trabajo de varios años que no solo puso a punto técnicas novísimas de microscopía, sino que permitió cartografiar por primera vez el recorrido que realiza dentro de la célula la cápside , proteína que envuelve el material genético del virus del dengue, clave para su replicación en el organismo. El estudio, realizado por cuatro investigadoras mujeres, acaba de publicarse en Scientific Reports , una revista del grupo Nature.

    "Aquella vez, Andrea me contó lo que estaba haciendo y yo, lo que iba a hacer, porque estaba recién llegada y eran todos deseos, anhelos -comenta Laura-. Muy sabiamente, ella me dijo 'Fantástico, cuando tengas todo armado (porque yo prometía muchas cosas), llamame y vamos a tener la oportunidad de trabajar juntas. Un año y medio más tarde, había montado en el laboratorio de Ciudad Universitaria un instrumento que permitió unir la física y la virología. Es algo que requiere mucho esfuerzo, pero acá está nuestro primer trabajo juntas, y felices".

    Alto tránsito
    Estrada se había especializado en técnicas avanzadas de microscopía aplicadas a problemas biológicos, en el laboratorio de Enrico Gratton, biofísico de la Universidad de California en Irvine, Estados Unidos, que había trabajado en Ébola y VIH, y que desarrolla instrumentos que no se venden comercialmente. En particular, en un microscopio que él había creado. Laura armó otro de esos aparatos y volvió a la Argentina con la idea de instalar esa tecnología en el país. "Eso fue lo que le prometí a Andrea: voy a armar un microscopio que te va a permitir seguir la cápside durante horas en una célula viva", recuerda.

    La viróloga molecular Andrea GamarnikLa viróloga molecular Andrea Gamarnik Fuente: LA NACION - Crédito: Mauro Alfieri
    Fue un largo esfuerzo, no solo de Laura y Andrea, sino de sus respectivas becarias, Manuela Gabriel , integrante del grupo de Estrada, y Guadalupe Costa Navarro , del laboratorio de Gamarnik, hoy ya doctorada. Dueñas de una energía capaz de derribar montañas, frecuentemente los mensajes entre estas trabajadoras incansables se cruzaban a altas horas de la noche. "Laura me decía: 'les doy de comer a los chicos, los acuesto y pienso'", comenta Andrea, que no se quedaba atrás.

    La cápside es una proteína infinitesimal que "empaqueta" el genoma viral del dengue, una molécula de ARN como la del coronavirus. "La proteína de cápside forma lo que se llama 'núcleo cápside' -explica Gamarnik-, y se acumula en el corazón de la partícula viral". Es esencial para que se formen los virus y para que éstos puedan infectar nuevas células humanas o del mosquito, por lo que resulta un blanco muy interesante para el desarrollo de estrategias antivirales".

    "Vimos que, cuando el virus infecta una célula, la proteína de cápside rápidamente se acumula en el citoplasma (la parte que rodea el núcleo) y en el lapso de horas se moviliza al núcleo celular, donde se concentra en los nucleolos. Este movimiento lo observamos en tiempo real", comenta la física Manuela Gabriel en un comunicado que distribuyó la Fundación Instituto Leloir. Y agrega que, como resultado de este trabajo, se registró que la proteína se comporta de manera muy diferente según la región en la que se encuentre dentro de la célula. "Por ejemplo, dentro del citoplasma, la cápside se mueve sin una dirección preferencial, mientras que en el núcleo de la célula muestra un movimiento mucho más organizado, lo que sugiere algún grado de interacción con el entorno", destaca.

    Las investigaciones pudieron determinar que la proteína recorre aproximadamente un área de 20 micrones cuadrados por segundo, indica Costa Navarro. Y agrega: "También determinamos que esta velocidad se modifica con el tiempo transcurrido desde el comienzo de la infección, datos que dieron información sobre el comportamiento de la molécula".

    Mapas de las trayectorias
    Lo importante es que esta proteína tiene muchas funciones y durante la infección se mueve a distintos compartimentos celulares. "Sabemos muy poco o nada de las funciones que cumple esta movilidad -subraya Gamarnik-. Se va al núcleo, se concentra en el nucleolo (una región del núcleo), va a las gotitas de lípidos ( lipid droplets ) que están en el citoplasma de las células, y que modulan el metabolismo de producción de lípidos en la célula. Se acumula alrededor de las gotas de lípidos y a su vez modula la producción de lípidos en la célula. Esto indica que el virus modifica procesos celulares que le ofrecen un ambiente más favorable para multiplicarse. Una de las cosas que hace la cápside es ir al núcleo y concentrarse en los nucleolos. ¿Y qué hace ahí adentro? Lo desconocemos. Con Laura, trazamos algo así como mapas de las trayectorias que sigue la proteína en el citoplasma".

    Y agrega Estrada: "Lo que pudimos lograr en este trabajo fue visualizar por primera vez un 'mapa del flujo molecular'. Se podría trazar una analogía con cartografiar las trayectorias de los autos en hora pico en las entradas y salidas de Buenos Aires. Ver qué entradas son más concurridas, en qué dirección se mueven los vehículos, si en todas hay el mismo tránsito...".

    Un detalle de color es que finalmente, para este trabajo, no pudieron emplear el microscopio de última generación que Estrada armó en la Ciudad Universitaria. Se usó para para mediciones de vesículas en neuronas, para fabricar dispositivos tridimensionales en microescala y la dinámica de un compuesto fotoliberable, y está a disposición de científicos y científicas de todo el país. Pero a medio camino, cuando se encontraban con que las mediciones no estaban resultando y estaban a punto de desmoralizarse, el laboratorio donde Estrada había hecho su posdoctorado desarrolló un nuevo método de análisis de imágenes muy cercano a lo que había estudiado en su doctorado.

    Guadalupe Costa Navarro, becaria del laboratorio de GamarnikGuadalupe Costa Navarro, becaria del laboratorio de Gamarnik Crédito: FIL
    "Cuando lo vi -comenta Laura-, rápidamente nos pusimos a trabajar y a los pocos meses ya teníamos esta técnica optimizada y puesta en funcionamiento en la Argentina. Tomamos las imágenes con un microscopio del Instituto Leloir (que se encuentra entre los más avanzados del país) y las procesamos de una manera también muy novedosa. Nuestro paper debe ser el tercero o cuarto que utiliza este método".

    Concluye Gamarnik: "Al ser un trabajo interdisciplinario, al principio las reuniones de discusión de experimentos entre Manuela, Guadalupe, Laura y yo, eran caóticas. Hablábamos en dos idiomas. Llamábamos a la misma cosa con diferente terminología, o usábamos palabras que querían decir cosas distintas para la física y para la virología. Fue un proceso muy enriquecedor".

     

  • Lecciones sobre el modelado temprano de la pandemia COVID-19 en Argentina

    Investigadores del Departamento de Física publicaron este trabajo luego de su experiencia en la comisión para respuesta temprana en modelado de COVID, donde brindaron conocimientos y herramientas científicas a las autoridades a través del Ministerio de Ciencia, Tecnología e Innovación de la Nación. El paper es resultado, además, de una colaboración posterior con la empresa GranData, cuyo CEO - físico y egresado del Departamento- aportó datos sobre movilidad de celulares en Argentina.

    Los modelos no son oráculos infalibles, sino herramientas que transforman datos en información, por medio de distintas hipótesis, sobre la propagación del virus. Por lo tanto, la calidad de la información que pueden proporcionarnos resulta tan buena como los datos que reciben y las hipótesis que los sustentan. Hay modelos simples que nos permiten ganar un entendimiento conceptual sobre cómo un virus se propaga en una gran población de individuos, y también modelos más y más complejos que intentan generar pronósticos confiables. 

    En la publicación, los autores exploraron esta jerarquía de modelos -desde lo simple hacia lo complejo- en el contexto de la pandemia, esencialmente en la zona de CABA y el Gran Buenos Aires. El estudio pondera distintas lecciones sobre cómo puede y debe abordarse el modelado temprano de la epidemia; conclusiones para compartir con una comunidad científica que, al igual que el resto de la población, se enfrenta por vez primera a un desafío de esas características. Las dos lecciones más importantes que destacan los investigadores en este trabajo son, por un lado, la necesidad de ser extremadamente cuidadosos en el uso de modelos simples para evaluar efectos de políticas en salud pública. Y por otro, la ventaja que aportan los datos de movilidad provistos por teléfonos celulares para inferir tasas de contagio y vislumbrar la dinámica de la epidemia en el futuro.

    La movilidad de los individuos marca el ritmo de la epidemia

    La primera conclusión del trabajo es que en un país relativamente periférico como Argentina, es indispensable incorporar a los modelos datos sobre los viajeros infectados en el exterior. Los primeros casos registrados en el país no fueron el resultado de propagación local, sino de los llamados casos importados. Los autores advierten que si esta distinción no es tenida en cuenta en los modelos se sobreestima la tasa de infección y el número reproductivo básico R0, ya que se atribuye a contagio local un crecimiento que debe ser explicado por el arribo al país de individuos infectados en otros países.

    Los modelos deterministas basados en compartimientos, tales como el SEIR, tratan a la población como un número continuo, de forma tal que es posible tener, por ejemplo, 0.2 individuos infectados. Y siempre que exista incluso una muy pequeña fracción de infectados, si el número reproductivo es mayor a 1, los modelos predicen una propagación casi total de la enfermedad (cerca del 80% de la población acabará infectada). Para superar estas limitaciones, el presente trabajo investiga también el uso de modelos estocásticos. Los modelos estocásticos tratan a la población como un conjunto de unidades discretas -es decir, personas- y producen pronósticos basados en la probabilidad de contagio, de forma tal que si hay pocos individuos infectados existe una probabilidad significativa de que el modelo pronostique la extinción local de la epidemia. 

    Los modelos como el SEIR son extremadamente sencillos - dado que no se ocupan de modelar los distintos tipos de interacciones que ocurren en un territorio y sus distribuciones geográficas-, son modelos homogéneos, asumen que los individuos pueden mezclarse indistintamente entre sí. La simplicidad de estos modelos suele requerir un ajuste de parámetros, es decir, cuando se los utiliza resulta necesario explorar rango de tasas de infección hasta encontrar aquella que mejor reproduce la curva de casos conocidos. Una vez que se encuentra esa tasa de infección se generan curvas con números de casos acumulados, las cuales se aproximan considerablemente a los datos oficiales. Pero eso no es sorprendente, precisamente porque se  elige la tasa de infección para que ocurra. La pregunta central es si la tasa de infección inferida también será útil para el pronóstico de casos futuros, los cuales no fueron tenidos en cuenta durante el ajuste. 

    Otra de las lecciones importantes reportadas por los investigadores concierne al uso de modelos estocásticos que no incorporen información empírica confiable sobre la población: si para superar las incertezas se producen muchas reproducciones independientes de un modelo estocástico y luego se obtiene el promedio, el resultado converge al predicho por la versión determinista del modelo.  Es necesario, entonces, incrementar el realismo de los modelos, y para eso es necesario inyectar más datos a los mismos.

    Con ese objetivo,  los investigadores recurrieron a datos de movilidad basados en telefonía celular, proporcionados por la empresa GranData. De este modo es posible estimar la circulación local en cada distrito del Gran Buenos Aires y CABA, así como el tránsito entre ellos. Los investigadores observaron una caída abrupta de ambos estimativos de movilidad desde el día 19 de marzo (el comienzo de la cuarentena); luego, combinaron estos datos para construir modelos no-homogéneos y así pudieron modular la tasa de infección en base a la movilidad local. Como resultado de estos esfuerzos, obtuvieron modelos estocásticos y deterministas capaces de reproducir acertadamente la evolución de la pandemia, pero sin necesidad de realizar ajuste de parámetros. Además, verificaron que la estructura de la red de tráfico inferida de telefonía celular es fundamental para la precisión de los modelos. Utilizar una red diferente (por ejemplo, un versión permutada al azar de la red original) reduce la precisión de los modelos. Por lo tanto, es de suponer que obtener una versión mejorada de la red de tráfico resultará en modelos aún más precisos. 

    En conclusión, el modelado de la epidemia no puede prescindir de datos de movilidad, y éstos deben ser lo más realistas y exhaustivos posible. Así, este trabajo mostró que para el caso de una megaciudad como Buenos Aires y sus región metropolitana existe una relación directa entre movilidad y tasa de contagio, y que la información de movilidad provista por teléfonos celulares es muy útil para inferir escenarios futuros de la epidemia. Por otro lado, es recomendable ser extremadamente cuidadosos al utilizar modelos sencillos para evaluar políticas de salud pública, porque las potenciales consecuencias de esas decisiones son demasiado importantes como para sustentarlas con aproximaciones poco realistas.


    Aislamientos intermitentes

    Se estima que el número reproductivo R0 en Argentina se mantuvo en un valor cercano a 1 como resultado del aislamiento que comenzó el 19 de marzo. Los investigadores del trabajo mostraron que en una una pandemia como la actual, el R0 obtenido de implementar una cuarentena periódica será cercano al promedio entre el R0 durante los días de aislamiento extremo y durante los días con mayor contacto social, según la fase de cuarentena que experimenten. Y, para que la pandemia se encuentre controlada, ese número deberá ser menor a uno. 

    A esta limitación se suma otra: en los días de trabajo y actividad normal, el número de infectados crece y por lo tanto aumenta el tamaño de los focos. Así, retroceder en la fase de la cuarentena, aun luego de esperar varios días, no significa regresar al estado previo: el número de personas susceptibles de ser contagiadas crece con cada repetición, llevando al sistema a escenarios que los modelos homogéneos no pueden capturar. ¿Cuán intenso debe ser el distanciamiento para que el promedio sea menor a 1? ¿Es realista esperar que esos niveles de aislamiento logren obtenerse, dado que el esfuerzo continuo de toda la nación apenas alcanzó para llevar el R0 a valores ligeramente inferiores a 1? Estas son algunas de las preguntas que se plantean en el trabajo, cuya respuestas buscan ser críticas; entender el efecto de ciertas medidas de contención; y evitar decisiones desacertadas en política sanitaria.

    Todos los modelos epidemiológicos fallan eventualmente. Ganar confianza en la predicción de los modelos requiere de trabajo constante para la recopilación e incorporación continua de datos actualizados - no solo del número oficial de casos, sino sobre los patrones de movilidad en las regiones donde se desea producir un pronóstico. Y si usamos modelos para proponer políticas de contención, el estándar con el que juzgamos a dichos modelos debería ser altísimo. Es fundamental incorporar la lección de aproximarse a los modelos con una actitud escéptica, cuestionando sus hipótesis y mecanismos, pero al mismo tiempo con esperanza en la posibilidad de una mejora continua, únicamente limitada por la precisión y validez de los datos que sumamos a nuestros modelos.

     

    Lessons from being challenged by COVID-19

    Chaos, Solitons and Fractals: the interdisciplinary journal of Nonlinear Science, and Nonequilibrium and Complex Phenomena

    E. Tagliazucchi1, P. Balenzuela1, M. Travizano2, G.B. Mindlin1, P.D. Mininni1

    1 Universidad de Buenos Aires, Facultad de Ciencias Exactas y Naturales, Departamento de Física, & IFIBA, CONICET, Ciudad Universitaria, Buenos Aires,  Argentina.

    2 Grandata Labs, 550 15th Street, San Francisco, 94103, California, USA.

    Publicado: 23 de mayo de 2020

    https://doi.org/10.1016/j.chaos.2020.109923


    Conceptos relevantes
      

    Tasa de contagio, de contacto efectivo, o de infección: Una medida del número de contactos promedio que ocurren por día entre individuos infectados e individuos susceptibles, y que terminan en un contagio. Da una idea de la “velocidad” a la cual la infección se transmite.

    R0: una cantidad útil para entender si la epidemia está avanzando, retrocediendo, o si se mantiene estable (R0 mayor, menor, y cercano a 1, respectivamente).

    Modelo determinista: un modelo en el que las mismas condiciones de inicio produce siempre la misma evolución del sistema, sin que el azar pueda jugar ningún rol. En epidemiología matemática, este tipo de modelos suele estar descrito por ecuaciones diferenciales.

    SEIR: un modelo epidemiológico sencillo que divide a la población en cuatro compartimentos: los individuos Susceptibles, los Expuestos, los Infecciosos, y los Recuperados. Este tipo de modelos permite considerar infecciones que tienen un tiempo de incubación.

    Modelo estocástico: un modelo en el que las cantidades, aunque tengan reglas prescritas, pueden fluctuar al azar. Este tipo de modelos permite contemplar casos en los que nadie se contagia y una epidemia se extingue rápidamente, o en el que el número de contagios por obra del azar es muy alto.

    ​Modelos homogéneos : En un modelo homogéneo, el contacto de una persona infecciosa puede ocurrir con cualquier otra persona en la población, independientemente del lugar donde vive, su edad, o cualquier otra característica.

    Modelos no-homogéneos o heterogéneos : En estos modelos el contacto entre un individuo infeccioso con otras personas no tiene la misma probabilidad de ocurrencia para todos. La tasa de contactos puede ser diferente de acuerdo a dónde viven, la edad de los individuos, etc.

    ​Foco: una región o lugar con los factores epidemiológicos necesarios para la transmisión de una infección, como por ejemplo individuos infectados, un grupo de individuos susceptibles, y condiciones ambientes que permitan el contagio.

     

  • Un agujero negro en el sistema solar

    *Por Gaston Giribet

    En los últimos años se ha acumulado evidencia de la existencia de ciertas anomalías en las órbitas de objetos transneptunianos; es decir, de objetos de nuestro sistema solar que se encuentran más allá de Neptuno. Lo que sigue es una breve reseña de la que, hoy, se yergue como la más osada y fantástica explicación de este fenómeno.

    Anomalías transneptunianas y el Planeta 9

    Neptuno se encuentra a 30 Unidades Astronómicas (UA) del Sol, lo que equivale a decir que el radio de su órbita es unas 30 veces más grande que la distancia que separa a la Tierra del Sol. Comienza allí, en los dominios de Neptuno, una extensa región poblada de asteroides que se extiende por más de 20 UA hacia el exterior del sistema solar. Se la conoce como Cinturón de Kuiper, y cuenta entre sus pobladores a muchos asteroides de gran porte y a varios planetas enanos, incluyendo a los fornidos Makemake y Plutón.

    En los últimos años, las extrañas perturbaciones observadas en las órbitas de objetos lejanos en el Cinturón de Kuiper hicieron resurgir una idea que, con diversas formas, apareció una y otra vez a lo largos del último puñado de décadas; la idea de que podría existir en nuestro sistema solar un noveno planeta: el Planeta 9.

    Según las estimaciones actuales, las anomalías orbitales observadas en el cinturón de Kuiper podrían ser explicadas por la presencia del Planeta 9 si éste se encontrara a algunos cientos de UA del Sol y tuviera una masa de entre 5 y 10 veces la de la Tierra.

     

    Un agujero negro en el fondo de casa

    Hace unos meses, a fines de septiembre de 2019, dos físicos teóricos, Jakub Scholtz y James Unwin, publicaron un trabajo [1] en el que exponen una idea nada convencional acerca de la naturaleza del Planeta 9; una idea que, a primera vista, le parecería lisérgica a casi cualquiera. Scholtz y Unwin se preguntaban en su artículo: ¿Y qué si el Planeta 9 se trata, en realidad, de un agujero negro? [2]

    De tratarse de un agujero negro, y considerando que su masa sería de tan sólo unas pocas masas terrestres, el Planeta 9 sería, no sólo oscuro, sino también extremadamente denso y pequeño: ¡Unos 10 centímetros de diámetro! Scholtz y Unwin, al tanto de esto, aprovecharon para incluir en su paper un dibujo a escala 1:1 del astro.

    Sería un objeto astronómico con una masa 5 veces superior a la de nuestro planeta, pero que se parecería mucho menos a la Tierra que a una bola 8 de pool, aunque mucho más pesada: Su enorme campo gravitatorio perturbaría no sólo las órbitas transneptunianas, sino que afectaría también a la luz en su propio entorno, sumiéndose a sí mismo en una invisibilidad extrema.

    Esta invisibilidad, no obstante, podría verse interrumpida: Dada su considerable masa, un halo de materia oscura se acumularía en torno a él, acompañándolo, y dependiendo de la naturaleza de la materia oscura, algo sobre lo que no tenemos certeza, podría esto resultar en una tenue emisión de luz que emanaría de su entorno cercano. Sería ésa una forma de descubrirlo.

    Agujero negro primordial

    Pero la física no es tan sencilla como el simple imaginar: Hay varios problemas con esto de pensar un agujero negro de tal masa. Para empezar, hasta donde entendemos, los agujeros negros nacen tras la muerte de ciertas estrellas luego de un largo proceso que culmina con el colapso gravitacional de la moribunda sobre sí misma. Para que esto ocurra, la estrella progenitora debe tener una cierta masa crítica, una masa que excede a la del Sol. Esto resulta en que los agujeros negros formados a partir de estrellas no pueden tener menos de 3 masas solares, lo que es mucho más que la masa que tendría el mentado Planeto 9. Esto significa que el Planeta 9, de existir, y de tratarse de un agujero negro, no podría haber nacido de una estrella. Otro tuvo que haber sido su origen, y sólo hay una alternativa: El Planeta 9 debe ser, entonces, un “agujero negro primordial”; es decir, un agujero negro que nació con el universo, en el mismo momento del Big Bang.

    En los últimos años, a partir de que las primeras detecciones de ondas gravitacionales nos alertaran de que parece haber en el cosmos más agujeros negros de los que ingenuamente suponíamos, la atención sobre la posibilidad de que existan agujeros negros primordiales se vio reforzada. Desde mediados de 2015, muchos advirtieron que las cotas observacionales previamente establecidas para la abundancia de agujeros negros primordiales habían sido exageradas: Puede haber más de lo que habíamos creído. Se abre así la posibilidad de aceptar la existencia –y abundancia— de astros oscuros y ultradensos con masas comparables a las de los planetas. El Planeta 9 podría ser de tal suerte.

    Aun así, hay ciertas restricciones: Por un lado, los agujeros negros primordiales no pueden ser muy pequeños, porque, si lo fueran, serían muy calientes y los efectos de radiación térmica predichos por Stephen Hawking los habrían hecho evaporarse en un tiempo menor a la edad del universo, y entonces ya no podrían existir. Por otro lado, los agujeros negros primordiales tampoco pueden ser muy grandes, puesto que, si lo fueran, su gravedad produciría distorsiones ópticas conocidas como “micro-lensing” y que jamás hemos observado … Pará, pará … ¿Dije “jamás”?

    En realidad, hubo en los últimos años una serie de observaciones de distorsiones ópticas que bien podrían corresponder a efectos de micro-lensing. Además, tales distorsiones son compatibles con las que producirían objetos compactos y oscuros de masas comparables a las del Planeta 9. Esto quiere decir que ya tenemos dos evidencias que apuntan en la misma dirección: Por un lado, un inobservado pero necesario planeta allá afuera; por el otro, evidencia creciente de que objetos oscuros y compactos parecen estar dando vueltas por ahí.

    Una legión de naves espaciales

    En un artículo muy reciente [3], publicado hace tan solo tres días, Edward Witten – sí, el mismo— levanta el guante y considera seriamente la idea de que el Planeta 9 pueda tratarse de un agujero negro. Witten se pregunta: ¿Cómo comprobar si, en efecto, existe a 500 UA del Sol un objeto oscuro y compacto de unas pocas masas terrestres y cuyo tamaño podría no exceder el de mi mano? A esta pregunta responde: Pues, vayamos a ver.

    Lo que Witten propone en su trabajo es enviar hacia las regiones externas de nuestro sistema solar una legión de naves espaciales que, una vez allí, podrían comunicarse con la tierra para reportar lo encontrado. Si te parece chiste, no dejes de leer lo que falta…

    … Ahora bien, hay un problema: Las enormes distancias atentan contra esta empresa al nivel de hacerla parecer imposible. De inmediato uno advierte que para llegar a la zona (500 UA) en no más de una década, las naves deberían viajar a cientos de kilómetros por segundo durante todo ese tiempo; algo ciertamente irrealizable. Pero la propuesta de Witten, un entusiasta de los viajes espaciales, es otra: Adaptando ideas de otros, él sugiere que naves pequeñas, de no más de un par de gramos, sean lanzadas al cosmos y aceleradas desde la Tierra con rayos láser potentes. El efecto acumulado de la aceleración podría hacer que las micro-naves alcanzaran el 0.1 % de la velocidad de la luz en un tiempo razonable y, así, llegaran a las 500 UA en unos cuantos años.  Una vez allí, las micro-naves reportarían por radio a la Tierra sus observaciones, y tardaría esa transmisión casi tres días en llegarnos. Si las micro-naves fueran muchas como para cubrir una apertura angular substancial que abarcara la órbita, y si las trayectorias de las micro-naves fueran observadas con precisión meridiana, podríamos, sugiere Witten, tener una observación in situ de la situación y saber confirmar si, en efecto, hay un pequeño agujero negro en el fondo de casa.

     

    Referencias

    [1] J. Scholtz & J. Unwin, “What if Planet 9 is a primordial black hole”, arXiv:1909.11090 [+]

    [2] S. Perkins, “Planet nine may actually be a black hole”, in Science, Sept. 27, 2019 [+]

    [3] E. Witten, “Searching for black hole in the outer Solar system”, arXiv: 2004.14192 [+]

    * Gaston Giribet es profesor e investigador en el Departamento de Física, Exactas, UBA.

  • Máscaras para los trabajadores de la salud

    Investigadores junto a nodocentes desarrollaron máscaras de protección de gran resistencia y reutilizables.

    Se producen en el Taller de Prototipado, Mecanizado de Precisión e Impresión 3D en el Departamento de Física

    4 de mayo de 2020

    En nuestra Facultad se pusieron en funcionamiento proyectos que contribuyen a la prevención y el cuidado de las personas en el contexto de la pandemia. En este caso, con las impresoras 3D y el personal especializado en manipularlas se están construyendo máscaras faciales para el personal de salud, así como también partes para el ensamblado de otras de uso corriente.

    “Recibimos el llamado de una médica del Hospital Gutiérrez que, como su hija es estudiante de la Facultad y sabía que fabricábamos objetos 3D, nos preguntó puntualmente si podíamos ayudarlos a reforzar los elementos de seguridad para el personal del hospital. Luego supimos que la falta de elementos de protección en los centros de salud era generalizada”, cuenta Ana Amador, profesora de Exactas y coordinadora del Taller de mecanizado del Departamento de Física de Exactas junto a Pablo Cobelli.

    “Nunca habíamos fabricado este tipo de elementos, porque el taller abastece a laboratorios de enseñanza y de investigación con piezas para fines diversos, pero sí contamos con el personal especializado, y eso muy valioso”, dice Amador.

    Santiago Solari es tornero, personal nodocente de Exactas, y su trabajo resultó clave para el desarrollo del proyecto: “Construimos un tipo de modelo que ya está testeado en Europa y Estados Unidos, es muy robusto y reutilizable, tiene una vida útil superior a los otros del mercado. Sin embargo, lleva más tiempo de producción, casi el doble que los comunes”, explica.

    Los coordinadores coinciden en que el mayor desafío fue construir una pieza desde cero, en este contexto particular donde no es sencillo conseguir los materiales necesarios, trasladarlos, y mantener en condiciones una máquina que imprime las 24 hs. “Fabricamos ocho máscaras por día, el máximo que podemos imprimir”, explica Cobelli. Para contextualizar esa cantidad, vale decir que ese es el número promedio de trabajadores en un servicio hospitalario de la ciudad.

    La semana pasada realizaron las primeras entregas, ya van 90 producidas y 45 fueron entregadas. Uno de los destinos fue el área de enfermería del Instituto de Oncología Ángel H. Roffo y otra el servicio de endoscopía del Hospital de niños Ricardo Gutiérrez.

    Por ahora fabricamos ocho máscaras por día, pero la producción podría duplicarse. ¿Les gustaría colaborar? Pueden escribir a Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. ¡Muchas gracias!

  • Primer cuatrimestre: modalidad virtual

    Comenzaron las clases de la Licenciatura y el Profesorado en Física de manera remota. 

    Muchas de las materias que se dictan en el DF comparten sus clases en Youtube, pueden acceder a nuestro Canal para verlas.

    Se actualizan diariamente, para recibir notificaciones automáticas pueden suscribirse al Canal

    Cada materia tiene una Lista de reproducción, que permite seguir el orden de las clases.

    Además pueden visitar la Lista de materias y aprovechar los recursos que proponen las cátedras. 

     

     

     

     

  • Un Gömböc en el DF

    Un particular objeto, ideado por científicos a partir de una conjetura matemática, llegó al Departamento de Física de la Facultad desde la ciudad de Budapest ayer miércoles 11 de marzo de 2020. 

    El matemático e ingeniero húngaro Gábor Domokos encontró que en una universidad en el hemisferio sur del mundo -la UBA- aparecía la fotografía del objeto que él patentó junto a Péter Várkonyi en 2006. Esta fotografía era un post que el Jefe de Trabajos Prácticos de Mecánica Clásica, Juan Zanella había publicado para los estudiantes de la materia. Gabor Domokos  envió un mail al profesor Pablo Dmitruk, titular de la cátedra de Mecánica, y luego de un interesante intercambio de correos el mismísimo Dr. Domokos se ocupó de hacer llegar un objeto como obsequio al Departamento de Física. 

    Ante estudiantes y curiosos, se llevó a cabo el acto de entrega oficial en el Pabellón 1 de Ciudad Universitaria donde estuvieron presentes el decano de la Facultad Juan Carlos Reboreda, el embajador de Hungría Csaba Gelényi, el director del Departamento de Física Hernán Grecco, la directora del Departamento de Matemática Teresa Krick, el profesor Pablo Dmitruk y el consejero comercial de Hungría en Argentina József Németh.

    El docente Juan Zanella -quien pensó que el Gömböc podría ser un caso interesante de análisis para sus clases- brindó una charla donde contó la historia del objeto y el devenir de las ideas y peripecias desde la famosa conjetura del ruso Vladimir Arnold hasta la patente y fabricación de la pieza. “Los gömböcs son objetos con propiedades particulares, pero no son en sí objetos únicos.  La característica que los distingue es que, cuando se los apoya sobre una superficie horizontal, tienen sólo dos puntos de equilibrio, uno estable y uno inestable. Como en la práctica es imposible balancear un objeto sobre un punto de equilibrio inestable, puestos en cualquier orientación los gömböcs tienden a orientarse según la posición de equilibrio estable”, explicó.

    En 1995 el autor de “Métodos matemáticos de mecánica clásica”, Vladimir Arnold, participó en la Conferencia Internacional de Matemática Industrial y Aplicada en Hamburgo. En su charla plenaria, profundizó en uno de los temas que le interesaban particularmente: la generalización geométrica y topológica del teorema clásico de los cuatro vértices. Frente a la afirmación: “una curva plana tiene al menos cuatro extremos de curvatura”, el matemático conjeturó que el caso tridimensional podría ser una excepción. Es decir, propuso que los cuerpos convexos y homogéneos con menos de cuatro puntos de equilibrio podrían existir.

    La conjetura de Arnold resultó ser correcta: hoy sabemos que existen cuerpos convexos homogéneos con solo dos puntos de equilibrio, se los conoce como objetos mono-monostáticos. A pesar de haber chequeado más dos mil piedras durante un viaje, Domokos y su esposa no pudieron identificar un solo objeto con estas características particulares entre la muestra. Aparentemente, los cuerpos mono-monostáticos escapan de la intuición humana cotidiana. 

     

    El primer gömböc descubierto difería tan poco de una esfera que de ahí deriva su nombre: "gömb" es "esfera" en húngaro, y "gömböc" es una forma familiar diminutiva de "esfera". La palabra "glóbulo", o mejor aún, "globulo", pensada como diminutivo de "globo", sea quizá una buena aproximación en español. Al mirar el Gömböc que nos enviaron notamos que tiene diferencias sustanciales con una esfera pero se parece a algunos cuerpos presentes en la naturaleza como ciertos caparazones de tortugas, por ejemplo. Aunque para sus creadores haber encontrado estas coincidencias es una casualidad, afirman que lo mismo puede decirse para los caminos de la evolución. 

    Hay que hacer una salvedad importante, dice Zanella: los gömböcs genuinos son homogéneos y convexos. Si se relajan estas dos condiciones es muy fácil construir un objeto con las mismas propiedades de estabilidad. De hecho, hay juguetes que consisten en un objeto de forma redondeada con un contrapeso en su base que los hace retornar siempre a la misma orientación. Pero estos juguetes no clasifican como gömböcs.

    La Embajada de Hungría en Argentina y el empresario Ottó Albrecht sortearon todo tipo de dificultades e hicieron posible que el preciado objeto hoy esté en la Facultad. Cada Gömböc tiene una identificación particular, el que ahora habita en la parte más austral del mundo se denomina G-1996, año en que el Departamento de Física de Exactas comenzó a llamarse Juan José Giambiagi.

    En este mapa pueden conocerse los lugares donde los Gömböc ya han desembarcado: https://www.google.com/maps/d/viewer?mid=1yHwcgmIsnfrrGCE3ctNnpAAgfxzxwE8e&ll=17.538675993066157%2C26.26096640000003&z=3

DF es docencia, investigación y popularización de la ciencia.