Crea universitario de la UNAM método para mitigar efectos del radón

Crea universitario de la UNAM método para mitigar efectos del radón
Por Patricia López en la Gaceta de la UNAM Núm. 4, 712

Para mitigar los efectos del radón (Rn) dentro de espacios cerrados (casas, edificios y oficinas), el investigador Guillermo Espinosa García, del Instituto de Física (IF), ha creado un método novedoso, eficiente y de bajo costo.

El Rn es un gas radiactivo natural que desde el interior de la Tierra emana a la superficie. Al concentrarse en exceso origina cáncer pulmonar y posibles leucemias.

Si se vive en una casa o departamento con altos niveles de ese elemento, es indispensable reducirlo para evitar daños a la salud, refirió el experto en su detección y control.

Métodos convencionales

En países como México, de clima benigno, bastaría con ventilar al menos una hora las viviendas, abrir puertas y ventanas para darle salida, pero eso no ocurre en otros situados por arriba o debajo de los trópicos, como Canadá, Estados Unidos, Reino Unido, Francia, Italia, Suecia, Noruega y Finlandia, donde la calefacción para mantener temperaturas agradables es necesaria y los climas extremos e inviernos prolongados obligan a familias y trabajadores a permanecer en interiores las 24 horas del día, lo que genera altas concentraciones de radón intramuros y riesgo a la salud.

Hay métodos convencionales para eliminarlo; el más común es el uso de un ventilador para extraerlo del interior, si esto es posible por las temperaturas externas.

Otro es la presurización y despresurización de los salones (útiles, pero muy caros y poco funcionales), además del recubrimiento del piso y de algunas paredes con plástico.

Uno más es el empleo de filtros de los gases y del aire que ingresan a la habitación, detalló Espinosa, quien previamente ha elaborado tecnologías propias para detectar y analizar el elemento.

Una propiedad del radón es pegarse a aerosoles y partículas de agua en el medio ambiente; a este fenómeno se le denomina Fuerzas de Van der Waals. Al extrapolar este conocimiento a las partículas de agua (humedad relativa) en el entorno, se observó que el Rn tiene la misma preferencia de unirse.

“Con esto comprobado nos dimos a la tarea de colectar partículas ambientales (agua-radón) por absorción y presentarlas a una placa fría para convertirlas en agua líquida. Para obtener el enfriamiento se utilizó el Efecto Peltier, que logra ese proceso con el mínimo de energía, lo que hace este sistema mitigador de radón eficiente y de muy bajo consumo, aspecto que tiene que considerarse si se pretende tener un sistema que trabaje las 24 horas del día.

“Queremos aminorar los niveles y mantenerlos bajos –30 a 60 Bq/m3 (un becquerel, unidad que mide la actividad radiactiva, por metro cúbico) todo el tiempo y al menor costo posible, para una economía familiar o industrial”, explicó.

Al unir estos elementos y experiencias se logró un dispositivo que modera la concentración en interiores y, a la vez, se obtuvo un control adecuado de humedad relativa al mismo costo.

Con dos años de desarrollo, el procedimiento está en trámite de patente y forma parte del Programa para el Fomento al Patentamiento y la Innovación (Profopi) de la Coordinación de Innovación y Desarrollo (CID) de esta casa de estudios, un esfuerzo para aplicar en la sociedad y el mercado nuevo conocimiento generado en la UNAM.

Útil en varios países

Está diseñado para ser usado tanto en climas húmedos como secos, pues incluso con un mínimo de cinco por ciento de humedad relativa en interiores siempre será mayor el contenido de partículas de agua suspendidas que el de radón.

Se puede aplicar en todas las zonas de México, sobre todo en regiones frías en invierno como Sonora, Chihuahua, Coahuila y Zacatecas, así como en los estados que están por arriba del Trópico de Cáncer, excluidas las áreas que tienen ventilación adecuada.

Con el Proyecto de Aplicaciones de la Dosimetría (PAD) del IF, el universitario realizó mediciones en toda la República, especialmente en la Ciudad de México y su zona metropolitana; encontró que en la mayoría la concentración de Rn intramuros está por debajo de las recomendaciones de acción de la Agencia de Protección Ambiental Americana (148 Bq/m3).

Entonces, el riesgo de salud es moderado, sólo en algunas partes de Chihuahua, por su gran contenido de uranio en el subsuelo, los niveles de radón son altos y sería necesario el sistema de mitigación.

La comercialización del método puede representar un importante ingreso económico a la UNAM, además de fomentar la vinculación e innovación con la ciencia desarrollada por académicos de la propia Universidad, finalizó Espinosa.

Anuncio publicitario

Fibra óptica puede usarse para monitorear daños en edificios

Fibra óptica puede usarse para monitorear daños en edificios
En la Crónica

Sergei Khotyaintsev Duskriatchenko, académico de la Facultad de Ingeniería (FI) de la UNAM, encontró una aplicación totalmente nueva para la fibra óptica, comúnmente utilizada en el campo de las telecomunicaciones: ser los “nervios” de edificios, presas, puentes y otras estructuras para identificar grietas y fisuras después de la ocurrencia de un sismo, incendio, explosión de gas u otro evento catastrófico, para así conocer rápidamente el daño que sufrieron.

Con ello, de forma inmediata sería posible establecer, por ejemplo, el nivel de riesgo de la entrada de equipos de emergencia. La aplicación se basa en una técnica sencilla y económica, que podría ser implementada a escala masiva, en especial en un país como el nuestro, que posee zonas de alto riesgo sísmico.

Esta innovación –sencilla, económica y que no requiere de servicios de mantenimiento de alto costo– también sería aplicable a las casas de autoconstrucción, levantadas sin normas ni la asesoría de un experto, sino con las propias manos de sus habitantes.

Bajo el mismo principio se ha embebido la fibra óptica en materiales compuestos de polímeros y fibra de carbono o vidrio, utilizados en la fabricación de autos, lanchas, yates, helicópteros y aviones para monitorear la integridad estructural de esos medios de transporte.

Khotyaintsev expuso que las líneas de fibra óptica —que también se ha usado en el área médica— funcionan como “nervios artificiales” que, a semejanza de un dolor en el cuerpo, indican que hay alguna falla. “Introducimos una señal óptica y observamos sus características. Si se presenta un daño en la estructura, cambia la transmisión y algunos detalles más finos de la señal”, señaló en un comunicado de la UNAM.

Como parte de la investigación científica, profunda y detallada, también con base en estudios teóricos y experimentales, se probaron diferentes tipos de fibra. Se fabricaron muestras de concreto, como si fueran vigas o columnas reales, con los cables embebidos; luego de 28 días de espera para que el material adquiera su dureza final, se probó qué pasa si la pieza se rompe.

Sergei Khotyaintsev recordó que las edificaciones presentan ambientes dañinos para alambres de cobre y otros metales, debido a la humedad, la corrosión y las descargas eléctricas producto de los rayos que inciden sobre ellas. También se presentan procesos electroquímicos, por lo que no es fácil colocar sensores tradicionales (de materiales metálicos o semiconductores) en esas estructuras. Ante ello, el problema del monitoreo de la integridad de edificios, presas o puentes, es muy serio.

En contraste, la fibra óptica es un material químicamente resistente; no es un medio conductivo porque no tiene metal, entonces no sufre interferencia ni corrosión electroquímica. Está hecha de dióxido de silicio, un material tres veces más fuerte que el acero respecto a cómo soporta la carga mecánica.

PRUEBAS. Luego de encontrar el grosor y flexibilidad idóneos de la fibra, los investigadores descubrieron que sí se pierde una parte de los cables, “pero para monitorear una pieza se requiere sólo de uno, dos o tres. Si ponemos 50, no importa que la mitad se rompa; no se produce ningún problema principal. Los datos demuestran que hay una tasa suficientemente grande de sobrevivencia de las fibras en este ambiente rudo y severo, que es el momento de fabricación de las piezas de concreto”.

Las pruebas mecánicas se realizaron en colaboración con el Departamento de Estructuras de la División de Ingeniería Civil y Geomática de la propia Facultad, donde hay expertos y equipos adecuados. Además, se recibió financiamiento de la FI y del Instituto de Ingeniería, en el marco de un convenio entre ambas instancias.

De forma adicional, el estudiante de doctorado Juan Emmanuel González Tinoco desarrolló el equipo —que tampoco existe en el mercado—, que permite monitorear simultáneamente decenas y hasta cientos de fibras ópticas embebidas en diversos elementos estructurales.

En la etapa actual de perfeccionamiento de la innovación el monitoreo se hace desde el inicio del proceso de fabricación de vigas y columnas de concreto; después, en la etapa de asentamiento, compactación y secado de la mezcla. “Sabemos el momento en que se rompe la fibra: en el proceso de llenar el molde, de someterlo a vibración para que se asiente o después de varias semanas”.

El universitario aclaró que en el concepto final se tendrá un equipo más compacto y sencillo. La meta es contar con un panel en la pared de entrada de un edificio, y con la ayuda de leds y un suministro de energía solar, permitir que cualquier persona tome la lectura del dispositivo. El costo de cada unidad no rebasaría los 500 pesos.

Llevan la luz a escala nanométrica

Llevan la luz a escala nanométrica
Por Mariana Dolores en la Academia Mexicana de Ciencias

Conocer cómo interactúa la luz con objetos a nano escala es uno de los principales intereses de investigación científica de la doctora Cecilia Noguez Garrido, del Instituto de Física de la UNAM, quien junto con su equipo se ha dedicado a estudiar las estructuras nanométricas a través de la espectroscopía óptica, específicamente sobre la transferencia de calor a nanoescala, con el objetivo de seguir en la búsqueda de nuevos nanosensores, así como de nuevas espectroscopías ópticas a nanoescala.

“La Luz interactúa de manera diferente con objetos macroscópicos que aquellos de nano escala. A escala macroscópica la luz que se refleja en una mesa deja ver sus características como su color y brillantez, entre otras características, si se hace un cambio a la mesa, como por ejemplo, recortar una de sus esquinas, se sigue viendo a la mesa del mismo color. A escala nanométrica, si se cambia la forma de la partícula, por ejemplo de un cubo, y se le recortan las esquinas, el color que refleja cambia. Esto indica que hay una interacción de la luz a escala nanométrica que depende de la forma de las nanopartículas”.

Esto sucede, explicó Cecilia Noguez, porque la luz, al ser una onda electromagnética, ejerce una fuerza sobre los electrones de la nanopartícula causando que estos se exciten colectivamente y se muevan hacia un lado determinado de la partícula nanométrica dejando los iones con cargas positivas al otro lado. Esto produce diferentes arreglos de las cargas positivas y negativas dando lugar a densidades de carga. La forma de estas densidades de carga depende de la forma de las nanopartículas.

En su conferencia “Luz a escala nanométrica”, ofrecida ayer en la Facultad de Ciencias de la UNAM, en el marco del ciclo de Conferencias Premios de Investigación de la AMC, la ganadora de esta prestigiada distinción en el 2009 en el área de ciencias exactas, indicó que al dirigir la luz hacia una nanopartícula se produce una competencia de fuerzas: por un lado, la fuerza ejercida por la luz separando a los electrones de los iones y, por otro, la fuerza de atracción que hay entre las cargas positivas de los iones y las negativas de los electrones, lo cual obedece a la ley de Coulomb.

“Otra fuerza que hay que considerar es la repulsiva que existe entre los electrones debido a que estos tienen la misma carga negativa. Por lo que empieza a haber arreglos de distintas cargas de manera tal que minimice la energía necesaria para poder mover los electrones en este arreglo”, dijo.

Así que, todas estas propiedades que se generan por el paso de la luz: los arreglos, las densidades de carga y la competencia de las fuerzas desembocan en una fuerza de resonancia que es característica de cómo están distribuidas las cargas positivas y negativas en una nanopartícula, que a su vez depende de las distancias entre ellas originadas por la forma geométrica de las estructuras nanométricas. Al final, la suma de las fuerzas da una frecuencia de resonancia que está asociada a una distribución de carga, depende de cómo se acomoden los electrones con respecto a los iones.

“Así, dependiendo de la geometría de la partícula se pueden tener una, dos, tres o más frecuencias de resonancia y resulta que en todas estas frecuencias asociadas a una determinada geometría se puede absorber y concentrar la luz sobre puntos específicos”, precisó.

Esto resulta útil para una gran cantidad de aplicaciones, de las cuales Noguez Garrido describió dos en particular:

La primera es que a nivel celular se ha pensado en introducir nanopartículas dentro de las células que logren generar calor y éste a su vez destruya las células, esto se puede hacer gracias a los diferentes arreglos de cargas que pueden permitir concentrar el campo electromagnético en puntos muy bien definidos a través de luz proveniente de una lámpara, al calentar la nanopartícula la célula morirá por lo que puede ser útil para destruir algunas células malignas, bacterias o agentes patógenos.

Para la investigadora esto resulta interesante, porque se puede aumentar tanto el campo electromagnético hasta 107, que son diez millones de veces y en regiones pequeñas, generando un calor muy intenso.

No obstante, la física reconoció que al introducir la nanopartícula no se sabe si el cuerpo la desecha o qué pasa con el ciclo celular, es decir, se sabe de su efectividad para destruir células enfermas, pero no se conocen los efectos secundarios en células sanas, razón por la cual esta tecnología aún no llega al mercado.

Por otro lado, se pretende aumentar la eficiencia de las celdas fotovoltaicas, colocando nanopartículas que concentren mucha mayor energía en menor espacio buscando trasladarla para aumentar la eficiencia de la misma. Otra aplicación es en el aumento en la sensibilidad de técnicas que detectan luz

La fuerza de la luz, el gran impulso para pequeños y grandes objetos

La fuerza de la luz, el gran impulso para pequeños y grandes objetos
Por Elizabeth Ruiz Jaimes en la Academia Mexicana de Ciencias

El estudio de la luz y la óptica brinda grandes posibilidades para realizar investigación de frontera y desarrollo tecnológico. La luz tiene fascinantes efectos sobre la materia, uno de ellos es su capacidad de ejercer fuerza y presión, destacó Karen Volke, investigadora del Instituto de Física de la UNAM (IFUNAM).

Ejemplo de lo anterior es que gracias a la luz se puede lograr desde la propulsión de un velero solar hasta la captura de una bacteria por medio de un láser, fenómenos que se explican por la fuerza que ejerce la luz sobre la materia, propiedad que explicó el físico británico James Clerk Maxwell en el siglo XVIII:

“En un medio en el que las ondas se propagan -escribió- hay una presión en la dirección normal a las ondas, numéricamente igual a la energía en una unidad de volumen”.

Velero Solar

Ahora se sabe que la luz es capaz de ejercer presión sobre los objetos, pero llegar a esta afirmación requirió de muchos años de trabajo, teorías y experimentos. En la primera mitad del siglo XVII Johannes Kepler se preguntó si la radiación ejercía algún tipo de presión o no. El propio astrónomo y matemático alemán respondió de forma afirmativa a la interrogante y para ello explicó el fenómeno con la dirección que toma la cola de los cometas. Dijo que este objeto, independientemente de donde se moviera su cauda, siempre apuntaba en dirección opuesta al Sol. “Hoy sabemos que este efecto de la cola de los cometas no es solo por la radiación sino principalmente por el viento solar”, señaló la investigadora.

Dos siglos después, en 1873 Maxwell demostró teóricamente que la luz por sí misma podía ejercer fuerzas ópticas, denominadas presión de radiación. Quien también intentó demostrar la fuerza de la luz sobre la materia fue el científico Williams Crookes, inventor del radiómetro de Crookes o molino de luz, el cual consiste en una bombilla en cuyo interior se halla un bulbo y en la punta de éste, contraria a la base, una aguja con cuatro pequeñas paletas, dos plateadas de un lado y dos negras del otro.

Lo que se buscaba con este invento es que las paletas giraran cuando la luz fuera reflejada por la cara plateada, ya que la transferencia de momento lineal -es decir, la fuerza- de la luz reflejada sería aproximadamente el doble que el de la luz absorbida en la cara negra. Efectivamente, el molino gira al ser expuesto a la luz, pero de manera contraria a lo que se esperaba. Esto ocurre porque los efectos térmicos que provoca un movimiento hacia las zonas de menor temperatura, dominan sobre la presión de radiación. Entonces este experimento tampoco logró explicar la fuerza de la luz.

En 1972 el escritor y científico Arthur C. Clarke, publicó “El viento del Sol: Relatos de la era espacial” en el cual propone una carrera de veleros solares impulsados por el viento solar, una de las ideas con las que trabajaba en ese entonces, y tal vez inspirados por este libro, a inicios del presente siglo, se iniciaron proyectos con veleros solares – impulsados gracias a la luz del sol-, como fue el caso del Cosmos1, un velero con forma de disco de 100 kilogramos de peso y ocho velas triangulares dispuestas como las aspas de un ventilador, que unidas formaban un círculo de 30 metros de diámetro.

Se trataba de un proyecto privado desarrollado por la Sociedad Planetaria, entidad co-fundada por el célebre astrónomo y cosmólogo Carl Sagan, y financiado por varias organizaciones. El velero fue desarrollado por el Centro Científico Espacial Lavochkin de Moscú y otras entidades. Se lanzó al espacio el 21 de julio de 2005, pero no alcanzó su órbita debido a una falla en los propulsores del cohete que lo transportaba y que había sido lanzado desde un submarino ruso en el mar Barents.

Con este experimento fallido, en 2009 se inició elLightSail1, el cual aún se encuentra en tierra pero su lanzamiento está programado para abril de 2016, después de veinte años del fallecimiento de Sagan. Se trata de un pequeño satélite de 30 centímetros de diámetro con forma de cubo, construido por la firma Stellar Exploration. Este nuevo proyecto también es financiado por la Sociedad Planetaria.

Karen Volke destacó que pese a estas fallas “el funcionamiento de un velero solar ya se demostró en 2010 con el proyecto japonés Ikaros, una nave-papalote interplanetaria de 15 kilogramos. Un año después, la NASA puso en órbita el velero solar NanoSail-D, con lo que quedó plenamente demostrado que la luz es capaz de empujar aun objetos macroscópicos utilizando la presión (fuerza) de radiación”.

Las delicadas manos de la luz

Mientras en el mundo ha habido gente que ha dedicado sus esfuerzos a demostrar la fuerza de la luz sobre objetos en el espacio, en otros puntos del planeta se empezó a estudiar su efecto sobre objetos microscópicos: “Se dieron cuenta que la luz no sólo podía ejercer presión sobre ellos y empujarlos, sino también atraparlos en las regiones de mayor intensidad”, con lo que surgieron las pinzas ópticas.

Desde su invención en 1986, las pinzas ópticas son una potente herramienta de micromanipulación que actualmente cuenta con una amplia gama de aplicaciones en biología y física, áreas en las que es posible guiar, atrapar y separar objetos microscópicos, como una célula.

Las pinzas ópticas son capaces de manipular partículas dieléctricas tanto de tamaño nanométrico como micrométrico ejerciendo fuerzas extremadamente pequeñas por medio de un haz láser altamente enfocado. El haz es típicamente enfocado enviándolo a través de un objetivo microscópico.

Una explicación apropiada del comportamiento del atrapamiento óptico depende del tamaño de la partícula atrapada relativo a la longitud de onda de la luz utilizada para atraparla. En casos en donde las dimensiones de la partícula son mayores que esta longitud de onda, un simple tratamiento de rayos es suficiente. Por otro lado, si la longitud de onda de la luz excede a las dimensiones de la partícula, entonces las partículas deberán ser tratadas como pequeños dipolos eléctricos en un campo eléctrico.

Karen Volke mencionó, en el marco de la conferencia “Historias breves de luz y fuerza”, en el auditorio del edificio Yelizcalli de la Facultad de Ciencias de la UNAM, que la interacción de la luz con la materia permite un mayor control de los objetos que se manipulan, aspecto importante porque se ha vuelto una herramienta eficaz.

Recrean ionosfera de Marte con plasmas

Recrean ionosfera de Marte con plasmas
Por Patricia López en la UNAM Núm. 4, 673

Gas o fluido formado por partículas eléctricas que poseen un equilibrio electromagnético, el plasma es el cuarto estado de a materia, con características distintas de sólidos, líquidos y gases.

Abundante en el universo, se encuentra en los vientos solares, en las nebulosas y en la franja ionizada de las atmósferas planetarias, llamada ionosfera. También, puede producirse en el laboratorio al aplicar un campo eléctrico a un gas o por medio de láseres o microondas.

En el Instituto de Ciencias Físicas, con sede en esta ciudad, Horacio Martínez Valencia encabeza un grupo científico que genera plasmas fríos en el laboratorio para conocer desde las características fundamentales de esos gases hasta múltiples aplicaciones para modificar materiales, formar sustratos biodegradables y esterilizar productos de uso biomédico.

El doctor en física, sus colegas y alumnos de posgrado, en dos modernos laboratorios, cuentan con varias cámaras de descargas equipadas con sistemas de alto vacío y con ventanas de cuarzo para realizar diferentes diagnósticos de los plasmas fríos producidos. “Éstos son fundamentales en la formación de galaxias, planetas y estrellas, y también tienen múltiples aplicaciones en artículos diversos como las pantallas de televisión, los tubos fluorescentes y plasmas a presión atmosférica”, comentó.

Espectroscopía de tres tipos

La espectroscopía es una herramienta muy utilizada por físicos y químicos para estudiar la interacción entre la radiación y la materia.

Al descifrar ese nexo en un espectro, se conoce su composición precisa.

En sus investigaciones utilizan tres tipos de espectroscopía: la óptica, con la que indagan cómo están excitados los átomos y moléculas dentro del plasma; la de masas, para conocer qué elementos están involucrados en el gas, y la de infrarrojo, que informa cómo vibran y rotan las moléculas.

Los universitarios tiene dos laboratorios de espectroscopía donde observan las características de los plasmas fríosy sus aplicaciones. En un experimento de física básica simulan la composición de la ionosfera de Marte.“En una cámara de descarga, diseñada y construida por nosotros, podemos analizar, por ejemplo, uno formado por mezclas de gases de dióxido de carbono, nitrógeno y argón, a una presión menor en dos órdenes de magnitud a la ambiental para esa simulación”, explicó el investigador.

“Con una sonda de Langmuir, también construida por nosotros, medimos la densidad de partículas negativas y su temperatura dentro del plasma, semejantes a las condiciones en ese planeta, según cotejamos con datos enviados por las sondas espaciales”, añadió.

Del choque entre las partículas de dióxido de carbono, nitrógeno y argón se desprenden muchos componentes químicos que dan lugar a la formación de ionosfera marciana. “Hay investigadores teóricos que modelan las ionosferas, nosotros las podemos comparar con este experimento y decirles si falta algún ingrediente para que comprueben sus estimaciones”, dijo Martínez Valencia, quien ya desarrolló un análisis experimental sobre la atmósfera de Titán, una luna de Júpiter.

Mejoran celdas solares

Otra cámara de descarga se utiliza para generar plasmas de argón con el propósito de aplicarlas en la modificación superficial de películas delgadas, del orden de micras. En el interior de aquélla se coloca una laminita, que es una película delgada que usan los expertos en celdas solares para mejorar la eficiencia terminal de la radiación solar y convertirla en electricidad, detalló.

Para que la conversión de energía solar a eléctrica sea eficiente se requiere que toda la que llega a la celda se aproveche, pero en este proceso hay muchas pérdidas por calentamiento o porque parte de ella se refleja.

Al modificarla superficialmente con plasma, se logra que la película delgada absorba la energía más eficientemente. “Las propiedades ópticas de la película delgada son modificadas con el objetivo de reducir la reflexión y que su resistencia eléctrica sea menor, haciendo más eficiente la conversión de energía solar”, abundó.

Una aplicación más de los plasmas se ensaya en el laboratorio para recubrir herramientas de carburo de tungsteno, material que se usa en piezas de corte empleadas en tornos de control numérico. Al recubrirlas con nitruro de titanio mediante el plasma, las piezas se hacen más duras y resistentes al desgaste, lo que les da una vida útil más larga en los procesos de producción.

El grupo de Martínez Valencia también analiza los asfaltenos y su descomposición.

Estas sustancias del petróleo se depositan en las tuberías de las instalaciones petroleras y las tapan. A partir de su erosión con plasmas, el físico busca una opción para que no se adhieran a los conductos.

Otros aprovechamientos interesantes modifican huesos de res para formar sustratos biodegradables útiles en prótesis y esterilizan materiales de uso biomédico, para evitar infecciones hospitalarias.

El 2015 es el Año Internacional de la Luz (AIL)

El 2015 es el Año Internacional de la Luz (AIL)
Por (UNESCO, El Economista, La Jornada) en Cinvestav: Avance y Perspectiva

La Asamblea General de la ONU y la UNESCO decretaron el 2015 como elAño Internacional de la Luz.

Al respecto, el investigador del Centro de Radioastronomía y Astrofísica (CRA) de la UNAM, Luis Felipe Rodríguez Jorge, habló de la importancia del Sol como fuente de energía gracias a la cual es posible la vida en la Tierra.

A diferencia de otros lugares, el Sol hace posible que este planeta se mantenga a una temperatura que permite la existencia de moléculas de agua en forma líquida. El agua, como ya sabemos es fundamental para la existencia de la vida.

El Año de la Luz, es una iniciativa creada por un largo grupo de cuerpos científicos que unidos con la UNESCO, planean invitar a inversionistas, incluidas sociedades y uniones científicas, instituciones educativas, plataformas tecnológicas, organizaciones no lucrativas y socios del sector privado.

Aquí pretende planear y poner en macha diversas acciones alrededor del mundo a diferentes niveles: privado, legislativo, institucional, de colaboración institucional, indicó Ana María Cetto, coordinadora del Comité Nacional AIL.

La ONU reconoce la importancia de aumentar la conciencia mundial con respecto a este tema, y apoyar proyectos que puedan proveer de soluciones a los retos globales que tenemos en el campos de la energía, educación, agricultura y salud.

“La luz desempeña un papel vital en nuestra vida diaria y es una disciplina imperativa en la ciencia del siglo XXI. Ha revolucionado la medicina, ha abierto la comunicación vía internet, y continua siendo fundamental para unir aspectos culturales, económicos, políticos de la sociedad global”, dice el comunicado de la ONU.

Julia Tagüeña, investigadora del Conacyt y directora del Museo de la Luz, señaló que en México “Tenemos que vencer la poca participación de la industria del ramo de la fotónica, la óptica, la generación de luz y las telecomunicaciones.[…] aunque tenemos programas referentes a la luz solar, no ha sido prioridad nacional, a pesar de que nuestro territorio goza de irradiación solar envidiable.”

Cumbre Tajín será el escenario para la celebrar el Año Internacional de la Luz, del 19 al 23 de marzo. El lema es: “El trayecto de nuestra luz”.

La cumbre contará con 580 iniciativas en 16 países, 5 mil actividades dentro del festival gracias a 7 mil artistas.

Aprender a utilizar la luz a favor de la gente, uno de los propósitos  del “Año Internacional de la Luz”

Aprender a utilizar la luz a favor de la gente, uno de los propósitos  del “Año Internacional de la Luz”
Por Emiliano Cassani Serrano en Foro Consultivo Científico y Tecnológico

“Hay una tremenda desinformación y desconocimiento sobre cómo utilizar la luz. La población mexicana tiene que aprender a emplearla mejor, con la finalidad de causar un impacto económico positivo al conseguir que parte de la radiación solar que reciben las viviendas de nuestro país se pueda transformar en energía eléctrica, meterla a la red y que la Comisión Federal de Electricidad (CFE) lo pueda abonar a la cuenta del consumidor”, expresó en entrevista la doctora Ana María Cetto, coordinadora del Comité Nacional del Año Internacional de la Luz (AIL) 2015.

“El AIL 2015 –abundó la doctora Cetto Kramis–  no sólo implica la divulgación de un evento internacional, apunta a fomentar con calidad el desarrollo educativo, cultural, científico, tecnológico e innovador que tanta falta le hace a nuestro país”.

En opinión de la doctora Cetto, el beneficio para el ciudadano de a pie repercute directamente en su bolsillo, sin embargo hay beneficios que influyen claramente en la supervivencia de la humanidad. “La relación entre energía y medio ambiente es innegable, por lo que se tiene que reducir la degradación medioambiental, al buscar alternativas viables y opciones energéticas que en su conjunto puedan minimizar el daño ocasionado al planeta”, aseveró la física de la UNAM.

“La luz tiene que empezar a ser tratada de manera responsable, para ello la apropiación social de la ciencia, tecnología e innovación debe tomar un papel preponderante a fin de que la ciudadanía pueda participar más en las propuestas de políticas públicas que le permitan a la sociedad vivir con una mejor calidad de vida”.

El Foro Consultivo Científico y Tecnológico A.C. (FCCyT), maneja en su acervo un conjunto de iniciativas, en las cuales el planteamiento principal versa sobre la elaboración de un Programa Nacional de Fomento a la Cultura Científica y Tecnológica, a fin de que México pueda alcanzar la sociedad y la economía del conocimiento.

Los expertos convocados por el Foro Consultivo han analizado, desde ángulos como la epistemología, la ética y la política, una serie de objetivos para fomentar la apropiación social de la ciencia, tales como generar diagnósticos que generen información necesaria en la implementación de programas, consolidar los esfuerzos actuales de comunicación, profesionalizar estas actividades, identificar y establecer proyectos socialmente relevantes, pero sobre todo promover la participación social en la formulación de políticas públicas.

México listo para el reinicio del Gran Colisionador de Hadrones

México listo para el reinicio del Gran Colisionador de Hadrones
Por Belegui Beccelieri en la Academia Mexicana de Ciencias

Uno de los eventos más esperados del 2015 es el reinicio de actividades del Gran Colisionador de Hadrones (LCH, sus siglas en inglés), el experimento de mayor colaboración internacional que indaga los secretos de la materia y la energía del Universo.

Como parte de este gran laboratorio, ubicado en el Centro Europeo de Investigación Nuclear (CERN, sus siglas en francés), el equipo de físicos mexicanos encabezado por el doctor Gerardo Herrera Corral, del Centro de Investigación y de Estudios Avanzados (Cinvestav), ha terminado de instalar un nuevo equipo diseñado y fabricado en nuestro país.

Se trata del ALICE Difractive (AD), que permitirá realizar estudios de física difractiva –una reciente área de estudio- en el experimento A Large Ion Collider Experiment (ALICE), uno de los cuatro equipos que forman el LCH, el cual se encuentra en la frontera franco-suiza a una profundidad entre 50 y 150 metros.

La tarea que tiene el LCH es indagar que ocurrió inmediatamente después del nacimiento del Universo luego del bing bang, explicó Herrera Corral, miembro de la Academia Mexicana de Ciencias.

Para que una colisión se dé, los especialistas del CERN ponen a girar a gran velocidad una pila de partículas, ya sea protones de hidrógeno o iones de plomo, que corren por dos túneles de 27 kilómetros de circunferencia en dos direcciones diferentes.

Cada grupo de partículas viaja a más de 100 kilómetros por segundo (algo excesivo para su tamaño) y al encontrarse en las diferentes cámaras o detectores del LHC (ATLAS, CMS, LHCb y ALICE) se destruyen liberando a los quarks en su interior, generando nueva materia y energía.

Gracias a estas colisiones, se confirmó la existencia del fenómeno del bosón de Higgs, -la partícula responsable de la masa de todas de las demás- cuyo hallazgo en el 2012 mereció el Premio Nobel de Física en 2013 a los científicos que la pronosticaron en 1964 por separado, el británico Peter Higgs y el belga Francois Englert.

Pero no siempre chocan todas las partículas que corren a lo largo del LHC. Se calcula que en el caso de choque de protones contra protones se pierde casi el 30 por ciento de las colisiones.

“Son procesos muy comunes, 30 de cada 100 son muchísimos. En ellos los protones sobreviven, no se hacen daño, pero se rozan y aun así producen radiación”, explicó Herrera Corral.

En estos casos, los protones son capaces de liberar energía y generar nuevas partículas. Ese tipo de interacciones, conocidas como física difractiva, no han podido ser bien estudiadas, hasta ahora.

“Estos procesos son especiales y diferentes a los comunes. En ellos se ven partículas pero creemos que en estos eventos ocurren otras cosas y eso hace fascinante esta oportunidad”, reconoció el físico.

AD está dividido en dos segmentos. Uno se encuentra en lo que podría ser la puerta de entrada a ALICE y el otro a pocos metros de la salida, por lo que cada equipo ha recibido el nombre de ADA y ADC.

“Estos segmentos –añadió- miden 20 centímetros de ancho por 20 centímetros de alto y están elaborados con un plástico muy resistente denominado centellador. Este material se hizo en México, no existe en el mundo y su característica principal es que usa sustancias aromáticas que al recibir radiación o luz, centellea”.

Al estar en los extremos de ALICE, los sistemas funcionarán de forma similar a una cámara fotográfica digital de 500 millones de pixeles que realizarán miles de tomas de imágenes en un segundo para observar las partículas que forman la materia y son llamadas quarks.

Propuesto como un equipo para revisar la calidad del haz en el 2009, ADA y ADC fueron probados, experimentalmente, en 2012 para revisar todos los paquetes de partículas para que estas fueran iguales o con las mismas características.

Los estudios de física difractiva, según anunció Rolf Heuer, actual director del CERN, es una de las principales apuestas a futuro de este laboratorio rumbo al 2030.

Además del sistema AD, México ha instalado ya otros detectores que son considerados clave para el funcionamiento de ALICE, se trata del sistema de sensores V0 y el equipo ACORDE.

La complejidad del ser humano (relación entre física moderna y religión)

La complejidad del ser humano (relación entre física moderna y religión)
Por Panos Charitos en Cinvestav: Avance y Perspectiva

En los últimos años, gran cantidad de evidencias han venido a fortalecer el Modelo Estándar de la física actual, una de las piedras angulares de la moderna que explica cómo los bloques de construcción básicos de la materia interaccionan y se organizan por medio de cuatro fuerzas fundamentales: la gravedad y la interacción de las fuerzas llamadas fuerte, débil y electromagnética.

El anuncio del descubrimiento del Bosón de Higgs, tras los experimentos ATLAS y CMS realizados en el Gran Colisionador de Hadrones o LHC (por sus siglas en inglés), llenaron de entusiasmo a los físicos de todo el mundo. Era la pieza que faltaba para confirmar el Modelo Estándar y fue observado de manera independiente por los grupos involucrados en ambos experimentos. El Bosón de Higgs, o, para ser un poco más precisos, el campo de Higgs, describe el proceso de “formación” de la masa. Concede masa a las partículas elementales que de otro modo serían sin masa. Siguiendo al descubrimiento de los bosones W y Z, hace casi 30 años por la Organización Europea para la Investigación Nuclear (CERN) y con las pruebas de precisión del Modelo Estándar de la interacción electrodébil y fuerte en LEP (Large Electron-Positron Collider), el Bosón de Higgs vino a reafirmar la validez del Modelo Estándar de la física de partículas.

Meses después, más información, ahora proveniente de un experimento de reconocimiento del espacio exterior fue anunciada por el proyecto Planck, otorgando mayor evidencia a favor del Modelo Estándar de la Cosmología Moderna. La misión Planck se centraba en un detallado reporte de la radiación emitida en el fondo o telón de microondas del Universo, una reliquia del plasma original que inundó el Universo durante los primeros cien mil años posteriores al Big Bang. Los precisos patrones de temperatura detectados en el fondo de microondas del Universo (CMB, por sus siglas en inglés), confirmaron la predicción de que poco después del Big Bang, el joven Universo sufrió un corto estallido de expansión exponencial conocido como inflación. Los resultados del Planck parecen confirmar un “universo casi perfecto”, aunque nuevos aspectos aún inexplicados se han abierto y podrían dar pie a una nueva física.

Los dos anuncios arrojaron, evidentemente, mucha luz sobre preguntas de física de partículas y cosmología que permanecieron sin respuesta por más de medio siglo y allanaron nuevos caminos en nuestra comprensión del mundo. Los últimos resultados, provenientes de la colisión de partículas en nuestros aceleradores o de la observación de distantes galaxias con nuestros telescopios, han ayudado a confirmar la validez de ciertas teorías. Al mismo tiempo, la nueva evidencia experimental ha abierto todo un nuevo conjunto de preguntas.

El descubrimiento del Bosón de Higgs (o de un bosón similar al de Higgs) ha sido un logro extraordinario, producto de los muchos años de arduo trabajo de un grupo de colaboración de científicos que se reunieron en el CERN (Consejo Europeo para la Investigación Nuclear o Conseil Européen pour la Recherche Nucléaire). Sin embargo, también ha despertado cierta inquietud entre ellos. El Modelo Estándar de la física de partículas tiene varios hoyos en sí, que no han hecho sino volverlo más problemático a medida que sabemos más de él. Deja sin resolver las cuestiones de la Materia Oscura, el mecanismo que genera la masa, el paralelismo entre materia y antimateria y la abundancia de partículas. Además, carece de una respuesta convincente para explicar por qué algunas de las fuerzas fundamentales son más fuertes que otras. De manera similar, la información arrojada de la exploración del Planck confirma el Modelo Estándar o Modelo del Big Bang de la cosmología. El hecho de que los resultados estén en extraordinario acuerdo con el paradigma inflacionario da lugar a preguntas referentes a las condiciones originales, previas a la inflación así como a qué fue lo que detonó esta fase en la historia del Universo. La información del Planck demuestra que no todo concuerda con nuestro entendimiento de la cosmología.

Teorías alternativas, con el propósito de atender algunas de las preguntas en física de partículas y cosmología, parecen no encontrar una confirmación experimental. Tal vez lo que ahora vemos es solo parte de una fotografía más grande que incluye una nueva física escondida en las profundidades del mundo subatómico o en los oscuros rincones del Universo. Tenemos que esperar las nuevas corridas del LHC y a que más información sea analizada de la misión Planck para tener un entendimiento más claro. De cualquier modo, los resultados de los experimentos del LHC y del satélite Planck reafirman una imagen de simplicidad: todo resultó ser demasiado simple, aunque extremadamente desconcertante.

Este misterio de simplicidad puede servir como un bloque de construcción de un espacio de diálogo más amplio entre la ciencia moderna y la religión. El vínculo entre las dos ha sido inquietante desde que la ciencia comenzó a despuntar como un campo diferente. Ha sido uno de los debates de más larga duración gracias a lo cual, hasta cierto punto, moldearon la visión del mundo moderno occidental. Esta larga relación se ha caracterizado por fuertes disputas y en otros momentos por un acercamiento más reconciliatorio. De estos debates surgió la pregunta de si el lazo entre religión y ciencia está caracterizado por el conflicto o por la concordia, un asunto que aún preocupa a muchos estudiosos y que predomina en la esfera pública.

El descubrimiento del Bosón de Higgs revivió la tensión entre las dos partes y encendió vivos debates sobre la relación entre ciencia y religión. El nombre de “partícula de Dios” que fue atribuido al Bosón de Higgs por Leon Lederman causó una tensión extra (también entre los físicos que no se sentían a gusto con ese nombre). Un fuerte lenguaje religioso y antirreligioso se desató en torno a la búsqueda de dicho bosón. “No existe la (bendita) partícula de Dios” escribió Tony Phillips. “El Bosón de Higgs es una clavo más en el ataúd de la religión” expuso Peter Atkins de la universidad de Oxford en la BBC. “¿Será que el Bosón de Higgs hará surgir una nueva religión, a un nuevo dios? se pregunta el Hindustan Times. Más recientemente, en su nuevo libro, Lawrence Krauss describe cómo hay tres tipos de nada que podrían producir de ese algo que vemos alrededor de nosotros y que para Krauss significa que esto es pura ciencia sin necesidad de cuentos de hadas.

Si bien con un matiz diferente, estos enfoques comparten la consigna de que la religión se basa en una suerte de ilusión, decepcionando así a aquellos que son fieles y desafían a la necesidad de entender el mundo. Los creyentes a menudo son concebidos como patéticos receptores de un mensaje diseminado por las autoridades y ministros de la iglesia y, como a menudo es el caso con esta corriente crítica, niega las varias formas en los que la audiencia se relaciona con el mensaje. Quizás aún más importante es que este argumento “esencializa” las descripciones de las escrituras de la creación del mundo y lo identifica/equipara con la investigación científica; como si apuntaran a ofrecer la respuesta de similares preguntas hechas por la ciencia moderna. Es una discusión que se da por dos partes: aquellos que acusan ferozmente a la religión de ser anticientífica e irracional, al tiempo que también muchos creyentes y líderes eclesiásticos fuerzan la autoridad de las escrituras cristianas sobre el discurso científico moderno.

La teología moderna también se ha ocupado de la relación entre las dos disciplinas. Llevar a cabo una exposición exhaustiva y convincente va más allá del objetivo de este artículo, sin embargo, los argumentos más populares, tanto de oponentes como de defensores de la religión, adolecen de una comprensión más bien limitada de Dios y de la tradición cristiana. Lo que es más importante es que la conceptualización de Dios, la membresía de la Iglesia y la relación entre lo humano y lo divino con frecuencia se basan en argumentos más bien afirmativos que descansan en la confirmación de nuestra relación con Dios –como un ser todopoderoso y omnipresente– y da una revalidación y un sentimiento de plenitud personal. En muchos casos pareciera que la identidad cristiana no da la posibilidad de la diferencia, la duda o la pregunta. Esta estampa delata a muchos de los críticos modernos de la religión como el campo por excelencia que ofrece un ingenuo discurso para los creyentes que no dan espacio para la ambigüedad ni a los discursos teológicos modernos.

Desde mi punto de vista esto no solo contradice la larga historia de la Iglesia Cristiana y el florecimiento de la teología patrística sino que además demerita la importancia de la hermenéutica y la interpretación del lenguaje cristiano. No es una exageración afirmar que la teología no se basa en certidumbres y que no hay muchos pasajes en las Escrituras que refuercen este caso. El Diluvio de Noé, seguido del primer testimonio entre Dios y el hombre, el sacrificio de Isaac, el dubitativo Tomás y el episodio descrito por Mateo (26:36-56) en el cual Jesús predica en el jardín del Getsemaní son algunas de las pocas ocasiones en que se señala el papel que la duda juega para la cristiandad. Uno solo tiene que pensar en la fuerza de esas descripciones y en el significado que tienen para los miembros de la joven iglesia en el contexto del Imperio Romano.

Esto no quiere decir que los creyentes tienen que vivir su fe en una condición de duda e incertidumbre, sino que va más allá y exige reconocer el significado que la duda y la otredad tienen para la teología. La duda no mella la creencia sino, por el contrario, es parte indispensable de la aceptación de Dios y los mandatos de una tradición religiosa. Aún más, la duda abre espacio para la acción en contraposición a la deshumanizadora carrera por la certidumbre. Este es un punto sutil dado que siempre existe el peligro de terminar en una discusión antimoderna que negará todos los avances alcanzados desde la Ilustración.

¿Ciencia y religión?

Todo esto está vinculado con el misterio de la simplicidad a que hice referencia mientras discutíamos los recientes logros científicos en física. La ciencia no se trata solo de declaraciones científicas afirmativas y descripciones que se refieren a una verdad absoluta (que se alcanza a través de la racionalidad) sino también ligadas a nuestra capacidad de hacernos nuevas preguntas y cuestionar las actuales teorías y descripciones científicas (algo que ya sabemos luego de los largos debates epistemológicos sobre el significado del realismo). La religión es un llamado a la otredad; construir y controlar nuestra relación con lo Otro es de importancia ontológica y teológica. Ambas tratan –desde su propia perspectiva– de brindar respuestas que den luz sobre el enigma del ser humano y en esta faena a menudo encuentran momentos de ambigüedad y silencio.

Los argumentos que asocian a Dios con el Big Bang de la cosmología moderna –ya sea que traten de apoyar la teología en hechos positivos o se basen en descubrimientos científicos–desafía la existencia de Dios, a menudo deja de hacer justicia para ambos lados. Terry Eagleton apunta en su libro Razón, Fe y Revolución, “Para la Judeo-Cristiandad, Dios no es una persona en el sentido en el que lo es Al Gore. Tampoco es un principio, ni una entidad o “existencia”; en sentido estricto de la palabra sería perfectamente coherente para los tipos religiosos argüir que Dios de hecho no existe. Él es más bien la condición de posibilidad una entidad cualquiera, incluyéndonos a nosotros mismos. Él es la respuesta al por qué hay algo en lugar de nada. Dios y universo no suman dos; poco más que mi envidia y mi pie izquierdo constituyen un par de objetos”.

La duda a la cual me he referido proviene de los más recientes hechos de ciencia (así como a la efusividad que he intentado describir) también puede ponderarse como inherente a la religión, y sirve de base para un enfoque “deconstructivo”. Uno que busca liberarnos y abrir la posibilidad para nuevas conceptualizaciones de nosotros mismos, nuestras vidas y nuestro universo (creo que ha sido este enfoque el que ha permitido a los teóricos proponer la existencia de cuerdas o el principio de un universo holográfico). Es una duda que no nos paraliza ni nos conduce a la inacción, sino por el contrario, abre un espacio ontológico en el cual la acción del ser humano se funda y libera un espacio moral. Esta noción de la duda puede no ser tan extraña para la ciencia y más bien podría tener muchos aspectos que ofrecer en la manera de enfocar las preguntas de los científicos, especialmente en tiempos de alta especialización. Al mismo tiempo, la teología puede aprender mucho de los recientes descubrimientos científicos en tanto que explora las fronteras del conocimiento y revela las paradojas de la simplicidad. Un momento que escapa a nuestra descripción y conlleva a futuras investigaciones.

Uno debe recordar que la religión y la ciencia no comparten los mismos principios y que el diálogo entre ellas no se puede basar directamente en documentación científica ni citas de las escrituras. En cambio, uno necesita encontrar las “claves” apropiadas que permitan la interpretación de resultados de un lenguaje u otro. Desde mi punto de vista, la duda abre un espacio para este diálogo y, junto con el enfoque deconstructivo que subyace en el corazón de la modernidad, ofrece jugosas formas de pensar en ambos campos. Para aquellos escépticos de la posmodernidad, pienso que existe otro ejemplo interesante en la teología cristiana, concretamente en la teología negativa o apofática que niega la posibilidad de hablar de Dios o de conocerlo a través de aseveraciones afirmativas/negativas.

La presión de problemas globales como el cambio climático, el gran número de inmigrantes y el incremento de la desigualdad social convierten el diálogo entre religión y ciencia en una emergencia, en tanto que ambas instituciones moldean a nuestra sociedad. Quizás la lírica del premio Nobel Odiseo Elytis, pueda servir como conclusión de este artículo. Señala algunas de las preguntas que persisten para nosotros, físicos y teólogos:

“Parece que en algún lugar la gente celebra, a pesar de que no hay casas ni personas, puedo escuchar guitarras y risas que no están cerca…sino tal vez muy lejos, en las cenizas del cielo, en Andrómeda, La Osa o Virgo…Me pregunto si la soledad es la misma en todos los mundos”.(O. Elytis, Calendario de un abril invisible)

 

¿Quién financia la física?

¿Quién financia la física?
Por Isaac Torres Cruz en Cinvestav: Avance y Perspectiva

La mecánica cuántica se desarrolló vertiginosamente a principios del siglo xx gracias al trabajo de prominentes científicos. Pero esta, como otras áreas de la física, fue aprovechada por los conflictos bélicos que azotaron el mundo pocos años después. La aplicación del conocimiento fue más importante que su entendimiento y el resultado más atroz fue su empleo, al final de la Segunda Guerra Mundial, para construir la bomba atómica.

De acuerdo con la física Ana María Cetto —ex directora general adjunta del Organismo Internacional de Energía Atómica e investigadora del Instituto de Física de la Universidad Nacional Autónoma de México—, después de las dos guerras la física se desvío de la investigación para desarrollar aplicaciones, principalmente con fines bélicos.

“Se hicieron a un lado cuestiones fundamentales y solo recientemente ha habido un resurgimiento de la investigación, pero hubo un momento en que dedicarse a estos trabajos básicos de la física no estaba bien visto” —señala en entrevista—. No estaban bien vistos porque si la investigación no se enfocaba a aplicaciones tangibles, se consideraba una pérdida de tiempo.

“Unos cuantos sí teníamos la motivación por entender estos fundamentos.” Durante décadas, la científica, miembro de la Academia Mexicana de Ciencias, se ha dedicado a la investigación básica no solo sin el reconocimiento del trabajo teórico que realiza, sino incluso con algo de aversión por parte de una comunidad.

Eso significaba que había pocos especialistas en el área con los que se pudiera discutir y compartir resultados, había aislamiento en México, en Estados Unidos y en Europa. Los fundamentos de la mecánica cuántica se hacían prácticamente en solitario. Ahora, el panorama ha cambiado, pero este tipo de antecedentes históricos reflejan cómo el fin fundamental de la ciencia se puede pervertir por el tipo de financiamiento que tiene.

Después de la guerra

En el periodo de la posguerra —menciona Cetto—, la física fue una ciencia central para los gobiernos de países más desarrollados, que participaron en la Segunda Guerra Mundial y que se dieron cuenta de su potencial para la seguridad nacional, es decir, tanto para fines militares y de defensa como para el desarrollo económico.

“El país que tomó la delantera para definir el derrotero de la física fue Estados Unidos, con una política abierta del presidente Harry Truman y donde el C’, escrito por Vannevar Bush, tuvo una gran repercusión e influyó mucho en el gobierno norteamericano”.

Su propuesta era que al gobierno estadounidense le convenía mucho invertir de manera importante en física, porque le redituaría beneficios al país. A partir de entonces hubo una inversión sustancial, pero dirigida a los fines de la física aplicada y en primer lugar a la defensa militar, dice Cetto.

Los estadounidenses lo hicieron y construyeron una infraestructura de investigación en física muy importante porque contaban con muchos científicos talentosos que habían emigrado de Europa. Con ello tuvieron masa crítica para desarrollar la física y crear muchas instituciones en las que pudieran orientar la física a aplicaciones industriales. “Eso dejaba de lado el trabajo fundamental de la física, que se consideraba como una desviación de dichos propósitos porque era vista como una pérdida de tiempo. No se iba a sacar nada productivo de ahí”, agrega.

Durante la Guerra Fría, a finales de los años sesenta, aparecieron investigadores preocupados por desarrollar cada vez más aspectos teóricos fundamentales de la física. Desde entonces, gradualmente, esta inquietud se fue incorporando a la “corriente principal” de pensamiento, al grado de que hoy ya no se ve mal que un físico se dedique a la teoría fundamental, puntualiza la investigadora.

Eso puede determinarse dependiendo de dónde trabaje uno y quién lo financie, como la industria militar, ejemplifica. “Porque hoy la investigación en física depende mucho de su financiamiento, de proyectos muchas veces orientados por los gobiernos.” Si bien en México no se requiere financiar la física para fines bélicos, realizar trabajo académico evitaría esa cooptación de la investigación en muchas partes del mundo. “Esa es la gran ventaja de los científicos cuando trabajan en una universidad”, donde tienen la libertad de hacer investigación sin otro compromiso que el avance del conocimiento.