Células cerebrales también ayudan a orientarnos durante el sueño

Células cerebrales también ayudan a orientarnos durante el sueño
Por (Investigación y Desarrollo) en Cinvestav: Avance y Perspectiva

Un equipo de científicos de la Universidad de Nueva York han descubierto que las células encargadas de orientarnos, permanecen eléctricamente activas durante el sueño.

Gracias a eso, durante el sueño, el cerebro se encarga de hacer una copia de seguridad de espacios y lugares, emitiendo señales vestibulares y visuales.

El equipo de investigación que trabaja en NYU Langone, Medical Center en Nueva York, realizó una serie de observaciones en un grupo de ratones, donde se percataron de que un tipo muy particular de neuronas, encargadas de la orientación y el equilibrio llamadas células de dirección de cabeza, (HD por sus siglas en inglés), continúan actuando mientras los ratones duermen.

Todos los mamíferos poseen estas neuronas, y se sabe que incrementan su actividad eléctrica cuando la cabeza se orienta hacia cierta dirección.

Los científicos se dieron cuenta de que durante la fase de sueño MOR (Movimiento Ocular Rápido), la cual es la más intensa, las neuronas de los ratones actuaron igual que cuando están despiertos y alertas.

También notaron que durante la fase de sueño de ondas lenta (SOL), las actividad neuronal se aceleró 10 veces más que cuando está en vigilia, lo cual quiere decir que si hubiesen estado despiertos hubieran girado su cabeza 10 veces más rápido.

El investigador a cargo del estudio, Gyorgy Buzsaki dijo que:

“Hace tiempo que sabemos que el cerebro sigue trabajando durante el sueño […] Pero ahora sabemos, además, cómo trabaja en uno de los sentidos aparentemente más simples: el que nos permite notar hacia donde miramos, en cualquier espacio dado. El sentido de dirección es una parte esencial de nuestro sistema de orientación dado que puede restablecer nuestra brújula interna y nuestros mapas, de manera instantánea, como por ejemplo, cuando salimos del metro y tratamos de orientarnos.

[…] El descubrimiento de que la actividad de las neuronas de dirección de cabeza muestra patrones coordinados durante el sueño -como si sustituyera a las miradas de los animales mientras estos se orientan- demuestra los esfuerzos que hace el cerebro para explorar y coordinar activamente sus operaciones, incluso cuando está desconectado de sus interacciones con el entorno”.

Para Buzsaki, estos resultados son la prueba de que el cerebro de los mamíferos no espera señales sensoriales, sino que las busca activamente.

La información arrojada podría ser utilizada para el tratamiento de enfermedades que tienen que ver con la orientación, como el Alzheimer y otros trastornos neurológicos.

Los resultados de la investigación fueron publicados en la revista Nature Neuroscience. El abstract lo pueden consultar en el siguiente link.

Anuncio publicitario

El Cinvestav desarrolla microchip para reducir mortalidad de recién nacidos

El Cinvestav desarrolla microchip para reducir mortalidad de recién nacidos
Por César Arellano García en La Jornada

Especialistas del Centro de Investigación y de Estudios Avanzados (Cinvestav) desarrollan un microchip de diagnóstico para disminuir la mortalidad de recién nacidos. José Luis García Cordero, profesor en bioingeniería y biofísica que coordina los trabajos, dijo que el dispositivo elaborado en la Unidad Monterrey detectaría en menos de cuatro horas la bacteria que causa la sepsis neonatal –enfermedad que en México perjudica a 15 de cada mil neonatos y causa la muerte a 25 por ciento de los afectados, debido a una mala higiene del hospital o nacimientos prematuros–, con lo que es posible ofrecer tratamiento oportuno.

Hasta ahora, señaló, el diagnóstico de la sepsis neonatal se realiza con técnicas de hemocultivo, que no identifica con precisión el tipo de bacteria que causa la enfermedad, por lo que médicos deciden atenderla con un coctel de antibióticos. Además, este método tarda de tres a cinco días en arrojar resultados.

“En cambio, el microchip es un dispositivo transparente desarrollado con las mismas técnicas con que se producen los semiconductores eléctricos, sólo que en lugar de silicio se emplea acrílicos y silicones (similares a los utilizados en la fabricación de lentes de contacto), y en vez de cargas eléctricas lo que pasa por ellos son muestras de suero de sangre del recién nacido.

Al circuito se introducen unas microperlas magnéticas hechas de óxido de hierro, cuya finalidad es que atrapen a las bacterias; por ello están cubiertas de anticuerpos específicos hacia ciertas proteínas que se expresan en la superficie de los microorganismos.

Una vez capturadas las bacterias que pudieran estar relacionadas con la sepsis, manifestó, se procede a revisar su ADN dentro del mismo chip para identificar las que causan la enfermedad, y de esa manera se pueda prescribir un tratamiento específico contra el microrganismo responsable.

La intención de este proyecto es desarrollar en dos años un kit de diagnóstico de sepsis que pueda ser utilizado por personal de clínicas rurales y de primer nivel, que son los lugares donde se atienden más partos. Además, ayudará a salvar vidas porque el problema con este mal, añadió, es que si no se trata inmediatamente el bebé puede morir.

Por ello, trabajan en simplificar el sistema para que las enfermeras sólo se encarguen de cargar los microchips de diagnóstico con las perlas magnéticas y la muestra de sangre, y el dispositivo opere de forma autónoma a fin de detectar el tipo de bacterias que originan la sepsis neonatal.

En dicho proyecto, el Laboratorio de Ciencia y Tecnología de Microfluídrica Aplicada trabaja en colaboración con Vianney Ortiz Navarrete, experto del Departamento de Biomedicina Molecular del Cinvestav, y con personal del Instituto Nacional de Perinatología, de la Secretaría de Salud.

Diseñan banco de pruebas para tren de aterrizaje de aeronave

Diseñan banco de pruebas para tren de aterrizaje de aeronave
En la gaceta del Instituto Politécnico Nacional Año LI, Vol. 17, Núm. 1128

Alumnos del Centro de Estudios Científicos y Tecnológicos (CECYT) 2 “Miguel Bernard” reactivaron el sistema eléctrico y construyeron un banco de pruebas para el tren de aterrizaje frontal de la aeronave JetStar-8, la cual fue donada por la Procuraduría General de la República (PGR) en febrero de 2011 para optimizar las prácticas escolares en la Academia de Aeronáutica.

El banco de pruebas, que funciona como un gato hidráulico, es una estructura capaz de levantar 20 toneladas. Fue especialmente adaptado para soportar el peso del tren de aterrizaje que se encuentra en la parte frontal del avión, en el que realizan prácticas los alumnos de la carrera de Técnico en Aeronáutica.

Como resultado del Proyecto Aula, los alumnos Airton Xavier Chávez Estrada, Luis Chávez Arellano, Fernando Baltasar Gaya Núñez, Iván García Zaragoza, Luis Chinos Barrera, Emilio Ramírez Fragoso, Josué Isaac Ríos Ugalde y Ángel Neftalí Vázquez Negrón trabajaron para rehabilitar las conexiones del avión a normas estándar, para lo cual adaptaron un sistema automatizado al control por medio de botones, pulsadores y electroválvulas.

Los educandos comentaron que solicitaron el apoyo de un ingeniero y un diseñador arquitectónico para el banco de pruebas con la finalidad de comprobar el buen funcionamiento del sistema que adaptaron y para realizar las prácticas de mantenimiento en la extensión y retracción del tren de aterrizaje.

Mediante la interpretación de los manuales de la aeronave y los conocimientos adquiridos en la escuela, los politécnicos lograron identificar las conexiones en el diagrama eléctrico y reconectarlas, activaron las electroválvulas y cancelaron las líneas del sistema de emergencia en el modelo educativo que ahora representa el JetStar-8.

El banco de pruebas, cuya resistencia fue examinada por académicos de la Escuela Superior de Ingeniería y Arquitectura (ESIA), Unidad Tecamachalco, representó un reto desde el diseño de la estructura y luego el corte, soldadura y rolado de sus partes para que se adaptara perfectamente al avión sin dañar el fuselaje.

“Cuando llegó la aeronave, lo único que podíamos hacer era activar la compuerta del tren de aterrizaje y los procesos de operación sólo eran estudiados a través de los manuales; por ello surgió la idea de conectar el sistema con botoneras externas y adecuar un banco de pruebas para contar con prácticas más reales”, concluyeron los alumnos.

La Orogenia de los Andes: una historia de evolución geológica reciente

La Orogenia de los Andes: una historia de evolución geológica reciente
Por Mariana Dolores en la Academia Mexicana de Ciencias

La cordillera de los Andes constituye uno de los sistemas montañosos más grandes del mundo y un lugar de interés científico para algunos grupos de geólogos, ya que es única en su origen y su proceso de formación es tan reciente, de hace unos 20 millones de años -una edad geológica pronta-, que resulta ser un laboratorio perfecto para los estudiosos de la composición y estructura de la Tierra. El doctor Víctor Alberto Ramos, investigador superior del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet), en Argentina, se ha dedicado a estudiar los procesos de formación que dieron origen a esta cadena de montañas de 7 mil 240 kilómetros de longitud, la más extensa del planeta.

“Conocer los procesos que dieron origen a los Andes permite determinar los lugares donde se almacenan algunos minerales, donde se tiene petróleo y quizá más importante, conocer el porqué tenemos esos grandes terremotos tan destructivos (en la zona)”, dijo el galardonado con el Premio México de Ciencia y Tecnología 2013, durante la charla “Los Andes: nuevos y viejos paradigmas”, ofrecida en diciembre pasado en El Colegio Nacional.

Normalmente los ciclos orogénicos son los que dan lugar a la creación de montañas, dijo el experto, como el ciclo de Wilson –teoría de las placas tectónicas-, el cual explica que las grandes estructuras de deformación de la corteza terrestre estaban relacionadas a los márgenes de placa y que éstas durante su fragmentación, desplazamientos y colisiones formaban las depresiones. “Este tipo de choques con el tiempo originaron las cadenas de montañas. Sin embargo, hay un ciclo mucho más importante que este que conocíamos muy poco y no sabíamos cómo se producía y está asociado a la isomerización y empinamiento de la loza oceánica subducida”.

Ramos explicó que cuando los fondos oceánicos se hunden de bajo de los continentes y no lo hacen en un ángulo constante, que aunado a una serie de factores que hacen que la loza disminuya su inclinación y se produzcan procesos distintivos en cada formación rocosa para luego incrementar su inclinación, trae un colapso extensional, una especie de desaparición de montañas, un proceso importante porque cada etapa de este ciclo lleva a la mineralización de materiales y a la formación de cuencas sedimentarias, entre otros fenómenos.

Debido a estas variaciones que se produjeron en la zona ocurrieron dos fenómenos en el margen occidental de Sudamérica, que pese a pasar por los mismos procesos evolutivos tuvieron resultados muy diferentes: la zona volcánica del altiplano en Bolivia y la parte norte de los Andes patagónicos.

La primera, expuso el doctor en geología, es una zona muy elevada, en promedio 4 kilómetros de altitud, y su formación se dio por la subducción de una línea volcánica. Esta subducción llevó a una horizontalización de la placa por variaciones en frotabilidad produciendo un frente orogénico con una intensa deformación y un fuerte volcanismo en esa región. “Ahí no hay nada nuevo hasta que notamos que ese volcanismo cada vez se iba alejando más de la cordillera, alejando porque la loza se puso horizontal, registrando una intensa fracturación, formando sierras, como las pampeanas, que fueron resultado de este proceso de somerización horizontal.

“Una vez que se colocó horizontal las condiciones de flotabilidad fueron variando y cuando comenzó a empinarse hubo inyección de materiales fundidos de astenosfera, que es la capa superior del manto terrestre, y removió la litosfera – la capa superior inmediata- y la corteza y produjo grandes colapsos extensionales con la formación de calderas”, sostuvo.

El especialista en el estudio de la evolución de la tectónica de la Cordillera de los Andes y del basamento de América del Sur, notó que ese tipo de procesos han ocurrido también en México pero hace 50 o 60 millones de años, lo que hace más difícil de comprender estos ciclos. Entre estos procesos está el de laminación cortical: grandes bloques de la corteza caen al interior de la Tierra y produce calderas, la Sierra Madre Occidental es un ejemplo de calderas antiguas.

Geólogos estructurales notaron igualmente que la posición no deformada al ser restaurada quedaba siempre un vacío de alrededor del 20 % de la corteza pero no se sabía hacia dónde se iba. Ahora se sabe que es producto de laminación cortical.

“Si comparamos lo que ocurre en el altiplano boliviano y lo que pasa en el sur de Chile y Argentina, vemos que en la zona volcánica de Cayena las condiciones son muy distintas. Diversos estudios realizados nos han permitido reconocer desde el punto de vista de tipología que es una zona muy caliente, que a 25 kilómetros de profundidad hay una litosfera anormalmente caliente”.

El investigador describió que la corteza tiene una deformación completamente distinta a la del norte, es una corteza que cuando se observa se ve que gran parte del país estuvo formada por planicies pampas, sin ningún tipo de deformación, pero de pronto se quebraron y se levantaron con grandes bloques. Este evento ocurrió cuando hubo un avance del magnetismo hacia la parte más externa de la Tierra. Ambos procesos indican que la geometría de la zona de subducción ha ido variando a través del tiempo, no solo por el magmatismo per se, sino por la estructuración de la zona y el tipo de volcanes que hoy forman parte del paisaje.

Diseña científico de la UAM sistema inteligente de control antisísmico

Diseña científico de la UAM sistema inteligente de control antisísmico
Por Lourdes Vera Manjarrez en el semanario de la UAM Vol. XXI, Núm. 12

El maestro en ingeniería Juan Carlos Olguín Rojas, investigador de la Universidad Autónoma Metropolitana (UAM), desarrolló un nuevo sistema de control antisísmico para edificaciones que tiene una eficiencia de más de 90 por ciento y un costo de implementación muy por debajo de los dispositivos conocidos.

El prototipo que dio a conocer el científico utiliza algoritmos de inteligencia y redes neuronales artificiales que emulan la forma de aprendizaje del cerebro humano; con esta técnica, 12 neuronas artificiales que pueden reproducirse en una tarjeta de hardware a bajo costo tienen la capacidad de controlar los amortiguadores magnetoreológicos del sistema antisísmico y minimizar el impacto de los sismos en estructuras civiles.

El Laboratorio de Sistemas Neurodifusos de la Unidad Azcapotzalco es el espacio donde Olguín Rojas ha cultivado su línea de investigación sobre inteligencia artificial y realizada simulaciones del sistema inteligente antisísmico.

También se han desarrollado en el mismo Laboratorio prototipos de robot para exploración espacial; en estos trabajos el científico ha participado y dirigido proyectos terminales sobre la temática.

Para probar que la propuesta científica funciona, el sistema inteligente de control antisísmico se puso a prueba con señales de sismos reales ocurridos en México, Chile, Haití y Japón; las simulaciones hechas con el amortiguador con control inteligente señalaron una disminución en el movimiento de las estructuras de los edificios de más de 90 por ciento, tanto en velocidad como en aceleración.

Descubren exoplaneta del tamaño de Júpiter

Descubren exoplaneta del tamaño de Júpiter
Por Patricia López en la Gaceta de la UNAM Núm. 4, 641

Un exoplaneta del tamaño de Júpiter, pero mucho más lejano de la Tierra, que orbita alrededor de una estrella gigante roja, es el primero localizado con el instrumento español CAFE (Calar Alto Fiber – fed Èchelle spectrograph), en cuyo diseño y puesta en marcha participó Sebastián Sánchez, investigador del Instituto de Astronomía de la UNAM.

Experto en instrumentación y adscrito a la mencionad a instancia universitaria desde enero de 2014, Sánchez y sus colegas han concretado, con el hallazgo del objeto Kepler 91b, su primer gran éxito desde que iniciaron el proyecto de instrumentación y búsqueda de exoplanetas en el Observatorio Astronómico Hispano Alemán (CAHA) de Calar Alto, ubicado en Almería, España.

El objeto celeste podría encontrarse en los últimos estadios de su vida antes de ser engullido por su estrella. Es de gran tamaño, mayor al que aspiran encontrar los astrónomos, cuya meta última es ubicar astros de tal la semejante a la Tierra; no obstante, significa un gran logro, y los resultados han sido difundidos en línea por la revista Astronomy & Astrophysics Letters.

El universitario trabaja en este proyecto desde 2008, primero como investigador del CAHA, luego del Instituto de Astrofísica de Andalucía y ahora del Instituto de Astronomía de la UNAM. “Ha sido un proceso de desarrollo largo, nació en el CAHA en colaboración con el Instituto de Astrobiología, que está dedicado específicamente a buscar estos objetos. Mi intervención ha consistido en la construcción y el desarrollo de las técnicas de análisis, un nodo más técnico que se ha venido a México conmigo”, señaló.

Con su reciente incorporación a la Universidad Nacional, espera formar a nuevos científicos interesados en la instrumentación y la búsqueda de este tipo de objetos.

Jalón de planeta a estrella

Para encontrar planetas fuera del sistema solar, los astrónomos recurren a métodos indirectos, cuyo éxito depende de mejorar las técnicas y desarrollar una instrumentación superior.

El utilizado en este caso es la velocidad radial, que se basa en medir cómo la presencia del planeta mueve a la estrella en una determinada dirección. Al ser un objeto masivo, el primero tira de la segunda y causa un desplazamiento en el centro de la masa de ésta, lo que genera un efecto Doppler, que es una diferencia de velocidad en función de la distancia. “Esa discrepancia es lo que medimos, pues la masa de la estrella la conocemos relativamente bien, por varios modelos de evolución estelar, así como por su luminosidad y distancia”, explicó.

Por lo tanto, al saber cómo jala el planeta a la estrella, los expertos pueden inferir la órbita de éste que se ve a través del periodo que tarda en volver a la misma posición.

Otra técnica es la de los tránsitos, que mide el descenso en el brillo de la estrella cuando el planeta pasa delante de ella, algo parecido a lo que sucede en el sistema solar si Venus o Mercurio transitan proyectados por el disco solar.

Este método es más rudimentario y también más económico; el satélite Kepler de la NASA (lanzado en 2009 para buscar planetas semejantes a la Tierra) lo utiliza para observar continuamente multitud de estrellas y tratar de identificar descensos periódicos en su brillo.

Afinar la técnica

“La mayoría de los planetas que descubrimos son similares a Júpiter, masivos y fáciles de detectar por su gran tamaño. El objetivo que intentamos alcanzar es detectar otros que sean lo más parecidos a la Tierra y que estén a distancias semejantes a la que está nuestro mundo del Sol, con soles parecidos al nuestro”, apuntó.

Este propósito requiere afinar las técnicas para hallar masas más pequeñas. “Con el instrumento CAFE comenzamos a descubrir unas menores a Júpiter.  Esperamos que en un futuro, con modificaciones, pueda llegarse a captar planetas de tipo solar”.

Ahora, Sánchez comienza a probar su técnica de localización de exoplanetas en el Observatorio Astrofísico Guillermo Haro, ubicado en Cananea, Sonora. “No es un observatorio con muy buena calidad de imagen, mas sí de espectroscopia, y el Instituto Nacional de Astrofísica, Óptica y Electrónica, que lo tiene a su cargo, ha comenzado a utilizar ese tipo de instrumentos, así que es una buena oportunidad para conjuntar esfuerzos y experiencias”.

Las cifras y los convenios para abatir el rezago educativo

Las cifras y los convenios para abatir el rezago educativo
Por Alejandro Canales en Campus Milenio

El analfabetismo, a estas alturas del siglo XXI ya no debiera ser un problema, pero persiste. Es uno de los grandes pendientes del Estado mexicano con los sectores más vulnerables y tal vez la muestra más reveladora de las fallas de los programas de atención educativa.

La actual administración, como también ha ocurrido en el pasado, se ha planteado atender el problema y hacerlo con la participación específica de otros sectores. No es la primera vez que se recurre a la colaboración explícita; tampoco sería raro que los resultados coincidieran.

Las estadísticas más recientes sobre analfabetismo y rezago educativo muestran que el reto es mayúsculo. Los cálculos del Instituto Nacional de Educación para los Adultos (INEA), dependientes de bases oficiales, son relativamente variables.

Al cierre de diciembre del año pasado, las estimaciones de INEA indicaban que el volumen global de personas mayores de 15 años analfabetas o que no habían concluido la primaria o secundaria (rezago educativo) sumaban 32 millones 92 mil 865. De ese total: 5 milllones 115 mil 854 eran analfabetas; 10 millones 52 mil 846 no habían concluido la primaria; y 16 millones 924 mil 165 no terminaron la secundaria.

Las cifras de este año del INEA, cuando todavía no concluye el año ni se pone en marcha ningún programa especial, muestran una reducción importante sobre las de diciembre de 2013. Ahora el número de personas registradas que no saben leer ni escribir es de 4 millones 795 mil459 y las del rezago total 31 millones 784 mil 016. Esto es, serían 320 mil personas analfabetas menos y 309 mil menos en rezago total.

Sin embargo, respecto de diciembre de 2013, la reducción es de llamar la atención por dos razones. Por una parte, en promedio, en ciclos anteriores, el número de personas alfabetizadas por año son poco más de 100 mil; ahora, en un semestre, van poco más de 300 mil. Por otra parte, respecto de los datos del 2013, aunque la reducción del analfabetismo puede ir a un ritmo mayor que la de quienes concluyen la primaria o secundaria, el primero está incluido en las cifras del rezago, por lo que sus cifras no pueden ser menores a las de este último. ¿Entonces?

La información es del mismo organismo y las bases de cálculo son las mismas. Tal vez el índice de mortandad de la población adulta aumentó repentinamente o alguna de las fuentes es diferente y eso explica las variaciones. Claro, otra posibilidad es el ajuste de las cifras para ir proyectando la reducción. Si los compromisos de la administración son muy puntuales, valdría la pena tener claridad y precisión en las cifras que se alcanzarán.

Las metas comprometidas para el 2018 en el programa institucional del INEA son: disminuir del actual 38 a 33 por ciento el rezago educativo y del 6 al 3.4 por ciento el analfabetismo. En términos absolutos significa que poco más de 5 millones concluirán la primaria o secundaria y 2.5 millones de personas serán alfabetizadas.

Es decir, anualmente, durante los próximos cuatro años, deberán alfabetizarse poco más de 600 mil personas (unas mil 700 diariamente; incluyendo días inhábiles) y más de un millón, también cada año, tendrían que concluir su educación básica que dejaron pendiente. Al mismo tiempo, habría que cuidar que ningún niño o adolescente abandonara la escuela para que no se sumara como nuevo rezago. Nada menos.

La tarea parece difícil, requiere de múltiples y muy variados esfuerzos y por ello parece razonable la campaña que se piensa emprender. Pero tampoco es una novedad. Anteriormente se han celebrado convenios con las propias dependencias gubernamentales y con organismos particulares para que los trabajadores en situación de rezago logren culminar sus estudios. Sin embargo, los resultados han sido francamente modestos.

Lo que ha sido menos frecuente es la participación de organismos particulares como proveedores, no como usuarios, del servicio educativo. En la administración 2000-2006, precisamente cuando se integró el Conevyt y se planteaba abatir el rezago educativo, se firmaron convenios con empresas nacionales y transnacionales, tanto para el desarrollo de software como para infraestructura en comunicaciones. Y, otra vez, los resultados no fueron los que se esperaban.

Recientemente, para la campaña que arrancará en agosto, se anunció la firma de un nuevo convenio entre el INEA y la empresa Microsoft. ¿Ahora será diferente de lo que fue en el pasado? Todo puede ser posible, pero la experiencia no ha sido nada alentadora.

Sin embargo, sin duda, debe atenderse sin demora el impreciso, grave y penoso problema del rezago educativo y requiere la participación de los diferentes sectores.

390 años de Blaise Pascal

M. Macho
ZTFNews.org

Blaise Pascal (1623-1662) fue un matemático, físico, filósofo y teólogo francés. Su trabajo científico abarca desde la construcción de una máquina de sumar hasta el estudio sobre el vacío, pasando por numerosos temas de índole matemática y física. De salud delicada, en cierto momento de su vida abrazó con fervor el jansenismo y poco a poco fue abandonando la ciencia por la religión.

René Descartes (1596-1650) y Blaise Pascal se encontraron durante varias horas en el convento des Minimes en París, el 24 de septiembre de 1647. No ha quedado ninguna huella histórica de lo que allí sucedió: Jean-Claude Brisville imagina en El encuentro de Descartes con Pascal joven un diálogo figurado entre un Descartes racionalista, pragmático y mundano, y un Pascal atormentado por su delicada salud y sus ideas religiosas opuestas frontalmente a la Iglesia católica.

Pascal ha perdido el interés por la ciencia:

He dado ya demasiado de mi mismo a la ciencia. […] no dice nada acerca de Dios. […] nos enseña cosas insignificantes, mientras nos inclina al orgullo y al mal camino.

A continuación algunos fragmentos del diálogo entre los dos filósofos, pueden verse más detalles en DivulgaMAT

DESCARTES: Concluiré que las matemáticas son, para todos los que saben contar, una fuente de certidumbre. […]

DESCARTES: Es cierto que nuestra ciencia es aún pequeña, y que cuando miramos al cielo…

PASCAL: Su silencio eterno me aterroriza. […]

DESCARTES: No creo pecar intentando ir más lejos en las matemáticas que me hacen presentir una representación del universo (Un tiempo). El sistema del mundo es quizás un sistema de números. ¿Sería para usted un escándalo pensarlo?

PASCAL: ¿Ambicionaría usted ser el constructor de un universo completamente sometido a la geometría?

DESCARTES: Como existe la mecánica allí arriba, me encantaría intentar su cálculo. […]

DESCARTES: Creo que usted dramatiza. Se puede garantizar su salud sin hacer sufrir las ciencias. Y ser un buen cristiano e interesarse por la geometría. […]

DESCARTES: Y sin embargo usted sabe que el universo es función de la medida y del número. Espacio y tiempo que están ligados… si, ligados en el movimiento. Y se puede calcular el movimiento.

PASCAL: Se puede.

DESCARTES: ¿Aceptaría usted trabajar a partir de esta certidumbre?

PASCAL: ¿A qué llegaría? ¿A una ecuación? No me haga usted reír.

DESCARTES: A una ecuación, en efecto. A una ecuación en la que vendrían a aclararse, fundiéndose, todas las leyes del universo. ¿Esto no es nada?

PASCAL: Todo hacia lo que aspiro está más allá de la matemática. […]

Aporta CICIMAR técnicas de biotecnología para producir huachinango en cautiverio

Aporta CICIMAR técnicas de biotecnología para producir huachinango en cautiverio
En la gaceta del Instituto Politécnico Nacional Año XLIX, Vol. 15, Núm. 1070

 Con el propósito de lograr la producción en cautiverio del huachinango del Pacífico (Lutjanus peru), científicos del Centro Interdisciplinario de Ciencias Marinas (CiCimar), ubicado en Baja California Sur, trabajan en la generación de biotecnologías apropiadas que incluyen el estudio de las particularidades biológicas y técnicas de esta especie marina de gran demanda por su color, sabor y textura.

Un grupo de trabajo, liderado por Marie Sylvie Dumas Lepage, Renato Peña Martínez y Mauricio Contreras Olguín, ha realizado aportaciones importantes en el estudio de este pez, que en cierto momento se consideró como una especie negada para su manejo en cautiverio.

El primer lote de reproductores silvestres de huachinango, capturados a 60 metros de profundidad, fueron trasladados a la Unidad Piloto Maricultivo (Upima) del CiCimar donde años más tarde se logró inducir por primera vez su producción en cautiverio mediante el control de la temperatura del agua, las condiciones de iluminación y el suministro de alimento fresco, además de la aplicación de dosis hormonales para obtener los gametos de manera natural.

Al respecto, Marie Sylvie Dumas Lepage explicó que las crías recién nacidas de huachinango requieren alimento vivo de tamaño pequeño, en cantidad y calidad adecuadas, lo cual les permite sobrevivir más allá de 20 días y a partir de ahí son capaces de aceptar dietas inertes.

A su vez, Renato Peña Martínez precisó que después de varios años de esfuerzo y pruebas experimentales, se logró producir en el CiCimar la primera y única especie juvenil de huachinango en condiciones de cautiverio; a esta etapa de crianza se le conoce como “cuello de botella” por su  grado de dificultad, de manera que este avance aportó información científica y tecnológica tendiente a implementar el cultivo de esta especie marina en México.

En tanto, Mauricio Contreras Olguín añadió que se obtuvieron adelantos paulatinos al lograr valores de supervivencia de 3.2 por ciento para tener una docena de peces en 2005; 70 en 2009 y casi mil peces de un mes de edad en 2013.

De este proyecto politécnico se han derivado una tesis de licenciatura, cuatro de maestría y una de doctorado; una publicación nacional y tres internacionales; seis presentaciones en foros de México y el extranjero; diversas colaboraciones con otros investigadores, y actualmente están en proceso dos convenios con la iniciativa privada.

 Los conocimientos generados y aprendizajes obtenidos durante los años de investigación, junto con la implementación de mejoras biotecnológicas, habrán de generar progresos a favor de la comunidad de Baja California Sur e impactarán en la región noroeste de México.

Buscan emular fusión nuclear del Sol para producir energía limpia

Buscan emular fusión nuclear del Sol para producir energía limpia
Por Reyna Paz Avendaño en FCCyT (Febrero 2014).

Investigadores del Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (CICATA) del IPN, unidad Querétaro, reproducen las reacciones que ocurren al interior de las estrellas para generar energía nuclear limpia e inagotable y con esto buscan aportar conocimientos a la comunidad científica que trabaja en el Reactor Termonuclear Experimental Internacional (ITER), proyecto ideado desde 1986 y con miras a construirse en Francia.

“Las reacciones nucleares son de dos tipos: fisión y fusión. Las primeras fragmentan núcleos pesados -como uranio o plutonio- en cosas más ligeras y es el proceso que actualmente contribuye a la generación de energía en el mundo a través de centrales nucleoeléctricas convencionales. En cambio, la fusión consiste en juntar dos núcleos ligeros para que formen un núcleo pesado, mecanismo por el cual todas las estrellas incluido el Sol, generan su energía”, explicó Martín de Jesús Nieto Pérez, investigador partícipe en el proyecto.

La principal ventaja de la energía nuclear de fusión, añadió, radica en que es una tecnología que emite gas helio como subproducto, el cual no es radioactivo, no abundante en la Tierra y no dañino, pues hoy se utiliza de forma cotidiana para inflar globos y enfriar sistemas superconductores.

“Otro punto a favor es que si los reactores de fusión tienen alguna falla, éstos dejan de funcionar completamente. Implican sistemas que una persona puede prender y apagar a voluntad, a diferencia de los de fisión en donde las fallas pueden ocasionar desastres como el ocurrido en Fukushima”, aclaró Martín de Jesús Nieto

TOKAMAK. Martín de Jesús Nieto señaló que replicar las reacciones nucleares de las estrellas resulta complicado, ya que es necesario unir dos núcleos con carga positiva pero la física indica que dos núcleos -por tener carga positiva-se repelen con más fuerza mientras estén más cerca y para lograr acercarlos y fusionarlos se requieren una energía equivalente a una temperatura de millones de grados.

“Este fenómeno ocurre en el Sol sin problema porque las temperaturas son tan altas que los núcleos no tienen problemas para vencer esa resistencia, pero hacerlo en el laboratorio es complejo”, aseveró.

Otro problema, dijo, es que los gases a altas temperaturas no se pueden contener en dispositivos de ningún tipo porque éstos se funden y evaporan, entonces la solución que se dio en la década de los 50 fueron los reactores Tokamak, o bien, aparatos de confinamiento magnético que permiten mantener un gas muy caliente sin que toque las paredes del dispositivo que lo contiene.

“Cuando los gases están altamente ionizados, alcanzan un estado que se conoce como plasma y éste puede confinarse, es decir, hacer que el fluido no se salga ni toque el contenedor debido a la acción de un campo magnético intenso. Entonces diseñamos un dispositivo Tokamak que vendría siendo una botella magnética (de acero inoxidable) en donde el gas a alta temperatura queda confinado”, detalló

Y aunque este proyecto comenzó en México hace 30 años, pero se detuvo debido al fallecimiento del científico responsable, hoy 15 investigadores procedentes del IPN, UNAM, ININ y varios colaboradores de Estados Unidos, Portugal, República Checa, Alemania e Inglaterra, buscan mantener viva la línea de investigación en el CICATA, probando nuevas ideas para mejorar la maquinaria, formando estudiantes y buscando la gestión de fondos para volver operacional al Tokamak.

ITER. Sobre el ITER, Martín de Jesús comentó que es una máquina tan grande e importante como el LHC del CERN. “La meta es que la energía nuclear del ITER genere 20 veces más potencia de lo que se le inyecta. Si se le inyecta 5 Megawatts de potencia, lo ideal sería que su potencia de salida recuperable sea de 100 Megawatts”.

Aparte, indicó, el ITER tiene el potencial de alcanzar un régimen de operación autosostenido, es decir, que sólo requiera una inyección inicial de energía para arrancar y después, de manera interna, la máquina generaría su propia energía.

“Pero hoy sigue siendo como los automóviles antiguos: necesitamos darle vuelta a la manivela para echar andar el motor. El ITER necesita alimentación de energía externa y requiere esfuerzos internacionales y multidisciplinarios para hacer del Sol en la Tierra, una realidad”.