Requieren los océanos para su conservación un adecuado manejo de sus recursos

Requieren los océanos para su conservación un adecuado manejo de sus recursos
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Para conocer la percepción pública del impacto que las acciones humanas producen en los océanos, un grupo de investigadores realizó una encuesta a 10 mil 106 personas de 10 países europeos. Entre los resultados destaca que la mayoría de los encuestados perciben los impactos antropogénicos (como resultado de actividades humanas) como inmediatos y consideran que la contaminación de los océanos, la sobrepesca y la acidificación de los océanos son los principales problemas.

Al respecto, Juan Carlos Castilla, ganador del Premio México de Ciencia y Tecnología 2012, considera que si bien no se puede negar que existe contaminación en los océanos, “la sobreexplotación de los recursos marinos es un problema que tendrá mayor impacto en los próximos 5-10 años, mientras que los efectos del cambio climático en los océanos se verán acentuados dentro de 50 años o más”.

El estudio que lleva por título Public awareness, concerns, and priorities about anthropogenic impacts on marine environments -Sensibilización del público, preocupaciones y prioridades sobre el impacto antropogénico en los ambientes marinos-, publicado en PNAS, la revista oficial de la Academia Nacional de Ciencias de Estados Unidos, en el que el doctor Castilla participó, consistió en aplicar cuestionarios vía internet a personas de diferentes niveles socioeconómicos y de diversas regiones de España, Estonia, Alemania, Italia, Noruega, Irlanda, Países Bajos, Reino Unido, Francia y República Checa. Lo anterior, con el fin de conocer las preocupaciones sobre los impactos de las actividades del ser humano en los sistemas marinos, medir la confianza que las personas tienen en diferentes fuentes de información, y cuáles consideran deben ser las prioridades políticas y de financiamiento para resolver los problemas que afectan a los océanos.

Otro resultado de esta encuesta se refiere a que el 57% de las personas consultadas cree que las acciones individuales no sirven para solucionar los problemas de los océanos, y que el impacto de la acción humana ya se ha producido o falta poco tiempo para que estos efectos sean visibles.

En este sentido, en entrevista para la Academia Mexicana de Ciencias (AMC), el investigador de la Pontificia Universidad Católica de Chile (PUC), apuesta por la educación y ve como uno de los principales desafíos, para los investigadores que trabajan con temas del mar, llevar con carácter de urgente el conocimiento científico a la sociedad. “En general, en Latinoamérica desde hace 30 años se ha levantado conocimiento de muy alta calidad acerca de nuestros océanos, pero en su mayoría está capturado en artículos científicos escritos en inglés y publicados en revistas especializadas; creo que es el momento de que un grupo de científicos nos pongamos de acuerdo y traslademos esa información a un lenguaje comunicativo, con el fin de que llegue a la población, en especial a los niños”.

Conservar el mar

La conservación de la biodiversidad marina, que se puede entender como el cuidado, el respeto y el uso sustentable de los recursos, resulta difícil de lograr, en parte porque sólo vemos la superficie del mar, la zona entre mareas o los grandes animales y algas marinas que resaltan ante nuestra vista. “Se puede decir que somos semi-ciegos ante el mar y que vemos el 0,1% o menos de los sistemas marinos”.

Desde el punto de vista biológico y oceanográfico, el mar es un sistema complejo, ya que está conformado por columnas de agua, corrientes marinas y el sustrato marino, además de los organismos que están asociados a cada zona y que conforman microhábitats. Y dada esta complejidad, los trabajos de investigación del doctor Castilla están centrados en entender cómo funcionan los sistemas marinos costeros, incluyendo la presencia del ser humano como pescador.

En su artículo Conservation and social-ecological systems in the 21st century of the Anthropocene era -Conservación y sistemas socio-ecológicos en el siglo 21 de la era del Antropoceno-, que publicó como parte del Premio Ramón Margalef de Ecología 2011, el especialista en manejo y protección de los ecosistemas marinos, concluye que la conservación y la sustentabilidad son un campo de juego, en el que los sistemas naturales -incluyendo a los seres humanos- y el bienestar humano están en constante acción, y somos nosotros los que, finalmente, determinamos el enfoque racional o no del juego para asegurar su continuidad.

“No es sólo el mar, sino las diversas interacciones que se dan en él, me interesa saber quién se come a quién, qué pasa si introduces o extraes algo del sistema, o qué sucede con la presencia de los pescadores. Trato de entender el funcionamiento de los sistemas marinos para utilizar de manera sustentable los recursos; entonces mi finalidad última no es el mar, sino el bienestar humano”, dijo el biólogo marino más citado de Latinoamérica, con más de 15 mil menciones.

Al respecto de la conservación de los mares, el investigador ve en esta acción el manejo adecuado de las áreas naturales, pero señala que debemos ser cuidadosos, ya que en Latinoamérica muchos pescadores y comunidades viven de los recursos naturales. Por ello, en vez de establecer sólo zonas protegidas a las que nadie pueda entrar, el doctor Castilla sugiere una combinación entre áreas en las que no entre nadie, áreas semiprotegidas y áreas manejadas por los pescadores; aunque este modelo de conservación no existe en Latinoamérica, comienza “poco a poco” a implementarse en Chile.

El mar, los pescadores y la ciencia

Durante su estancia en México, en enero pasado, el investigador chileno dio pláticas dirigidas a estudiantes, profesores y pescadores en el Instituto de Ciencias Marinas y Pesquerías en Boca del Río, Veracruz; en el Instituto de Ciencias del Mar y Limnología, Unidad Académica de la UNAM en Mazatlán y en Puerto Morelos, donde también se encontró con estudiantes de posgrado para compartir sus avances científicos, así como en la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (CONABIO).

“En Veracruz hablé con cerca de 15 pescadores y en Cancún con cuatro extraordinarios líderes, detrás de ellos hay de 500 a 600 pescadores, y me pareció que la investigación que se realiza en México está distante de las personas. Mi mensaje sería, entonces, llevar la ciencia más cerca de las personas, en este caso de los pescadores, pero también de la educación y de los políticos para poder cerrar el círculo y lograr que las leyes estén basadas en la ciencia y en las necesidades reales de los usuarios”.

El estudio de la luz es fundamental en el conocimiento del universo

El estudio de la luz es fundamental en el conocimiento del universo
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

En México, los observatorios astronómicos han sido, principalmente, para estudiar la luz visible que proviene de los cuerpos celestes. “El Observatorio Astronómico Nacional (OAN) inició como un observatorio de luz visible, y esto contribuyó, en nuestro país, al desarrollo de la astronomía y de los instrumentos que permiten la observación y el análisis de la luz”, dijo David Hiriart, del Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM), campus Ensenada.

El 2015 fue declarado por la Asamblea General de la ONU como el Año Internacional de la Luz y las tecnologías basadas en la luz. Y en este sentido, se puede decir que los estudios astronómicos de la luz estimularon la creación de técnicas de fabricación y de prueba de instrumentos y componentes ópticos, mismos que son utilizados en otras áreas de investigación, además de la astronomía.

La luz, el vehículo para conocer el Universo

Desde la antigüedad, la luz ha sido para los astrónomos el principal elemento a través de la cual han intentado conocer el Universo. Se puede decir que el ojo fue el primer “instrumento” astronómico utilizado por el hombre. De tal manera que al ser la astronomía una ciencia observacional, por no ser posible interactuar con los fenómenos que se estudian, los instrumentos astronómicos son herramientas necesarias para los astrónomos.

Debido a que los objetos celestes se encuentran a grandes distancias de nosotros, la luz que se percibe de ellos es muy débil, por ello, una de las principales características de los instrumentos astronómicos es su gran sensibilidad a la luz. El conocimiento de las propiedades de la luz también tiene un papel fundamental en el desarrollo de estos artefactos, ya que es necesario determinar el comportamiento que tendrá la luz –de acuerdo con las leyes físicas de refracción, reflexión y difracción– al interactuar con cada uno de los elementos que componen el instrumento.

El espectro electromagnético se divide en varias regiones que van de las longitudes de onda más grandes a las más pequeñas: radio, infrarrojo, luz visible, ultravioleta, rayos X y rayos gama. Existen instrumentos astronómicos que son sensibles a señales no visibles como el infrarrojo, mientras que otros lo son a las altas energías como los rayos X y ultravioleta.

Para aumentar la cantidad de radiación que los instrumentos astronómicos detectan, éstos son conectados a telescopios, mismos que “colectan” la luz de los objetos celestes y además tienen poder de resolución angular, que se traduce en la capacidad del instrumento de distinguir objetos que se encuentran muy cercanos entre sí: “Cuando el telescopio es más grande, su capacidad para captar la luz y su resolución angular aumentan”, indicó el especialista en el medio interestelar e instrumentación astronómica.

Otro elemento que los especialistas en instrumentación astronómica, como el doctor Hiriart, integrante de la Academia Mexicana de Ciencias (AMC), deben tomar en cuenta para el diseño de un instrumento astronómico, es la atmósfera terrestre, ya que la radiación electromagnética se propaga a través de ella antes de llegar, primero al telescopio, y después al instrumento.

Polarización de la luz

Al estudiar la procedencia de la luz, su componente espectral y su intensidad total, así como los cambios en el tiempo de estas propiedades, los astrónomos tratan de identificar las características del Universo. De esta manera, con el estudio de la luz visible y su espectro es posible identificar los elementos químicos que producen la radiación electromagnética y las condiciones físicas (densidad, temperatura, presencia de un campo magnético, etcétera.) del entorno en el que se produce esta radiación; también es posible determinar algunos de los parámetros físicos del medio en el cual se propaga la luz en su camino hacia el observador.

Una propiedad de la luz que ha sido poco estudiada en astronomía es su grado de polarización. La luz es una onda transversal con un campo magnético y uno eléctrico que pueden oscilar en cualquier dirección: cuando el campo eléctrico de la onda oscila en una dirección de manera constante, se dice que la luz está polarizada linealmente; en cambio, si la dirección de esta oscilación cambia en el tiempo trazando una elipse o un círculo, la luz está polarizada elíptica o circularmente, pero si la dirección a la que oscila el campo eléctrico de las ondas cambia aleatoriamente, la luz no está polarizada.

“Como la luz se compone de varias ondas, algunas polarizadas y otras no, se puede decir que en general la luz está parcialmente polarizada. A la cantidad de luz polarizada que contiene la radiación electromagnética se le llama grado de polarización y éste se determina a través de instrumentos llamados polarímetros”.

El grado de polarización se determina utilizando un analizador de polarización (polarímetro), que mide la intensidad de la radiación que pasa a través del instrumento cuando el analizador se orienta en diferentes direcciones. El análisis de la polarización de la luz permite, a los especialistas, obtener información diversa, como las características del camino que recorrió la luz o la presencia de campos magnéticos en el lugar en el que se emitió la radiación.

Por un cielo con estrellas

La contaminación lumínica introduce radiación que dificulta la observación de la débil señal de los objetos celestes que los astrónomos estudian, y en algunos casos oculta, por completo, la señal de las fuentes astronómicas.

Al respecto, David Hiriart señaló que esta problemática debe ser solucionada en su origen, ya que los instrumentos astronómicos no tienen la capacidad de contrarrestar los efectos de la contaminación lumínica, por ello “debemos procurar iluminar sólo el objeto de interés, y evitar que la luz escape hacia el cielo”.

Conocer el crecimiento de las plantas leñosas indispensable para el manejo forestal

Conocer el crecimiento de las plantas leñosas indispensable para el manejo forestal
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Los estudios para describir el crecimiento secundario –factor que hace referencia al incremento en el diámetro o grosor del tallo, ramas y raíces-, de las plantas leñosas, se pueden realizar a diferentes niveles, entre ellos el estudio de sus tejidos, en específico delcámbium vascular y de uno de sus derivados: la madera.

Si bien los estudios delcámbium vascular permiten entender cuánto y cómo crecen las plantas leñosas, estimar la edad de la planta y relacionar sus ciclos con los factores climáticos, quizá lo más relevante, en palabras de la doctora Teresa Terrazas Salgado, del Instituto de Biología de la UNAM, es que “dichos estudios nos dan una idea de cómo mantener la biodiversidad de los bosques”.

En nuestro país este tipo de estudios son pocos y se han enfocado en especies de importancia comercial como son algunas coníferas, principalmente del género pino y de árboles de las zonas tropicales como Aphananthe monoica(conocido con el nombre de chilesmin, cuachichile, cuerillo, pipín, tomatillo o varilla) y Pleuranthodendron lindenii (también llamado golondrina, pochitaquillo, polocastle, palo de maíz, maicillo, cachóngara y catarrita).

En todas las plantas el tallo presenta un crecimiento primario que consiste en el aumento de altura o longitud, y sólo en algunas plantas, como es el caso de las especies leñosas, se da un crecimiento secundario o en grosor. Las plantas leñosas, que son las que tienen madera en el tallo, experimentan procesos de crecimiento periódicos, los cuales se producen en los meristemos laterales, regiones en donde se generan nuevas células durante toda la vida de la planta; una de estas regiones es elcámbium vascular.

El crecimiento secundario -crecimiento diametral o en grosor- comienza con la diferenciación del cámbium vascular; las células del cámbium reciben el nombre de células iniciales, ya que a partir de ellas se forman células diferenciadas y especializadas que darán lugar al tejido responsable del transporte de agua (xilema secundario o madera) y al tejido responsable de la movilización de azúcares, y otros productos, de las hojas a las raíces (floema secundario).

Para determinar el crecimiento de una planta o de un árbol, los investigadores acuden a una comunidad vegetal y seleccionan árboles de diferentes tamaños con el fin de marcar con un bisturí el cámbium vascular. Después asisten periódicamente a remuestrear y cuando no se tiene ninguna información acerca del crecimiento de una especie, la investigadora Terrazas va al campo a tomar muestras del tejido de la planta una o más veces al mes durante un año, esto con el fin de entender cuándo se activa el cámbium vascular y cuándo entra en reposo; cuáles fueron sus derivados a lo largo de un ciclo y cómo se relacionan éstos con las condiciones ambientales (temperatura, precipitación y la humedad de la superficie en la que vive la planta) y la fenología de la especie (crecimiento vegetativo, floración y fructificación).

Algunas de estas marcas se dejan durante dos años y posteriormente se toman más muestras, las cuales son analizadas en el microscopio de luz, lo que permite ver cuánto tejido se formó y de qué tipo de células se trata. Lo que los investigadores buscan son las marcas de crecimiento conocidas como anillos de crecimiento, que pueden o no corresponder a una marca por año. Esto es necesario para entender la relación ambiente-crecimiento de las diferentes especies, y que ésta sea una de las variables para sugerir los ciclos en los que se deben cortar los árboles, y conocer el tiempo que tardan en recuperarse los bosques.

La anatomía de la madera

Los estudios anatómicos de la madera se realizan a través de la microscopia de luz. En el paso inicial se toman muestras de las especies que ya han sido determinadas por los taxónomos, y el trabajo en el laboratorio, de Terrazas Salgado, consiste en hacer cortes de las muestras, describirlas y compararlas, esto con el fin de encontrar los atributos, desde el punto de vista anatómico, que le permitan a alguien no especializado identificarlas.

Los trabajos anatómicos parecen tradicionales, pero en países megadiversos como México son necesarios, ya que los especialistas carecen de información básica. “De las más de 4 mil especies de plantas leñosas que hay en México, se conoce la anatomía de no más de 400 especies”, dijo la también integrante de la Academia Mexicana de Ciencias (AMC).

En este sentido, los estudios de la anatomía de la madera se han centrado en especies de importancia comercial; es decir árboles, sin embargo los arbustos o árboles pequeños del sotobosque –área de un bosque que crece más cerca del suelo– o de los matorrales han sido poco estudiados, por lo tanto no se puede prever el impacto en el crecimiento de estas especies leñosas si hay un cambio, por ejemplo, en sus zonas de distribución.

Los estudios de variación de la madera entre individuos de diferentes especies son importantes para entender cómo se modifica ésta a lo largo de gradientes -variables ambientales relacionadas con la latitud o la altitud- o en ambientes contrastantes o muy homogéneos. Por ejemplo, la madera de Buddleja cordata o tepozán, cambia de tamaño y porosidad a lo largo del gradiente latitudinal que va de Chihuahua a Chiapas, y por ello si se propone a esta especie para reforestación debe ser con material propio de cada región.

En el artículo “Variación anatómica en la madera deQuercus obtusata (Fagaceae)”, en el que Teresa Terrazas participó, se concluye que ya sea para hacer recomendaciones del uso de la madera de Q. obtusata –una de las especies de encino con mayor distribución en nuestro país– o para establecer estrategias de reforestación, se debe tomar en cuenta la procedencia microclimática de las poblaciones de cada especie.

Lo anterior, de acuerdo con diversos artículos incluido el ya mencionado, indica que los estudios de variación anatómica de la madera en especies de importancia económica, proveen información que puede ser utilizada como un registro de las condiciones ambientales de las plantas leñosas, y al mismo tiempo, son la base para el manejo adecuado y a nivel regional de los recursos forestales.

La radiación del Sol es la clave en el desarrollo de la vida en la Tierra

La radiación del Sol es la clave en el desarrollo de la vida en la Tierra
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

El 20 de diciembre de 2013, la Asamblea General de la ONU proclamó el 2015 como el Año Internacional de la Luz y las tecnologías basadas en la luz, y en el contexto de esta celebración, es necesario destacar al Sol, la principal fuente de energía que sustenta la vida en el planeta Tierra.

El Sol mantiene a la Tierra a una temperatura que la hace habitable. En el espacio lejos de las estrellas las temperaturas son extremadamente bajas y las moléculas, por ejemplo de agua, existen sólo en forma de hielo, sin embargo en la cercanía de una estrella alcanzan temperaturas lo suficientemente elevadas para que el agua exista en forma líquida, la cual es la clave para la existencia de la vida como la conocemos.

A diferencia de las estrellas, que producen energía termonuclear en su interior, los planetas y sus satélites naturales son cuerpos inertes, que de no ser por su cercanía a una estrella estarían extremadamente fríos. Es el caso de la Luna, que absorbe el 93% de la luz que emite el Sol, y de la cual refleja el 7%, porcentaje suficiente para que la podamos ver “iluminada” en las noches, explicó el doctor Luis Felipe Rodríguez Jorge, investigador del Centro de Radioastronomía y Astrofísica (CRyA) de la Universidad Nacional Autónoma de México (UNAM).

La luz, el mensaje de las estrellas

En el espacio existen grandes regiones o “nubes” que contienen gas frío, por la fuerza de su propia gravedad, fragmentos de estas nubes se contraen hasta formar un núcleo que se convertirá en una estrella, alrededor de la cual se formará un disco en rotación del que posteriormente surgirán los planetas y los cuerpos menores del nuevo sistema solar.

Se podría decir que la mayor parte de la materia que conforma el Universo visible está atrapada en forma de estrellas, éstas tienen brillo propio porque en su centro las presiones y temperaturas son lo suficientemente elevadas para que los átomos colisionen entre sí, lo que da lugar al proceso de fusión termonuclear; en éste se liberan grandes cantidades de energía que viajan hasta la superficie y de ahí escapan al espacio, principalmente, en forma de luz.

Dependiendo de su masa, que puede ir desde una décima hasta 100 veces la masa del Sol, las estrellas tienen distintas temperaturas en su superficie, de aproximadamente 2 mil 500 hasta 50 mil grados centígrados. Entonces, entre más masiva es una estrella, más caliente es su superficie. En el caso del Sol, una estrella de masa intermedia, su temperatura superficial es de alrededor de 6 mil grados centígrados.

Hacia la luz y más allá

La luz visible es una de las formas de la radiación electromagnética, cuando la longitud de onda de la radiación electromagnética está entre 0.4 micras (una micra es la millonésima parte de un metro), que corresponde al color violeta, y 0.8 micras, que pertenece al color rojo, la podemos detectar con nuestros ojos. Sin embargo, hay radiación electromagnética con longitudes de onda mayores y menores a las de la luz. El espectro electromagnético se divide en seis grandes ventanas que van de las longitudes de onda más grandes a las más pequeñas: radio, infrarrojo, visible, ultravioleta, rayos X y rayos gama.

Al ocuparse la radioastronomía de detectar y estudiar las ondas de radio que provienen de los cuerpos celestes, al igual que los astrónomos tradicionales que estudian la luz visible, los radioastrónomos como el doctor Rodríguez Jorge, integrante de la Academia Mexicana de Ciencias (AMC), también pueden obtener imágenes y espectros de los cuerpos celestes.

El espectro es la banda de colores que se obtiene al dispersarse la luz de una estrella a través de un prisma; las características de cada espectro dependen de la temperatura de las capas superficiales de cada estrella. Es necesario destacar que la luz se comporta como onda y se caracteriza por su longitud de onda (distancia entre dos picos consecutivos de una onda), y a cada longitud le corresponde un color diferente.

La mayor parte de la radiación que observamos de las estrellas proviene de la fotosfera, las capas más profundas, densas y calientes, emiten un espectro continuo de luz, es decir, emiten radiación en todas las longitudes de onda (espectro de colores). En cambio, las capas más superficiales y frías producen líneas de absorción (líneas oscuras sobre un fondo de colores) que se generan cuando la radiación que proviene del núcleo de la estrella atraviesa una zona más fría.

Estudiar el espectro de una estrella permite conocer su temperatura, sus movimientos y su composición química. Así, a principios del siglo XX y a partir de las características espectrales, se desarrolló una clasificación en letras, que luego se entendió correspondían a las temperaturas estelares. Estas letras son O, B, A, F, G, K y M, de las cuales las estrellas O son las más calientes y las M, las más frías, mientras que el Sol es una estrella tipo G.

Las estrellas emiten un espectro continuo (espectro de colores) con líneas de absorción superpuestas (líneas oscuras en un fondo de colores), y cada elemento químico (como el hidrógeno, el mercurio y el neón) tiene su propio espectro. Entonces, al analizar el espectro de una estrella, también es posible determinar su composición química, esto al comparar el espectro de los elementos químicos con el espectro de la estrella. El helio es un ejemplo de lo anterior, este elemento es escaso en la Tierra, pero abundante en el Sol, y fue descubierto en 1868 a través del estudio del espectro solar.

Si lo que se quiere conocer son los movimientos de una estrella, el análisis del espectro es una opción para los investigadores. Las líneas de absorción en el espectro de una estrella tienen una longitud de onda característica, pero cuando el objeto se aleja o se acerca, estas líneas se mueven al rojo o al azul, respectivamente. Así, el Efecto Doppler afecta tanto a las ondas de sonido como a las de la luz, por ello al igual que el sonido emitido por la sirena de una ambulancia es más agudo cuando se acerca a nosotros que cuando se aleja, “el color que percibimos de una fuente luminosa depende de su movimiento respecto a nosotros”, indicó el también integrante de El Colegio Nacional, quien tiene como principal línea de investigación el nacimiento y formación de estrellas y planetas utilizando técnicas de la radiastronomía.

Buscan en México unificar criterios para sistematizar indicadores en ciencia y tecnología

Buscan en México unificar criterios para sistematizar indicadores en ciencia y tecnología
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Los indicadores de ciencia, tecnología e innovación constituyen información necesaria para tomar decisiones y comparar el panorama en estos ámbitos del país respecto a otras naciones, por ejemplo de la región latinoamericana, dijo José Luis Morán, vicepresidente de la Academia Mexicana de Ciencias (AMC), durante la presentación de las memorias, en versión electrónica, del “Taller sobre indicadores en ciencia y tecnología en Latinoamérica”.

Por su parte, José Franco, titular del Foro Consultivo Científico y Tecnológico (FCCyT), mencionó que los indicadores de la ciencia que se realiza en México permiten tener una “visión panorámica de la ciencia en el país”; en tanto José Mustre de León, director del Centro de Investigación y de Estudios Avanzados (Cinvestav), coincidió en lo expresado por los ponentes que integraron la mesa, todos integrantes de la AMC, en que los indicadores son información confiable para marcar las líneas de desarrollo y de evaluación en lo que a ciencia y tecnología se refiere, por lo que es necesario socializar estos indicadores con otros sectores.

Miguel Ángel Pérez Angón, investigador titular del Departamento de Física del Cinvestav, explicó que en México existen tres grupos interesados en generar bases de datos acerca de la planta de investigadores activos, de su producción y repercusión en ciencia y tecnología registrada en los índices internacionales Web of Science (WoS) y SCOPUS.

El primer grupo, que también genera el Atlas de la Ciencia Mexicana (ACM), está integrado por investigadores del Cinvestav, el Instituto Tecnológico Autónomo de México (ITAM). El segundo lo encabeza la Universidad Nacional Autónoma de México (UNAM), a través del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas y la Dirección General de Evaluación Institucional, y por último, el grupo auspiciado por el FCCyT que estudia la producción en materia de ciencia de los miembros del Sistema Nacional de Investigadores (SNI).

Así, con el fin de compartir bases de datos y poder construir un registro de la producción y repercusión científica mexicana registrada en WoS y SCOPUS, los tres grupos antes mencionados decidieron colaborar entre sí, razón por la cual convocaron al “Taller sobre Indicadores en Ciencia y Tecnología en Latinoamérica (TICyTLA)”, mismo que se realizó en la Unidad de Seminarios “Ignacio Chávez” de la UNAM, los días 28 y 29 de octubre de 2013.

En el citado taller participaron 59 investigadores, funcionarios y estudiantes interesados en el análisis de la actividad científica y tecnológica de la región latinoamericana, adscritos a una institución mexicana, y 12 provenientes de Argentina, Brasil, Colombia, Canadá, Cuba y Gran Bretaña. En total, se presentaron 19 ponencias invitadas y una mesa redonda sobre “Políticas Públicas e Indicadores en Ciencia y Tecnología” con la participación de funcionarios de Consejo Nacional de Ciencia y Tecnología (CONACYT), el FCCyT, la Secretaría de Ciencia Tecnología e Innovación (SECITI-DF) e investigadores de Argentina y Brasil.

Las memorias del Taller se pueden consultar en el link:
http://www.foroconsultivo.org.mx/home/index.php/libros-publicados/estadisticas-en-cti/3007-taller-sobre-indicadores-en-ciencia-y-tecnologia-en-latinoamerica.

Envejecimiento de la población aumenta fracturas por enfermedades del hueso

Envejecimiento de la población aumenta fracturas por enfermedades del hueso
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

La osteoporosis es la enfermedad del hueso más frecuente y es considerada un problema de salud pública, ya que el envejecimiento es uno de los factores de riesgo para desarrollar esta enfermedad silenciosa y asintomática y cuyo diagnóstico, generalmente, se realiza después de la primera fractura.

El estudio Latin American Audit: Epidemiología, Costos e Impacto de la Osteoporosis 2012 de la Fundación Internacional de Osteoporosis -IOF, sus siglas en inglés-, reporta que en Latinoamérica se registra un aumento de la población de edad avanzada, por lo que las enfermedades crónico-degenerativas aumentarán considerablemente, entre ellas la osteoporosis.

El estudio que fue presentado por la IOF en cooperación con las sociedades médicas de 14 países (Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Cuba, Guatemala, México, Nicaragua, Panamá, Perú, Uruguay y Venezuela), señala que el porcentaje actual de personas mayores de 50 años es del 13% al 29%, y para el año 2050 incrementará en los diferentes países latinoamericanos entre 28% y 49%.

Además, se prevé un aumento de 280%, entre 2011 y 2050, en el porcentaje de personas con 70 años o más. En lo que respecta al promedio de esperanza de vida para la región, éste será, en el 2050, de 80 años. Por lo anterior, se considera que las fracturas por fragilidad de los huesos y la osteoporosis aumentarán.

Epidemiología de las fracturas

A lo largo de la vida de una persona se lleva a cabo de manera constante la formación ósea (osteogénesis) y la destrucción ósea (resorción). Durante la infancia y la adolescencia, la osteogénesis tiene un ritmo mayor que la de resorción, y los huesos se vuelven más grandes; en cambio, a partir de los 50 años la pérdida de hueso es mayor a la formación del mismo.

La osteoporosis se caracteriza por la disminución de la masa ósea (cantidad de minerales – calcio y fósforo– que contiene cierto volumen de hueso), y por un deterioro en su microarquitectura, lo que trae consigo un incremento en la fragilidad ósea y con ello la susceptibilidad a fracturas.

En la mayoría de los casos, la primera manifestación clínica de la osteoporosis son las fracturas. Estudios epidemiológicos de la osteoporosis describen la frecuencia y características de las fracturas. “Conocer el número de fracturas permite proyectar cuántas se van presentar en nuestra población y hacer un cálculo de la carga de la enfermedad, la cual se traduce en los costos para el sector salud y las afectaciones en la calidad de vida del paciente”, dijo la doctora Patricia Clark, de la Unidad de Investigación en Epidemiología Clínica del Hospital Infantil de México “Federico Gómez”.

En los estudios epidemiológicos, la fractura mejor caracterizada es la de cadera debido a que es fácil de cuantificar porque los pacientes llegan a los hospitales para recibir tratamiento. En el artículo Incidence rates and life-time risk of hip fractures in Mexicans over 50 years of age: a population-based study, los investigadores, incluida Clark, documentaron los riesgos de la probabilidad de fractura de cadera después de los 50 años. En México se reporta que una de cada 12 mujeres y uno de cada 20 hombres tendrá una fractura de cadera en lo que le reste de vida. Aunque virtualmente cualquier hueso puede fracturarse, otros sitios característicos son: las vértebras, la pelvis, el antebrazo, el humero y el tobillo.

Los pronósticos de las fracturas de cadera en nuestro país, de acuerdo con los resultados del estudio de proyecciones para el año 2050, publicado por el mismo grupo de investigadores, muestran que habrá un incremento de hasta un 40% de este tipo de fractura.

Factores de riesgo

Los estudios epidemiológicos de la osteoporosis permiten identificar los factores de riesgo, entre los que se encuentran los no modificables, como son el proceso de envejecimiento, la genética y el proceso hormonal en mujeres y en hombres. Sin embargo, otros factores de riesgo sí son modificables, tal es el caso del sedentarismo, fumar, consumir bebidas alcohólicas, así como un cambio en la alimentación para incluir calcio, vitamina D y proteínas.

En comparación con el calcio, la vitamina D (que optimiza la absorción del calcio en el intestino) no es fácil de encontrar en la dieta diaria. Esta vitamina se produce en nuestro organismo a través de la exposición de la piel a los rayos del sol, el 90% de la vitamina D se deriva de la síntesis cutánea, por lo que se recomienda que dicha exposición en brazos y piernas sin bloqueador solar no exceda los 20 minutos tres veces a la semana.

Al respecto de la prevención de la pérdida de masa ósea y el posible desarrollo de osteoporosis, la integrante de la Academia Mexicana de Ciencias (AMC) destacó la importancia de formar esqueletos competentes desde la niñez; esto se logra al fomentar en los niños el ejercicio, la adecuada nutrición y la exposición responsable al sol para garantizar la síntesis de vitamina D. Con las medidas anteriores se puede lograr que los niños obtengan mayor masa ósea, lo que podría retardar las fracturas por fragilidad y osteoporosis. “Un artículo de investigación reporta que un aumento del 10% de masa ósea por arriba del promedio, puede retardar el inicio de la osteoporosis hasta trece años en la etapa adulta y disminuir las fracturas”.

Hacia el diagnóstico temprano

El diagnóstico de la osteoporosis y del riesgo de sufrir una fractura se basa en los factores de riesgo clínico (fractura previa, padres con fractura de cadera, artritis reumatoide, entre otros) y en la densitometría ósea (que cuantifica la cantidad de mineral óseo), examen que se hace a través de rayos X de baja densidad en la columna y la cadera, y que también permite la evaluación de la respuesta del paciente a un tratamiento.

La osteoporosis está definida por la Organización Mundial de la Salud (OMS) a partir de los criterios de densitometría ósea. Se considera que una persona tiene osteoporosis si presenta una densidad mineral ósea por debajo de -2.5 desviaciones estándar en comparación con sus referentes normales (mujeres y hombres entre los 20 y 35 años de edad con huesos sanos), si se tiene entre –1 y –2.5 se trata de osteopenia o masa ósea baja; y por arriba de –1 se considera normal.

“En algunos países como México, la mayoría de los equipos de densitometría se encuentran en los hospitales privados y sólo alrededor del 25% están en instituciones públicas”, de ahí que la OMS desarrolló un instrumento que se puede utilizar en las mujeres posmenopáusicas y en los hombres mayores de 50 años de edad, lo anterior para definir el riesgo que tiene una persona de fracturarse. Esta herramienta conocida como FRAX, utiliza los factores de riesgo clínico, además de datos como la edad, sexo e índice de masa corporal, con lo que se puede establecer el riesgo de tener una fractura por fragilidad en los próximos 10 años sin necesidad de tener una prueba de densitometría.

El FRAX, Herramienta de Evaluación de Riesgo de Fractura se encuentra disponible en 46 países, incluidos Argentina, Chile, Colombia, Ecuador y México, y se basa en los datos epidemiológicos de cada país; está disponible en más de 20 idiomas, entre ellos español.

Patricia Clark participó en el grupo de trabajo de la OMS para el desarrollo de este instrumento y, posteriormente en el ingreso de los datos de la epidemiología de las fracturas y la sobrevida (supervivencia luego del diagnóstico de la enfermedad) de los mexicanos para la calibración de esta herramienta en la población mexicana.

Actualmente, la especialista trabaja con la Secretaría de Salud en el programa del adulto mayor, con el fin de que el FRAX –que se puede consultar en la página http://www.shef.ac.uk/FRAX/– sea un indicador para el diagnóstico de la osteoporosis en el sistema de salud, y pueda utilizarse como un instrumento para detectar oportunamente a la población vulnerable, prevenir las fracturas, disminuir la carga de la enfermedad y contribuir a que los adultos mayores tengan una mejor calidad de vida.

Las Matemáticas es una herramienta fundamental en la formación de profesionales

Las Matemáticas es una herramienta fundamental en la formación de profesionales
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Una de las principales problemáticas que algunos investigadores han identificado en la enseñanza de las matemáticas, en todos los niveles educativos, es la idea que tienen los alumnos acerca de esta área del conocimiento pues no le ven una utilidad profesional a las matemáticas, y esto se debe en parte al método de enseñanza que algunos profesores emplean, dijo la doctora Patricia Camarena Gallardo, del Departamento de Ingeniería en Comunicaciones y Electrónica de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico Nacional (IPN).

Entre las teorías educativas del aprendizaje para el nivel básico (preescolar y primaria) destacan la teoría de Jean Piaget (1991), con su enfoque epistemológico genético que explica la manera en la que el niño interpreta el mundo a diferentes edades, y la de Lev Vygotsky (1978), centrada en la interacción sociocultural para mostrar que los procesos sociales influyen en las actividades intelectuales. Ya que no existían teorías educativas estructuradas para los niveles de educación medio superior y superior, las teorías del nivel básico se adaptaron a estos niveles educativos.

En el caso de la teoría Matemática en el Contexto de las Ciencias (MCC), esta nació en 1982 en el nivel superior y posteriormente fue adaptada en los niveles educativos que le anteceden. En un inicio se implementó en la carrera de ingeniería y se extendió a otras áreas como las biológicas y económico-administrativas.

En este contexto, Camarena Gallardo, integrante de la Academia Mexicana de Ciencias (AMC), se ha dedicado desde hace más de 30 años a mostrar a sus estudiantes, de carreras de ingeniería del IPN, que las matemáticas están vinculadas con otras ciencias y que son importantes para su carrera. “En ingenierías hemos obtenido buenos resultados porque los estudiantes que ya están en el ámbito profesional y laboral pueden modelar matemáticamente diversos fenómenos y así resolver problemas de la sociedad, por ello a la línea de investigación en la que se desarrolla esta teoría se le denomina: matemática social”.

Un elemento central para el desarrollo y la implementación de la teoría es la reflexión acerca del por qué y el para qué de estudiar o enseñar matemáticas, como parte de este ejercicio de reflexión se pueden identificar algunas preguntas básicas: ¿por qué estudiar o enseñar este tema?, ¿para qué sirve?, ¿dónde se puede utilizar?

Entre los elementos que la investigadora ha observado y documentado, destaca que la mayoría de los estudiantes de ingeniería no utilizan las matemáticas para resolver problemas propios de su carrera, a pesar de que las matemáticas son el lenguaje de la ingeniería y la herramienta que le ayuda al ingeniero a solucionar de manera más eficiente diversos problemas.

La teoría Matemática en el Contexto de las Ciencias se fundamenta en tres aspectos: el que ve a las matemáticas como una herramienta de apoyo en la formación de los profesionistas, el que identifica una función de las matemáticas a nivel universitario y el que considera que los conocimientos nacen integrados.

La manera de trabajar consiste en abordar problemas en contexto, es decir, vinculados con otras áreas del conocimiento, con situaciones de la vida cotidiana y con problemas de la actividad profesional, ya que para entenderlos los estudiantes de ingeniería necesitan saber de modelación matemática, de hecho hay una sublínea de investigación en la que “clasificamos los tipos de modelos matemáticos dependiendo del problema, además tomamos en cuenta que los problemas que les planteamos a los alumnos les permitan transitar por diferentes niveles y finalmente puedan resolverlos”.

El modelo didáctico de la teoría contempla tres aspectos: trabajo en el aula, diseño de cursos complementarios para desarrollar habilidades mentales y un taller interdisciplinario para estudiantes de diferentes áreas del conocimiento y que cursan los últimos semestres; el trabajo se desarrolla en equipos colaborativos donde resuelven problemas reales de la industria, empleando para ello la modelación matemática.

Para evaluar los resultados de la implementación de la teoría, la investigadora y su equipo de trabajo realizaron una encuesta a un grupo piloto con el fin de darle seguimiento durante toda la carrera. “El 50% se fue a hacer un posgrado fuera del país y de estos la mitad recibió ofertas de quedarse en donde estaban estudiando, posteriormente sólo evaluamos la situación de los egresados”.

La Casa Tarasca y sus significados

La Casa Tarasca y sus significados
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Las lenguas indígenas del país, entre ellas el tarasco o purépecha, fueron recopiladas por los primeros frailes que llegaron a estas tierras después de la conquista española. La práctica de la escritura de la lengua tarasca, relacionada mayoritariamente con la evangelización, se mantuvo por dos siglos, pero para el siglo XVIII su uso casi desaparece frente al español, que se empleaba en el ámbito de la vida cívica, y del latín, presente en la vida religiosa.

De acuerdo con “Estadísticas a propósito del Día Internacional de las Poblaciones Indígenas. Datos de hablantes de lengua purépecha” (INEGI 2007), en el país 105 mil 556 personas hablan purépecha. Además, esta lengua ocupa el lugar 15 entre las lenguas indígenas que se hablan en México.

La doctora Cristina Monzón García, investigadora de El Colegio de Michoacán, se ha ocupado del estudio de la lengua purépecha porque “como lengua aislada nos abre una ventana particular de la creación humana. Desafortunadamente el purépecha está siendo arrinconado a ámbitos muy reducidos de la comunicación sin tener la posibilidad de participar activamente en el mundo moderno”.

Una segunda vertiente de investigación de la especialista en lingüística histórica, es el estudio de documentos escritos en la lengua purépecha durante la época de la colonia, que no sólo complementa el análisis de la lengua moderna sino que aporta información a la historia del pueblo tarasco.

Durante el Segundo Encuentro Ciencia y Humanismo Centro, Monzón García abordó el problema de la traducción de la lengua tarasca al español en la conferencia “La Casa tarasca y sus habitantes en la época prehispánica”.

Recordó que la conquista trajo consigo a un grupo de frailes franciscanos y agustinos que desarrollaron dos gramáticas y tres diccionarios, material que permite a los lingüistas conocer la lengua utilizada en ese periodo histórico, ya que la comunidad de habla tarasca poseía un sistema de comunicación escrita en códices o erangaqua.

Para adentrarse en el tema, la investigadora hizo una reflexión sobre el significado de las palabras y los problemas de traducción del tarasco al español. Para lo anterior puso como ejemplo la palabra ‘casa’ y preguntó a los asistentes al evento organizado en octubre pasado por la Academia Mexicana de Ciencias Sección Centro:

“¿En qué pensamos cuando la decimos? Generalmente la asociamos a la idea de una construcción en la que quienes la habitan pertenecen a una misma familia, pero en este caso la asociación no es con un edificio, sino con un conjunto de miembros que forman una familia perteneciente a la nobleza, es por esto que se tiene que considerar el significado de las palabras en la lengua tarasca y cómo pueden ser interpretadas desde el idioma español”.

Para lograr su propósito, la investigadora se basó en diferentes documentos coloniales del siglo XVI y XVII, para conocer los orígenes y desarrollo de la cultura tarasca, entre ellos la Relación de Michoacán, texto en el que se habla de la cultura tarasca antes de la conquista. De acuerdo con este texto, un grupo de cazadores y recolectores salió de Zacapu, para años después asentarse cerca de lo que hoy es el pueblo michoacano de Santa Fe de la Laguna, donde vivieron durante dos o tres generaciones; posteriormente se desplazaron hacia la zona lacustre. Al llegar a Jarácuaro con el objetivo de tener una buena relación con los pueblos locales, eligieron a un joven del grupo de recolectores-cazadores para que se casara con una joven de Jarácuaro, estableciendo así una primera alianza.

A partir de este momento el grupo que salió de Zacapu empezó a expandir su poderío dentro de la zona, para ello estrecharon varias alianzas, después, a través de la guerra, conquistaron otros pueblos.

Los tarascos, en el momento del primer contacto con los españoles, habitaban la parte del territorio mexicano que actualmente corresponde al estado de Michoacán y algunas zonas de estados circundantes. En la actualidad se registran hablantes de la lengua purépecha en todos los municipios de Michoacán, pero la mayor concentración se localiza en los municipios de: Coeneo, Charapan, Cherán, Chilchota, Erongarícuaro, Los Reyes, Nahuatzen, Nuevo Parangaricutiro, Paracho, Pátzcuaro, Quiroga, Tangamandapio, Tangancícuaro, Tingambato, Tzintzuntzan, Uruapan y Zacapu.

Se sabe que entre 1478-1479 hubo un enfrentamiento entre el ejército náhuatl o mexica y el imperio tarasco, ganando los purépechas. Esto sugiere que el imperio tarasco tenía un gran poderío y había alcanzado un alto grado de organización. Cuando los conquistadores españoles llegaron a tierras michoacanas en 1521, la autoridad tarasca decidió no oponerse y optó por la alianza con los españoles.

La corona española al querer saber cuáles eran las características del nuevo territorio, envió una comitiva que tenía la obligación de ir de pueblo en pueblo y preguntar a la autoridad indígena entre otras: ¿cuántas personas y cuántas casas había?

De acuerdo con un documento de 1522, la autoridad indígena de Tarimbaro responde: hay tres casas, mientras los españoles hacen un conteo de alrededor de 30; unos hablaban español o náhuatl y los otros tarasco y probablemente náhuatl, y es aquí en donde comienza el problema de comunicación.

Por parte de los historiadores se ha planteado la posibilidad de que la autoridad indígena haya mentido para que los españoles no le impusieran una tasación alta o que la comisión que fue enviada no visitó todos esos pueblos.

La investigadora consideró estas posibilidades y se planteó otra: “Al hablar diferentes lenguas, no había comprensión entre ellos. Esto me llevó a revisar los diccionarios bilingües del siglo XVI para saber qué se entiende por casa o mejor dicho por el término purépecha kuajta”.

Al parecer la palabra kuajta no tiene el mismo significado que el vocablo casa en español, no es un edificio, sino un conjunto de familiares que se agrupan en algo que se llama kuajta. En la Relación de Michoacán se hace referencia a una casa, esta quizá se pueda concebir como una especie de casa noble, pues también dice que en estakuajta se incluyen esclavos o persona que prestan sus servicios a esta familia.

De la misma manera se debe tomar en cuenta que la palabra que designa al “rey” en tarasco quiere decir cabeza de casa. Conjuntando todos estos detalles, María Cristina Monzón señaló que parecen indicar existía un sistema de organización por “Casas”, kuajta, cuyo significado debe describirse, ya que dicho sistema no está codificado en español.

Destacó que un término puede tener diferentes acepciones, este “es un aspecto presente en todas las lenguas”; por otro lado, una palabra aun cuando puede compartir parte del significado con un vocablo de otra lengua, no abarca necesariamente el mismo campo semántico, explicó la investigadora.

Reconstruyen la historia de los ciclones en el pacífico mexicano

Reconstruyen la historia de los ciclones en el pacífico mexicano
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Los ciclones tropicales son fenómenos que han existido y afectado a los navegantes desde hace siglos. En algunas regiones del mundo, como en el Atlántico norte y en el Pacífico occidental –en donde han causado naufragios e impactado zonas costeras– fueron registrados en diversos documentos de la época colonial. Sin embargo, la climatología de ciclones tropicales en el Pacífico mexicano comenzó oficialmente a partir de 1949.

Además, dado que la mayoría de los ciclones en esta zona se forman lejos de la costa, la base de datos no es del todo completa, ya que fue hasta el final de los años 60 cuando se generalizó el monitoreo desde satélites meteorológicos.

Para evaluar la variabilidad natural de los ciclones y saber si ésta sufrió cambios (por ejemplo, debido al cambio climático) se requiere estudiar un periodo de tiempo considerable. Por ello un grupo de investigadores encabezados por la doctora Graciela Binimelis de Raga, del Centro de Ciencias de la Atmósfera (CCA) de la Universidad Nacional Autónoma de México, realizaron un trabajo interdisciplinario que permitió reconstruir la entrada de ciclones a tierra, a partir de documentos históricos y revisión de periódicos anteriores a 1949, llegando incluso hasta mediados del siglo XVI.

En este trabajo, los investigadores revisaron periódicos de los archivos de la Biblioteca Nacional y la Hemeroteca Nacional, además visitaron repositorios locales en Acapulco, Chilpancingo, Guadalajara, Colima, Mazatlán, Culiacán y La Paz, para consultar documentos que permitieran detectar los impactos de ciclones en tierra. Algunos de estos documentos contienen solicitudes de ayuda económica, que los gobiernos locales hicieron al gobierno central, para enfrentar los daños por lluvias, vientos y marejadas asociadas a los ciclones.

Una de las primeras etapas del análisis consistió en determinar qué términos se iban a utilizar para denominar a los fenómenos meteorológicos a los que se alude en los documentos históricos consultados, ya que al cabo de los años los ciclones tropicales han sido llamados tempestad, fuerte temporal o inundación. Posteriormente, con la información recabada se conformó un catálogo de estos términos; además se identificaron los eventos que podían ser considerados como ciclones o si en cambio estaban asociados a otros fenómenos meteorológicos.

En este proyecto interdisciplinario colaboraron la doctora Virginia García Acosta y las maestras Jimena Cuevas y Myriam de la Parra del Centro de Investigaciones y Estudios Superiores en Antropología Social (CIESAS), así como el doctor Raymundo Padilla y la candidata a doctora Beatriz Bracamontes de la Universidad de Colima.

Producto de la primera fase de investigación quedó conformada una base de datos, y se publicó el artículo “Landfalling tropical cyclones on the Pacific coast of Mexico: 1850-2010” en la revista trimestral Atmósfera del CCA. En este primer artículo participaron Graciela Binimelis de Raga integrante de la Academia Mexicana de Ciencias (AMC), Beatriz Bracamontes de la Universidad de Colima, Luis Manuel Farfán Molina del Centro de Investigación Científica y de Educación Superior de Ensenada, Unidad La Paz y Rosario de Lourdes Romero Centeno del Centro de Ciencias de la Atmósfera.

El estudio histórico de los ciclones tropicales en el Pacífico mexicano, permitió contar con una serie de datos de su entrada a tierra a lo largo de 161 años, período factible para evaluar ciertos aspectos de la variabilidad natural de estos fenómenos meteorológicos. En particular, se evaluó si los ciclones que ingresaron a tierra estaban relacionados con el fenómeno del Niño, y lo que encontraron es que estos ciclones se correlacionan mejor con la llamada “Oscilación Decadal del Pacífico”, que a gran escala modifica la temperatura de la superficie del mar y la circulación atmosférica de todo el Pacífico.

En este trabajo, que ya había sido presentado en el Congreso de Huracanes de la American Meteorological Society, los investigadores generaron fichas con datos básicos como el lugar, la fecha y los daños que ocasionó cada fenómeno meteorológico, pero hay mucha información (como el número de muertes o de pérdidas económicas), que a decir de la doctora Binimelis de Raga –especialista en microfísica de nubes y aerosoles– podría ser utilizada en tesis u otras investigaciones.

Actualmente, los investigadores han extendido el catálogo hasta 1526 y están preparando otro artículo en el que exploran, desde la interdisciplina, diferentes aspectos de la entrada de ciclones a tierra en el Pacífico mexicano a mediados del siglo XVI.

Aprender ciencia, haciendo ciencia: Mario Molina

Aprender ciencia, haciendo ciencia: Mario Molina
Por Noemí Rodríguez González en la Academia Mexicana de Ciencias

Entre los retos del país en materia de ciencia y tecnología, está la necesidad de mayor inversión. Sin embargo, también se debe poner énfasis en lograr que la educación sea de calidad, y para ello “es necesario entender cómo aprenden las personas, en especial los niños”, dijo Mario Molina ganador del Premio Nobel de Química 1995.

Los niños “aprenden ciencia: haciendo ciencia y si se realizan acciones para cambiar la forma en la que se enseña, desde los niveles básicos de educación, esto podría canalizarse para mejorar la enseñanza en las universidades”, aseguró el también miembro de la Academia Mexicana de Ciencias.

De acuerdo con el doctor Molina, la asociación civil Innovación en la Enseñanza de la Ciencia (Innovec), con el apoyo de la Secretaría de Educación Pública (SEP), los gobiernos de12 estados, fundaciones y empresas, beneficia a más de 400 mil alumnos de educación básica que reciben clases de ciencia basadas en el modelo de Sistemas de Enseñanza Vivencial e Indagatoria de la Ciencia (SEVIC).

El SEVIC toma en cuenta la curiosidad natural de los niños, “así las clases son vivenciales, los niños realizan experimentos, plantean hipótesis, proponen explicaciones y trabajan en equipo. Por ello este es un método diferente al tradicional, pero para implementarlo también hay que entrenar a los profesores”, dijo Mario Molina, vicepresidente del Consejo de Innovec, durante la charla magistral que dictó durante un evento del Conacyt celebrado con la primera generación de investigadores seleccionados para las Cátedras Conacyt.

Innovec (como informa el sitio http://www.innovec.org.mx) fue creada en agosto de 2002 con el fin de impulsar la investigación, la innovación y el desarrollo de estrategias de apoyo para mejorar la enseñanza de la ciencia en la educación básica, y es parte de la Fundación México-Estados Unidos para la Ciencia (FUMEC), organismo no gubernamental creado en 1999 a partir del Tratado de Libre Comercio de América del Norte, con la que colabora la Academia Mexicana de Ciencias.

Mejorar la enseñanza en las universidades

En lo que respecta a una comparación experimental entre los métodos de enseñanza que se utilizan en las universidades, Mario Molina se refirió al trabajo de investigación que ha realizado un equipo de la Universidad de British Columbia (UBC), en Vancouver, Canadá, encabezado por Carl Wieman, ganador del Premio Nobel de Física 2001.

En la investigación “Improved Learning in a Large-Enrollment Physics Classque”, que se publicó en la revista Science, Wieman formó al posdoctorado, Louis Deslauriers, y a la estudiante graduada Ellen Schelew, en un enfoque educativo llamado “práctica deliberada”, en el cual se pide a los estudiantes pensar como lo harían los científicos y resolver diversos problemas durante la clase.

El método de “práctica deliberada” comienza cuando el instructor da a los estudiantes una prueba de opción múltiple que trata de un concepto específico, posteriormente los estudiantes intercambian ideas y formulan hipótesis en pequeños grupos. Las respuestas del cuestionario indican al profesor qué piensan los estudiantes acerca del tema que se abordará en clase.

Por una semana, Deslauriers y Schelew se hicieron cargo de un grupo de estudiantes de ingeniería que tomaban un curso de introducción a la física y se reunieron tres veces durante una hora implementando el enfoque de “práctica deliberada”. Mientras que un profesor de física titular se quedó al frente de otro grupo y continúo enseñando con un formato tradicional, en el cual no hay interacción y el profesor se encarga de dictar la clase.

Al comparar los resultados de ambos grupos, los investigadores notaron que los alumnos de la sección de “práctica deliberada” respondieron mejor el test y aumentó en un 20% la asistencia de los estudiantes, esto en comparación con el grupo en el que se mantuvieron las clases tradicionales.

Así, en opinión de Mario Molina, se pueden implementar métodos de enseñanza diferentes a los que se utilizan en todos los niveles de educación en el país, y aprovechar la información que, desde la ciencia, nos puede ayudar a entender cómo aprendemos y al mismo tiempo encontrar la manera de enseñar con mejores resultados.