Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la...

20

Transcript of Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la...

Page 1: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri
Page 2: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

Micrografía del ojo compuesto de una Drosophila adulta. El ojo tiene alrededor de 750-800 omatidios. Hay quetas (mecanoreceptores) entre los omatidos.

No. 27 Enero - Marzo 2014

Contenido

CONSEJO DE DIRECCIÓNDr. Raúl Gerardo Paredes Guerrero

Dr. Gerardo Carrasco NúñezDr. Ramiro Pérez Campos

Dr. Germán Buitrón MéndezDr. Juan B. Morales Malacara

Dr. Saúl Santillán GutiérrezDr. Luis Montejano Peimbert

COORDINADOR DE SERVICIOSADMINISTRATIVOS

Alejandro Mondragón Téllez

JEFE UNIDAD DE VINCULACIÓNJuan Villagrán López

CONSEJO EDITORIALRosa Elena López Escalera

Carlos M. Valverde RodríguezJuan Martín Gómez González

Iván Moreno AndradeEnrique A. Cantoral Uriza

Juan Villagrán López

DISEÑO Y FORMACIÓNI.S.C. Oscar L. Ruiz Hernández

GACETA UNAM JURIQUILLA Publicación trimestral editada

por la Unidad de Vinculación, Difusióny Divulgación Universitaria perteneciente a la Coordinación de Servicios Administrativos.

Boulevard Juriquilla No. 3001,Juriquilla, Qro.

MÉXICO, C.P. 76230

Certificado de reserva de derechos al uso exclusivo de título

No. 04 - 2013 - 041714461800 - 109 Impresión: Hear Industria Gráfica, Calle 1 No. 101, Zona Industrial Benito Juárez. C.P. 76120.

Tiraje: 2000 ejemplares

TELÉFONOS VINCULACIÓN(442) 192 61 31, 32 y 35

CORREO ELECTRÓ[email protected]

RECTORDr. José Narro Robles

SECRETARIO GENERALDr. Eduardo Bárzana García

SECRETARIO ADMINISTRATIVOIng. Leopoldo Silva Gutiérrez

SECRETARIO DE DESARROLLO INSTITUCIONAL

Dr. Francisco José Trigo Tavera

SECRETARIO DE SERVICIOS A LA COMUNIDAD

Enrique Balp Díaz

ABOGADO GENERALLic. Luis Raúl González Pérez

COORDINADOR DE LAINVESTIGACIÓN CIENTÍFICA

Dr. Carlos Arámburo de la Hoz

DIRECTOR GENERAL DE COMUNICACIÓN SOCIAL

Renato Dávalos López

UNAM

Campus Juriquilla

4pag.

El cerebro y la mosca: No tan diferente de nosotros

INB

Achim M. Loske [email protected]

Achim M. Loske es doctor en física e investigador titular del CFATA. Las aplicaciones biomédicas de las ondas de choque son su principal línea de investigación. Paralelamente se ha dedicado al diseño de relojes solares, actividad que heredó de su padre, Lothar M. Loske, quien fuera famoso .por sus aportaciones en el campo de la cronometría.

Juan R. Riesgo [email protected]

Juan R. Riesgo Escovar es doctor por la Universidad de Yale, EEUU. Es investigador titular “B” del Instituto de Neurobiología. Sus principales líneas de investigación incluyen el desarrollo embrionario; las vías de señalización intercelular y los sistemas sensoriales de la mosca de la fruta.

Juan Martín Gómez Gonzá[email protected]

Juan Martín Gómez González es investigador titular “A” del CGEO. Sus líneas de investigación se enfocan en el modelado de la fuente sísmica, así como en el estudio de sismicidad intraplacas.

CGEO

Dara Salcedo Gonzá[email protected]

Dara Salcedo González, es Profesora Titular en la UMDI de la Facultad de Ciencias, UNAM Campus Juriquilla. Es Química por la UNAM y Doctora en Química por el Massachusetts Institute of Technology (MIT). Es especialista en estudios químicos de la atmósfera.

UMDI FC-J

Alejandro Vargas Casillas [email protected]

Alejandro Vargas Casillas es Doctor en ingeniería eléctrica por la UNAM, con especialidad en control automático de bioprocesos; es investigador titular de la UAJ-II.

UAJ-II

Índice de autores

CFATA

Ciencia para niñosIdea original y textos: Carmen Salas Torrero, Directora de “Desarrollo de servicios editoriales y estrategias de marketing on-line“

Ilustraciones: Luis Barquero VernetStephanie Thebault - Coordinadora de Sección

INB - Instituto de Neurobiología

El aire que respiramos

6pag.

UMDI-FC-J - Unidad Multidisciplinaria de Docencia e Investigación de la Facultad de Ciencias Juriquilla

Del tratamiento de aguas residuales a la bio-refinería de residuos

8pag.

UAJ-II - Unidad Académica Juriquilla del Instituto de Ingeniería

Ciencia para niños: ¿Cómo se organiza el cerebro?

10pag.

INB - Instituto de Neurobilogía

La importancia de conocer el tamaño de los sismos

12pag.

CGEO - Centro de Geociencias

De espejo de agua a reloj solar

14pag.

CFATA - Centro de Física Aplicada y Tecnología Avanzada

Bazar del estudiante:Iluminando el cerebro

16pag.

INB - Instituto de Neurobiología

Bazar del Estudiante

Stephanie Vargas Abonce [email protected]

Licenciada en Ciencias Genómicas por la UNAM; estudia la Maestría en Ciencias y su trabajo experimental lo realiza en el Laboratorio de Circuitos Neuronales del Instituto de Neurobiología.

Dr. Luis Concha - Coordinador de la sección

Page 3: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

EDITORIAL

3www.campusjuriquilla.unam.mx

EDITORIAL

Consejo Editorial

¿REFORMAS PARA QUÉ?

México inicia el 2014 con un paquete de reformas constitucionales llamadas “estructurales”, varias de ellas aprobadas vía fast track por la clase política nacional, sin consultar a sus representados, sólo dando línea a sus correligionarios políticos. Más allá de los aspectos ideológicos y de la discusión acerca de si se trata de reformas o contrarreformas; queda la duda de si lo aprobado efectivamente contribuirá a satisfacer las justas y ancestrales necesidades que la sociedad mexicana ha venido reclamando a lo largo de su historia.

Es una duda absolutamente razonable, sustentada en el dudoso desempeño y calidad del trabajo que en los últimos 25 años han venido realizando nuestros políticos, en especial los diputados y senadores. Cada sexenio han hecho reformas de las reformas, los actores nunca han querido entender que muchas de sus decisiones han afectado y comprometido el futuro de la población a la que dicen representar. Es evidente que su formación intelectual, conocimiento de la geopolítica y

compromiso social no corresponde con el nivel de autoridad que el electorado les confiere; es más, en muchos casos la prensa nacional ha documentado la ignorancia y el comportamiento banal con los que muchos de ellos se conducen.

Aunado a lo anterior, la incertidumbre sobre la funcionalidad del paquete de reformas aprobadas tiene que ver con el dogmatismo con el que se han venido presentando y publicitando. Es necesario que los políticos aclaren cuáles y quiénes serán los beneficiados con las modificaciones realizadas. Empleando un lenguaje alejado de los arcanos legislativos y administrativos, el estado debe emprender una campaña masiva de difusión en la que se expliquen y enumeren los beneficios inmediatos, a mediano y largo plazo. Una campaña seria que facilite a todos entender los logros económicos, sociales y políticos que se pretende alcanzar. Deben basar su explicaciones en indicadores precisos que nos permitan evaluar y comparar año con año la eficacia de las reformas aprobadas.

Un estado sano es aquel cuya población conoce el rumbo que lleva la nación. Las reformas deben beneficiar primeramente al país e insertarse en una política internacional clara que permita aportar ideas sustentables y sostenibles para el desarrollo mundial; de otra manera tales reformas seguirán siendo parciales y limitadas, beneficiando a muy pocos.

Los intelectuales y académicos (científicos y humanistas) del país debemos asumir el compromiso de llenar el hueco de información que ahora existe. Una opinión objetiva y fundamentada, ahora más que nunca, es de vital importancia para vislumbrar el rumbo que tomará el país. La experiencia de lo que ha sucedido en varias naciones de la Unión Europea es aleccionadora y no debe soslayarse. Si la clase política carece del conocimiento suficiente y específico para tomar decisiones pertinentes y razonadas, debe reconocerlo y asesorarse de quienes sí posean dicha información. Es el momento de que en México se integren la academia y la política en beneficio de la nación.

Fuente: http://static.animalpolitico.com/wp-content/uploads/2011/10/Sesion_Diputados-10_17.jpg

Page 4: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 20144

Juan R. Riesgo Escovar

Generalmente cuando pensamos en las moscas las odiamos porque nos parecen muy latosas y no nos permiten estar en paz; o bien, porque pueden transmitir enfermedades, o simplemente porque merodean sobre la basura y ese comportamiento no debe ayudar a que sean limpias. Como en otros grupos de animales, existen muchas especies de moscas, de hecho existen muchos miles y la mayoría no representan ningún problema para la humanidad, para los animales o para los cultivos. Al contrario, pueden ser beneficiosas en muchos sentidos coadyuvando a la buena marcha de los ecosistemas pues son saprófitas (se alimentan de materia orgánica en descomposición, o de organismos que llevan a cabo la descomposición de materia orgánica). Algunas se usan como modelo de estudio en la ciencia. Unas pocas pueden ser patógenas y transmitir enfermedades, como la mosca tse-tsé

en África, que transmite la enfermedad del sueño causada por tripanosomas (organismos protozoarios microscópicos). Algunas otras son carroñeras, como el género Sarcophaga (el nombre significa literalmente ‘comedora de carne’) y suelen frecuentar los cementerios y en algunos casos ser vectores de enfermedades, pero son las excepciones.

Habitualmente pensamos en la mosca común (Musca domestica) que además de rondar entre la basura nos incomoda con su insistente volar a nuestro alrededor y el molesto zumbido de sus alas. Sin embargo, hay otros dípteros más nocivos. Los dípteros, del griego: di (dos) y ptera (ala) son la clase de insectos a la cual pertenecen las moscas, los mosquitos y otros artrópodos (chinches, piojos, pulgas, etcétera), que son transmisores o vectores de diversas enfermedades: paludismo o malaria; dengue; fiebre amarilla, entre

otras. La mosca que más se estudia en el laboratorio es la Drosophila melanogaster, que quiere decir –un poco románticamente- ‘amante del rocío de panzas cafés’. Tal vez la característica más sobresaliente de esta especie es el color rojo y el gran tamaño de sus ojos, compuestos por muchos ojos simples (omatidios), entre 750 y 800 en cada ojo.

El debut científico de Drosophila como se le conoce comúnmente, ocurrió en el laboratorio del premio Nobel Thomas Hunt Morgan en Columbia. Por ese entonces, dos estudiantes de licenciatura: Calvin Bridges y Alfred Sturtevant aislaron una mutante con ojos albinos y este hallazgo llevo a Morgan a estudiar si las recién redescubiertas leyes de Mendel sobre la herencia se aplicaban también a los animales y no sólo a guisantes. Tan emocionante resultó el descubrimiento de las moscas de ojos blancos que Morgan abandonó otras líneas de trabajo, y Bridges y

El cerebro y la mosca: No tan diferente de nosotrosEl cerebro y la mosca: No tan diferente de nosotros

Sistema nervioso de Drosophila melanogaster. Embrión completo teñido para evidenciar el sistema nervioso

Page 5: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

5www.inb.unam.mx

Sturtevant permanecieron en el laboratorio de Morgan el resto de sus vidas. Juntos realizaron importantes descubrimientos, entre otros, la herencia ligada al sexo, el mapeo génico, la generación de mutaciones, las interacciones génicas, y la genética de poblaciones. Hoy en día nadie puede hablar de genética sin referirse a Drosophila. Otros estudiantes del laboratorio de Morgan también tuvieron carreras destacadas: Theodosius Dobshansky, como proponente de la síntesis moderna de la evolución y el desarrollo de la genética de poblaciones, y George Beadle quien también recibió el premio Nobel por su trabajo en genética.

Drosophila se convirtió en el organismo modelo para estudiar la genética y ha permitido aislar y caracterizar diferentes genes entre los cuales destacan los involucrados en el desarrollo embrionario, la memoria, el ritmo circadiano, el metabolismo y las vías de señalización intercelular; o bien, con algunas enfermedades hereditarias y ciertos tipos de cáncer. Como solía decirme uno de mis maestros: “…sólo es necesario idear una manera de preguntarles a las moscas, y este organismo puede servir para todo”. Más recientemente Drosophila ha permitido estudiar afecciones cardiacas, diabetes, agresividad, patrones de sueño, alcoholismo, drogadicción, y el funcionamiento del sistema nervioso, entre otros muchos temas.

El sistema nervioso de Drosophila es relativamente sofisticado y tiene aproximadamente entre 200,000 a 300,000 neuronas. Pronto sabremos el número exacto ya que, patrocinado por el Howard Hughes Medical Institute, existe un proyecto en curso para mapear todas las neuronas así como el conectoma, es decir, sus sinapsis o conexiones neuronales.

En el laboratorio de Genética de Traducción de Señales del Instituto de Neurobiología, desde hace ya quince años hemos estudiado diferentes aspectos de Drosophila, incluyendo el desarrollo embrionario, las vías de señalización intercelular y el sistema

nervioso. Nuestro enfoque experimental incluye varias aproximaciones simultáneas. Así, empleando inicialmente pruebas conductuales, hemos estudiado genes que se requieren para procesar información sensorial como la olfacción y la visión. Identificamos y bautizamos con nombres Nahuas algunos genes que se expresan exclusivamente en el sistema nervioso y participan en el metabolismo de fosfolípidos (nanahuatzin, una aciltransferasa de fosfolípidos, o tecuzitécatl, una fosfolipasa A2); o bien, en el desarrollo embrionario, como los genes de la vía de señalización de la cinasa de Jun (cuyos genes intervienen en el proceso embrionario conocido como cerrado dorsal, semejante a la cicatrización de heridas, y también, en algunos casos, en el desarrollo del sistema nervioso). Hemos caracterizado también mutantes que afectan el desarrollo y/o la especificación de los precursores del sistema nervioso (como el gen aaquetzalli). Recientemente, hemos iniciado el análisis de la formación de tumores cerebrales estudiando la sobre-proliferación de neuroblastos en el cerebro de larvas mutantes (figura 1); es decir, de las células troncales nerviosas y la determinación y desarrollo del sistema nervioso, en donde se elucidó la vía de señalización de Notch.

Notch fue descrito originalmente en 1916 por Morgan y Bridges. Posteriormente Poulson (1939) describió su papel en la formación del sistema nervioso y fue clonado por el grupo de Artavanis-Tsakonas en 1983. Notch desempeña un papel crucial en el desarrollo embrionario de las células que van a dar origen al sistema nervioso no solamente de la mosca, también de los vertebrados. En las mutantes de Notch los embriones mueren porque, literalmente, tienen tanto cerebro y tan poca piel que lo envuelva y sostenga, que el cerebro se les sale literalmente del cuerpo. En los mamíferos existen varios Notch, y se les denomina mNotch, del inglés mammalian Notch.

Finalmente, uno puede pensar que está muy bien conocer en detalle a Drosophila, pero ¿qué beneficio se obtiene de este conocimiento, amén del entendimiento y avance de la ciencia?, ¿se puede aplicar esto a otros campos? La respuesta es un enfático sí. Drosophila ha permitido entender los genes y los procesos que se encuentran conservados evolutivamente en muchas otras especies y elucidar mecanismos y funciones, que después se han aplicado a otros organismos menos fáciles de estudiar. La vía de Notch es un excelente ejemplo.

De hecho, esta información revela la unicidad de la vida en este planeta y la herencia común que todos los seres vivos compartimos. En el genoma de la mosca, que sirvió de modelo (una vez más) para la secuenciación del genoma humano, existen aproximadamente unos 15,000 genes. Nosotros, con alrededor de 45,000 genes, somos como tres moscas. Alrededor del 70% de los genes de Drosophila tienen ya contraparte reconocida en los humanos. Algunos, como el gen eyeless en la mosca, que se requiere para la formación del ojo (las mutantes no tienen ojos), pueden ser substituidos funcionalmente por la versión humana, Pax 6, en el caso de eyeless, en una mosca transgénica. En otras palabras, la formación del ojo en la mosca mutante de eyeless es rescatada por la expresión de Pax 6. Así, es de esperarse que los nuevos descubrimientos en el sistema nervioso de Drosophila sirvan, como desde hace más de cien años, de pauta y guía para las investigaciones en otros modelos y sistemas, que sean los hombros sobre los cuales, como lo expresaba Newton, nos subamos para ver más allá.

Figura 1. Micrografías de ganglios supraesofágicos (parte del cerebro larvario) de larvas de Drosophila melanogaster. acal1/+ (control, panel izquierdo) y acal1/acal1 (mutante, panel derecho). El mutante muestra un exceso de neuroblastos (rojo) y una reduc-ción en la extensión del neuroepitelio (verde) en comparación con el control. En estas vistas, dorsal es hacia abajo.

Page 6: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 20146

60 segundos por minuto, 60 minutos por hora, 24 horas al día, 7 días a la semana, 365 días al año… nunca dejamos de respirar porque necesitamos el oxígeno del aire para vivir. Sin embargo, junto con el oxígeno, el aire arrastra muchas otras sustancias al interior de los pulmones, algunas de las cuales pueden ser dañinas para nuestra salud. Por ejemplo, el ozono (O3), monóxido de carbono (CO), dióxido de azufre (SO2), óxidos de nitrógeno (NO y NO2), y las partículas finas (menores a 10 y 2.5 micrones, mejor conocidas como PM10 y PM2.5, respectivamente) pueden afectar la salud humana al ser respirados, aun cuando se encuentran en cantidades muy bajas. Estos gases y partículas se denominan contaminantes criterio (CC) y todos forman parte de lo que se conoce como smog fotoquímico. Este es causado principalmente por las emisiones a la atmósfera que ocurren durante la quema de combustibles fósiles (gasolina,

diésel, carbón, combustibles industriales, etcétera). Dichas emisiones se acumulan en el aire y se transforman, con ayuda de la radiación solar, en una mezcla de gases y partículas que generalmente se observan sobre las regiones contaminadas como una capa café que disminuye la visibilidad a grandes distancias.

Concentraciones excesivamente altas de los CC pueden causar la muerte como ocurrió durante la “Niebla Asesina de Londres”, en diciembre de 1952, cuando una mezcla de niebla y humo negro cubrió Londres durante 4 días seguidos y provocó unas 4000 muertes, lo que significa un incremento de casi tres veces en la tasa promedio de mortalidad durante la misma época del año. Aun en concentraciones relativamente bajas, los efectos negativos de la contaminación del aire son considerables. A corto plazo, la exposición a la contaminación

en el aire afecta principalmente a niños, y a personas mayores o con enfermedades respiratorias disminuyendo la función pulmonar y agravando los síntomas de enfermedades preexistentes. En el largo plazo aumentan la mortalidad por enfermedades cardiovasculares y el riesgo de padecer ciertos tipos de cáncer. Es decir, la contaminación del aire provoca la disminución en la expectativa de vida, que puede ir de meses a años. La Organización Mundial de la Salud (OMS) estima que en el año 2010 murieron 3.2 millones de personas prematuramente debido a la contaminación del aire. En general, la población que vive en zonas urbanas e industriales es la que se encuentra en mayor riesgo de sufrir los efectos negativos de la contaminación atmosférica, debido a las altas emisiones vehiculares e industriales.

La concentración de los contaminantes en el aire depende de la magnitud de

Dara Salcedo González

El aire que respiramosEl aire que respiramos

Page 7: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

7http://umdi-juriquilla.fciencias.unam.mx/

las emisiones a la atmósfera y de las condiciones meteorológicas locales, tales como temperatura, radiación solar, velocidad y dirección del viento, y humedad relativa. Una mayor cantidad de emisiones puede generar una mayor concentración de contaminantes, sin embargo, los vientos o la lluvia pueden “limpiar” la atmósfera; por el contrario, las inversiones térmicas pueden evitar la dispersión de los contaminantes, causando que se acumulen sobre alguna región. Por esto, las concentraciones de contaminantes presentan variaciones diurnas, semanales y estacionales de acuerdo con los cambios climáticos y los patrones de emisión. Por ejemplo, generalmente se observan concentraciones máximas durante el día, las cuales se correlacionan con las horas pico en el tráfico y el máximo de radiación solar. También, se suele observar la disminución de los CC durante los fines de semana y periodos vacacionales, debido a la reducción del tránsito vehicular. Otros factores que impactan la presencia de contaminantes en el aire son cambios en los patrones de emisión como quemas controladas o uso de calefacción en ciertas épocas del año, y el desarrollo urbano que implica el aumento de la población y de vehículos en circulación, así como el establecimiento de nuevas industrias.

En general, es responsabilidad de las autoridades generar las políticas regulatorias necesarias para mantener una buena calidad del aire e instaurar las normas ambientales y de salud que estipulen los valores máximos de las concentraciones de los CC con el fin de proteger la salud de la población. Para cumplir con las normas establecidas, se debe realizar la medición permanente de las concentraciones de los CC y así determinar el estado actual y las variaciones de la calidad del aire a corto, mediano y a largo plazo. El monitoreo también es importante para verificar que los programas implementados tengan los efectos esperados.

Dado que es una actividad autónoma

que no se puede detener, respirar aire de mala calidad puede causar la muerte prematura. Por ello, mantener una buena calidad debería ser una prioridad tanto de autoridades como de ciudadanos. Lamentablemente fuera de las ciudades más grandes o algunos centros industriales importantes, es común que no se considere necesario el monitoreo atmosférico, y mucho menos la implementación de programas que controlen las emisiones a la atmósfera. Esta falta de prevención y la falta de regulación de emisiones a la atmósfera causan que, aunque existan pocas fuentes de emisión, las concentraciones de CC puedan ser similares a las encontradas en zonas reguladas. Por ejemplo, los vehículos viejos que circulan en el país emiten 5 veces más contaminantes que uno verificado. Por esto, es recomendable que en todas las zonas urbanas exista un monitoreo atmosférico, de modo que se conozca el estado de la calidad del aire, y tomar las medidas adecuadas para mantenerla en un buen nivel.

En la Unidad Multidisciplinaria de

Docencia e Investigación de la Facultad de Ciencias, UNAM Campus Juriquilla, se realiza investigación relacionada con la química de la atmósfera y la calidad del aire en zonas urbanas (D. F., Cuernavaca y actualmente en Querétaro), donde pueden existir concentraciones relativamente altas de CC y otras sustancias. El objetivo de estos estudios es comprender los procesos involucrados y desarrollar modelos que los describan para facilitar el diseño de estrategias y programas ambientales efectivos tomando en cuenta sus circunstancias geográficas, económicas y demográficas. Al mismo tiempo, se preparan recursos humanos con conocimiento en procesos atmosféricos, a través de la participación en los proyectos de investigación de estudiantes de la Licenciatura y el Posgrado en Ciencias de la Tierra de la UNAM y de programas académicos de la Universidad Autónoma de Querétaro. Un proyecto particularmente interesante para la región, es la próxima instalación en la UNAM Campus Juriquilla de una estación de mediciones atmosféricas, como parte del proyecto “Red Universitaria de Observatorios Atmosféricos” del Centro de Ciencias de la Atmósfera de la UNAM.

Vistas de la ciudad de Querértaro desde la UNAM Campus Juriquilla (techo del Centro de Geociencias) en dos momentos diferentes, durante septiembre de 2010. La diferencia en la visibilidad en ambas fotos es evidente. La baja visibilidad observada el 27 de septiembre es causada por partículas suspendidas en el aire.

Page 8: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 20148

Alejandro Vargas Casillas

El tema de la energía está en boca de todos: desde la insistente propaganda gubernamental en torno a la llamada “reforma energética”, hasta las charlas de café sobre cómo ahorrar electricidad y gas en casa tras la cuesta de enero. Otro tema recurrente es que “México debe construir más refinerías de petróleo para ser competitivo a nivel mundial”. Pero, ¿sabemos todos realmente qué se hace y para qué sirve una refinería? Para variar aquí no hablaremos de refinerías, sino de bio-refinerías, que usan el mismo concepto, pero son diferentes.

En la refinación de hidrocarburos, el petróleo crudo se transforma mediante procesos químicos y fisicoquímicos complejos en distintos componentes, desde asfalto hasta gasolinas de alto octanaje, pasando por queroseno y diésel o gasóleo. También la bio-refinación produce combustibles, calor, energía y otros productos de valor agregado

(compuestos químicos, nutrimentos, materiales) a partir de biomasa, entendida ésta como una mezcla de sustratos de origen orgánico.

El rasgo distintivo de una bio-refinería es el uso de microorganismos especializados como catalizadores (aceleradores y mediadores) de los procesos de conversión. En particular, dos ideas importantes detrás de la bio-refinación son: su carácter sustentable y la posible diversificación de sus productos, buscando siempre optimizar su eficiencia energética y reducir su impacto ambiental. Así, el concepto de bio-refinería puede combinarse con el tratamiento de residuos líquidos o sólidos, para dar lugar a la bio-refinación de residuos (en inglés: waste biorefinery). Aquí existen dos intereses: reducir la contaminación a un mínimo aceptable y obtener lo máximo posible de productos de valor agregado. Por

ello, resulta ventajoso usar como “materia prima” residuos sólidos o aguas residuales con alto contenido de sustratos orgánicos, como los provenientes de la industria alimentaria. Además, se busca maximizar la productividad y el rendimiento de lo que se genera, a la vez que se tratan los residuos.

Algunas plantas de tratamiento de aguas residuales (PTAR) de hecho ya son bio-refinerías, pues además de convertir el agua sucia en agua limpia, pueden producir biogás (metano, CH4 y bióxido de carbono, CO2) que sirve como combustible para generar electricidad o calor. Incluso, si se trata el exceso de microorganismos generados en el proceso (conocidos como lodos), éstos pueden servir para mejorar suelos. Sin embargo, las PTAR aún no son bio-refinerías eficientes pues consumen más energía de la que producen.

En una PTAR, es posible generar biogás

Del tratamiento de aguas residuales a la bio-refinería de residuosDel tratamiento de aguas residuales a la bio-refinería de residuos

Page 9: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

9http://sitios.iingen.unam.mx/LIPATA

que se genera por la actividad de microorganismos a través de un proceso conocido como digestión anaerobia (o sea en ausencia de oxígeno). Algunas de estas bacterias primero producen hidrógeno (H2), el cual resulta mucho más atractivo como combustible, pues tiene mayor contenido energético y no contamina. Si el proceso se opera adecuadamente, podremos hacer que se produzca H2 de manera muy eficiente. En el Laboratorio de Investigación en Procesos Avanzados de Tratamiento de Aguas (LIPATA) de la Unidad Académica Juriquilla de Instituto de Ingeniería (UAJ-II) de la UNAM, buscamos mejorar la eficiencia de este tipo de procesos de producción biológica de hidrógeno, usando directamente el agua residual como sustrato.

Hemos visto que es factible implementar sistemas de dos fases, donde un primer biorreactor produce hidrógeno, descomponiendo moléculas de residuos en otras más simples como algunos ácidos orgánicos. Lo que se obtiene de este primer reactor (el efluente) se usa como entrada (el afluente) de un segundo bioproceso especializado en otro producto, que bien podría ser el biogás convencional. Así se aprovecha mejor el residuo.

En otro esquema más atractivo, el efluente del biorreactor productor de hidrógeno puede emplearse para producir polímeros biodegradables de interés comercial, llamados genéricamente polihidroxialcanoatos (PHA) en biorreactores aerobios (ver Gaceta #4). También se puede usar para alimentar cierto tipo de bacterias fotofermentativas (anaerobias) que emplean la energía de la luz (solar o artificial) para convertir ácidos orgánicos en H2 y CO2. El mismo efluente puede emplearse en sistemas de celdas bioelectroquímicas que producen electricidad, o aún más hidrógeno (ver Gaceta #15). Es posible también enfocar la conversión del agua residual en productos químicos de interés como etanol, butanol u otros solventes. Más aún, otro tipo

de bio-refinerías usa microalgas como catalizadores, las cuales pueden convertir los sustratos de las aguas residuales en lípidos que almacenan en su interior, y que a su vez pueden ser extraídos después para producir biodiésel, o incluso usar las mismas algas como forraje para animales.

Los biorreactores son la unidad de producción básica en una bio-refinería, y por ello nuestras investigaciones de ingeniería de procesos se han centrado en ensayar diferentes condiciones de operación, con distintos sustratos y configuraciones, y determinar los posibles efectos de algunos parámetros sobre la productividad y el rendimiento del proceso. Pero esto quizá no sea suficiente, pues todavía puede hacerse más.

Bajo el enfoque de la ingeniería de control, los biorreactores productores de hidrógeno son sistemas dinámicos sujetos a incertidumbres y perturbaciones externas. Poseen variables de entrada que pueden ser manipuladas y variables de salida que pueden ser (o no) medidas. El control automático permite, a través de la retroalimentación de la información contenida en la señales de salida (aquellas medidas o estimadas), manipular las variables de entrada (aquellas que es posible manipular) para mejorar el desempeño del proceso. Por ejemplo, en la UAJ-II hemos empleado la tasa de dilución como variable de control para regular la productividad de H2 en un fermentador operado de forma continua. Así, hemos logrado aumentar la productividad sin sacrificar el rendimiento, con base en un análisis dinámico de los efectos a mediano plazo de esta variable.

Otro logro importante es la producción eficiente y robusta de polímeros biodegradables (PHA, por sus siglas en inglés) a través del uso del control retroalimentado. Hemos logrado, en un sistema de dos biorreactores aerobios, acumular el polímero hasta en 70% de peso seco de las bacterias y en tiempos

considerablemente menores a los reportados por otros investigadores. Ahora buscamos acoplar este proceso con el de producción de H2.

Otras líneas de investigación que estamos integrando al tema de las bio-refinerías son la producción de más H2, ello mediante el uso de las bacterias fotofermentativas y la producción de electricidad y H2 en sistemas bioelectroquímicos. Por supuesto, también incorporaremos el control automático a estos bioprocesos para hacerlos competitivos.

De esta forma, en el LIPATA de la UAJ-II, UNAM estamos buscando alternativas y preparando gente, para el cambio de paradigma que en un futuro cercano llevará a que las PTAR se conviertan en verdaderas bio-refinerías de residuos.

Bio-reactor para producción de hidrógeno a partir de residuos

Page 10: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri
Page 11: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri
Page 12: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 201412

Los sismos son de los cataclismos más temibles y peligrosos de la naturaleza. Los muy grandes son poco frecuentes y pueden ser muy destructivos, mientras que los pequeños se generan por millones y suelen pasar desapercibidos (figura 1). Durante mucho tiempo se trató de conocer su tamaño empleando la Escala Modificada de Intensidades de Mercalli que es una escala subjetiva la cual no usa instrumentos, sino sólo la distribución de los daños materiales. Tampoco toma en cuenta las características particulares del terreno, de las cuales depende la amplificación de la energía. Fue muy socorrida principalmente en la época en la que se disponía de pocos sismógrafos, actualmente se usa poco.

En 1935 Richter propuso la escala de magnitud, la primera estimación objetiva del tamaño de un sismo. Fue diseñada para sismos ocurridos en California, EUA,

a menos de 100 km de distancia de una estación de referencia, con un modelo de velocidades de la corteza y de atenuación de la energía, propios de dicha zona. Ésta dependía de la sensibilidad del instrumento, el cual desafortunadamente se saturaba a partir de sismos de magnitud superior a 6.5. Hoy en día sólo se utiliza para describir sismos locales pequeños.

Las mejoras tecnológicas de los sismógrafos permitieron proponer otras magnitudes, como la de ondas de volumen (mb), la de ondas superficiales (Ms) o la de coda (Mc). Sin embargo, todas seguían teniendo un punto de saturación. A finales de los años 70’s el Dr. Hiro Kanamori propuso la escala de magnitud de momento (Mw), lo cual ya no depende del instrumento, sino de las características físicas de la fuente y, lo más importante, ya no se satura. La Mw está basada en las características físicas

de la fuente (área de la falla, desplazamiento promedio durante el sismo, rigidez promedio de cortante de la roca; figura 2 ). De esta forma, la intensidad y la magnitud son conceptos completamente distintos. La forma actual y correcta de estimar el tamaño o magnitud de un sismo es mediante el uso de sismógrafos. La utilidad de la magnitud de momento se hizo evidente al estudiar el sismo de Chile de 1960, inicialmente se le había estimado una magnitud de 8.5, con la magnitud de momento alcanzó una Mw de 9.5, De esta forma se definía el sismo más grande jamás ocurrido y registrado. La falla que lo produjo tuvo una longitud aproximada de 800 km y 200 km de ancho, y un desplazamiento promedio de poco más de 20 metros.

En Sismología el tamaño importa mucho, porque las escalas de magnitud son logarítmicas, su relación de energía es de 32 veces entre una unidad y otra (figura 1).

Juan M. Gómez González

La importancia de conocer el tamaño de los sismosLa importancia de conocer el tamaño de los sismos

Page 13: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

Figura 2. Representación de un sismo generado por una falla geológica.

Figura 1. Comparación de magnitudes de sismos con respecto a sus equivalentes en explosivos. También se muestra el carácter exponencial de la energía, la frecuencia de la magnitud y su comparación con otros fenómenos naturales.

13www.geociencias.unam.mx

Por ejemplo, un sismo de 6.2 equivale a la energía de una bomba atómica como la arrojada por Estados Unidos en Hiroshima, Japón, durante la segunda guerra mundial. Mientras que un sismo de 7.2 equivale a 32, el de 8.2 a 1024, y uno de 9.2, como el de Sumatra de diciembre de 2004, equivale a la energía liberada por 32,768 bombas.

La estimación de la magnitud permite comparar la pertinencia de los modelados sísmicos y de las características geométricas de las fallas sismogénicas. En el Centro de Geociencias (CGEO) de la UNAM llevamos a cabo modelados numéricos de sismos grandes, mediante aproximaciones unidimensionales de fuente puntual. También algunos investigadores como por ejemplo el Dr. Carlos Mendoza, utilizan modelados bidimensionales. Cada modelado permite conocer diferentes valores como las dimensiones, geometría, duración y dirección de propagación de la ruptura, así como analizar comportamientos y ambientes tectónicos, entre otras cosas. Las magnitudes modeladas siempre deben aproximarse a las reportadas por las agencias y obtenidas por diversos datos y análisis.

Por otro lado, en el CGEO también llevamos a cabo diferentes monitoreos de sismicidad en el interior del continente, con especial énfasis en la Sierra Madre Oriental (SMOr) y la Mesa Central. Localizar la microsismicidad permite identificar la fuente sismogénica y sus magnitudes, el potencial destructivo e incluso estimar el tamaño del sismo más grande que podría ocurrir. Esta información se coteja con datos históricos regionales y nos muestra que cada provincia fisiográfica tiene características sismotectónicas propias que condicionan el tamaño y el tipo de sismos que pueden ocurrir.

Si bien puede haber similitudes de comportamiento entre las fallas geológicas de diferentes provincias, ello no implica que el estado de esfuerzos sea el mismo, y por consecuencia que los sismos sean

iguales. Modelar un sismo es como tomar una foto instantánea, pues sólo conocemos la información más reciente. Para conocer su repetitividad, o si otros eventos similares pudieran producirse en el entorno, es necesario estudiar la historia sísmica y monitorear la actividad el mayor tiempo posible, ya que los sismos no son extrapolables, pero la experiencia sí lo es.

Desde 2003 hemos llevado a cabo múltiples monitoreos en Querétaro con redes temporales (Huimilpan, Arroyo Seco, Landa de Matamoros, Jalpan y Peñamiller, entre otros). También hemos trabajado en San Luis Potosí (Cerritos y San Ciro de Acosta) y Durango (Laguna de Santiaguillo). Los resultados nos han llevado a buscar instalar una red sísmica regional más consistente en la SMOr y

actualmente ya tenemos en operación tres de diez estaciones permanentes. Esta nueva red con sismógrafos de alta sensibilidad permitirá contar con el historial sísmico que necesitamos para entender mejor el fenómeno sísmico. Podremos estudiar el comportamiento espacio-temporal de la microsismicidad, abocarnos a buscar su fuente sismogénica, realizar modelados o estudios de propagación para estimar el riesgo potencial al que puede estar sujeta determinada población. Subestimar este peligro sísmico puede poner en riesgo a la población y su infraestructura, mientras que la sobreestimación puede generar un gasto innecesario. Dados los beneficios de esta red y los aportes que se obtendrán, la inversión no sólo está justificada, sino que es mínima, frente al potencial destructivo de estos fenómenos naturales.

Page 14: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 201414

Achim M. Loske

Durante los primeros años después de su construcción, el edificio del ahora Centro de Física Aplicada y Tecnología Avanzada (CFATA) de la UNAM contaba con un espejo de agua en cada uno de sus jardines centrales. Al pintarse de azul claro estos someros estanques perdieron su función. Entonces surgió la idea de aprovechar uno de ellos como carátula de reloj solar y así conmemorar los 10 años desde la creación del Centro.

La construcción del reloj fue un reto interesante. El extremo de su gnomon (del griego “guía”), debía apuntar hacia el norte geográfico, por lo que antes de instalarlo era indispensable trazar una línea norte-sur. La altura del edificio del CFATA impedía usar a la Estrella Polar como referencia y una brújula magnética no era suficientemente confiable. Tampoco se pudo emplear un GPS ya que para trazar una línea norte-sur se requiere de una distancia libre

mayor a la existente en los jardines del CFATA. Finalmente se decidió aprovechar el movimiento del Sol, es decir, “se usó un reloj solar para orientar un reloj solar”. Si con un reloj solar que está orientado adecuadamente se puede determinar la hora, entonces también es posible el proceso inverso: conociendo la hora exacta, se puede orientar un reloj solar. Este es el principio de funcionamiento de las brújulas solares. En nuestro caso, la brújula solar se fijó sobre una tira de ángulo de aluminio, de manera que uno de los cantos de dicho ángulo sirviera como referencia para colocar un hilo desde un punto al sur de la carátula por construir hasta otro punto situado en el norte. Conociendo la orientación exacta, el gnomon pudo soldarse a una placa de acero, que a su vez se había soldado a un cubo de varilla inmerso en el concreto. Antes de ello, se colgó una plomada desde la punta del gnomon, para verificar que

coincidiera con la línea norte-sur. Además se confirmó que justamente en el medio día astronómico, las sombras del gnomon y de la plomada se proyectaran sobre el hilo de referencia. También se verificó que el ángulo que formaba el canto superior del gnomon con el plano de la carátula coincidiera con la latitud geográfica (20.7 grados). Con ello el gnomon quedó paralelo al eje de rotación de la Tierra.

A lo largo del día, la sombra del canto superior del gnomon que tiene cinco metros y medio de largo, se mueve sobre la carátula, señalando tres tipos de hora diferentes. Los signos del zodiaco en la base del indicador únicamente tienen fines ornamentales. La escala con números romanos marca la hora solar en el CFATA. El mediodía astronómico corresponde al instante en que la sombra del indicador cae sobre el XII. Más arriba se encuentra una escala con números arábigos, la cual marca la hora solar en el horario de

De espejo de agua a reloj solar

Page 15: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

15www.fata.unam.mx

verano. Una segunda escala con números arábigos indica la hora solar en el horario de invierno. Ambas escalas se calcularon para mostrar la hora solar del meridiano que rige la hora en el centro del país. La hora indicada en las escalas con números arábigos coincide con la hora local (la hora señalada por nuestros relojes de pulso) solamente el 15 de abril, el 15 de junio, el 1° de septiembre y el 25 de diciembre. Para los demás días del año debe sumarse o restarse la cantidad de minutos que, de acuerdo a la fecha, aparece en una gráfica denominada “ecuación del tiempo”, que se colocó junto al reloj. Esta diferencia surge debido a que los relojes solares se basan en el movimiento aparente del Sol. A diferencia de las manecillas de nuestros relojes mecánicos o electrónicos, el movimiento aparente del Sol no es regular. Como la órbita terrestre es una elipse, la Tierra se mueve más veloz en el perihelio (punto más cercano de la órbita de la tierra alrededor del sol) y más despacio en el afelio (punto más alejado del sol durante la órbita de la tierra), produciéndose una variación de la hora solar con respecto a la hora local. Esta variación puede ser de hasta 16 minutos. Es decir, los días solares no duran siempre lo mismo. Se dividen en 24 horas denominadas “verdaderas” y son los relojes solares los que marcan la “hora solar verdadera”. La hora local, usada en nuestra vida cotidiana se definió por razones prácticas. Ambos tipos de relojes, los artificiales (mecánicos o electrónicos) y los solares, marcan bien la hora. Simplemente marcan otro tipo de hora.

La longitud geográfica del CFATA es de aproximadamente 100 grados 27 minutos, sin embargo, el meridiano que rige la hora en el centro del país es el meridiano 90 grados oeste (90ºW), que se encuentra a más de 10 grados de diferencia con el CFATA, es decir, a aproximadamente mil kilómetros. Por esa lejanía con respecto a nuestro meridiano, existe una diferencia de aproximadamente 42 minutos entre el mediodía astronómico de Juriquilla y el mediodía astronómico del meridiano

90ºW. Dicha diferencia puede observarse en el reloj solar: la escala superior con números arábigos está desplazada 42 minutos con respecto a la de números romanos. Además, un observador frecuente puede notar que el largo de la sombra del gnomon varía durante el año, siendo más corta en el solsticio de verano y obteniendo su máxima longitud en el solsticio de invierno.

Una de las ventajas de los relojes solares con respecto a los relojes mecánicos

o electrónicos es que son capaces de determinar la hora sin necesidad de ser ajustados. Hoy en día no se requiere un reloj solar como el del CFATA para determinar la hora, siendo éste simplemente una escultura didáctica. Actualmente se están desarrollando los planos para un calendario solar que será instalado en el otro jardín central del CFATA. La sombra que proyectará el gnomon de este calendario solar sobre su carátula trazará una hipérbola diferente cada día.

Construcción de la cimentación para anclar el gnomon.

Confirmación del ángulo del gnomon con respecto a la horizontal.

Colocación de los símbolos de acero inoxidable sobre la carátula.

Page 16: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 201416

Todos nos hemos preguntado alguna vez ¿Qué quiero ser cuando sea grande?, no es como que despiertes un día seguro de las decisiones que tomarás en un futuro. Para llegar a donde nos encontramos ahora tuvimos que pasar por una serie de procesos que nos son comunes: revisar programas académicos, solicitar el ingreso a diferentes universidades, enamorarnos perdidamente de algunas materias, detestar muchas otras, aprender datos, dudar de decisiones previas, sufrir exámenes, tener un primer acercamiento con la ciencia, gozar el conocimiento, desear con todas nuestras fuerzas que los experimentos salgan bien, leer cientos de artículos publicados sobre nuestro tema de interés… Finalmente, un día decidimos entregarnos por completo a una línea de investigación: somos aspirantes a ser científicos. ¿Yo? pues yo estudio el cerebro, ese maravilloso órgano/instrumento que nos permite ser lo que somos; pensar como pensamos; sentir como sentimos; percibir y abstraer elementos que se volverán ideas; ideas que se volverán acciones y acciones que moldean nuestro ambiente. Sí, yo estudio el cerebro, o al menos eso es lo que intento. Y la forma en la que decidí estudiarlo es utilizando una herramienta muy novedosa que podría sonar como ciencia ficción. Se llama “optogenética” y es una técnica que permite controlar circuitos neuronales utilizando luz. Si, ¡luz!, puedes comprar un LED (diodo emisor de luz, por sus siglas en inglés) en la ferretería de la esquina, conectarlo a una fuente eléctrica, prenderlo y generar respuestas altamente específicas en el sistema al que te interesa hacerle preguntas.

El cerebro, incluso cuando dormimos, está continuamente activo y se comunica

constante con el resto del organismo regulando todas las funciones del individuo, desde la respiración y parpadeos hasta su conducta. Esta compleja comunicación la realizan cientos de miles de células llamadas neuronas, conectadas en circuitos altamente especializados y utilizando un lenguaje químico y eléctrico. Mediante técnicas electrofisiológicas relativamente sencillas podemos escuchar la conversación de las neuronas y estudiar los efectos generados al interrumpirla.

El cerebro es muy grande, por lo que es común dividirlo en distintas regiones con funciones específicas. Yo estudio el hipocampo (y sí, tiene forma de caballito de mar), en particular un grupo muy especial de neuronas llamadas “interneuronas” (porque viven “entre las neuronas”); estas células son especiales porque son el freno de las neuronas principales, su trabajo es nada más y nada menos que callar a las neuronas durante su conversación. Son algo así como los moduladores de un debate: deciden quien habla, cuando habla y durante cuánto tiempo puede tener la palabra en momentos muy específicos de la generación de conductas como la exploración, la navegación espacial, la memoria de trabajo e incluso, la toma de decisiones.

Las interneuronas en realidad no son muchas, representan algo así como el 20% de la población total de células en el hipocampo, por lo que mediante técnicas electrofisiológicas convencionales es difícil activarlas o desactivarlas selectivamente, sin afectar a las neuronas vecinas. Es aquí donde la optogenética “sale a relucir”. Para lograrlo, hacemos uso de ratones transgénicos que al ser inyectados con un virus expresan una proteína muy interesante, llamada channelrhodopsina

(ChR2), y lo hacen únicamente en las interneuronas. La ChR2 es un canal iónico que en respuesta a la estimulación con luz permite el paso de iones positivos hacia el interior de la célula, con lo cual, la activa; y es justamente el efecto de esta activación a diferentes frecuencias y bajo diferentes condiciones experimentales, lo que me interesa estudiar. Es un proceso relativamente complicado, pero ¡Vale la pena el esfuerzo! porque una vez que tienes a tus animales expresando la ChR2, las posibilidades de manipulación son prácticamente infinitas, limitadas únicamente por tus conocimientos de técnicas de análisis y –obviamente- por la tecnología a la que tengas acceso para realizar tus experimentos. Sin embargo, con un poquito de imaginación y muchísimas ganas de trabajar hemos logrado inducir al sistema a generar oscilaciones rítmicas en frecuencias bajas de 8 a 10Hz (conocidas en el argot electrofisiológico como ritmos theta) y estas frecuencias se han asociado consistentemente con procesos y conductas complejas en los períodos de tiempo en los que prendemos la luz, en una estructura que en la normalidad se encuentra oscilando en una variedad de frecuencias durante la actividad espontánea del hipocampo.

Sé que esto no suena como la gran cosa considerando la gran complejidad de las dinámicas neuronales, pero piénsalo: ¡Estamos prendiendo neuronas con luces de colores! Estamos convencidos de que estas técnicas, en combinación con las electrofisiológicas clásicas que han resultado fructíferas aún dentro de sus limitaciones, nos permitirán dar pasos gigantescos en el entendimiento del papel de “los frenos” de las neuronas principales (el papel inhibitorio de las interneuronas) en la generación de conductas complejas, iniciando con esto en México la era de la “Iluminación neuronal”.

EL BAZAR DEL ESTUDIANTEIluminando el cerebro

Stephanie Vargas Abonce

EL BAZAR DEL ESTUDIANTEIluminando el cerebro

Stephanie Vargas Abonce

Page 17: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

17www.campusjuriquilla.unam.mx

Y usted… ¿qué opina? ¿De qué hablamos cuando nos referimos a ciencia, innovación y tecnología (CIT)?

Seguramente la mayoría de la comunidad científica nacional se enteró y celebró que se haya aprobado un incremento en el presupuesto de egresos 2014 destinado a la CIT. La Federación asigno 81 mil 810 mdp al área CTI, un aumento del 12% con respecto al año anterior y, de este monto, 31 mil millones corresponden al Consejo Nacional de Ciencia y Tecnología (CONACyT), 6 mil mdp mas que en 2013. Sin embargo, es probable que sólo algunos colegas conozcan los comunicados y declaraciones que han hecho diferentes funcionarios, directivos y miembros de nuestra comunidad al respecto (ver: comunicado CONACyT 86/13, 25/11/2013, http://www.conacyt.gob.mx/Noticias/Paginas/81-13.aspx; y Boletín Informativo Academia Mexicana de Ciencias N° 20; enero de 2014, http://bit.ly/19gmeW7). Ahí se podrá constatar que no obstante la aprobación presupuestal referida y relativamente importante, aun no se establecen con la claridad y precisión necesarias, los qué y los cómo de su ejercicio. De hecho, se anuncia que para su operación, el CONACyT está elaborando el “Programa Especial de Ciencia, Innovación y Tecnología (PECIT). Programa que permitirá “(definir) cuales deberán ser las áreas prioritarias de inversión para el país”.

Así y mientras esperamos el parto del PECIT, parecería, en una especie de déjá vu o paramnesia, que estamos condenados a repetir la misma historia hasta el infinito. Programas van y programas vienen y el país aún no tiene una política científica de

estado. Es urgente diseñar una estrategia que permita a la nación basarse en la CIT como uno de los motores fundamentales para su desarrollo. De hecho, en el flamante paquete de reformas recientemente aprobadas, olvidaron considerar lo que tanto admiramos en otros países, la virtuosa sinergia entre los interéses y necesidades económico-productivo-sociales del país y la base científico-tecnológica sobre la que esta debe descansar, a lo cual podríamos llamar la “REFORMA CIENTÍFICA”. Eso no significa restringir la investigación, sino también relacionarla y apoyar directamente de forma decidida las áreas prioritarias de investigación del país sobre las que debe descansar dicho desarrollo, fomentar la formación de sus respectivos rescursos humanos y elevar el nivel de la educación. Un ejemplo lo representa la denominada “reforma energética”, que consideró abrir las puertas de nuestros recursos naturales al extranjero, sabiendo que la duración de las reservas de petróleo no irán más allá del 2050. No se manejó nada de la optimización de ese recurso estratégico, tampoco del impulso en la investigación de energías alternativas: eólica, solar (http://cdn.reformaenergetica.gob.mx/explicacion.pdf), etcétera, algo que debió haberse comenzado desde los tiempos de bonanza del petróleo y que hubieran significado una inversión mínima en ese momento. De hecho, entre las pocas referencias que hace el gobierno a las energías alternativas están: “Se deben adoptar medidas para

evitar que el mayor desarrollo en el sector hidrocarburos propicie el deterioro de las condiciones medioambientales. A la vez, se debe impulsar el uso de energías limpias en el sector eléctrico, a fin de reducir el impacto en la generación eléctrica“. Sin embargo, no se indica a qué tipo de “energías limpias” se refiere, ni tampoco la estrategia que se adoptará. Se requiere pasar del discurso al hecho y para ello, los políticos requieren apoyarse en su ciencia y en sus científicos para tomar las mejores decisiones en pro de los mexicanos y equivocarse menos.

Al respecto se debe de identificar claramente el potencial público y privado con que cuenta el país, su aporte y las instituciones que llevarán a cabo las investigaciones e innovaciones, la estrategia que se seguirá, los plazos y la forma en que se aplicará el conocimiento, algo que no se lee por ningún lado en el documento distribuido por el gobierno federal.

De esta manera, una “REFORMA CIENTÍFICA” del país significaría una verdadera vinculación entre las necesidades para el desarrollo y la estructura científica que pueda atenderlas en materia de salud, alimentación, educación, cultura, vivienda, empleo, recursos naturales, sustentabilidad, etcétera. De esta forma, un aumento de recursos es una buena noticia, pero más lo sería si dichos recursos se enmarcaran en la vinculación que necesita nuestro país para su desarrollo, parafraseando a Elena Potiatowska “…Hasta no verte Jesús mío…”. Y usted... ¿qué opina?

Consejo Editorial

Y usted… ¿qué opina? ¿De qué hablamos cuando nos referimos a ciencia, innovación y tecnología (CIT)?

Page 18: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

No. 27 Enero - Marzo 201418

Page 19: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri

19www.inb.unam.mx

Page 20: Contenido - UNAM · mapeo géncio, la genearcóin de muatcoines , las interacciones génicas, y la genética de pobal coi nes. Hoy en día nade pi uede habal r de genétci a sn ri