CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación...

72
nº16 mayo 2016 CIENCIA Y TECNOLOGÍA Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco Industria e investigación Mesa de ideas ¿Dos realidades cada vez más cercanas? John Pendry Javiez Aizpurua entrevista al catedrático del Departamento de Física del Imperial College London Los retos de la Biología estructural Artículos de David Albesa-Jove, Javier O. Cifuente, Marcelo E. Guerin y Jesús Jiménez Barbero

Transcript of CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación...

Page 1: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

nº16mayo 2016

CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco

Industria e investigación Mesa de ideas¿Dos realidades cada vez más cercanas?

John PendryJaviez Aizpurua entrevista al catedrático del Departamento de Física del Imperial College London

Los retos de la Biología estructuralArtículos de David Albesa-Jove, Javier O. Cifuente, Marcelo E. Guerin y Jesús Jiménez Barbero

Page 2: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...
Page 3: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Contenidos

Editorial 04Jesús Jiménez Barbero, director científico de CIC bioGUNE nos cuenta

los retos de la biología estructural

Diálogos científicos 06Javier Aizpurua entrevista a John Pendry, catedrático del Departamento

de Física del Imperial College London

Ciencia en abierto 12Albert López Amor, periodista de divulgación científica, escribe sobre el

fin de la resistencia bacteriana.Cristina Juesas, experta en comunicación de la ciencia por la UNED, nos

enseña a comunicar ciencia de una manera efectiva

Investigación en vivo 20La ingeniería biomédica: de la pata de palo hasta las interfaces

neuronales, artículo de Ander Ramos-Murguialday, Andrea Sarasola, Nerea Irastorza, Manuel Montejo, Goran Bijelic, Niels Birbaumer, Thierry

Keller y Joe McIntyreBiología Estructural: contribución al descubrimiento y desarrollo de

nuevos antibióticos, artículo de David Albesa-Jove, Javier O. Cifuente y Marcelo E. Guerin

Entorno CIC 33Mesa de ideas

Industria e investigación: ¿Dos realidades cada vez más cercanas? Con José Ignacio Hormaeche, María José Aranguren, Antonio Martínez, Amaia

Maseda, Arrate Olaitz y Azucena Castro. Modera: José Esmoris

Artículos de M.C. Morant-Miñana, A. Rodríguez, A. Zuzuarregui, Elena C. Gonzalo, A. Rubio, O. Pereira, F.Veiga, A. Rodríguez, A. Rivero, L.N. López de Lacalle

Científicos ilustres 68Pedro Gómez-Romero, Nikola Tesla, creador de futuro

Page 4: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Empiezo este artículo agradeciendo la confianza de los responsables de CIC Network al incluirme en el nuevo Comité Editorial de la revista y pedirme que escribiese este editorial. Desde su comienzo, CIC Network ha estado siem-pre en mi despacho y su lectura me ha permitido conocer, paso a paso, los avances científicos que se han producido en los CICs. Las entrevistas y mesas redondas siempre han representado una fuente de conocimiento y de inspi-ración para mí, a todos niveles. Además, durante estos años, siempre había sentido cierta “envidia sana” hacia el sistema de investigación en Euskadi y disfrutado del papel de los CICs, especialmente de los “bioCICs”, más relacio-nados con mi trabajo investigador, en el desarrollo de este sistema.

Hace casi un año que acepté la dirección científica de CIC bioGUNE, el CIC más veterano, aunque sólo con diez años de existencia. Estos diez meses han sido muy intensos, en todos los aspectos de mi vida. He asumido esta tarea con mucha ilusión y entusiasmo. Me siento muy orgulloso de formar parte de esta sociedad.

En estos primeros meses, nos hemos empleado a fondo en emprender nue-vas acciones, complementando las ya existentes, y así acometer con garantía los retos que nos propone el nuevo Plan de Ciencia, Tecnología e Innovación Euskadi 2020. Siempre enmarcados dentro de las Ciencias de la Vida, y te-niendo en cuenta el excelente plantel investigador y las infraestructuras ya existentes, los dos programas de investigación de CIC bioGUNE se dirigen a la investigación en Metabolismo y Enfermedad, incluyendo mecanismos de señalización celular, y al estudio de procesos de reconocimiento molecular, muy especialmente aquellos relacionados con interacciones entre patógeno y huésped. Y es en este último aspecto en el que incide uno de los temas de este número de CIC Network, los avances en Biología Estructural. Esta disci-

plina, que tiene raíces profundas en la biología molecular, la bioquímica, la química biológica y la biofísica, está dirigida al estudio de la estructura de las moléculas biológicas (proteínas, ácidos nucleicos, glicoconjugados, lípidos) con el objeto de conocer los fundamentos que conducen al establecimien-to de esta estructura y cómo la estructura está relacionada con su función biológica. Dentro de los objetivos de la biología estructural se incluyen la comprensión de cómo las distintas moléculas se relacionan con su entorno, cómo se mueven, cómo se reconocen entre sí y cómo transmiten la infor-mación específica que se requiere para producir el efecto correspondiente.

Existen diversas técnicas que permiten acceder a este conocimiento. Entre ellas, merecen mención especial la espectroscopía de resonancia magnéti-ca nuclear (RMN), la difracción de Rayos X y la crio-microscopía electronica. Estas técnicas tienen distintos rangos de aplicabilidad, dependiendo del ta-maño molecular, la dinámica del sistema y el grado de resolución requerido para alcanzar las objetivos perseguidos. Estas herramientas, si bien están perfectamente establecidas, están experimentando continuamente nuevos desarrollos tecnológicos y básicos que permiten su aplicación, con éxito, al estudio de muy diversos problemas de gran interés en biología y en biomedi-cina. De hecho, en lo que llevamos de siglo XXI, varios científicos que han de-sarrollado y aplicado métodos de esta disciplina han sido galardonados con el Premio Nobel de Química. Entre ellos se encuentran Robert J. Lefkowitz y Brian K. Kobilka (2012) por sus estudios sobre receptores acoplados a la proteína G, Venkatraman Ramakrishnan, Thomas A. Steitz y Ada E. Yonath (2009) por sus estudios sobre la estructura y función del ribosoma, Roger D. Kornberg (2006) por sus aportaciones sobre las bases moleculares de la transcripción eucariota, Peter Agre y Roderick MacKinnon (2003) por sus es-tudios sobre canales en membranas celulares, Kurt Wüthrich (2002) por el

Retos en biología estructural

Jesús Jiménez-Barbero, CIC bioGUNE

Page 5: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Consejo EditorialAurkene Alzua-SorzabalEduardo AnituaPedro Miguel EtxenikeFélix M. GoñiJoseba JauregizarLuis Liz MarzánXabier de MaidaganJosé María MatoJosé María PitarkeAna ZubiagaNuria Gisbert TrejoJesús Jiménez BarberoDirectorJesús María Goiri BasterraColaboranJesús Jiménez BarberoJavier AizpuruaAlbert López AmorCristina JuesasAnder Ramos-MurguialdayAndrea SarasolaNerea IrastorzaManuel MontejoGoran BijelicNiels BirbaumerThierry KellerJoe McIntyreDavid Albesa-JoveJavier O. CifuenteMarcelo E. GuerinM.C. Morant-MiñanaA. RodríguezA. ZuzuarreguiElena C. GonzaloA. RubioO. PereiraF.VeigaA. RodríguezA. RiveroL.N. López de LacalleCoordinación Sara OrtizPrismaglobalDiseño y maquetaciónPrismaglobalReportajes fotográficosXabi AranburuNuria GonzálezEdita CIC NetworkAsoc. Red de Centros de Investigación Cooperativa del País VascoParque Tecnológico de Bizkaia, Ed. 80048160 Derio (Bizkaia)[email protected]ósito legalSS-1228-2006

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

desarrollo de los métodos de RMN para el estudio de macromoleculas biológicas. Otros están también relacionados, en mayor o menor medida, como los galardo-nes a Martin Karplus, Michael Levitt y Arieh Warshel (2013) por el desarrollo de modelos multi-escala para describir sistemas químicos complejos o también a Eric Betzig, Stefan W. Hell y William E. Moerner (2014) por el desarrollo de la microsco-pía de fluorescencia de súper resolución.

La investigación realizada por estos científicos tiene relevancia especial en salud y revela, una vez más, cómo el desarrollo de conocimiento básico de calidad puede transferirse a la sociedad, trascendiendo los aspectos meramente fundamentales para llegar a mejorar nuestra calidad de vida.

Como comentaba más arriba, la investigación en el desarrollo de las técnicas de RMN, Difracción de Rayos X y crio-microscopía ha alcanzado cotas espectaculares en lo llevamos de este siglo. Merece la pena resaltar los últimos avances tecnoló-gicos en crio-microscopía electrónica, que están permitiendo monitorizar estruc-turas e interacciones entre biomoléculas con una resolución que era inalcanzable hace muy pocos años con esta técnica. Es posible comprender cómo se producen las interacciones entre moléculas y otras entidades, incluyendo virus y otros pa-tógenos, casi a nivel atómico. Este conocimiento debe conducir al desarrollo de moléculas que modulen estas interacciones para potenciar efectos beneficiosos o impedir efectos nocivos para la salud. En múltiples laboratorios del mundo que trabajan en este campo, incluyendo los de CIC bioGUNE y otros dentro de Euskadi, estos avances en biología estructural, enfocados al estudio de procesos de recono-cimiento molecular, están permitiendo orientar la investigación hacia problemas científicos directamente relacionados con la salud, como los que se presentan en este número por parte de grupos de investigación liderados por investigadores jóvenes. Estos grupos cuentan ya con una trayectoria reconocida y destacada. No me cabe que a lo largo de su carrera continuarán realizando aportaciones especta-culares de gran trascendencia, tanto a escala científica como social.

Espero que este ejemplar de CIC Network os sirva de disfrute e inspiración, tanto o más de la que me proporcionaron muchos de los números anteriores.

Page 6: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

DIÁ

LOGO

S CI

ENTÍ

FICO

S

“La Nanofotónica es un área nueva donde somos capaces de controlar la luz en una pequeña escala sin precedentes”John Pendry, catedrático de Física Teórica del Estado Sólido en el Departamento de Física del Imperial College London es entrevistado por Javier Aizpurua, profesor de investigación del CSIC en el Centro de Física de Materiales de San Sebastián (CSIC-UPV/EHU) y DIPC.

No hay mucha gente que pueda decir que ha sido compañero de estudios de Stephen Hawking y todavía hay mucha menos que reconozca que competir con este genio le llevó a cambiar su carrera científica. John Pendry es uno de ellos. Dejó de lado el campo de la relatividad para convertirse en una de las referencias mundiales de la nanofotónica y de la física de superficies. El investigador británico señala que la teoría de la óptica de transformación y los metamateriales han pasado hace tiempo al campo experimental e incluso ya se está empezando a crear producto.

Page 7: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

7

John, usted es una de las referencias mundiales en el campo de la na-nofotónica, y querríamos tener una conversación acerca de su increíble carrera científica. En primer lugar querríamos saber, ¿qué es la nano-fotónica?La fotónica se centra en controlar la luz. Habitualmente, la forma de contro-lar la luz está limitada por la longitud de onda. La longitud de onda se mide en micras, que es la millonésima parte del metro. Pero la luz también tiene una estructura mucho menor, de difícil acceso, una estructura en la nanoes-cala. Y esta estructura se revela cuando la luz se encuentra con las nanoes-tructuras, tales como las estructuras metálicas, donde la luz puede excitar estados de oscilación electrónica llamados plasmones. En consecuencia, la nanoiluminación es un área nueva donde somos capaces de controlar la luz en una pequeña escala sin precedentes. Y para ello necesitamos nuevas téc-nicas; nuevas técnicas teóricas y también nuevas técnicas experimentales. Es muy emocionante.

Antes de comenzar a estudiar la nanofotónica, ¿qué hizo en su infancia? ¿Y cuándo empezó a estudiar? ¿Qué le llevó a desarrollar este interés en general por la ciencia, especialmente en el campo de la física? No lo sé, siempre he tenido interés por la física, fui un niño curioso, quería saber por qué ocurrían las cosas, le preguntaba a mi padre por qué ardían las llamas en la chimenea... supongo que mi curiosidad se veía estimulada por el hecho de que mi familia tenía un negocio de electricidad, de ahí mi interés por las partes eléctricas. Cuando yo nací ya habían dejado ese área de trabajo, pero los antiguos aparatos eléctricos estaban aún en el sótano. Y solía bajar allí y jugaba con todos esos cables y enchufes, bombillas y cosas así. Era muy divertido  Había muchas otras cosas allí abajo también, pero solo me interesaba lo eléctrico.

A pesar de ser un físico teórico, ¿fue por tanto la curiosidad práctica de las cosas la que le motivó al principio?De hecho, mi primera titulación fue en Física Experimental y no en Física Teórica. Soy un teórico no porque no pueda hacer experimentos, me sentiría

insultado si alguien me dijera eso, pero gracias a la teoría puedo extenderme hacia un área más amplia de la ciencia que mediante un experimento.

Y entonces, dentro de esta curiosidad por los aparatos eléctricos, ¿qué le llevó a la física de las superficies, a los fotones, a la luz? ¿Cómo evolu-cionó hacia estos temas con todas las posibilidades que ofrece la física?Bueno, fue por un accidente desafortunado y a la par afortunado. Lo desa-fortunado fue que fastidié el último año de mi primera titulación. Por lo que no tenía ni nivel ni la titulación necesaria para garantizarme un puesto de investigador. Como mucha gente en esos momentos, quería hacer investi-gación en el campo de la relatividad general, pero cuando se compite con personas de la talla de Stephen Hawking como compañero de estudios, uno no tiene muchas posibilidades si no eres de sobresaliente. Por lo que me vi forzado a hacer lo que estuviera disponible, y lo que estaba disponible era un doctorado en Ciencia de las Superficies sobre difracción de electrones, y eso resultó ser estupendo para mí. No era un tema glamuroso en aquel momento, pero era un campo que planteaba muchos retos.

Yo diría que probablemente Stephen Hawking se afianzó con la teoría de la relatividad; pero usted se ha hecho con el sitio de Stephen Haw-king en el campo de la física de superficies. Por lo que no fue una mala decisión... aunque le obligaran a ello. Tras hacer el doctorado en Cam-bridge, mantiene una carrera muy conectada con el Reino Unido, y a continuación acepta un puesto en Bell Labs. ¿Cómo fue esa trayectoria?Sí, fue muy importante para mi carrera ver cómo funcionaban las cosas fuera del ambiente universitario y también que fuera en un gran laboratorio. En aquel momento, Bell Labs era quizá el laboratorio más puntero del mundo, tanto en la ciencia de superficies como en la teoría de materia condensada, aunque también en otras áreas. Y era un ambiente muy estimulante, al estar entre verdaderos expertos.

Una vez que desarrolló esta parte de su formación durante esos dos años en Bell Labs, siguió su carrera volviendo al Reino Unido, regresan-do cerca de Manchester..., De hecho, volví para ocupar una posición de profesor junior en Cambridge. No estaba muy contento con este puesto porque Cambridge, especialmente Cavendish, es un laboratorio muy distinguido y alguien tiene que hacer el trabajo y, ese era el Profesor Junior. Aunque cierta parte del trabajo de la enseñanza era divertido, había más cosas que hacer, como exámenes... Y me vi enterrado en todo eso. Estaba deseando obtener un puesto que me per-mitiera proseguir con mi investigación sin muchos impedimentos. Un día, mi antiguo director de tesis, Volker Heine, vino a mi despacho y me dijo: “Hay un

DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua

John Pendry, Profesor de Física Teórica en el Imperial College de Londres, es una de las referencias mundiales en el campo de la física de superficies y de la nanofotónica. Ha desarrollado conceptos como el índice de refracción negativo, la óptica de transformación y es uno de los pioneros en el ámbito de los metamateriales. A lo largo de su extensa carrera ha recibido premios tan importantes como el Kavli Prize en nanociencias, la Royal Medal y la Isaac Newton Medal.

Page 8: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

puesto en el nuevo laboratorio de sincrotrón para dirigir un grupo teórico. ¿A quién podemos recomendar para este puesto?” Mi respuesta fue: “¿Por qué no me recomienda a mí?” Y así es como fui a Daresbury.

Y tras ello le dan una Cátedra en el Imperial College. Esta ha sido la últi-ma fase de su carrera, por así decirlo.Si lo ha sido. Llevo mucho tiempo en ello, desde 1981. Debería haberme mo-vido, soy un gran defensor de moverse, pero mi esposa también trabajaba en aquel momento y tenía un buen trabajo en Londres, lo que redujo las posibilidades de mudarnos. Dado que el Imperial College es claramente la mejor universidad de Londres, en mi opinión, en realidad, no había más si-tios a los que ir. He sido muy feliz ahí durante todo este tiempo.

Entonces, considerando toda su trayectoria, ¿se definiría como un cien-tífico británico, que está muy influenciado por la cultura de la ciencia y el ambiente británicos? ¿Habría sido muy diferente desde un punto de vista científico si hubiera estado unido a cualquier otra sociedad?No lo sé porque la ciencia es muy internacional hoy en día. Todos estamos mezclados, y vemos la ciencia de una forma parecida. La gente habla de la tradición científica británica. Creo que probablemente sería más apropiado para referirse al siglo XIX y principios del siglo XX, más que al siglo XXI. La tradición británica está muy guiada por los científicos experimentales y es así; por lo que como físico británico, interactúo mucho con los experimentos, es algo que disfruto y algo que creo es muy importante para que un teórico tenga impacto con su trabajo.

Considerando su propia experiencia ¿qué cree usted que es más impor-tante?, unos antecedentes sólidos con una base científica muy fuerte, en este caso de física, que se puedan desarrollar progresivamente, o sería mejor intentar un desarrollo científico basado en ideas brillantes?

¿Es más de formación o de “Eureka!”? En versión resumida, diría que es más Eureka, porque es muy importante poder resolver un problema concreto. Esto se ve cuando se seleccionan a los doctorandos, que se hace en base a su capacidad de resolver problemas establecidos y no por su habilidad para plantear problemas interesantes o importantes. Y son talentos muy diferentes: la habilidad para resolver pro-blemas se puede aprender. Sin embargo, sospecho que uno nace con la ha-bilidad de plantearlos. Es algo que siempre sentí que hacía bien desde los primeros días en ese sótano con los equipos eléctricos. Nunca me faltaban ideas para hacer cosas con esos equipos.

“Para encontrar la naturaleza cuántica de la luz tenemos que investigar más a fondo, y esto se hace observando sus fluctuaciones”

Así que diría que en sus propias ideas brillantes hay mucha inspiración, aunque seguro que hay mucha formación detrás.Absolutamente, es la base de todo. Si no hay un problema interesante sobre el que trabajar, no importa lo listo que uno sea para resolverlo, es un maldito problema y tendrá una maldita respuesta.

¿Le aconsejaría a un joven científico que se enfrentara a problemas científicos muy complejos o mejor que intentara resolver pequeños problemas que pasaron desapercibidos a sus antecesores? Creo que los jóvenes que piensan en la ciencia deberían plantearse si tienen una verdadera pasión por ella. Porque, de no ser así, no van a pensar en ella día y noche, evidentemente. Y, si la tienen, deberían familiarizarse con tanta

Page 9: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

9

ciencia como puedan y cubrir un área lo más extensa posible: leyendo mu-cho en Internet, e informándose mucho. La ciencia me ha interesado toda la vida, como desgraciadamente le diría mi mujer. A veces hay cosas en las que debería haber invertido más tiempo. Como resultado, tengo un sorprenden-te trasfondo de conocimientos perdidos por ahí. La mayoría pueden resultar inútiles, pero en ocasiones te das cuenta que cuando afrontas un nuevo pro-blema, algo que estaba almacenado por ahí que casi ni recuerdas, puede ser de utilidad. Se dice que un teórico, o un matemático, hacen su mejor trabajo antes de los treinta y se olvidan de ello después. Pero esto es falso, porque la riqueza de nuestra experiencia y esa mezcla se vuelve más y más completa según nos hacemos mayores. Uno tiene acceso a más cosas.

“Un índice de refracción negativo sería como si aplastásemos tanto el espacio como para darle la vuelta sobre sí mismo, un espacio con una métrica negativa”

Usted es buena prueba de ello.Sí, estoy haciendo mi mejor obra a los 60.

Hablemos un poco del método científico, Antes ha mencionado que co-labora y está especialmente abierto a trabajar con físicos experimen-tales a pesar de ser un físico teórico. Creo que es muy importante que haya una relación entre físicos experimentales y teóricos. En su caso, ¿es antes su teoría que el experimento, o es el experimento el que lidera el esfuerzo teórico?No empiezo con la teoría. Empiezo con un área o un problema que me resul-ta interesante, que me cautiva. Por alguna razón podría ser una teoría, pero habitualmente es un experimento. Y si me interesa, y para interesarme tiene que tener alguna relación intrínseca y - con suerte - profunda con el expe-rimento, y además tiene que ser un área en el que crea que pueda aportar algo. No tiene sentido observar el problema y decir: “No sé nada acerca del cambio climático”, y obviamente es un gran problema. Pero tengo muy pocas habilidades que pueda traer a la palestra en el campo del cambio climático, por lo que no tiendo a pronunciarme sobre él.

En el año 2013 se celebró el centenario del modelo atómico. El modelo atómico de Bohr que establece que la materia está formada por áto-mos y que los átomos tienen una estructura particular con electrones que giran en órbitas cuánticas. Y esto finalmente evolucionaría hacia la mecánica cuántica. El año 2015 ha sido el año de la luz. Usted trabaja en el campo de la luz y los aspectos cuánticos también afectan a la óptica. ¿Qué diferencia hay entre la luz y un fotón?Es interesante comparar la mecánica cuántica en el campo de la óptica con la mecánica cuántica en la física de los electrones. Le responderé a su pregunta pero antes repasaré unos antecedentes. En el caso de los electrones, se trata de una partícula, la clásica partícula newtoniana, tiene masa y en ocasiones reproduce las leyes de Newton sobre movimiento. Pero, al tener masa y ser tan pequeña, tiene una naturaleza de onda y esto es parte de su carácter cuántico. Y así, cuando se comienza a estudiar el electrón, nos encontramos con su naturaleza cuántica; de hecho, las primeras indicaciones sobre la teo-ría cuántica nacieron de la difracción de electrones. Davisson, Germer y G.P Thomson fueron tres personas involucradas en descubrir la naturaleza on-dulatoria del electrón. En contraste, cuando nos adentramos en el campo de la óptica, el fotón es una partícula sin masa por lo que se trata directamente de una onda. Por ello, la forma más elemental de la mecánica cuántica no entra en el fotón porque es una onda, no tiene masa, difracta siguiendo las ecuaciones de Maxwell. Por tanto, para encontrar la naturaleza cuántica de la luz tenemos que investigar más a fondo, y esto se hace observando las fluctuaciones de la luz. Maxwell planteó la luz a una frecuencia determinada como una corriente constante y uniforme que fluye como el agua; pero la na-

turaleza cuántica indica que no es así. La primera indicación de su naturaleza cuántica se reveló en el efecto fotoeléctrico, donde resultaba evidente que la luz solamente cedería su energía en ciertos múltiplos de la frecuencia, con-cretamente de 8 veces la frecuencia. Por tanto, los efectos cuánticos sobre la luz están profundamente relacionados con su interacción con la materia. Solo desde que hemos entrado en la era del láser hemos podido explorarlos con mayor profundidad.

Así que todos estos desarrollos del láser y todos los conceptos de la nanofotónica han evolucionado muchísimo en los últimos años. Real-mente, usted es uno de los pioneros de la nanofotónica, tanto a nivel conceptual como en un sentido amplio. En la nanofotónica ha desarro-llado conceptos como el índice de refracción negativo, el desarrollo de metamateriales, la óptica de trasformación... que han dado lugar a mu-chas aplicaciones, derivaciones en las que entraremos en detalle más adelante. Pero si quiere, para empezar, ¿nos puede decir qué es el índi-ce de refracción negativo en óptica?Le diré por qué es tan especial. El término negativo procede del hecho de asociarlo a un material con un índice de refracción. Cuando la luz penetra en un material, se desvía, cambia su dirección y lo habitual es que cambie esa dirección en un sentido positivo. Pero en un material con refracción negativa, a causa de su extraña anti-respuesta al magnetismo y a la electricidad, la luz se desvía en sentido contrario. Y, como tal, positivo / negativo, ¿qué más da? Salvo porque existe una asociación muy extraña en la ecuación de Maxwe-ll. Si lo comparamos con Einstein, Einstein no pensaba en espacios vacíos. Pensaba en algo que podía aplastarse o estirarse. Describió este estiramien-to en términos de métrica, y la métrica suele ser constante, pero cambia si estamos cerca de un objeto con alto nivel gravitacional como el sol, el agua o un agujero negro. Y en las ecuaciones de Maxwell, si fuéramos a escribir-las como lo hiciera Einstein, esta métrica aparecería en el mismo lugar que el índice de refracción. Por lo que un cambio en la métrica sería como un cambio en el índice de refracción. Para decirlo de otra forma, un índice de refracción negativo sería como si aplastásemos el espacio tanto como para darle la vuelta sobre sí mismo, un espacio con una métrica negativa. Y por eso ocurren cosas tan extrañas con el índice de refracción negativo.

Y, ¿qué clase de materiales pueden provocar este comportamiento? ¿Podemos encontrarlos en la naturaleza? Usted es uno de los pioneros en el campo de los metamateriales ¿Qué son los metamateriales?En primer lugar, debemos reconocer el mérito de Victor Veselago, la persona que señaló por primera vez que estos índices negativos eran interesantes y que tenían propiedades muy especiales. Victor investigó mucho para encon-trar materiales en los que este efecto ocurriera naturalmente, que tuvieran esta respuesta eléctrica negativa, una respuesta magnética negativa que, a su vez, mostrara un índice de refracción negativo. Pero no encontró ninguno. Hizo su búsqueda en 1968, o unos años después, y como no tuvo éxito el tema murió. Esta es la norma para los teóricos, y también una lección. No fue hasta mucho más tarde, cuando estuve trabajando como consultor para una empresa de radares que di con una forma de hacer materiales artificia-les cuyas propiedades se reducen a la estructura física interna más que a la estructura química. Me percaté de que podía hacer un material que tuvie-ra una respuesta magnética negativa y una respuesta eléctrica negativa. En esos momentos, no sabía nada acerca del índice de refracción. De hecho, fue el equipo de Shelly Schultz, David Smith y Willy Padilla, en San Diego, el que hizo esta asociación con el índice de refracción negativo, y tomaron mis ideas para hacer estos materiales en los que realmente se podría hacer coincidir ambas respuestas eléctrica y magnética negativas e hicieron los primeros experimentos con materiales con refracción negativa. Esto fue un gran mo-mento y generó mucho debate, digámoslo así.

¿Cómo se siente cuando algunas de sus ideas se materializan en un ex-perimento, y por tanto se validan? Siento una gran satisfacción por un trabajo bien hecho. Realmente es par-te del cariz profesional del trabajo. Con frecuencia, la gente, especialmente

DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua

Page 10: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

antiguamente, pintaba una imagen en la que el científico, especialmente el teórico, era alguien que trabajaba solo, con sus ideas propias... pero así no avanza la ciencia. Hay que involucrar a más gente. Y si hay un experimento confirmando la teoría que teníamos, como en el caso del trabajo de la refrac-ción negativa, entonces valida la teoría. Esto llama al interés de otro teórico y de otro físico experimental, y así el tema despega.

Son más que eso. Usted y sus colaboraciones experimentales han abier-to un nuevo campo, el de los metamateriales. Otros aspectos de su in-vestigación también han sido muy destacados y han impactado mucho a la comunidad. Podemos mencionar, por ejemplo, las lentes perfectas, la óptica de transformación como una derivada de la conexión entre la respuesta eléctrica y la transformación del espacio... ¿Cómo le explica-ría a la gente lo que hace con estos conceptos en nanofotónica? Partiendo de las ideas de Einstein, en las que se podía distorsionar el espacio, nos planteamos si podemos hacer que este espacio esté distorsionado, in-troduciendo un índice de refracción que tenga la forma adecuada. Lo que ha-cemos realmente es imaginar que estamos distorsionando el espacio y luego llevamos los campos de la luz por ellos, para que estas líneas de fuerza, como las llamamos, se aplasten o se estiren a nuestra voluntad. Lo que tenemos que hacer es formar un espacio artificial creando un índice de refracción que tenga la misma densidad que tendría el espacio artificial. Esta es la base de la óptica de transformación. Si se puede pensar en la distorsión del espacio como una transformación de coordenadas, como la describiría un matemá-tico. Y, partiendo de dicha transformación, puede encontrar la receta para el índice de refracción. Y esto tiene dos consecuencias en la forma en la que observamos la óptica: una es si pensamos en un índice de refracción nega-tivo, ¿qué implica en términos de la métrica del espacio? ¿Se puede tener un espacio negativo? No, no se puede. Pero en la óptica, en lo que se refriere a la luz, tenemos una parte del espacio, de un material, que se comporta como un espacio negativo. Es la antimateria óptica. Una parte de este mate-rial de refracción negativa, un trozo de espacio a su lado. Es como si algún objeto que estuviera lejos, al poner el efecto negativo, se acercara. En otras palabras, funciona como una lente pero lo hace de una forma muy distinta a una lente normal que enfoca haces de luz y demás. Estas propiedades ne-gativas realmente traen al objeto en su forma perfecta a una nueva posición. Por lo que la lente es perfecta. Por esta razón, no hay que discutir sobre las ecuaciones de Maxwell y ese tipo de cosas, simplemente lo sabemos porque gracias a esta transformación la lente es perfecta. Esta es una de las formas de entender la refracción negativa. Pero la óptica de transformación también puede hacer otra cosa. Si se quiere controlar la luz, la forma en la que ésta se propaga, podemos distorsionar el espacio, el lugar donde se dirigen todos los campos de luz, y ésto nos permite diseñar una especie de capaóptica, que es una de las cosas que hemos hecho con la óptica de transformación. Para diseñar, por ejemplo, una capa de invisibilidad, queremos que la luz entre en la capa, se aleje del objeto que estamos intentando esconder para que no llegue a tocarlo y que continúe con su trayectoria original. La óptica de transformación es una herramienta para hacer la capa, en la que se define una esfera en la cual se crea dicha capa. Entonces hacemos un agujero en la esfera y comprimimos el espacio en una cáscara por lo que no hay espacio dentro de la capa y la luz no puede entrar. Pero fuera de la cáscara no se ha modificado el espacio por lo que no se juega con la luz. Y cualquiera que esté fuera de esa cáscara es completamente ajeno a lo que se ha hecho con la luz dentro de la capa. Así que la óptica de transformación nos permite escon-der un objeto de los rayos de luz, y hacer que aparezca como invisible ante nuestros ojos para un determinado color. Y estas dos cosas probablemente sean las consecuencias más impresionantes de la óptica de transformación para un científico.

La lista de sus logros científicos es impresionante. ¿Qué viene ahora? ¿Qué es lo siguiente para usted?¿Qué viene ahora? La teoría tiene que ser más que una teoría. La teoría de la óptica de transformación y los metamateriales han pasado hace tiempo

al campo experimental. Hay muchos físicos experimentales haciendo capas, haciendo lentes y todas estas cosas con los metamateriales. El próximo paso sería crear un producto, y está ocurriendo ahora mismo. Hay productos ba-sados en el uso de los metamateriales para construir no lentes perfectas, sino lentes normales para focalizar la radiación de terahercios para radares de prevención de colisiones en vehículos, por ejemplo. Cosas muy modes-tas, se hace lo que se puede, pero en muchas ocasiones se puede hacer mejor, más ligero e, incluso, más barato. El ejemplo más reciente es una empresa llamada Kymeta que ha estado utilizando los principios de los me-tamateriales. Metamateriales con los que podemos afinar las propiedades de la corriente continua para poder modificar cómo refractan la radiación y este receptor de telecomunicaciones está diseñado para comunicarse con los satélites. Tiene que producir un haz que siga al satélite por el cielo. Hay receptores de telecomunicaciones en forma de plato orientable de manera mecánica que son pesados, caros y requieren mucha energía. Kymeta puede fabricar un receptor de satélite que cuesta solo unos pocos cientos de dóla-res, es ligero y se puede conectar al puerto USB de un portátil.

En resumen, cree que el siguiente paso es ir del concepto a la funcio-nalidad.Creo que tenemos que hacerlo porque el trabajo ha sido muy emocionante desde el punto de vista científico y creo que se ha entrado en una fase en la que la gente ve el aspecto anecdótico de nuestros hallazgos, refiriéndose a la capa de invisibilidad de Harry Potter y tal. Y eso está bien hasta cierto punto. Pero tenemos que demostrar a la gente que no se trata de hallazgos de feria, sino que es una cosa que puede aportarle algo útil a la sociedad. La sociedad ha invertido mucho dinero en el desarrollo de los metamateriales, y la gente que está aportando este dinero quiere ver resultados, y los va a tener.

Page 11: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

11

John, ha formado y ha enseñado a muchos buenos científicos a lo largo de su carrera. Gente que, a su vez, se han convertido en grandes cien-tíficos, doctores, post-doctorados, y otros colaboradores.... ¿Podemos hablar de un estilo Pendry de hacer ciencia, un estilo que ha seguido la gente? Es muy difícil hablar del estilo propio, porque uno piensa que es normal. Igual le tiene que formular la pregunta a otra persona. ¿Por qué no se la hace a Pedro Etxenike?

“Es importante reservar recursos para trabajos a pequeña escala, ahí es donde empiezan las cosas”

Probaré con varios, porque hay muchos que han sido influidos por us-ted que creo que podrán responder a esta pregunta. ¿Debe concentrar-se un científico en su trabajo y aislarse del resto del mundo o intenta estar conectado con los asuntos políticos, económicos y sociales e invo-lucrarse en ellos hasta cierto punto?Estoy muy interesado en los asuntos políticos. Los sociales no me interesan tanto. Soy muy convencional en mi vida social, no me gusta extender los límites demasiado. Está bien que la gente lo haga, pero no va conmigo. La política, sin embargo, es algo importante. No soy muy competente en polí-tica, pero me interesa, especialmente cuando afecta a la economía. Devoro The Economist cada semana, por lo que me considero bien informado en ese campo.

Actualmente hay una tendencia de las políticas científicas de organizar las estrategias y los objetivos científicos de los grupos de investigación. ¿apoya este tipo de iniciativas de política científica o valora los esfuer-zos individuales de las mentes científicas y sus investigaciones parti-culares? ¿Cómo ve esta agenda científica estratégica a la que obligan nuestros organismos públicos?No creo que haya una receta sencilla para la organización exitosa ni para la financiación de la ciencia. Es un asunto muy complejo. En algunas fases de los proyectos o desarrollos es necesario un gran equipo, y muchas veces ese equipo tiene que estar bien coordinado. Por ejemplo, en la ciencia a gran escala es importante trabajar en equipo, como en la construcción del gran

colisionador de hadrones en el que se han involucrado algunos compañeros míos del Imperial College. Pero eso es trabajar con tecnología, en un campo muy maduro. Las tecnologías de aceleración llevan bastante tiempo y se han desarrollado hasta el punto en el que existen grandes equipos trabajando a la vez. Pero si se quieren proporcionar nuevas áreas con nuevos proyectos, tenemos que prestar atención a las bases. El problema es que creo que los políticos prefieren los problemas resumidos en una sola cara de un papel A4. Y ayuda si esa cara del A4 dice que si se gasta un billón de dólares o de euros se obtendrá un colisionador de hadrones más grande, porque eso es algo que de alguna manera pueden comprender. Pero, para los políticos es muy complejo entender si hay que asistir a una conferencia sobre Ciencia de los Materiales y ver las miles de cosas que están ocurriendo ahí, muchas de ellas completamente inconexas. Pero, tras esta fase inicial, básica, surgirán algu-nas ideas que pasarán a la siguiente fase y requerirán equipos más grandes. Creo que el péndulo ha oscilado muy lejos hacia las grandes colaboraciones en estos momentos. Y es importante que reservemos algunos recursos para los trabajos a pequeña escala, porque es donde empiezan las cosas. En mi propio caso, en el de los metamateriales, se han invertido cientos de billones de dólares cada año. Pero todo empezó en una pequeña consultoría entre varios chicos de una empresa de radares.

¿Le debe algo a alguien? ¿Quién es la primera persona que le viene a la cabeza cuando piensa en ser agradecido?Oh, claro que sí. A muchísima gente. Al comienzo de mi interés por la ciencia, cuando era un niño en realidad, tenía un tío que era maestro en una escuela técnica. Enseñaba Ingeniería Eléctrica. Me ayudó mucho, me enseñó los la-boratorios de la escuela, me dio libros que versaban principalmente sobre Electrónica y demás. Era un hombre muy amable. Más adelante, los profe-sores de la escuela rellenaron esos huecos que se habían formado con mi avidez por aprender sobre ciencias. En esos momentos te puede el interés, no tenemos una imagen completa pero mi colegio me ayudó en ese aspecto. Y luego otros profesores. Por ejemplo, en la universidad, mi tutor del docto-rado Heine, quería que siempre tuviera un experimento en la mente cuando escribiera un artículo, fue una gran influencia en mi forma de escribir y de enseñar. Así que sí, debo mucho a muchos. Como todo el mundo.

¿Puede tener aún ambiciones una persona como usted, que ha alcanza-do casi todo en su campo?La ambición nunca muere.

¿Cuáles son los próximos retos para John Pendry, el hombre? Si nos los puede confesar.Me gustaría tocar mejor el piano. Un reto que jamás lograré alcanzar. Pero tengo algunos problemas que me gustaría retomar, problemas en los que trabajé en el pasado y que tuve que aparcar. Y ahora veo la forma de llevar-los adelante. Creo que uno de los grandes retos de la ciencia donde espero poder aportar algo es la vuelta a las bases de la mecánica cuántica.  La me-cánica cuántica ha tenido tanto éxito, esencialmente en la ecuación que la gobierna, una fórmula para predecir qué ocurrirá, que hemos dejado a un lado el comprender por qué ocurre. Seguimos luchando contra los misterios de la no localidad en la mecánica cuántica e intentamos comprenderla de una forma racional. Hay mucho trabajo en la computación cuántica, que es muy interesante, pero que a mi entender no regresa al misterio físico en el corazón de la mecánica cuántica. Creo que alguien debería abordar algún día este tema, no sé si seré yo o no, no lo sé, pero es un bonito problema.

La última pregunta. Si está viendo el atardecer en una terraza, proba-blemente con su mujer, y están disfrutando de ese atardecer, ¿piensa en la belleza de los colores o los analiza en términos de la longitud de onda?Por supuesto que no. El color es un sentimiento. Respondo mucho al color. Una de mis aficiones es la fotografía, para mí se trata de jugar con la luz. El color de la luz es lo que más me fascina de la fotografía.

DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua

Page 12: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

CIEN

CIA

EN

ABI

ERTO

El aumento de la incidencia de infecciones bacterianas resistentes al tratamien-to con antibióticos es uno de los grandes desafíos de la atención médica y de la salud pública contemporáneas. Se trata de un problema real que afecta a hos-pitales y al ámbito extrahospitalario de todo el mundo, y que está comprome-tiendo gravemente la capacidad de los sistemas de salud para tratar infecciones

comunes. Según la Organización Mundial de la Salud, sin una acción urgente y coordinada, el mundo se dirige hacia una era post-antibióticos en la que in-fecciones corrientes y lesiones menores que hemos tratado satisfactoriamente durante décadas pueden volver a resultar mortales.

Los avances en el descubrimiento de nuevos antibióticos han sido bastante par-cos en los últimos años. Y lo que es peor, no han podido seguir el ritmo del incremento de la resistencia bacteriana. Es casi un clamor que se trata de una guerra perdida, por lo que en los últimos tiempos el esfuerzo en I+D se ha aden-trado en ámbitos alternativos. En los últimos meses, sendas investigaciones conducidas en Estados Unidos y en Israel apuntan a que la solución puede venir de la nanotecnología aplicada a la salud. En concreto, el desarrollo de partículas artificiales conocidas como fagémidos, que proceden de virus bacteriófagos, se revelaría como una respuesta adecuada y eficaz para avanzar hacia el objetivo fundamental: acabar con una amenaza, la resistencia de las bacterias, que co-bra dimensiones de auténtica emergencia mundial.

Un problema de alcance globalCada año, más de 50.000 personas en Europa y Estados Unidos, y cientos de miles más en todo el mundo, fallecen a causa de las infecciones microbianas resistentes a los fármacos. En todas las regiones del mundo se viene dando una elevada y creciente proporción de infecciones provocadas por bacterias capaces de resistir la acción concreta de los antibióticos. Es el caso de muchas bacterias que causan neumonías e infecciones del sistema sanguíneo y de las vías urinarias. Entre las infecciones nosocomiales –infecciones contraídas en

¿Fin de la resistencia bacteriana?Albert López-AmorPeriodista y redactor freelance. Colabora con medios de comunicación, instituciones y organizaciones del ámbito de la salud como la editorial Edikamed, la consultora británica LionsDen y el Hospital de Sant Joan de Déu de Barcelona.

Con recientes avances terapéuticos como el desarrollo de fagémidos y de nuevos bacteriófagos, se vislumbra una solución favorable a uno de los grandes retos de la salud pública mundial: la creciente resistencia de las bacterias a los antibióticos.

Page 13: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

13

un medio hospitalario–, un alto porcentaje es causado por bacterias muy resis-tentes, como la Staphylococcus aureus resistente a la meticilina y las bacterias gramnegativas multirresistentes.

Otro ejemplo: según se recoge en el informe de 2014 de la Organización Mun-dial de la Salud sobre la vigilancia mundial de la resistencia a los antimicrobia-nos, en varios países se han dado casos de ineficacia del tratamiento de la gono-rrea con cefalosporinas de tercera generación, la clase de antibióticos utilizados como último recurso contra esta infección. Además, las infecciones gonocóci-cas resistentes a los tratamientos actuales han dado lugar a un aumento de la morbilidad y de complicaciones como la infertilidad, los desenlaces adversos del embarazo y la ceguera del recién nacido. La resistencia bacteriana podrían revertir los progresos logrados a lo largo de muchos años en la lucha contra esta infección de transmisión sexual. En el peor de los escenarios, puede que en poco tiempo ni siquiera sea posible tratarla, pues no se están desarrollando vacunas o fármacos nuevos.

En el caso de infecciones de las vías urinarias causadas por E. coli, han prolife-rado considerablemente las bacterias resistentes a las fluoroquinolonas, unos de los antibacterianos más utilizados en el tratamiento oral de dichos procesos.

También está muy extendida la resistencia a los fármacos de primera elección para el tratamiento de infecciones potencialmente mortales causadas por bac-terias intestinales habituales. Se registrado en casi todo el mundo una resisten-cia progresiva a los carbapenémicos, antibióticos utilizados como último recur-so para tratar estas infecciones

En general, los pacientes que contraen infecciones causadas por bacterias far-macorresistentes tienen peor pronóstico y un mayor riesgo mortal que los individuos infectados con bacterias de la misma especie que no presenten esas resistencias. Además, necesitan más recursos médicos. Los programas básicos de seguimiento, que permitirían controlar el problema, suelen tener carencias considerables en casi todos los países; en muchos lugares, ni siquie-ra existen.

La resistencia es capacidad de adaptaciónLas bacterias son organismos con una enorme capacidad de adaptación. Por ello, son capaces de desarrollar mecanismos de resistencia. Existe una resisten-cia natural o intrínseca en las bacterias si carecen de diana para un antibiótico (como la falta de pared en el Mycoplasma en relación con los betalactámicos), pero el mecanismo resistente realmente importante desde un punto de vista

clínico es el adquirido, causado por la modificación de la carga genética de la bacteria.

Aparecida bien por mutación cromosómica, bien por mecanismos de transfe-rencia genética, la resistencia adquirida consiste fundamentalmente en uno de estos tres factores: la producción de enzimas bacterianas que inactivan los an-tibióticos; la aparición de modificaciones que impiden la llegada del fármaco al punto diana; y la alteración del propio punto diana.

Una cepa bacteriana puede desarrollar varios mecanismos de resistencia frente a uno o muchos antibióticos y del mismo modo un antibiótico puede ser inacti-vado por distintos mecanismos por diversas especies bacterianas. La forma de adquirir el mecanismo de resistencia por parte de la bacteria condiciona decisi-vamente la elección del tratamiento antibiótico en la práctica médica.

Como está demostrado, el consumo –entendido como uso y abuso– de los an-tibióticos influye en las resistencias, no sólo de las bacterias patógenas, sino también de las saprofitas y oportunistas. Las cepas resistentes se hacen predo-minantes por la presión selectiva de los antibióticos que hacen desaparecer las bacterias sensibles. En estas circunstancias, no están implicados solamente los antibióticos utilizados en medicina, sino también y de forma muy importante los empleados en veterinaria, que pasan al organismo humano a través de la ingesta de alimentos.

Fagos: una alternativa naturalLos bacteriófagos, también llamados “fagos”, son virus que infectan y matan las bacterias por lisis celular, el proceso de ruptura de la membrana celular. Descubiertos y bautizados entre 1910 y 1917 por el investigador canadiense Felix d’Herelle, constituyen una alternativa natural a los antibióticos. La idea de utilizarlos como fármacos antibacterianos no es nueva. Las primeras terapias con bacteriófagos fueron propuestas por primera vez a principios del siglo XX, pero tuvieron una trayectoria desigual. Los fagos fueron empleados con notable profusión en países como la antigua Unión Soviética –donde ya desde los años 1940 se implantó la terapia fágica–, pero en Occidente fueron relegados por diversos motivos, entre ellos el fulgurante éxito de los antibióticos químicos y los posibles efectos secundarios de la lisis celular, que puede liberar toxinas malignas y acabar causando una sepsis potencialmente mortal.

Los fagos desempeñan un papel clave en el mantenimiento del equilibrio na-tural por su relación depredador-presa con las bacterias. A diferencia de los tradicionales antibióticos de amplio espectro, se dirigen a bacterias objetivo

CIENCIA EN ABIERTO - ¿Fin de la resistencia bacteriana?

Page 14: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

sin dañar la microflora normal del cuerpo. Están constituidos por una cubierta proteica o cápside en cuyo interior está contenido su material genético, que puede ser ADN, de 5.000 a 500.000 pares de bases. El tamaño de los fagos os-cila entre 20 y 200 nanómetros aproximadamente. Son ubicuos y pueden ser encontrados en diversas poblaciones de bacterias, tanto en el suelo como en la flora intestinal de los animales. Uno de los ambientes más poblados por fagos y otros virus es el agua de mar, donde se estima que puede haber en torno a 109 partículas virales por mililitro, pudiendo estar infectadas por fagos el 70% de las bacterias marinas.

Nuevas terapias fágicasEn los últimos tiempos parece estar resurgiendo con fuerza el interés por los bacteriófagos, con diversas, y prometedoras, líneas de investigación impulsadas por instituciones científicas de todo el mundo. Es el caso del relevante estudio realizado por científicos de la Facultad de Medicina Dental de la Universidad Hebrea de Jerusalén y publicado a principios de 2015 en Applied and Environ-mental Biotechnology. Este equipo ha conseguido aislar un bacteriófago capaz de actuar con eficacia contra la bacteria Enterococcus faecalis (E. faecalis), im-portante patógeno que habita en el tracto gastrointestinal y se encuentra en el origen de muchas infecciones: desde la endocarditis (infección cardíaca poten-cialmente mortal) a la bacteriemia (descarga de bacterias nocivas en la sangre), pasando por la meningitis, la infección de las vías urinarias y la infección del ca-nal radicular tras un tratamiento dental. Se trata de una cepa muy persistente, y especialmente difícil de tratar cuando se integra en grupos llamados biofilms o biopelículas, microsistemas bacterianos complejos y de gran robustez.

“Cientos de miles de personas fallecen cada año por infecciones provocadas por bacterias que han desarrollado resistencias debido al abuso de antibióticos”

La importancia de la E. faecalis impulsó decisivamente la investigación de la Uni-versidad de Jerusalén, que identificó el fago antagonista llamado EFDG1, proce-dente de cultivos en depósitos de aguas residuales de la capital israelí. El fago

se visualizó mediante microscopia electrónica. Sus secuencias de codificación y filogenia se determinaron mediante la secuenciación de todo el genoma, reve-lando que pertenece a la subfamilia de los fagos Spounavirinae Myoviridae, que incluye buenos candidatos para la terapia contra patógenos Gram-positivos.

El EFDG1 es capaz de infectar y potencialmente erradicar la cepa V583 de E. faecalis, que es resistente a la vancomicina, el antibiótico usado comúnmente contra la bacteria. Su eficacia antibacteriana se evaluó in vitro frente a cultivos planctónicos y de biopelícula, mostrando una actividad lítica eficaz contra di-versos E. faecalis y E. faecium, independientemente de su perfil de resistencia a los antibióticos. Además, el EFDG1 previene eficazmente la infección ex-vivo del conducto radicular.

Otro aspecto favorable es el relativo a la seguridad: el análisis mostró que el genoma EFDG1 no contiene genes perjudiciales aparentes, lo que refuerza su idoneidad. Por todo ello, los hallazgos sugieren que la terapia de fagos usando EFDG1 podría ser eficaz para prevenir la infección por E. faecalis después de un tratamiento de conducto radicular.

Fagémidos contra bacterias dianaHace unos años un equipo de investigación dependiente del Massachussetts Institute of Technology desarrolló bacteriófagos que actuaban sobre la carga de proteína de las células sin romperlas, y aumentaban así la eficacia de los antibióticos cuando se administraban a la vez. Recientemente, ese mismo equi-po, dirigido por James Collins, profesor Termeer de Ingeniería Médica y Ciencia del Departamento de Ingeniería Biológica y el Instituto de Ingeniería Médica y Ciencia del MIT, ha publicado en la revista Nano Letters, editada por la Ameri-can Chemical Society, un estudio fundamental: presenta el último desarrollo de fagémidos llamados a convertirse en la alternativa de referencia frente a las infecciones bacterianas.

Aprovechando sus descubrimientos previos, el equipo del profesor Collins se propuso desarrollar una tecnología relacionada que atacara y matara bacterias específicas sin hacer estallar las células y, por lo tanto, que fuera capaz de evitar la liberación de su contenido. Los investigadores utilizaron técnicas de biología sintética para crear una plataforma de partículas, los fagémidos, que pudieran infectar a las bacterias por medio de pequeñas moléculas de ADN conocidas como plásmidos, capaces de replicarse de forma independiente dentro de una célula huésped.

Una vez dentro de la célula, los plásmidos están diseñados para extraer dife-rentes proteínas o péptidos (moléculas formadas por cadenas cortas de ami-noácidos) que son tóxicos para las bacterias. Estas toxinas extraídas pueden interrumpir diferentes procesos celulares, tales como la replicación bacteriana,

Page 15: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

15

causando la muerte de la célula sin hacerla estallar. Según comenta Collins en el artículo, “hemos probado sistemáticamente diferentes péptidos antimicrobia-nos y toxinas bacterianas, y demostramos que cuando se combinan una serie de éstos dentro de los fagémidos, puede matar a la gran mayoría de las células de un cultivo”.

Una de las grandes ventajas de estos fagémidos es que solo infectan a especies de bacterias concretas, lo que resulta en un sistema muy selectivo que, por otro lado, respeta el resto del microbioma. Cuando los investigadores monitoriza-ron la respuesta de las bacterias a la reinfección repetida con los fagémidos, no observaron signos de resistencia significativa a las partículas, lo que podría significar, sostienen, que para conseguir una terapia aún más eficaz es posible administrar varias rondas de fagémidos. El contraste con la resistencia que las bacterias desarrollan frente a los bacteriófagos convencionales es claro: aunque toda bacteria, en última instancia, desarrolla resistencia a cualquier tensión o in-tervención que sobre ella se aplique, la investigación del equipo del MIT sugiere que es probable que dicha resistencia tarde mucho más tiempo en manifes-tarse, en comparación con una terapia corriente basada en los bacteriófagos.

En lo que se refiere a infecciones no clasificadas, podría llegar a administrarse al paciente un “cóctel” de diferentes fagémidos, de forma similar a las combi-naciones de antibióticos de amplio espectro que se utilizan comúnmente en la actualidad. Con todo, seguramente será preferible usar los fagémidos en con-junción con herramientas de diagnóstico rápido, actualmente en desarrollo. En este sentido, primero se realizaría una prueba de diagnóstico rápido para iden-tificar la bacteria que afecta al paciente, y luego se proporcionaría el fagémido más adecuado para acabar con el agente patógeno en cuestión.

“Un equipo del MIT ha desarrollado unas partículas sintéticas muy avanzadas, los llamados fagémidos, capaces de infectar especies concretas de bacterias nocivas”

Los investigadores planean ampliar su proyecto con el desarrollo de una gama más amplia de fagémidos. Hasta ahora han experimentado con un conjunto de fagémidos específicos para tratar la bacteria E. coli, pero actualmente se está abriendo la puerta para obtener partículas capaces de acabar con patógenos como el Clostridium difficile y la bacteria Vibrio cholerea, causante del cólera.

El estudio demuestra que el uso de la biología sintética para modificar un gen en un fago con la finalidad de que sea más tóxico para un patógeno, puede dar lugar a partículas antimicrobianas más eficaces que los enfoques clásicos. Se-gún sostiene Alfonso Jaramillo, profesor de biología sintética en la Universidad de Warwick (Reino Unido), “la combinación de dispositivos genéticos sintéticos con fagos como vehículos de suministro permite un enfoque sistemático para reprogramar las bacterias patógenas para su muerte”. El foco de la investiga-ción se centra ahora en fagos no replicantes, lo que resulta muy apropiado ya que esas partículas son más factibles para su uso en las personas, pues no se consideran organismos genéticamente modificados. A partir de ello, los inves-tigadores pueden trabajar formas mejoradas de terapia de fagos que pueden convertirse en los antibióticos del futuro.

ConclusiónLa investigación biotecnológica tiene abiertos varios frentes favorables para resolver en el futuro uno de los grandes problemas de salud pública a los que se enfrentan los sistemas sanitarios de todo el mundo: la resistencia, cada vez mayor, de las bacterias a los tratamientos de infecciones mediante antibióticos. Este 2015 se han publicado dos estudios clave que ofrecen respuestas de sumo interés. Por un lado, desde Israel, llegan noticias de avances en el campo de bac-teriófagos seguros, virus presentes en la naturaleza que son capaces de infectar

y matar las bacterias sin que ello, y eso es lo más novedoso, implique riesgos graves para la salud del paciente. Por otra parte, la innovación de mayor im-pacto se encuentra en los últimos desarrollos de fagémidos, partículas ideadas para acabar de forma selectiva con bacterias patógenas específicas y seleccio-nadas, esto eso, sin provocar el estallido de las células y, por tanto, evitando el peligro de liberar algunas de las sustancias tóxicas contenidas en el interior de la bacteria. Un equipo del MIT, en Estados Unidos, ha publicado recientemente sus descubrimientos en este sentido. Representan todo un nuevo umbral de esperanza.

ReferenciasTargeting Enterococcus faecalis biofilms with phage therapy

- Khalifa L., Brosh Y., Gelman D., Coppenhagen-Glazer S., Beyth S.,

Poradosu-Cohen R., Que Y-A., Beyth N., Hazan R.

- Applied and Environmental Microbioly, 6/02/2015.

Engineered Phagemids for Nonlytic, Targeted Antibacterial Therapies

- Krom R., Bhargava P., Lobritz M., Collins J.

- Nano Letters, 8/06/2015.

Resistencia bacteriana a antimicrobianos: su importancia en la toma de decisiones en la

práctica diaria

- Daza Pérez R. M.

- Ministerio de Sanidad, Servicios Sociales e Igualdad. Gobierno de España, 1998.

Resistencia a los antimicrobianos

- Organización Mundial de la Salud, Nota descriptiva núm. 194. Abril 2015.

CIENCIA EN ABIERTO - ¿Fin de la resistencia bacteriana?

Page 16: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

CIEN

CIA

EN

ABI

ERTO

Si preguntamos a una persona ajena al mundo investigador por nombres de divulgadores de la ciencia, muchos conocerán a científicos que han aparecido en programas o documentales de televisión: Richard Attenborough, Carl Sagan, Jacques Cousteau o Félix Rodríguez de la Fuente. Quizá algunos pocos mencio-nen a Michio Kaku o Neil DeGrasse-Tyson.

Hasta ahora, parece claro que ha sido la televisión la que ha acercado la cien-cia al gran público, pero, ¿es esta la misión de la divulgación?, ¿llegar al gran público?, ¿mantiene la televisión este poder?. La apertura de canales temáticos ha ahondado la brecha que ya existía entre la televisión y el interés general. Con contadas excepciones, es difícil encontrar programas de calidad que hagan divulgación científica.

La prensa escrita tampoco está pasando por su mejor momento. Así pues es obligatorio rehacer la pregunta ¿qué debe hacer la divulgación para encender la mecha de la curiosidad en la sociedad?

Indudablemente, y retomando la cita de Etxenike; sí, necesitamos que la socie-dad esté informada y formada en ciencia. Y para ello, tenemos que ser conscien-tes de quiénes somos, y a quién y cómo informamos.

Partimos de unos datos nada alentadores. Según el estudio internacional de

cultura científica realizado por la Fundación BBVA en el año 2011, el 57% de los adultos españoles presenta un bajo nivel de conocimiento científico, porcentaje que se reduce en un 10% entre los más jóvenes.

La especialista en comunicación científica Ana Ribera habla de tallas en divulga-ción. Existirían las tallas XXL y XL, de par a par (XXL para los que trabajan en la mismo campo y XL para los que comparten especialidad); aquí tenemos los pa-

Comunicar ciencia de forma efectivaCristina Juesas. Ha sido responsable de comunicación en Euskampus Fundazioa. Experta en Comunicación de la Ciencia por la UNED. Trabaja en la transformación digital de organizaciones desde la perspectiva de la comunicación. “Una sociedad científicamente informada es una sociedad más libre, más culta para tomar decisiones que configurarán su futuro, y menos susceptible de manipulación por grupos de presión.” Estas palabras de Pedro Miguel Etxenike invitan a la reflexión sobre cómo se informa sobre cuestiones científicas a la sociedad. ¿Quién ha de hacerlo? ¿A través de qué vías o con qué formatos? ¿Cómo se mide el impacto de la información?

Page 17: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

17

pers, las comunicaciones en congresos, los pósteres. Luego vendría la talla L, de investigadores a personas con formación científica pero de campos diferentes; podemos pensar en blogs o agregadores de blogs, o incluso en algunas páginas web de centros de investigación y universidades, o en algunos podcasts. La talla M estaría destinada al gran público con estudios universitarios, de investigador a público, o de medio de comunicación especializado a público (algunas revistas o podcasts). La talla S es para la gente que no sabe ni que la ciencia existe, es una talla compleja, pues ellos nunca van a salir a buscar información sino que hay que ir a su encuentro. Finalmente, la talla XS es la divulgación hecha para niños, y debe fomentar su infinita curiosidad. La talla XS es clave para inculcar el interés por la ciencia en la infancia, para que de adultos, los niños posean esa necesaria cultura científica.

“La apertura de canales temáticos ha ahondado la brecha que ya existía entre la televisión y el interés general”

Todas estas tallas divulgadoras son importantes y deben existir porque, si algo es imprescindible cuando nos planteamos la comunicación científica es seg-mentar a nuestra audiencia, es decir, dividir a nuestros posibles públicos en “ta-llas”. Esta segmentación dependerá de quiénes somos: no es lo mismo ser una corporación tecnológica que una universidad, ni es lo mismo ser un centro de investigación cooperativa que un grupo de investigación o que un investigador individual. Y no es lo mismo porque sus misiones son diferentes; así pues, es im-prescindible, cuando se realiza el manual de comunicación, planificar el alcan-ce de la divulgación que se va a hacer y los medios que se van a utilizar para ello.

La FECYT realiza cada año una encuesta de percepción social de la ciencia, que es un buen punto de partida para elaborar nuestra estrategia de comunica-ción, pues nos facilita una radiografía bastante acertada de cómo y dónde está la sociedad con respecto a la divulgación. En el último estudio realizado (de fe-cha abril de 2015) encontramos datos tan interesantes como que para el 39,8% de la ciudadanía (este porcentaje se eleva al 84,4% en la franja de edad entre los 15 a los 24 años), internet es la primera fuente de información científica. También vemos cómo Wikipedia es la primera fuente de información científica en internet, seguida por los medios generalistas. Además, de las personas que eligen las redes sociales para informarse sobre ciencia, casi el 92% lo hacen en Facebook, mientras que a través de Twitter lo hace el 48% y un creciente 21,5% a través de Instagram. Pero lo más destacable es que la ciudadanía considera que internet es el único medio que presta suficiente atención a la infor-mación científica.

Con estos datos en mente parece evidente que es en internet donde tenemos que centrar nuestros esfuerzos, aunque no sea la única vía. Cada vez más inves-tigadores realizan cursos sobre redacción efectiva de papers: cómo escribir un

abstract que realmente condense la esencia de su trabajo y suscite el interés de los pares y los potenciales lectores, cómo realizar presentaciones efectivas o cómo hablar en público. Y cada vez más universidades ofertan, entre su forma-

ción de postgrado, cursos sobre comunicación de la ciencia, valorados tanto por jóvenes investigadores como por periodistas que buscan una especialización en este ámbito.

“La ciudadanía considera que internet es el único medio que presta suficiente atención a la información científica”

Pero volviendo a Internet; además de proporcionarnos el medio, tiene ventajas que, como divulgadores, no podemos desdeñar:

Gran variedad de formatos. Desde los más básicos, como son la página web —puerta de entrada a nuestra casa online— donde podemos tener un repositorio de toda nuestra actividad off y online, hasta los más innovadores: de texto, vídeo o fotografías, a cómics, monólogos, podcasts (programas de radio en internet), juegos para todos los públicos...

Y es que, ¿hay mejor forma de comprender cómo se descubre un nuevo planeta que descubriéndolo nosotros mismos? ¿Por qué no convertir la astronomía en un juego?

La fundación Zooniverse ha creado la página web Planet Hunters (http://www.planethunters.org/) en la que aficionados a la astronomía o personas

CIENCIA EN ABIERTO - Comunicar ciencia de forma efectiva

Page 18: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

con curiosidad de todo el mundo pueden ayudar a clasificar objetos celestes, ¿quién sabe si alguno de estos planetas por descubrir puede llevar el nombre de uno?

Más cerca, Azti Tecnalia ha creado The Food Mirror (http://thefoodmirror.com/en). Aparentemente es un juego donde internautas de todo el mundo compar-ten fotografías sobre innovación culinaria, pero en realidad es un lugar donde se identifican tendencias y oportunidades de negocio.

Depende exclusivamente de nosotros. Es frustrante escribir notas de prensa y que no reciban cobertura mediática. En nuestra web, por el contrario, somos los amos y señores de la finca. Elegi-mos cómo presentarnos, elegimos qué presentar y elegimos cuándo hacerlo. No estamos expuestos a ningún agente externo que nos condicione, más allá de las preferencias de nuestro propio público. Podemos crear apartados con información técnica y tener una ventana abierta al gran público o a la audiencia infantil o juvenil. Y lo mismo pasa con las redes sociales. Es cierto que éstas no son “nuestra casa” y que jugamos a domicilio y con las normas de otros, pero somos nosotros quienes decidimos en qué redes queremos tener presencia, las historias que queremos contar en ellas y la forma en la que hacemos que estas historias lleguen a nuestra(s) audiencia(s).

“Cada vez hay más guías de estilo en redes sociales específicas para instituciones científicas o para centros educativos y la mayoría de ellas se pueden reutilizar”

La audiencia se autosegmenta. Aunque internet es tan amplio como el mundo entero, las personas suelen agruparse en torno a sus propios intereses y afinidades. Uno no sale a internet a ver qué pesca, a internet se va con nasa, o con mosca, o con red, o con pincho. Incluso en las redes sociales más generalistas —como Facebook— los usuarios son fans de unas u otras páginas, dependiendo de sus gustos, aficiones o, in-cluso, de sus necesidades. Así, si alguien es fan de la página de, por ejemplo, el BERC Achucarro, será evidente que le interesan las neurociencias.

Experimentar es sencillo. No hablo de hacer tests, que también se pueden hacer. Hablo de la facilidad que nos ofrece el medio online para, de una forma sencilla, actualizar nuestro contenido de forma que siempre estemos a la última. Podemos probar nuevas herramientas, nuevos formatos, sin que ello vaya a suponer un sobreesfuerzo para nuestro equipo de comunicación.

Sin embargo, antes de aventurarnos en internet, debemos tener en cuenta que no estamos solos, que será difícil hacernos nuestro hueco en el océano de infor-

mación que ya empieza a saturar a los usuarios. Debemos ajustar nuestra estra-tegia y plasmar, aunque sea de forma somera, cuáles son nuestras intenciones: si vamos a tener una cuenta oficial para la institución o varias, en qué redes, cuál va a ser nuestro tono, que variará según a quién pretendamos dirigirnos. Cada vez hay más guías de estilo en redes sociales específicas para instituciones científicas o para centros educativos y la mayoría de ellas se pueden reutilizar. Como decía el eslogan, “busque, compare y...” quédate con la que más se ajus-te a las necesidades que tenga el centro, adaptándola según el criterio que se determine.

Dependiendo de nuestra estrategia, optaremos por tener presencia en unas u otras redes sociales. Facebook o Twitter son más generalistas, mientras que un blog puede estar dirigido a la comunidad investigadora. Siempre teniendo en

mente que una vez que creamos un perfil en una red social, estamos obligados a mantenerlo y que las redes sociales funcionan 24/7 y que internet es una carrera de fondo. Nadie puede pretender abrir una cuenta en una red social y tener, al día siguiente, mil seguidores. No somos una estrella del rock.

“El vocabulario científico-técnico es complejo y, dependiendo del público al que nos dirigimos, tenemos que tender a simplificarlo sin perder objetividad y exactitud”

En nuestra estrategia de comunicación, debemos tener en cuenta las nuevas narrativas que nos ofrecen los formatos multimedia, como los vídeos, los pod-casts o, incluso, las infografías.

Todos los puntos anteriores, toda la estrategia debe basarse en la elaboración de una historia, nuestra historia. ¿Qué queremos transmitir? ¿Qué somos? To-dos tenemos una historia personal y todas las instituciones tienen su propia historia personal que contar. Cuando conocemos un tema en profundidad, la tendencia natural es a querer contarlo todo, o a dar por hecho que todo el mun-

Page 19: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

19

do sabe. Pero esto no es así. Hay que simplificar las historias y reducirlas a una idea, que es la debemos desarrollar.

“Las redes de personas hay que trabajarlas y fomentarlas”

Además, debemos tener en cuenta el lenguaje que empleamos. En un centro de investigación, peer review, factor de impacto o cuartil, son términos de uso frecuente, pero si pensamos en una audiencia no especializada, es evidente que tenemos que pensar si es imprescindible este tipo de jerga o si, por el contrario, no aportan nada a la historia que queremos contar. El vocabulario científico-téc-nico es complejo y, dependiendo del público al que nos dirigimos, tenemos que tender a simplificarlo sin perder objetividad y exactitud. Por ejemplo, si es-tás comunicando a una audiencia de pares, es lógico que emplees la palabra colgajo cuando te refieres a la parte de la encía que rodea a los dientes. Sin embargo, si tu público es generalista, tendrás que ser consciente de que, para la mayoría, colgajo es algo que cuelga y explicarlo con otras palabras para decir inequívocamente lo que quieres sin perder precisión. Es muy importante no utilizar jerga porque a la segunda palabra “extraña” que un profano lea, le dis-traerá y le hará perder interés. Es conveniente, sobre todo al principio, tener un editor, una persona que revisa lo que se escribe. No hace falta recurrir a

la edición profesional, aunque también es posible, un par o las personas que compongan el departamento de comunicación pueden hacer las veces de edi-tores. Una tercera opción es utilizar a una persona de prueba con un perfil que responda al segmento al que nos dirigimos, con el fin de verificar si el nivel de lenguaje científico utilizado es el adecuado.

Tampoco podemos perder de vista las redes de contactos preexistentes. Los contactos que tienen los investigadores (tanto a nivel local como nacional o in-ternacional) y los contactos que tiene el personal administrativo y de servicios de los centros de investigación e innovación deben tenerse en cuenta y valo-rarse como un activo. Juntos forman una red que puede y debe ayudarse en la difusión de las actividades y novedades de los demás para contribuir de una forma más efectiva a su propia comunidad. De hecho, en nuestro entorno, son habituales estas colaboraciones a la hora de difundir jornadas o noticias. Pero las redes de personas hay que trabajarlas y fomentarlas, por lo que es impor-tante recoger en nuestro plan de comunicación algún evento que haga de caldo de cultivo para facilitar estas relaciones.

Por último, conviene también hablar de la proliferación, en los últimos años, de los eventos de comunicación científica amateur. Amateur no porque no sean rigurosos o porque quienes participen no sean científicos o que quienes no lo son no tengan la cualificación para poder hablar con exactitud sobre el tema de su ponencia. Este amateurismo dota a estos eventos de la frescura necesaria para que el gran público se acerque a ellos sin temor. Así, tenemos los recientes Pint of Science (http://pintofscience.es), que acercan la ciencia a los bares con un formato divertido. Durante tres días, de forma simultánea en

varios países (y en varias ciudades dentro de cada país) una serie de investiga-dores cuentan, en charlas breves de unos 10 minutos, sus investigaciones. La audiencia es variopinta, desde familias con hijos hasta otros investigadores. ¿El resultado? Cientos de personas en todo el Estado asistieron a estas charlas y pudieron hacer preguntas, tocar y charlar con los investigadores, alejando, de esta forma, los estereotipos de la ciencia de élite que suele tener el gran público. También en esta línea, y motivado por el auge de los monólogos en televisión, han surgido iniciativas como Famelab (https://www.famelab.es/es), un concur-so de monólogos sobre ciencia a nivel europeo. En cada país se organiza un concurso nacional (en España está promovido por la FECYT) del que sale una persona ganadora que representa a su país en el concurso europeo. También de monólogos va la iniciativa The Big Van Theory (http://www.thebigvantheory.com/), que surgió a raíz del primer Famelab en 2013 y que reúne a científicos de diversos campos (Física, Química o Matemáticas, entre otros) para divulgar desde el humor y el rigor. Además de los monólogos, realizan talleres, cursos, monográficos y otras actividades.

Más allá de medir el impacto de una publicación concreta por el número de ejemplares vendidos o descargados, o el éxito de un vídeo o de una acción en internet por el número de visualizaciones, clics, o “me gustas”, a largo plazo po-dremos medir la forma en la que una sociedad está científicamente informada, pues en ella se desarrollarán más vocaciones científicas y será una sociedad más innovadora y más justa.

Y es que, comunicar la ciencia de forma cercana y adecuada a cada uno de los públicos es fundamental para el desarrollo pleno de nuestra sociedad. Como muestra, la inclusión de un apartado específico de comunicación dentro del subprograma Science for and with society (Ciencia por y para la sociedad) del Programa Marco Horizon 2020 de la Unión Europea, que pretende lograr la co-laboración efectiva entre la ciencia y la sociedad, el reclutamiento de talento científico y aunar la excelencia con la conciencia y con la responsabilidad social.

Sin ciencia, no hay avance social. Este avance no debe ser méramente econó-mico en el sentido de productividad y competitividad, sino que debe poder me-dirse también en términos humanos; la cultura científica y el espíritu crítico son algunas de las cualificaciones imprescindibles para el ejercicio de la ciudadanía en democracia. Y para que la ciencia sea posible, es necesario comunicarla de forma efectiva pues, volviendo a Etxenike, “la ciencia, por encima de todo, es creatividad y en segundo lugar es comunicación.”

Referencias[1] Diario de Noticias de Navarra, entrevista a Pedro Miguel Etxenike, 17/4/2015: http://www.noticiasdenavarra.com/2015/04/17/sociedad/navarra/una-sociedad-cientificamente-informada-es-mas-libre-y-mas-culta-y-menos-susceptible-de-manipular

[2] Cosas que me pasan, Queridos Científicos III, 3/3/2013: http://www.cosasqmepasan.com/2013/03/queridos-cientificos-iii.html#.VafVaxPtmko

[3] Fundación BBVA. Estudio internacional de Cultura Científica, 2011: http://www.fbbva.es/TLFU/tlfu/esp/investigacion/fichainves/index.jsp?codigo=380

[4] FECYT, Encuesta de percepción social de la ciencia, 2015: http://www.fecyt.es/es/noticia/la-imagen-de-la-ciencia-mejora-en-los-ultimos-dos-anos-un-122

[5] Unadocenade.com, Una docena de webs de divulgación científica en español para todos los públicos. 30/5/2012: http://unadocenade.com/una-docena-de-webs-de-divulgacion-cientifica-en-espanol-para-todos-los-publicos/

[6] Cristina Juesas. Comunicar la I+D+i de forma efectiva, 19/5/2015: http://www.slideshare.net/maripuchi/comunicar-la-idi-de-forma-efectiva

[7] Iñaki Gorostidi, 12 errores habituales en la comunicación de los proyectos de I+D, 6/7/2015: http://blog.guk.es/12-errores-habituales-en-la-comunicacion-de-los-proyectos-de-id

[8] Guía de usos y estilo en redes sociales de la UPV/EHU, 2015: http://www.ehu.eus/es/komunikazio-bulegoa/sare-sozialen-gida

CIENCIA EN ABIERTO - Comunicar ciencia de forma efectiva

Page 20: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

INV

ESTI

GACI

ÓN E

N V

IVO

Hoy en día la gran importancia de la ingeniería biomédica es reconocida y es relativamente normal que las grandes universidades tenga una titulación de in-geniería biomédica. Los campus se unen gracias a titulaciones como estas que tejen puentes de unión entre facultades aparentemente divergentes. Cada una, aportando su punto de vista y su “idioma”. Por este motivo, el problema prin-cipal de la ingeniería biomédica en sus inicios era el “idioma” común entre las especialidades. No es fácil que un ingeniero de telecomunicaciones se siente en la sesión clínica de neuroradiología y sea capaz de entender todo lo que se dice, e incluso aportar soluciones. Hoy en día, cada vez es más frecuente ver técnicos

especialistas trabajando en hospitales y más médicos o biólogos trabajando en industrias tradicionalmente más orientadas a la ingeniería. Gracias a estas inte-racciones, existen los marcapasos, las prótesis de rodilla y cadera, las maquinas analizadoras de sangre y de tejidos, resonancias magnéticas, aparatos de rayos X, aplicaciones del móvil que nos indican el nivel de glucosa en sangre y nos alarman si tenemos que llamar a nuestro médico, prótesis que devuelven el oído, la vista o la capacidad de moverse a los que no la tienen o la han perdido.

Todo esto es la ingeniería biomédica, y nos esperan unos años muy apasionan-

La ingeniería biomédica: de la pata de palo hasta las interfaces neuronalesAnder Ramos-Murguialday1-2, Andrea Sarasola2-3, Nerea Irastorza2-4, Manuel Montejo1, Goran Bijelic6, Niels Birbaumer2, Joe McIntyre7 y Thierry Keller8.

1TECNALIA Health Technologies Division. 2 Neurotechnology Laboratory & Institute of Medical Psychology and Behavioral Neurobiology, Neuroprosthetics Group, University of Tubingen. 3 DAAD-La Caixa PhD Fellowship. 4 Basque Government PhD Fellowship. 5 TECNALIA Health Technologies Division. 6 TECNALIA Health Technologies Division, Biomaterials Area. 7 TECNALIA Health Technologies Division, Medical Robotics Laboratory & Ikerbasque Professorship. 8TECNALIA Health Technologies Division, Neurorehabilitation Area

La ingeniería biomédica es la fusión de prácticamente todas las ciencias en una sola disciplina. Se agrupan desde química, física y matemática hasta biología y medicina. La convergencia de todos estos campos, hasta hace poco acostumbrados a su aislamiento, ha supuesto un avance en calidad de vida importante y el auge de grupos multidisciplinares que juntos intentan resolver muchos de los problemas clínicos. Hasta hace bien poco nadie pensaba que se iban a resolver estos problemas, o por lo menos no tan pronto. El mejor investigador joven de Alemania en 2014, el vasco Ander Ramos, nos introduce en este apasionante mundo y nos explica uno de sus mayores logros dentro de las interfaces neuronales.

Page 21: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

21

tes viendo como las demás ingenierías (electrónica, materiales, telecomunica-ciones etc.) y la famosa ley de Moore (la tecnología avanza a un ritmo exponen-cial al que suponemos, porque cada avance acelera el crecimiento del siguiente paso) consiguen que veamos como enfermedades o condiciones clínicas hoy en día sin solución, sean básicamente erradicadas.

Los avances en este campo son tan abrumadores y rápidos, que la propia ética que los rige se queda muchas veces obsoleta nada más ser aprobada.

La Comisión Europea en su Estrategia 2020 apuesta por mejorar la Salud y la Calidad de Vida de las personas, mencionando principalmente las Tecnologías Médicas.

Estamos hablando de responder a las necesidades clínicas que se generan en una sociedad envejecida con baja natalidad, más sedentaria, más estresada y que cada vez tiene una esperanza de vida mayor. Este “cocktail socioeconóomi-co” y una mejora en las herramientas de diagnóstico y en conocimiento, hacen florecer cada vez más pacientes con enfermedades neurodegenerativas o con disfunciones de todo tipo. Las tecnologías médicas están ahí para poder preve-nirlas, combatirlas, aminorar los síntomas, retrasar su desarrollo, ayudar en el diagnóstico, mejorar las herramientas clínicas, asistir en la atención y cuidado a los terapeutas y cuidadores, rehabilitar y por ende mejorar la calidad de vida.

La ingeniería biomédica se podría dividir en prácticamente infinitas ramas, pero en este artículo vamos a describir brevemente las que consideramos principales en nuestro entorno, principalmente desde TECNALIA, finalizando con la rama en la que tenemos más experiencia en nuestro entorno definiendo el potencial dentro del ecosistema de ciencia-tecnología-empresa vasco.

Imagenología médicaEsta rama utiliza técnicas de registro diferentes para poder observar estructu-ras y funciones dentro de nuestro cuerpo para realizar un diagnóstico o una terapia o una intervención quirúrgica con mayor seguridad o de una manera mínimamente invasiva entre otras muchas aplicaciones.

En esta rama tenemos tecnologías como los ultrasonidos ya utilizados para el diagnóstico en 1942 por el psiquiatra austriaco Karl Dussik. Esta tecnología uti-

liza el efecto “Doppler” con un emisor y un receptor que capta el rebote de las ondas de ultrasonidos y las transforma en imágenes en 2- o 3-D de nuestro interior para poder ver los diferentes tejidos e incluso el movimiento y flujo dentro de ellos.

También muy conocida y una pionera dentro de esta rama, son los rayos-X des-cubiertos por el físico alemán Roentgen y que hoy en día, a pesar de los efectos de sus radiaciones, son utilizados rutinariamente en hospitales y clínicas.

Otras técnica más actual es la resonancia magnética nuclear. A pesar de que el descubrimiento del principio físico fue en 1938 por Isidor Rabi, no fue hasta Marzo de 1972 cuando Raymond Damadian creó la primera máquina de imá-genes por resonancia magnética. Las imágenes se obtienen dependiendo de la reacción de los núcleos atómicos al alinearlos a un campo magnético constante para posteriormente perturbar este alineamiento con el uso de un campo mag-nético alterno, de orientación ortogonal. Dependiendo de cómo se manipulan los parámetros de estas perturbaciones se han conseguido observar multitud de funciones y estructuras como por ejemplo composiciones moleculares de tejidos, estructuras de las redes neuronales y la actividad cerebral en zonas pro-fundas con mucha precisión espacial en tiempo real. Este último caso es la de-nominada resonancia magnética funcional o fMRI en sus siglas en inglés, que es una técnica de registro de imágenes funcionales que puede, por ejemplo, medir la actividad de las neuronas en el cerebro mediante la detección de los cambios en el nivel de oxigenación o deoxigenación del flujo sanguíneo. Cuando un área específica del cerebro está en uso, el riego sanguíneo y el uso del oxigeno en esa región aumenta, es decir, los cambios en el riego sanguíneo pueden utilizarse como marcadores indirectos de la actividad cerebral. Por lo tanto, esta técnica es capaz de obtener imágenes funcionales con alta resolución espacial median-te la utilización de los cambios en magnetización de la sangre rica y pobre en oxígeno. Sin embargo, su resolución temporal en el rango de varios segundos o minutos hace que en ocasiones esta técnica se registre en combinación con otras como la electroencefalografía (EEG) o magnetoencefalografía (MEG), que poseen una mayor resolución temporal (del orden de milisegundos) registrando campos electromagnéticos producidos por los cambios de potencial eléctrico (intercambios de iones entre células; neuronas en este caso) cuando se comu-nican entre ellas.

INVESTIGACIÓN EN VIVO - La ingeniería biomédica

Page 22: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

La tomografía de emisión de positrones denominada PET, es una técnica de ima-gen funcional basada en medicina nuclear utilizada por primera vez en pacientes en 1976 por Abass Alavi en Pennsylvania. Para obtener una imagen tridimensio-nal de los procesos funcionales de nuestro cuerpo es necesaria la introducción de un radionucleido emisor de positrones, el cual a su vez emite rayos gamma que son detectados por el escáner. En numerosas ocasiones la reconstrucción de la imagen funcional se hace en combinación con un escáner de rayos X una resonancia magnética para así obtener simultáneamente información anatómi-ca y metabólica, algo que puede ser útil especialmente para el registro de la ac-tividad de órganos que están en movimiento o cuya estructura anatómica varía. Sin embargo, su alto coste y la exposición del paciente a radiación ionizante, ha hecho que su utilización sea limitada y principalmente utilizada para el diagnós-tico de enfermedades cerebrales como las demencias y para la detección de tumores cancerígenos o metástasis.

Una de las técnicas más novedosas es la espectrografía de luz infrarroja cercana (NIRS), que es una técnica no invasiva que utiliza luz infrarroja para determinar el grado de activación de áreas específicas del cerebro a base de medir la oxi-genación, el riego sanguíneo y el estado metabólico de dichas áreas. Algunas de las ventajas de esta técnica son su simplicidad, flexibilidad y la alta relación señal/ruido. fNIRS graba señales con un alta resolución temporal, es transpor-table y menos costosa que comparada con técnicas como el fMRI. Sin embargo, sólo puede grabarse la actividad de tejidos cerebrales a profundidades de unos 1-3cm, lo que restringe su utilidad a la corteza cerebral.

Electrodos o microelectrodos implantados dentro o sobre la corteza cerebral, sobre músculos, sobre la medula o en el sistema nervioso periférico son tam-bién métodos cada vez más comunes en patologías como la enfermedad de Par-kinson y la epilepsia o durante neurocirugía para la resección de un tumor para determinar la funcionalidad de zonas cerebrales responsables de la disfunción.

Todas estas técnicas se utilizan actualmente para el estudio de enfermedades como Alzheimer o depresión, el estudio de los efectos provocados por tumo-res cerebrales y el testeo del efecto de diferentes terapias comportamentales o medicamentos. Así mismo, es una técnica útil para identificar regiones rela-cionadas con funciones de gran importancia como las sensoriales, el habla o el movimiento, por ejemplo, antes de someter al paciente a una operación quirúr-gica cerebral.

Salud electrónica:Los principales elementos de la revolución en la salud electrónica incluyen sen-sores y dispositivos conectados, sin cables, electrónica vestible, tecnologías mó-viles, redes de sensores corporales, que junto al software inteligente basado en algoritmos de inteligencia artificial (machine learning) y la analítica de datos (big data), están revolucionando sobre todo los campos de la prevención, el segui-miento y el diagnostico. La revolución digital en la salud supone, por un lado, empoderar a los ciudadanos para que monitoricen y gestionen mejor su salud, y por otro, mejorar los servicios de salud reduciendo costes, mejorando el acceso y la calidad, y proporcionando una medicina más personalizada.

Gracias a la era digital y a internet se espera un crecimiento exponencial en los datos y en la necesidad de establecer nuevas formas gestionar estos datos éticamente y de guardar, reducir dimensionalidades en los datos que puedan proveer a los especialistas o a los mismos usuarios de información o datos rele-vantes de una manera sencilla y rápida sin perderse en detalles.

En este campo, se están desarrollando muchos dispositivos “wearables” y apli-caciones para móviles basados en algoritmos avanzados para soluciones de sa-lud digital, como por ejemplo una aplicación móvil para el análisis de patologías cardiacas a través de los sonidos cardíacos o un dispositivo “vestible” para la predicción de crisis epilépticas.

Tecnología quirúrgicaDentro de esta rama se incluyen desde bisturís, separadores, cauterizadores, pasando por camillas, navegadores, aparatajes de monitorización fisiológica, hasta robótica quirúrgica para cirugías mínimamente invasivas. La medicina quirúrgica, puede que sea la primera expresión de la ingeniería biomédica. La aplicación de soluciones existentes como cuchillos, aguja e hilo, conjuntamente con nociones de anatomía y funcionalidad, es el mejor ejemplo del desarrollo del ingenio en el campo de la biomedicina o ingeniería biomédica.

El diseño, la ergonomía, los materiales quirúrgicos esterilizables, su unión con la electrónica, monitrorización y la disminución de la invasividad nos han per-mitido solucionar problemas médicos hasta hace pocas décadas impensables reduciendo drásticamente el riesgo de cualquier cirugía.

Tecnologías de realidad aumentada aportando más información sobre anato-mía y funcionalidad, y los robots quirúrgicos con asistencia háptica son unos de los avances más destacables en este campo. Probablemente los micro-robots externamente controlados sean el siguiente paso evolutivo en este campo tan apasionante.

Page 23: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

23

BiomaterialesEsta rama relativamente reciente (apareció hace aproximadamente 50 años) trata del uso de cualquier material en la biología y la medicina. Esta definición tan amplia ha evolucionado y se ha diversificado en cientos de áreas y sub-áreas de investigación. El primer “biomaterial” podría haber sido un material hibrido compuesto por el diente de un animal unido a los dientes del paciente gracias a un hilo de oro, como describe Véronique Migonney en su libro “Historia de los Biomateriales”.

Hoy en día los podemos encontrar de manera estandarizada en implantes ma-marios, válvulas cardiacas, lentillas, implantes dentales o en recubrimientos de prótesis de rodilla o cadera y mas recientemente en la generación de tejido celu-lar o incluso órganos a partir de células del propio paciente receptor o de incluso animales. La ingeniería de los biomateriales está determinada y depende de la respuesta fisiológica de acogida en diferentes modelos in-vitro e in-vivo, en so-luciones celulares o directamente en celular sustraídas de animales o humanos o directamente implantándolas en animales y humanos para ver las reacciones celulares. El primer registro escrito de reacciones celulares in-vivo data de 1829, cuando H.S. Levert escribió sus estudios sobre la respuesta celular cuando una pieza de metal era implantada en un perro. Estudios recientes han identificado la maduración o progreso de aceptación celular de los biomateriales como uno de los principales retos en el diseño, fabricación, seguridad y en los procedi-mientos regulatorios. Estos retos son también compartidos en el ámbito de los nanobiomateriales y aplicaciones nanobiotecnologías. En la última década, ha habido un progreso importante surgiendo nuevas áreas de investigación, como los materiales inteligentes derivados de macromololéculas naturales, donde compuestos híbridos naturales y artificiales están ayudando a cerrar el bucle de control en nuevas fórmulas de diagnóstico implantables y en el suministro ultrapreciso de fármacos.

Los desarrollos en el área de biomateriales abarcan desde la química de super-ficies y procesamiento de los biomateriales para estudios en modelos animales, hasta pruebas de biocompatibilidad necesarias para los procesos regulatorios internacionales. Ensayos de biofuncionalidad de materiales porosos para la me-jora de la aceptación y anclaje de implantes (por ejemplo de cadera) o para la liberación controlada de fármacos en cualquier tipo de implante (por ejemplo stents) está actualmente a la orden del día. Otras aplicaciones combinando los biomateriales y el uso de campos magnéticos o eléctricos para la transferencia de fármacos a través de diferentes tejidos (como la transmisión percutánea de fármacos) se están acercando a unos niveles de precisión importantes mejoran-do el suministro farmacológico en precisión espacial y temporal y reduciendo efectos adversos presentes en otro tipo de administración de fármacos (por ejemplo oral).

PrótesisLa protésica, del griego prosthesis “aplicación añadida o adjunta”, es una de las ramas iniciales de la ingeniería biomédica, aplicando directamente la mecánica a la restauración de funciones motoras. El primer documento describiendo el uso de una de ellas (1700-1100 a.C.), apunta a la reina guerrera india Vishpa-la, como la primera portadora conocida de una de estas prótesis. Las prótesis mecánicas son mencionadas incluso en la mitología griega pero no fue hasta el siglo pasado cuando se produjo una revolución y un avance considerable en ellas. Las prótesis funcionales pueden ser implantables o externas. Las prótesis mecánicas mas conocidas son las famosas extremidades piratas como la “pata de palo” o el “garfio”. Con un diseño lo mas ergonómico posible, amputaciones eran compensadas por soluciones básicas pero funcionales. Hoy en día estas prótesis externas han evolucionado bastante incluyendo robótica en su diseño, aunque todavía son las basadas en mecánica pasiva (órtesis mecánicas para el soporte mecánico de articulaciones etc.) las más utilizadas debido al peso y a su estética. Recientemente, se han desarrollado aplicaciones novedosas, como por ejemplo, órtesis cuyas propiedades mecánicas pueden cambiarse instantánea-mente, pasando de ser flexibles y fácilmente ajustables a un estado rígido capaz

de soportar fuerzas muy superiores a las necesarias para su función ortésica.

Dentro del área de la protésica se podrían incluir la robótica asistencial o para la rehabilitación. Esta tecnología robótica debe jugar un papel importante en un futuro cercano sobre todo en el aspecto rehabilitador o asistencial debido a la inversión de la pirámide social que representa el descenso de la natalidad y el descenso del numero de potenciales cuidadores para personas cada vez mayores.

Las prótesis implantables que restauran funciones son cada vez mas comunes y engloban desde prótesis de rodilla y cadera, pasando por prótesis dentales, hasta neuroprótesis como el marcapasos, las neuroprótesis visuales, auditivas o motoras como la estimulación cerebral profunda utilizada en pacientes con Parkinson.

Estas últimas prótesis interactuado con el sistema nervioso central, son las que abren la siguiente sección de este artículo. Una aplicación nueva, que agrupa muchas de las áreas que hemos comentado sobre estas líneas y que puede re-sultar en uno de los mayores avances médicos de las últimas décadas.

La NeuroingenieríaDentro de este campo, merecen especial atención las interfaces neuronales y su aplicación dentro de la rehabilitación de una función perdida o comprome-tida por algún tipo de enfermedad o accidente. Es decir, utilizar las señales que podemos registrar del sistema nervioso relativos a una función y utilizarlos para volver a excitar el sistema nervioso de tal manera que podamos generar un cambio en las conexiones o redes neuronales (neuroplasticidad) y así conseguir que la función se pueda restaurar. Es decir, hacemos bypasses en el sistema nervioso utilizando la tecnología para corregir o cambiar una función. Como es el sistema nervioso el que regula mucha de las funciones de nuestro cuerpo, este campo está recibiendo actualmente mucha atención y las grandes compa-ñías denominan a estas soluciones neurotecnológicas para interactuar y mode-lar partes del sistema nervioso electroceuticals (alternativa a medicamentos). Estimulando de una manera inteligente el sistema nervioso se podría llegar a regular funciones de cualquier órgano.

La tecnología de interfaces neuronales para cambiar comportamiento o funcio-nes de algunos órganos, comenzó durante la década de 1950-60 con el cientí-fico español José Manuel Rodríguez Delgado, parando a través de un mando a distancia a un toro que se dirigía hacia él a toda velocidad estimulándole con un electrodo en el cerebro. Este tipo de interfaces neurales se denominan de bucle abierto, ya que no hay una estimulación que dependa de ninguna otra señal. Las interfaces en bucle cerrado, son las que utilizan información del sistema nervioso para controlar la estimulación del mismo. Esta estimulación del siste-ma nervioso se puede producir indirectamente a través del sistema sensorial (vista, oído, tacto, gusto y olfato).

La primera demostración del uso de una interfaz-cerebro-máquina en bucle cerrado la realizo por primera vez en 1999 el Prof Niels Birbaumer. Un paciente casi completamente paralizado por la esclerosis lateral amiotrófica (ELA) escri-bió una carta utilizando únicamente el control de su actividad cerebral.

Hace dos años se produjo la primera comunicación entre un paciente que lle-vaba años incomunicado por una ELA y su familia gracias a un nuevo sistema del Profesor Birbaumer.

La manera en la que se emplea esta técnica es la siguiente: se presentan una serie de preguntas a estos pacientes mientras se registra su actividad cerebral. Los pacientes se concentran y piensan en la respuesta que quieren dar, ge-neralmente Sí o No, y la interfaz es capaz, con un cierto margen de error, de decodificar la respuesta del paciente estableciendo una comunicación entre el paciente completamente paralizado y bloqueado y el mundo exterior.

INVESTIGACIÓN EN VIVO - La ingeniería biomédica

Page 24: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Esta neurotecnología asistiva se ha llegado a optimizar hasta el punto de poder controlar con única y exclusivamente actividad de unas cuantas neuronas, un cursor en una pantalla o un brazo robot. La primera demostración de control mental con un par de neuronas de un cursor en una pantalla, fue en 2003, cuan-do Jose Carmena y Miguel Nicolelis consiguieron hacer que uno de sus primates controlara el movimiento de un cursor y no ha sido hasta 2011 hasta que dos grupos estadounidenses de la Universidad de Brown y de Pittsburg consiguieran hacerlo en humanos.

Una nueva aplicación de la neuroingeniería trata el uso de la neuroingeniería en la rehabilitación, también denominada neurorehabilitación, que se basa en la promoción de la neuroplasticidad como motor para regenerar y construir nue-vas conexiones neuronales.

La neurorehabilitación es un término muy general, que puede englobar desde el uso de estimulación eléctrica de los músculos para producir movimientos, pasando por un videojuego para trabajar la memoria, hasta interfaces cere-bro-maquina que permiten controlar ordenadores con actividad cerebral.

Uno de los mayores logros dentro de las interfaces neuronales para la neu-rorehabilitación, se ha conseguido recientemente en 2013, cuando Ander Ra-mos-Murguialday y Niels Birbaumer consiguieron recuperar la movilidad de un miembro paralizado durante varios años tras un infarto cerebral, utilizando una interfaz-cerebro-máquina y un exoesqueleto robótico.

Para conseguir este logro, se registra la actividad cerebral en pacientes parali-zados por un infarto cerebral cuando intentan mover su mano paralizada. Esta

información eléctrica la procesamos y la decodificamos con unos algoritmos, con los que somos capaces de saber (con un cierto margen de error) cuando el paciente quiere mover su mano. Esta información la utilizamos para mover un exoesqueleto robótico muy simple, cerrando así el bucle entre la intención de producir un movimiento y ese mismo movimiento. Como los pacientes ven y sienten el movimiento, la red neuronal encargada de una tarea visuomotora (ej. Agarrar una manzana) se excita de una manera bidireccional: motor y sen-sorial. A través de hacer esto durante 4 semanas consecutivas todos los días, se produce un aprendizaje y una plasticidad cerebral funcional. Es decir, tras la rehabilitación con nuestra interfaz neuronal, conseguimos que la mayoría de los pacientes, que llevan meses y la mayoría de los casos años, vuelvan a mo-ver su miembro paralizado. Unos milímetros, no mucho, pero el resultado es esperanzador.

Por lo tanto, esta tecnología rehabilitativa consta de tres partes que constituyen un bucle cerrado que promueve y facilita el reaprendizaje y la recuperación de las funciones perdidas: el primer paso consiste en grabar una bioseñal, como puede ser la actividad cerebral, que se utiliza para interpretar la intención de movimiento del paciente. Seguidamente, en el segundo paso la interfaz decodi-fica la intención del paciente por medio de unos algoritmos que han sido entre-nados para esa función. Finalmente, en el último paso se ejecuta el movimiento decodificado por medio de un actuador, como puede ser un exoesqueleto su-jeto al brazo parésico del paciente, la estimulación eléctrica funcional aplicada en los músculos paralizados, etc. De esta forma, el paciente recibe información

sensorial y propioceptiva que le ayuda a modular la bioseñal utilizada produ-ciendo así ciertos cambios funcionales y estructurales que pueden dar lugar a un re-aprendizaje motor. Se ha demostrado en varios estudios que la existencia de un bucle cerrado que establezca un enlace entre la intención de movimiento y el movimiento real realizado por un actuador que mueva la extremidad pa-ralizada del paciente es clave para lograr una terapia de rehabilitación lo más efectiva posible.

En las interfaces neuronales también llamadas interfaces cerebro-maquina o BMI por su nombre en inglés brain-machine interface, la actividad cerebral se utiliza como señal de control y puede ser grabada con distintas técnicas que se han ido desarrollando y mejorando en las últimas décadas y que ya hemos men-

cionado en este artículo. Una de las más comunes es la encefalografía (EEG), que registra de forma no invasiva la actividad eléctrica espontanea del cerebro. Más en detalle, la técnica registra las fluctuaciones en el voltaje debidas a las corrientes de iones que fluyen entre las neuronas en nuestro cerebro. Las seña-les EEG han sido ampliamente empleadas para el diagnóstico de enfermedades como la epilepsia o en varias áreas de investigación como son el sueño, la neu-rorehabilitación, etc. debido a su bajo coste, su alta resolución temporal y a su relativa facilidad de uso. Sin embargo, la EEG presenta varias desventajas con respecto a otras técnicas: posee una baja resolución temporal, la calidad de la señal (relación señal/ruido) es pobre y la cantidad de información que se puede extraer sobre la actividad de áreas cerebrales no superficiales es limitada.

Técnicas invasivas como la electrocorticografía (registro de actividad mediante electrodos intracraneales sobre la corteza cerebral) y la utilización de microelec-trodos depositados en la corteza cerebral ofrecen una mayor resolución y ca-lidad de la señal al no tener la barrera impuesta por el cráneo, que reduce la calidad de la señal en técnicas no invasivas como la EEG debido a la baja con-ductividad del tejido óseo.

Otro tipo de interfaces son las electromiográficas, que utilizan la actividad elec-tromiográfica (EMG) de los músculos del paciente por ejemplo para controlar el movimiento de un robot o para activar una serie de estímulos eléctricos que produzcan contracciones musculares en la extremidad paralizada. El entre-namiento con este tipo de terapias rehabilitativas puede ayudar al paciente a aprender a generar de nuevo los patrones sanos y naturales de actividad mus-cular, los cuales han quedado afectados por la enfermedad o accidente. Estas interfaces son empleadas también con fines asistivos, es decir, como sustitu-ción de funciones o extremidades perdidas para pacientes amputados o para pacientes con paresis en los cuales las terapias de rehabilitación existentes no son aplicables o no han sido completamente exitosas. Un ejemplo de estas son las prótesis de extremidad superior o inferior. Las prótesis han permitido a am-putados realizar tareas y movimientos que les eran imposibles de llevar a cabo anteriormente. Sin embargo, existen aún una serie de limitaciones como son

Page 25: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

25

la relativa estabilidad de las señales de control EMG a lo largo del tiempo y la limitación de no poder controlar más de un grado de libertad al mismo tiempo. En los últimos años se ha concentrado un gran esfuerzo en este campo para de-sarrollar prótesis que permitieran realizar movimientos de la forma más natural e intuitiva posible incluyendo múltiples grados de libertad del miembro superior al mismo tiempo. Sin embargo, la falta de robustez y fiabilidad en el control de prótesis tan avanzadas es entre otras comentadas anteriormente, una de las razones por las que los usuarios prefieren las prótesis más robustas aunque también más sencillas y limitadas y por lo que aún no se han establecido en el mercado dichos dispositivos.

Como hemos mencionado antes, el tercer paso de las interfaces cerebro-ma-quina con fines rehabilitativos consiste en que un actuador transforme la in-tención de movimiento del paciente en el movimiento real de su extremidad paralizada. Es aquí donde entra en juego el campo de la robótica rehabilitativa. Hasta hoy en día tanto exosesqueletos como órtesis han sido utilizados para producir el movimiento que el paciente desea pero es incapaz de realizar. Es decir, estos actuadores proporcionan una retroalimentación, o a menudo lla-mado con su nombre en inglés, feedback sensorial y propioceptivo al paciente de forma que este último sepa en todo momento si la actividad cerebral que está generando es la correcta para producir el movimiento deseado. Basán-dose en esta información, el paciente adapta su actividad cerebral para lograr que el actuador realice el movimiento que desea y es así como poco a poco el paciente aprende a modular su actividad cerebral pudiendo llegar a recuperar las funciones motoras perdidas. Por lo tanto, los robots pueden ser utilizados para ofrecer terapias de rehabilitación seguras, intensivas y orientadas hacia una tarea específica a pacientes incluso con incapacidades motoras severas. Los robots permiten incrementar la intensidad de la terapia sin que esto conlleve un gran coste adicional. Así mismo incluye las siguientes ventajas: i) el movimiento se puede asistir y controlar de una forma sencilla y precisa; ii) se puede repetir el mismo movimiento un gran número de veces sin introducir gran variabili-dad; iii) el feedback proporcionado al paciente por medio del movimiento de su brazo parésico incrementa su motivación; iv) proporciona medidas objetivas y cuantificables, como datos cinéticos y cinemáticos para calcular la evolución del rendimiento y del aprendizaje motor del paciente; v) reduce el nivel de asisten-cia fisioterapéutica necesaria para realizar la terapia de rehabilitación, lo que a su vez reduce los costes de atención médica. En conclusión, los robots permiten al paciente llevar a cabo una terapia de rehabilitación intensiva, con un gran número de repeticiones y de forma cuasi-independiente. Se ha demostrado que un entrenamiento repetitivo, progresivo y capaz de motivar e involucrar al pa-ciente en la tarea puede inducir cambios plásticos en las redes neuronales en-cargadas del control y aprendizaje motor. Estos cambios pueden ser de carácter funcional y anatómico-estructural y se dan como resultado de unos procesos denominados neuroplásticos. La neuroplasticidad, en el nivel más básico, con-siste principalmente en cambios moleculares en la excitabilidad y transmisión

de las sinapsis neuronales. Esto produce una reorganización de las redes neu-ronales que puede ocurrir en los hemisferios cerebrales, a lo largo de la medula espinal y finalmente incluir todo el sistema central nervioso. Por lo tanto, las te-rapias de neurorehabilitación repetitivas, intensivas y motivacionales realizadas con la ayuda de robots de rehabilitación constituyen ser un buen método para promover la recuperación de las funciones motoras perdidas, como ya ha sido demostrado en estudios recientes.

El feedback en las interfaces cerebro-maquina se puede dar también mediante técnicas como la estimulación eléctrica funcional (EEF), que consiste en la apli-cación de estímulos eléctricos a los músculos los cuales producen potenciales de acción en los nervios periféricos generando así contracciones musculares. EEF se ha utilizado para la corrección de drop-foot (pie caído/pendular/equino), dorsiflexión de piernas afectadas por una hemipáresis, etc. Se ha demostrado que la EEF mejora la fuerza del musculo parésico y la circulación sanguínea y cada vez son mas convincentes los indicios de que también ejerce una cierta influencia en la organización cortical. Así mismo algunos estudios han mostrado que combinada con otras estrategias de rehabilitación puede producir mejoras de la marcha y acelerar el proceso de rehabilitación.

Euskadi y la ingeniería biomédicaSabiendo que el mercado de la ingeniería biomédica está llamado a alcanzar los 228.700 millones de dólares en 2020, creciendo a 13.4% durante el perio-do de 2015 to 2020, nos hace ver la relevancia de este sector no solo en la sociedad, la ciencia, y la calidad de vida, si no en nuestra economía.

Como ya hemos comentado, en las tecnologías médicas se necesitan los mismos conocimientos básicos y muchas de las tecnologías que se usan en otro tipo de industrias como las de nuestro país. Electrónica, informática, materiales, energía, robótica, telecomunicación, química, física…toda esa tec-nología y principalmente los recursos humanos que la desarrollan, mantie-nen y diseñan, se puede reorientar prácticamente sin esfuerzo a desarrollar tecnologías médicas. Evidentemente hace falta una interacción directa desde el inicio con la clínica, que afortunadamente también es excelente en nuestro país, y una serie de personas que sirvan de puente y sepan combinar esos recursos para obtener un resultado importante y de impacto. Hacen falta, como ya tenemos, titulaciones universitarias que generen la próxima ola de investigadores y desarrolladores de tecnología médica. Es decir, estamos ca-pacitados de sobra para jugar un papel relevante a nivel internacional en este campo si jugamos bien nuestras cartas. Es una cuestión de estrategia a largo plazo ya que nosotros seremos los primeros beneficiados de esa tecno-logía y cuanto mejor queramos vivir en el futuro, más se debería de invertir en tecnología/ciencia/investigación.

INVESTIGACIÓN EN VIVO - La ingeniería biomédica

Page 26: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

INV

ESTI

GACI

ÓN E

N V

IVO

Biología Estructural: contribuciónal descubrimiento y desarrollo de nuevos antibióticosDavid Albesa-Jove1, Javier O. Cifuente2 y Marcelo E. Guerin3

1Investigador Ikerbasque Fellow, en el Grupo de Glicobiología Estructural, UPV2Investigador Post-doctoral, en el Grupo de Glicobiología Estructural, UPV3 Profesor de Investigación Ikerbasque, y lider del Grupo de Glicobiología Estructural, UPV

Alexandre Yersin no lo dudó. El padre Bernardo Vigano pagó por los cuerpos y él corrió con su bisturí en mano. Abrió uno de ellos y, decidido, extrajo un bu-bón. Allí debía estar la respuesta. Y subió. Subió rápido hasta su laboratorio del Kennedy Town Hospital de Hong Kong, muy lejos de casa. Hizo un preparado y lo montó en su microscopio. Ese que siempre viajaba a su lado, a todas partes en su caja de madera. Miró ansioso. Un puré de microbios, todos parecidos con forma de bastones y extremos redondeados. Yersin descubría así al bacilo de la peste que haría honor a su nombre, Yersinia pestis. Esa plaga que hasta en-tonces había diezmado la población mundial en varias ocasiones (Camus, 1947). Quizás al encontrarse luego con el padre Vigano lo abrazó. Quizás solo se dieron la mano. O quizás se sumió en un profundo silencio. No lo sabemos. Pero lo que sí sabemos es que el padre Vigano hizo construir para Yersin, un hombre de una energía inagotable, una precaria choza de bambú recubierta de paja cerca del Alice Memorial Hospital, también en Hong Kong, para que éste pudiera avanzar en sus investigaciones con total libertad. En una habitación Yersin instaló sus tubos de cultivo y sus animales de experimentación. En la otra, contigua, dormía él en una cama de campaña. Junto a su inseparable microscopio óptico. Así era Yersin (Mollaret y Brossollet, 1985; Deville, 2014; Figura 1).

Un año mas tarde Yersin se alojó en el mismo Instituto Pasteur de Paris, para intentar desarrollar la vacuna y el primer suero anti pestífero. Ya en Hong Kong intuyó que la inoculación de cepas poco o no virulentas, serían capaces de ge-nerar inmunidad contra la peste. Y en esa dirección trabajó muy duro junto con Émile Roux y Albert Calmette, consiguiendo establecer sus bases en poco más de tres meses. Tres años más tarde, muy lejos de allí, Paul-Louis Simond, que no las tenía todas consigo, se las ingenió en el Hotel Reynolds de Karachi (Simond et al., 1998), para descubrir que la pulga era la transmisora de la epidemia, ce-rrando así el circulo de su etiología. Yersin, que era un científico noble, felicitó a Simond. El descubrimiento de Yersin se sumaba al de muchos otros investi-gadores de la época, incluyendo el de Filippo Pacini y la bacteria que causaba el cólera en 1854, el de Robert Koch y el bacilo de la tuberculosis, en 1882 (Zumla et al., 2013a).

El microscopio óptico le permitió a Yersin responder a la pregunta acerca del origen de la peste. Sin embargo, ¿qué había mas allá? ¿Cómo estaba estructu-rada esa bacteria que acababa de descubrir? ¿Por qué podía causarle la muerte a una persona? ¿Qué es lo que la diferenciaba de aquella que causaba la tuber-

Page 27: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

27

culosis descripta por Koch? ¿Por qué no se movía, a diferencia de lo que ocurría con la que causaba el cólera? ¿Qué es lo que la diferenciaba de una célula hu-mana? No había dudas. Había que mirar más en profundidad. Adentrarse en la estructura de aquellas bacterias. Pero ¿cómo? Afortunadamente, la curiosidad, las ilusiones y la energía de muchos otros científicos que trabajaron a lo largo de los años permitieron desarrollar técnicas que nos han permitido ver mas allá de lo que Yersin pudo ver aquel 20 de Junio de 1894, bien entrada la tarde, cuando descubrió el bacilo de la peste. Dichas técnicas nos permitieron conocer que las bacterias están esencialmente compuestas de tres tipos de moléculas: los lípidos, los glicanos y las proteínas. Y que la variabilidad de sus estructuras químicas, su disposición en el espacio y su relación con el tiempo y su entorno, las diferencian unas de otras. Dentro de las técnicas que nos han permitido ver estas estructuras a nivel molecular, encontramos a la microscopia electrónica, la resonancia magnética nuclear, y otra particularmente fascinante que permitió un avance fundamental en el entendimiento de la estructura molecular de la materia viva: la cristalografía de rayos X (Blundell y Johnson, 1976; Figura 2).

“La biología estructural permite avanzar en el descubrimiento, desarrollo y comprensión de los mecanismos de acción de los antibióticos”

¿Que es la cristalografía de rayos X? ‘The technique explains why blood is red and grass is green; why diamond is hard and wax is soft; why glaciers flow and iron gets hard when you ham-mer it; how muscles contract; how sunlight makes plants grow and how li-ving organisms have been able to evolve into ever more complex forms? … The answers to all these problems have come from structural analysis.’ Max Perutz, Julio de 1996, Churchill College, Cambridge

Estas fueron las palabras que Max Perutz escribió para poner de relevancia la importancia de la cristalografía de rayos X y su impacto en el conocimiento hu-mano. La cristalografía de rayos X es el estudio de la estructura de los solidos cristalinos y ha dado lugar al desarrollo de nuevas disciplinas como la Biología Molecular y la Biología Estructural. William Bragg y su hijo Lawrence Bragg fue-ron pioneros en el análisis de estructuras cristalinas mediante el uso de rayos X. En 1913 formularon la relación geométrica existente entre la posición de los

átomos en un cristal y el patrón de difracción que se desprende del mismo al ser irradiado con rayos X. En un artículo seminal titulado ‘The Reflection of X-rays by Crystals’ (Bragg y Bragg, 1913), describen el primer difractómetro de rayos X, por el cual fueron merecedores en 1915 del Premio Nobel en Física. Sin embargo, este concepto no hubiese sido posible sin el descubrimiento de los rayos X y su capacidad de ser difractados mediante cristales.

“El conocimiento de la estructura tridimensional de dianas terapéuticas permite el diseño racional de fármacos”

Durante 1895, es decir un año después del descubrimiento de Yersin, Wilhelm Röntgen estudiaba los efectos de los rayos catódicos en tubos de vacío. Para ello había oscurecido su laboratorio. En concreto, Röntgen descubrió, de una forma fortuita, que al aplicar la corriente eléctrica al tubo de vacío, una tenue luz era emitida sobre una poyata apartada del tubo sellado. Esta luz provenía de un trozo de papel cubierto con sal de platino-cianuro de bario, material fluores-cente con el que Röntgen realizaba dichas experiencias. Se dió cuenta de que la intensidad de luz emitida por la sal aumentaba al aproximarla al tubo sellado, por lo que era claro que el estímulo del brillo procedía de algún tipo de radica-ción emitida en el tubo de vacío. Durante las semanas que siguieron, Röntgen estudió en detalle las propiedades de esta radiación invisible y desconocida que bautizó como rayos X — siguiendo la notación matemática de la X para lo des-conocido. Descubrió que los materiales densos absorbían más radiación que aquellos menos densos, y que dicha radiación volvía negro el papel fotográfico. Justo antes de Navidades decidió tomar una radiografía de la mano de su espo-sa, donde se observaban con claridad los huesos y el anillo de oro en su dedo anular, estableciendo el nacimiento de la radiología médica. El 28 de diciembre de 1895 publicó ‘On A New Kind Of Rays’ describiendo su descubrimiento, un logro que le valió en 1901 el primer Premio Nobel en Física.

Röntgen intentó luego sin éxito reflejar los rayos X o focalizarlos con lentes ópti-cas. El desarrollo de la cristalografía tuvo que esperar hasta que otro físico ale-mán, Max von Laue, se preguntara esencialmente si los rayos X eran partículas u ondas. Si fuesen ondas deberían poder ser difractadas, al igual que la luz visible. Fue entonces cuando un alumno de Laue le habló acerca de los cristales, que se pensaba estaban compuestos por átomos dispuestos en forma ordenada. Laue intuyó que quizás ese orden cristalino pudiese ser capaz de permitir la difrac-ción de los rayos X. Diseñó así el primer experimento de difracción de rayos X a partir de cristales de sulfato de cobre. Estas primeras imágenes fotográficas demostraron no solo que los rayos X son ondas, sino también que los átomos que forman los cristales se encuentran ordenados. Por el descubrimiento de la difracción de rayos X mediante el uso de cristales, Laue consiguió en 1914 el Premio Nobel en Física.

Los tiempos que siguieron fueron fascinantes. Max Perutz, un joven refugia-do austríaco recién licenciado que llegó a Cambridge en 1936, fue persuadido con el enorme reto de resolver la estructura cristalina de una proteína, uno de los principales componentes de la célula, bajo la supervisión de John Desmond Bernal, quien a su vez fuera discípulo de William Bragg. Poco después, Bernal dejó Cambridge para trasladarse al Birkbeck College en Londres, dejando atrás a Perutz, quien fue a discutir su proyecto con Lawrence Bragg. Su proyecto re-presentaba para la época una verdadera tarea de soñadores, ya que la estructu-ra cristalina más compleja resuelta hasta la fecha, 1937, estaba compuesta por solo 40 átomos. ¡Perutz pretendía resolver una estructura cristalina de apro-ximadamente 5.000 átomos! Lawrence Bragg decidió apoyar a Perutz en este gigantesco y maravilloso esfuerzo, que culminó 25 años más tarde con la reso-lución de la estructura de la hemoglobina, por lo cual recibió el Premio Nobel en Química en 1962. Este logro representó a su vez el esfuerzo colectivo de muchos otros científicos, incluyendo el de Dorothy Hodgkin, quien colectó los primeros datos de difracción de rayos X a partir de cristales de proteínas en 1934. Es inte-resante mencionar que en 1951, Linus Pauling y Robert Corey (Pauling y Corey,

Figura 1. A. Esquema de Yersinia pestis tras ser visualizada con el microscopio óptico. B. Y.

pestis visualizada mediante el microscopio electrónico actual. C. Esquema de Mycobacterium

tuberculosis tras ser visualizada con el microscopio óptico. D. M. tuberculosis visualizada

mediante el microscopio electrónico actual.

INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos

Page 28: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

1951) propusieron que los péptidos que conforman las proteínas se encuentran mayormente formando estructuras helicoidales (hélices-⍺) o planas (hebras-β). Dichos modelos, pudieron ser visualizados por primera vez gracias a la resolu-ción de las estructuras de la mioglobina y de la hemoglobina en 1959, sentando las bases de la Biología Estructural.

El campo de la cristalografía ha evolucionando desde sus orígenes, en forma extraordinaria. Las fuentes de radiación de rayos X han sido perfeccionadas y robotizadas. Se han construido los sincrotrones (Figura 3). Los detectores han evolucionado drásticamente, siendo capaces en la actualidad de contar fotones con una exactitud absoluta. Se han desarrollado nuevos métodos de resolución y análisis estructural automatizados, en gran medida gracias al progreso en pa-

en el conocimiento de la ciencia de la vida, la biología, impacta en el desarrollo de la humanidad. Un ejemplo de buen uso de este conocimiento puede corroborarse en cómo se ha afectado positivamente la calidad y el aumento de la esperanza de vida del ser humano al surgir la era antibiótica. El campo biológico actual esta enmarcado en un rango de tamaño que va desde la bios-fera a la biofísico-química, y es a este nivel, el de la interacción de los átomos y moléculas donde se genera mucho del conoci-miento fundamental. Ésta última región del estudio biológico, corresponde a las estructuras que no se pueden observar por medio de instrumentos ópticos del rango visible y es donde se define la biología estructural. La elucidación de estructuras bio-lógicas se puede obtener por medio de diferentes técnicas. Las tres principales son la cristalografía de rayos X, la microscopía electrónica y la resonancia magnética nuclear. Estas técnicas son complementarias, ya que cada una aporta diferentes visiones de los objetos tanto por limitación de escala, resolución, flexibilidad o condición de preparación de la muestra de estudio. La biología estructural nace con la cristalografía de moléculas biológicas. Su fundamento es la iluminación de éstas moléculas ordena-das periódicamente, por ejemplo con rayos X, para obtener el patrón de difracción de cuyo análisis se extraen las posiciones atómicas de la molécula. Por medio de esta poderosa técnica se estudian maquinarias biológicas completas como el riboso-ma (complejos supramacromoleculares), proteínas en diversos estados conformacionales como PimA, complejos enzima-sus-trato como los complejos de Michaelis de la enzima GpgS. La técnica sigue avanzando y últimamente el desarrollo de méto-dos de colecta de difracción de un flujo de cristales en solución (Time resolved crystallography) ha permitido observar cambios conformacionales en tiempo real, como el del centro reactivo de los fotosistemas tras la excitación por luz. Otra técnica im-portante en el campo es la microscopía electrónica, que usa haces de electrones que viajan enfocados por lentes magnéti-cas a través de la muestra interpuesta, soportada a una rejilla, análogamente a rayos de luz en un microscopio óptico. En su origen la muestra biológica necesitaba ser teñida con metales pesados para poder ser observada, actualmente, con el desa-rrollo de la microscopía en fase criogénica, la muestra se man-tiene en una fase acuosa vítrea a temperaturas de nitrógeno liquido, con lo cual las moléculas biológicas se hallan en esta-do nativo. Esta técnica también permite estudiar complejos supramacromoleculares, como complejos virus receptor, así como proteínas de mediano peso molecular. Hoy con esta téc-nica ya se pueden obtener estructuras atómicas. Por último, la resonancia magnética nuclear (NMR) usa la propiedad de cier-tos núcleos atómicos de desdoblar sus estados energéticos en presencia de un potente campo magnético externo y al ser excitados, usando un pulso de radiofrecuencia, provocan una respuesta de resonancia cuya resultante es el espectro NMR, que a partir de su análisis permite obtener información de la estructura, su entorno químico y su dinámica molecular, esto último característica sobresaliente de la técnica.

La importancia de la Biología Estructural

Las ciencias experimentales nacen de la curiosidad del ser huma-no por entender el universo que lo rodea. Mediante la observación sistemática y el análisis racional, la ciencia permite la conceptuali-zación, clasificación y el ordenamiento del conocimiento científico. Esto lleva al planteamiento de modelos, que sometidos a perma-nente revaluación, tratan de explicar los fenómenos observados. En este marco se genera el concepto de estructura que surge de observar el orden interno de las entidades-objeto, los patrones que forman y en sumatoria resultan en un modelo de arquitec-tura del cosmos. Estas estructuras se clasifican, desde el punto de vista del tamaño, dentro de un rango que va desde los límites del universo conocible hasta la medición de las partículas subató-micas. Para el ser humano, dentro de la estructura del universo, el evento llamado vida es uno de los objetos de estudio de mayor atracción a su curiosidad, no solo por su singularidad y total centra-lidad en el espacio existencial del hombre, sino porque el avance

Figura 2. Biología estructural en el contexto del conocimiento científico

Page 29: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

29

ralelo de la informática. Todos estos avances hacen hoy de la cristalografía de rayos X una técnica que impacta marcadamente en nuestro conocimiento de la vida a nivel molecular. Un ejemplo claro es el impacto que ha tenido en el descubrimiento y desarrollo de los antibióticos.

El aporte de la biología estructural al descubrimiento, desarrollo y comprensión de los mecanismos de acción de los antibióticos. La era de la quimioterapia antibacteriana comenzó en la primera década del 1900 con el descubrimiento de la arsfenamina por el bacteriólogo alemán Paul Ehrlich (Dougherty y Pucci, 2012). Convencido de que el arsénico era clave para curar la sífilis, sintetizó a aparición del segundo antibiótico, esta vez de la mano del patólogo y bacteriólogo Gerhard Domagk, el cual testó en ratones la molé-cula sulfanilamida, derivada de la sulfonamida, dándose cuenta de que protegía a los ratones del ataque de los estreptococos de la especie Streptoccocus pyo-genes. Alexander Fleming descubrió el primer antibiótico natural, la penicilina, que fue crucial para salvar muchas vidas durante el período más sangriento de la historia de Europa. El descubrimiento de la penicilina fue completamente ac-cidental, ya que lo que realmente estaba investigando Fleming eran las propie-dades del Staphylococcus. En 1928, al volver de sus vacaciones observó como una de sus placas de petri había sido contaminada con un hongo, habiendo

destruido casi completamente las colonias de Staphylococcus a su alrededor. Con el tiempo identificó que el hongo pertenecía a la familia Penicillium y, más tarde, identificó la sustancia llamándola penicilina (Figura 4). En 1945, Dorothy Hodgkin determinó su estructura, la primera de un antibiótico, por cristalografía de rayos X. Los científicos que descubrieron los tres primeros antibióticos ob-tuvieron el premio Nobel de Medicina, viéndose recompensado el gran aporte que hicieron al aumento de la esperanza de vida.

Hoy en día existen antibióticos con estructuras químicas de naturaleza muy di-versa lo que da a lugar a mecanismos de acción diferentes. Pero ¿por qué son efectivos? Estos modos de acción esencialmente impactan negativamente en el metabolismo bacteriano de manera que el individuo puede controlar la in-fección. A grandes rasgos se pueden clasificar a los antibióticos en dos grupos: los bacteriostáticos, en el caso que impidan la multiplicación de las bacterias, y los bactericidas, que directamente matan al microorganismo. Las sulfonamidas son un ejemplo de acción bacteriostática, ya que al interrumpir el metabolismo normal del ADN bacteriano inhibiendo la enzima dihidropteroato sintetasa, im-piden su replicación y por tanto la división bacteriana. Un clásico ejemplo de un antibiótico bactericida es la penicilina y sus derivados que interrumpen la síntesis normal de la pared bacteriana, inhibiendo la enzima DD-transpeptida-sa, generando una gran vulnerabilidad en la bacteria lo que provoca su muerte (Figura 4). Estos son algunos de los modos en que un antibiótico interrumpe funciones en los circuitos fisiológicos y metabólicos de las bacterias, funciones que en su gran mayoría están ligadas a proteínas que llevan a cabo una función

Figura 3. A. Imagen aérea del sincrotron Diamond Light Source en Reino Unido. El edificio posee unos 738 metros de circunferencia. B. Un esquema de su interior, donde se muestra en la parte

superior el gran anillo central por el cual viajan partículas aceleradas a velocidades cercanas a la luz, lo que genera emisión de haces de luz de alta energía (rayos X) con un brillo millones de veces

mayor que el sol. Estos rayos X son dirigidos dentro de la linea experimental (enmarcada en rojo). Dentro de la linea, confinado en una habitación blindada a la radiación, el cristal, soportado en un

goniómetro y enfriado por un flujo de nitrógeno a temperaturas criogénicas, es irradiado por la fuente de rayos X y su difracción colectada en un detector (enmarcado en naranja). C. El experimento

en estos sincrotrones avanzados se realiza usando robots de última tecnología que manipulan desde cristales individuales (izquierda) hasta placas conteniendo cientos de cristales (derecha). Imá-

genes por cortesía de Diamond Light Source.

INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos

Page 30: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Figura 5. Grupo de Glicobiologia Estructural. Arriba de izquierda a derecha: Ander Eguskiza,

Itziar Gonzalez-Moro, Javier Cifuente, David Albesa-Jove, Marcelo Guerin (head), Aritz Durana

y Enea Sancho-Vaello. Abajo de izquierda a derecha: Mikel Garcia, Ane Rodrigo-Unzueta, Na-

talia Comino y Montse Tersa.

Figura 4. A. Las proteínas con función fisiológica esencial para la vida de la bacteria son dia-

na de antibióticos que las inhiben o impiden su normal función. Aquí mostramos la proteína

PBP6 de Escherichia coli, involucrada en la construcción de la pared bacteriana (síntesis de

peptidoglicano), que puede ser inhibida irreversiblemente con antibióticos beta lactámicos,

como la penicilina. B. Los microorganismos, bajo la presión selectiva de estos antibióticos,

son seleccionados en base a su resistencia, que viene dada por mutaciones en la proteína

diana, o por poseer proteínas que puedan de algún modo neutralizar el antibiótico, como

es el caso de las enzimas beta lactamasas que hidrolizan los beta lactamicos, haciendo al

microorganismo invulnerable al antibiótico. Para revertir esta resistencia, actualmente se ad-

ministran inhibidores de beta lactamasas durante el tratamiento, impidiendo la actividad de

éstas enzimas por lo cual se rescata la acción del antibiótico. La biología estructural aporta

información para entender el modo de acción de éstos fármacos y a partir de la información

de la estructura atómica mejorar y diseñar nuevos fármacos.

específica. En resumen, a nivel molecular, los antibióticos interactúan mayor-mente con proteínas diana específicas alterando su actividad, lo que finalmente afecta la capacidad de supervivencia de las bacterias.

“Las plataformas de biología estructural producen beneficios directos para el avance de la ciencia y tienen implicaciones directas en la sociedad, como motor económico y como herramientas para la mejora de la calidad de vida”

¿Por qué emergen las bacterias resistentes a los antibióticos? El uso de nuevos conocimientos científicos ha requerido, en ciertas ocasiones, de un período de aprendizaje para su buen uso. Con poco más de un siglo de experiencia en el manejo de antibióticos resultados indeseables e inesperados han surgido. Qui-zás el más grave de ellos haya sido la aparición de bacterias que, originalmente vulnerables a tratamientos quimioterápicos, han devenido resistentes (Figura 4). Este proceso tiene su origen en la selección natural de aquellos microorga-nismos resistentes a los antibióticos, siendo estos últimos una nueva presión de selección. Este fenómeno se ve exacerbado por el uso irracional de antibióticos, como se ha observado desde casi el despertar de la era antibiótica cuando, por ejemplo, el uso generalizado e indiscriminado de sulfonamidas en los frentes de batalla dió lugar a los primeros casos de cepas de Streptococcus pyogenes resistentes en hospitales militares. Este es un fenómeno muy preocupante en la actualidad, ya que representa un retroceso en nuestra capacidad de com-batir las enfermedades infecciosas, corriendo el riesgo de volver a una virtual era pre-antibiótica. La cristalografía de rayos X ha contribuido de una manera excepcional en la determinación no solo de las estructuras de antibióticos, sino también de las proteínas diana y de aquellas involucradas en los mecanismos

de resistencia. Dichas estructuras han originado un volumen de conocimiento que resulta fundamental para la comprensión del funcionamiento de los anti-bióticos, permitiéndonos introducir mejoras en su actividad (Figura 4).

Descubrimiento y desarrollo de antibióticos contra Mycobacterium tuberculosis: un desafío mayor. Mycobacterium tuberculosis, el agente causal de la tuberculosis, es el segundo agente infeccioso que más muertes causa en el mundo por detrás del HIV. La tuberculosis continúa siendo un grave problema sanitario a nivel mundial, cau-sando la muerte de aproximadamente 1.5 millones de personas al año. A su vez, se estima que la tercera parte de la población mundial esta infectada y es portadora de la forma latente de la bacteria. El tratamiento de la enfermedad es un proceso lento y laborioso, que requiere la administración de dos a cuatro fármacos de primera línea, incluyendo rifampicina, isoniazida, etambutol y pi-razinamida, a lo largo de seis meses, y cuya adherencia por parte del paciente suele ser baja. Muy recientemente se ha detectado un marcado aumento en el número de cepas resistentes (MDR) y de cepas extremadamente-resistentes (XDR) de la bacteria en todo el mundo. La aparición de estas últimas es un hecho alarmante ya que presentan resistencia no sólo a la rifampicina e isoniazida, sino también a tres o más de las seis clases de antibióticos de segunda línea con los cuales la tuberculosis es tratable, lo que ha convertido en una necesidad urgente el descubrimiento de nuevos fármacos (WHO Report 2014).

“Los nuevos avances en crio-microscopía electrónica tienen implicaciones directas en biomedicina y salud”

La envoltura celular de M. tuberculosis es particularmente robusta, basada en glicanos y lípidos de estructura excepcional que juegan un papel esencial en el mantenimiento y la compartimentación celular al igual que en la patogénesis de la tuberculosis. Esta estructura química compleja le confiere a la bacteria una escasa permeabilidad celular, siendo responsable de la ineficacia de múl-tiples agentes antimicrobianos utilizados comúnmente para el tratamiento in-

Page 31: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

31

Referencias[1] Camus A. La Peste (1947).

[2] Mollaret HH y Brossollet J. Yersin. Un pasteurien en Indochine (1985).

[3] Deville P. Peste y Cólera. (2014).

[4] Simond M et al. Paul-Louis Simond and his discovery of plague transmission by rat fleas: a centenary. J. R. Soc. Med. 91, 101-104 (1998).

[5] Zumla A et al. Tuberculosis. N. Engl. J. Med. 368, 745-55 (2013). Review.

[6] Blundell TL y Johnson LN. Protein Crystallography (1976).

[7] Bragg WH y Bragg WL. The Reflection of X-rays by Crystals. Proceedings of the Royal Society of London A: Mathematical, Physical and Engineering Sciences, 88, 428–438 (1913).

[8] Pauling L. y Corey RB. Configurations of Polypeptide Chains With Favored Orientations Around Single Bonds: Two New Pleated Sheets. Proc Natl Acad Sci U S A., 37, 729–40 (1951).

[9] Dougherty TJ y Pucci MJ. Antibiotic discovery and development (2012).

[10] WHO | Global tuberculosis report 2014.

[11] Zumla A et al. Advances in the development of new tuberculosis drugs and treatment regimens. Nat. Rev. Drug Discov. 12, 388–404 (2013).

[12] Jackson M, McNeil MR y Brennan PJ. Progress in targeting cell envelope biogenesis in Mycobacterium tuberculosis. Future Microbiol. 8, 855–75 (2013).

[13] Guerin ME et al. Molecular basis of phosphatidyl-myo-inositol mannoside biosynthesis and regulation in mycobacteria. J. Biol. Chem. 285, 33577-83 (2010). Review.

[14] Boldrin F et al. The phosphatidyl-myo-inositol mannosyltransferase PimA is essential for Mycobacterium tuberculosis growth in vitro and in vivo. J. Bacteriol. 196, 3441–51 (2014).

[15] Albesa-Jové D, Giganti D, Jackson M, Alzari PM, Guerin ME. Structure-function relationships of membrane-associated GT-B glycosyltransferases. Glycobiology 24, 108–124 (2014).

[16] Guerin ME et al. 2007. Molecular recognition and interfacial catalysis by the essential phosphatidylinositol mannosyltransferase PimA from mycobacteria. J. Biol. Chem. 282, 20705–20714 (2007).

[17] Guerin ME et al. Substrate-induced conformational changes in the essential peripheral membrane-associated mannosyltransferase PimA from mycobacteria: implications for catalysis. J. Biol. Chem. 284, 21613–21625 (2009).

[18] Giganti D et al. Conformational plasticity of the essential membrane-associated mannosyltransferase PimA from mycobacteria. J. Biol. Chem. 288, 29797–808 (2013).

[20] Giganti D et al. Secondary structure reshuffling modulates glycosyltransferase function at the membrane. Nat. Chem. Biol. 11, 16–18 (2014).

Figura 6. Reordenamientos estructurales de tipo hebra-β-a-hélice-α y hélice-α-a-hebra-β

en la enzima PimA, visualizados en sus distintas estructuras obtenidas por cristalografia de

rayos X.

fecciones causadas por bacterias Gram positivas y Gram negativas (Zumla et al. 2013b). Por consecuencia, la pared celular es un foco de estudio muy intenso con el objetivo de identificar nuevas proteínas dianas para el descubrimiento y desarrollo de agentes anti-micobacterianos (Jackson et al. 2013). La pared celu-lar micobacteriana se compone de tres segmentos principales. En la parte más interna se encuentra la membrana plasmática. La parte central de la pared, es conocida como el complejo micolil arabinogalactan-peptidoglicano. El ácido mi-cólico forma la parte interna de la membrana asimétrica externa, mientras que la parte externa está compuesta por (glico)lípidos, lipoglicanos y (lipo)proteínas. La capa más externa de la pared celular consiste en una estructura de bajo empaquetamiento denominada cápsula, que principalmente se compone de polisacáridos y proteínas con un porcentaje minoritario de lípidos. El objetivo a largo plazo de nuestro grupo de investigación, el grupo de Glicobiología Estruc-tural (Figura 5), es el de contribuir en el estudio de los determinantes estructu-rales y la modulación de la especificidad de sustrato de proteínas involucradas en la biosíntesis y modificación de glicanos. La búsqueda de alternativas tera-péuticas que permitan combatir la tuberculosis nos ha llevado a interesarnos en proteínas involucradas en la síntesis de la envoltura celular de M. tuberculosis. En particular, aquellas que participan de la biosíntesis de fosfatidilinositol ma-nosidos (PIMs) y sus derivados, lipomanano (LM) y lipoarabinomanano (LAM). Los PIMs se encuentran unidos de forma no covalente mediante su residuo fos-fatidilinositol a la membrana plasmática y a la membrana externa de la pared celular (Guerin et al., 2010). Pueden contener de uno a seis residuos de manosa y hasta cuatro cadenas alquílicas, siendo el fosfatidilinositol dimanosido (PIM2) y el hexamanosido (PIM6) tri- o tetra-acilados las especies mayoritarias in vivo. Hemos avanzado marcadamente en el conocimiento molecular de PimA, una enzima esencial para el crecimiento de M. tuberculosis y responsable de catali-zar el primer paso en la ruta de síntesis de los PIMs (Boldrin et al., 2014). PimA es una glicosiltransferasa que cataliza la transferencia del primer residuo de manosa a un lipido aceptor, que se encuentra anclado en la membrana, el fos-fatidilinositol (Albesa-Jove et al. 2014). Evidencias experimentales sugieren que la reacción se lleva a cabo en la interfaz entre la membrana y el citosol, gracias a la capacidad estructural de la enzima de acceder tanto a un sustrato hidrofí-lico, en este caso el GDP-Manosa que se encuentra en solución, como también al sustrato hidrofóbico embebido en la membrana. La estructura cristalina de PimA reveló que está compuesta de dos dominios con un plegamiento de tipo Rossmann, separados por un surco central importante donde se unen los sus-tratos y se lleva a cabo la catálisis (Guerin et al., 2007; Guerin et al., 2009; Giganti et al., 2013). Recientemente, hemos observado que esta enzima adopta diferen-tes estados conformacionales sin precedentes, un hallazgo que representa un avance en el conocimiento no sólo del mecanismo molecular de PimA, sino de proteínas que se asocian a membrana en general. Por primera vez hemos podi-do observar como una glicosiltransferasa es capaz de cambiar su conformacion mediante transiciones en su estructura secundaria de tipo β-strand–to–α-helix y α-helix–to–β-strand (Giganti et al., 2015; Figura 6). Estos cambios estructurales parecen modular la catálisis y estar promovidos por su interacción con los sus-tratos y/o con la membrana.

El Grupo de Glicobiología Estructural participa activamente en el proyecto MM4TB - More Medicines for Tuberculosis, financiado por el VII Programa Mar-co de la Unión Europea, con un presupuesto de 16 millones de euros. MM4TB

se ha constituido con el objetivo de contribuir al descubrimiento de nuevos fármacos que permitan combatir la tuberculosis. En concreto, el consorcio se plantea validar farmacológicamente al menos cinco nuevas dianas y descubrir al menos una familia de candidatos a fármacos susceptibles de ser transferidos a compañías biotecnológicas y farmacéuticas asociadas, para su futuro desarro-llo. La obtención de inhibidores contra la enzima PimA representa un desafío sin precedentes. El equipo que se ha reunido en torno a MM4TB utiliza un enfoque multidisciplinar e integral, incluyendo estrategias de screening tripartito y quí-mica medicinal, genómica funcional y biología estructural. En dicho consorcio participan, además de nuestro grupo, más de 20 grupos punteros de investiga-ción europeos, entre los cuales se encuentran las Universidades de Cambridge (UK), Uppsala (Suecia) y Pavia (Italia), el Instituto Pasteur de Paris (Francia), el ETH (Suiza) la École Polytechnique Fédérale de Lausanne (Suiza), y tres compa-ñías farmacéuticas lideres en el mercado, AstraZeneca, Sanofi-Aventis y Allere Tech GmbH, Dicho consorcio, se consolidó a partir del descubrimiento de una nueva serie de compuestos, las benzotiazinonas (BTZ), actualmente en fase de desarrollo preclínico.

INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos

Page 32: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...
Page 33: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Entorno CIC

Mesa de ideas 34Industria e investigación, ¿dos realidades cada vez más cercanas?

Con Jose Ignacio Hormaeche, Amaia Maseda, Antonio Martínez, Arrate Olaiz, Azucena Castro y María José Aranguren

Modera: José Esmoris

Proyectos de Investigación 42Nuevas oportunidades en el desarrollo de recubrimientos funcionales

M.C. Morant-Miñana, A. Rodríguez y A. Zuzuarregui

Baterías de ion-sodio: una alternativa más que factible para resolver los problemas energéticos futuros

Elena C. Gonzalo

Mecanizado criogénico, el beneficio que surge del fríoA. Rubio, O. Pereira, F. Veiga, A. Rodríguez, A. Rivero

y L.N. López de Lacalle

Euskadi en breve 56

Page 34: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

MES

A D

E ID

EAS

La Red Vasca de Ciencia, Tecnología e Innovación (RVCTI) fue creada el 29 de abril de 1997, con el fin de desarrollar una infraestructura tecnológicamente inteligente, que trabajara en red de forma complementaria y coordinada. En la actualidad, el Gobierno Vasco ha liderado un proceso de reordenación de la RVCTI. Esta reordenación propiciará la generación de una actividad más cerca-na al mercado, la obtención de mayores resultados para la empresa y la socie-dad, para situar al País Vasco dentro del grupo de cabeza en territorios de alta innovación. En todo este proceso, investigación y empresa han hecho grandes esfuerzos para ir de la mano, aunque en ocasiones no siempre han remado juntas, y han podido llegar a ser espacios paralelos que no acababan de encon-trarse. En cualquier caso, cada vez más industrias colaboran con agentes del ámbito de la investigación.

El pasado 16 de diciembre CICNetwork organizó una Mesa de Ideas con el ob-jetivo de conocer la realidad de esta relación. El debate, moderado por José Es-moris, Presidente de CIC MarGUNE y Director de I+D de CIE Automotive, contó con la participación de 6 destacados representantes de estos 2 ámbitos: José Ig-nacio Hormaeche, Director General del Clúster de la Energía, Antonio Martínez,

CEO de Progenika, Azucena Castro, Directora General de OWL Metabolomics, Arrate Olaiz, Directora de Innovación de Ibarmia, Amaia Maseda, Vicerrectora de Proyección y Transferencia de la UPV/EHU y María José Aranguren, Directora General del Instituto Vasco de Competitividad-Orkestra.

José Esmoris:Da la sensación de que ha llegado la hora de colaborar de una forma más activa y para eso quiero empezar preguntándole a José Ignacio Hormaeche, Director General del Clúster de la Energía, si es verdad que la industria y la universidad no siempre han remado juntas y si ha cambiado la relación entre ellas duran-te los últimos años. ¿Crees que estamos cada vez más cerca unos de otros o seguimos en mundo paralelos? ¿Se está coordinando suficientemente bien la colaboración entre los dos entes?

José Ignacio Hormaeche:Afortunadamente en este país tenemos una larga tradición industrial, una cul-tura de lo que es la colaboración entre el mundo de la industria y las diferentes entidades que integran el mundo de la investigación. Son muchos años de la

Industria e Investigación, ¿dos realidades cada vez más cercanas?Mesa de Ideas con José Ignacio Hormaeche, Antonio Martínez, Arrate Olaiz, Azucena Castro, Amaia Maseda y María José Aranguren. Moderador: José Esmoris

¿Líneas paralelas o convergentes? Siete destacados miembros de los sectores de la Industria y la Investigación en Euskadi nos dan su opinión sobre la relación pasada, presente y futura de estos dos mundos, que no siempre han caminado de la mano. El Edificio Barco del Parque Tecnológico de Bizkaia fue el lugar de este interesante debate organizado por CICNetwork con el objetivo de conocer de primera mano los retos a los que se enfrentan ambas realidades.

Page 35: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

35

red vasca, pero todavía más años de la existencia de los centros tecnológicos que forman parte de esa red y que ya existían y colaboraban con la empresa, prácticamente son 35 años de modelo de relación con una evolución positi-va. En este sentido, hablar sólo de industria e investigación es excesivamente simple, con ese enfoque nos perderíamos muchos matices. Creo que afortu-nadamente hemos tenido una relación entre industria e investigación lo sufi-cientemente compleja para que hoy estemos hablando de una red amplia y sofisticada, para ver que esos modelos de relación pueden ser muy diferentes según la tipología de empresa. En nuestro sector, en la evolución en los últimos años de las empresas a partir de 200 empleados, la I+D es algo que ya está interiorizado como una parte importante de la estrategia de la empresa, y está internalizado el desarrollo de una parte importante de ese esfuerzo investiga-dor. En las pequeñas, sin embargo, hay una amplia variedad pero yo habla-ría de dos tipos: la empresa de alta intensidad tecnológica, donde claramente necesita a la universidad y al centro tecnológico externo para su desarrollo y para mantener su nivel tecnológico, y luego, otra tipología de empresa más de proceso, de resolver problemas más que hablar de estrategias de I+D. El mundo de la investigación tiene también una variedad lo suficientemente rica; los CICs, la Universidad, etc y esto hace que la variedad y posibilidades de colaboración entre empresas e investigación sea muy amplia. Donde quizás está el reto es en si es necesario seguir afinando ese modelo, en esas diferentes tipologías y entidades de investigación básica, más inmediata, más aplicada, largo y medio plazo. En que cada entidad encuentre o defina su modelo de relación y casi su modelo de negocio, ese modelo que les permita mantenerse, quizás en líneas

paralelas su relación con la industria pero, desde luego, que no sea en líneas divergentes. Se pueden mantener líneas paralelas con una interrelación perma-nente y ahí es donde está el esfuerzo que tiene que hacer ese colectivo de en-tidades de investigación, las empresas bastante tienen con desenvolverse en el incierto mundo que les toca vivir. No partimos de cero pero creo que está en el tejado de las entidades de investigación seguir mejorando esa línea de relación.

José Esmoris:José Ignacio Hormaeche habla de líneas que no sean divergentes con el mundo universitario y seguro que Amaia Maseda, vicerrectora de Proyección y Trans-ferencia de la UPV/EHU tiene una opinión al respecto. ¿Crees que además de la convergencia de esos dos mundos no tenemos una necesidad, casi obligación, de entendernos entre el mundo universitario y el mundo empresarial y de ver cómo somos capaces de remar juntos?

Amaia Maseda:Comparto todo lo que ha dicho José Ignacio Hormaeche, no se puede introducir en un pool la industria como un todo ni a la investigación como un todo. Yo creo que la coordinación ha sido muy certera. Llevamos 35 años de relación y en este país, por sus propias dimensiones, hace que vivamos muy relacionados y que tengamos una experiencia muy intensa. Si bien es cierto que últimamente se ha producido un acercamiento natural, trabajamos en lo que se llama la sociedad del conocimiento y por supuesto necesitamos una industria más intensa en conocimiento, esto lleva irremediablemente a que haya que acercarse a los cen-

Los participantes en la Mesa de Ideas. De izquierda a derecha; María José Aranguren, Directora General del Instituto Vasco de Competitividad-Orkestra, José Ignacio Hormaeche, Director General del Clúster de la Energía, Arrate Olaiz, Directora de Innovación de Ibarmia, José Esmoris, Presidente de CIC MarGUNE y Director de I+D de CIE Automotive (moderador), Amaia Maseda, Vicerrectora de Proyección y Transferencia de la UPV/EHU, Azucena Castro, Directora General de OWL Metabo-lomics y Antonio Martínez, CEO de Progenika.

MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?

Page 36: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

tros de investigación a compartir ese conocimiento, a que ese conocimiento se transfiera y que llegue a productos, servicios, en definitiva, que llegue a nuestra sociedad. Necesitamos cada vez personas más formadas, no sólo con carreras universitarias. Este nuevo modelo lleva una necesidad de formación permanen-te y de actualización continua. Necesitamos unas infraestructuras científico-tec-nológicas cada vez más avanzadas porque, si nosotros corremos, en el resto del mundo corren más deprisa, sobre todo, en algunos entornos y sectores. Por lo tanto, nos necesitamos y eso es una realidad. Y haber sido conscientes de esa realidad ha sido uno de los mayores avances, todos somos necesarios pero no podemos ir de una manera independiente. Uno de los retos que tenemos es el acercamiento a las pymes. Creo que las empresas que tienen departamento de I+D más activo, más capacidad y más diversificación pueden hacer frente a esos retos pero hay que buscar modelos de relación con pymes.

José Esmoris:Amaia nos hablaba de las empresas intensivas en I+D y la necesidad de trabajar con las pymes, tenemos en la Mesa a Antonio Martínez, el CEO de Progenika, una empresa que entiendo que es muy intensiva en I+D y me gustaría conocer su visión. En los foros en los que coincidimos existe siempre el eterno comenta-rio del gap que hay entre la investigación básica y la investigación que se realiza más a nivel de empresa ¿Cómo puede cubrirse ese gap, crees que existe un mo-delo que permita dar respuesta a esos retos de futuro y organizar esa relación empresa, universidad, investigación para que funcione mejor?

Antonio Martínez: Yo creo que es importante aprender de la experiencia. Suena muy bien la co-laboración en investigación entre la empresa y la universidad pero hay que aprender la lección de lo que ha ocurrido en los últimos años y esta lección

nos dice que hay un problema en la interacción entre ambos y es que entre la empresa y la universidad los tiempos y los intereses no coinciden. La empresa tiene sus tiempos y son importantes porque de eso depende su financiación y supervivencia. Por otra parte, está también el desajuste de intereses, la em-presa cuando identifica una gran idea la tiene que desarrollar y ese desarrollo, por lo menos en el sector biotecnológico, es muy largo. Esta situación provoca que esa idea deje de ser de interés para la universidad, aunque para nosotros sigue siendo innovación. Es en este período de tiempo cuando se pierde la vin-culación entre universidad y empresa. ¿Cómo podemos hacer que los intereses coincidan? Mi hipótesis es que la universidad debe ser la generadora de ideas y esas ideas que se traduzcan en spin offs, esta es la forma de exportar esta in-vestigación básica, que en mi opinión deber hacerse en la universidad porque la empresa difícilmente puede abordarla, ya que es muy caro. Tenemos que crear normas, facilidades, entornos para que los universitarios vean que pueden lan-zar una spin off, tenemos que enseñarles el concepto de emprendizaje y que existen herramientas para crear esa empresa y poder sacar ese conocimiento de la universidad. Durante los primeros años, tiene que haber alguien en la uni-versidad que los tutele científicamente y proporcione plataformas tecnológicas, necesitan ese apoyo que la empresa joven no se puede permitir.

Luego ya tenemos el otro escenario, el de la empresa lanzada y que ya tiene sus proyectos de I+D, ¿y ahí cómo hacemos la relación?, es más difícil porque lo intereses no coinciden. La empresa tienen que validar esos productos, hacer estudios de mercados, registros, etc y eso a la universidad le interesa poco y,

“Hay una sensación de que las empresas no hemos sabido transmitir bien nuestras necesidades de investigación a la universidad y los centros tecnológicos”

José Esmoris

“Tenemos que crear entornos más sistemáticos de relación y encontrar puntos de encuentro para que la investigación sea más cercana a las necesidades del mercado”

José Ignacio Hormaeche

Page 37: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

37

sin embargo, en mi balance sigue siendo I+D. En este caso la interacción es que la universidad pueda prestar servicios o actuaciones muy concretas en deter-minadas fases del proyecto.

José Esmoris:Continuando con ese hilo conductor, me gustaría conocer de los demás cuáles pueden ser los sectores industriales que van a demandar ese esfuerzo inves-tigador, ¿dónde creemos que se puede hacer este trabajo? Empezamos con Arrate Olaiz, Directora de Innovación de Ibarmia, para verlo desde el punto de vista de una empresa consolidada.

Arrate Olaiz: Hay que centrar el esfuerzo investigador en prácticamente todos los sectores industriales. La clave está en que seamos capaces de orientar esa investigación porque no podemos pretender que seamos buenos en todo. Los sectores en los que somos fuertes en el País Vasco están identificados y el reto desde el punto de vista de la empresa está en dos cuestiones: por un lado, el orientar esa investigación, a veces las empresas tenemos la mala costumbre de echar balones fueras sobre nuestra relación con la investigación, que sea la univer-sidad y los centros los culpables de esa mala conexión y me parece que para que funcione tenemos que ver un poco más allá y orientar esa investigación de manera que cuando nos haga falta esa investigación ya esté hecha. Creo que los sectores van a seguir siendo los mismos en los que ahora somos competitivos y, hablando del mundo de dónde vengo yo, más industrial de maquinaria, creo que va a demandar un esfuerzo investigador muy importante en los próximos años pero tenemos el reto de acotar esa investigación y ver donde tenemos que centrarnos para que nosotros seamos capaz de trasladar es esfuerzo investiga-

dor al mercado y se produzca un producto. Desde la parte de la empresa, este es el reto desde la otra parte creo que hay que saber leer el tema de tiempos e intereses que ya se ha comentado. No es sencillo, somos ritmos muy diferentes pero creo que se pueden hacer cosas y ver que papel tenemos que jugar cada uno. Creo que va a haber trabajo en el sector biotecnológico y que la industria tradicional va a demandar servicios e investigación para no quedar obsoleta, fuera del mercado. Los sectores son los actuales y tenemos que esforzarnos por no perderlos.

José Esmoris:Tenemos la visión de una empresa más tradicional, quizás la visión de Azucena Castro, Directora General de OWL Metabolomics puede ser diferente por ser una empresa más joven que viene de un mundo totalmente diferente como la biotecnología. ¿Cuál es tu opinión Azucena?

Azucena Castro: Estoy de acuerdo con todo lo que se dicho hasta el momento. Es fundamental hacer inversiones en investigación en todos los sectores, pero también hay que poner foco a la inversión y en el País Vasco dentro de la estrategia RIS3 uno de esos sectores es el de las biociencias. Para el crecimiento de este sector, es necesario captar conocimiento y nuevas ideas de universidades y centros de investigación. Una de las vías para canalizar el conocimiento, es la creación de “spin off” para que nuevos productos y servicios puedan llegar al mercado.

En las empresas del sector de biosalud, que es el en que trabaja nuestra empre-sa, el desarrollo de productos, es largo y requiere mucha inversión. Hay fases

“Debemos ser capaces de definir modelos mixtos de investigación orientada y no orientada. Apostar por el conocimiento frontera permitirá traccionar nuestra industria”

Amaia Maseda

“La universidad debe ser generadora de ideas y que esas ideas se traduzcan en spin offs. Esta es la forma de exportar la investigación básica”

Antonio Martínez

MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?

Page 38: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

en este desarrollo que para las instituciones no se considera investigación y desarrollo, sino venta de producto. Por ejemplo, una vez que se ha desarrollado un nuevo sistema de diagnóstico, todavía queda mucho camino por andar para que el producto esté maduro y pueda comercializarse en un mercado global, en el que competimos con grandes empresas. En este entorno hay que ser cons-cientes de que solos no se puede salir adelante. Somos un país pequeño y hay que aunar esfuerzos, sabiendo que cada uno tenemos unos intereses y objeti-vos, pero todos necesitamos la colaboración en proyectos y momentos puntua-les. Para lograrlo, necesitamos un conocimiento de lo que hacemos todos en investigación, con una relación más directa entre la universidad y los centros de investigación y las empresas. En nuestra empresa tenemos personas que se han realizado sus doctorados en la UPV/EHU o en centros de investigación vascos. Hay que aprovechar todos los recursos que tenemos y trasmitir el men-saje de que personas formadas en estos centros pueden desarrollar su carrera profesional en empresas del sector.

José Esmoris: ¿Cómo ve María José Aranguren, Directora General de Orkestra, esta situación?

María José Aranguren:Comparto todo lo que se ha hablado en esta Mesa. Sobre esta pregunta especí-fica, evidentemente, hay que dedicar esfuerzo a todo pero cada territorio define sus prioridades y en todo no podemos ser buenos. Las apuestas de Euskadi están definidas en el RIS3 en cuanto a manufactura avanzada, energía y bio-ciencias-biosalud. Pero me gustaría aportar una visión, igual complementaria, de todos los que me habéis precedido. Yo creo que va a ser clave combinar la investigación en ciencias con la investigación en ciencias sociales. Así como dentro de las empresas se ve que es clave combinar la investigación tecnológica con la no tecnológica, y esa combinación da una fuerza para ser competitivos, a nivel territorial veo que hay que ser capaces de saber combinar las capacida-des de toda la red de ciencia e investigación con la innovación social, es decir,

en cómo nos relacionamos. Todos los modelos de relación van a ser diferen-tes dependiendo del tipo de sector o producto del que estamos hablando. Los tiempos son diferentes, el tipo de empresas también es diferente, las pymes no tienen las misma capacidad de absorción y de entenderse con la red que las empresas grandes y, en consecuencia, es fundamental el ver como se tiene que relacionar cada agente con el otro y trabajar juntos. Es clave investigar sobre esos modelos de relación. Combinar la investigación tecnológica-científica con la de cómo trabajamos juntos, la innovación en cooperación y aprender de la propia experiencia serán claves, no sólo para entenderse entre la investiga-ción y la industria, sino también entre diferentes industrias. Cada vez más las posibilidades de innovación están en la intersección de diferentes sectores, la máquina herramienta con las biociencias, la energía con el transporte, etc. Por ejemplo, en una jornada en Harvard se habló de que cada vez la innovación va a ser más compleja y va a estar en la intersección entre diferentes sectores, actividades y empresas. También se insistió en investigar cómo se puede tra-bajar juntos. En la Comisión Europea, en el grupo en que participo, una de las grandes inquietudes es cómo conectar la investigación con el mercado y están hablando de una investigación que conecte mucho más con las necesidades del mercado y la industria. Aquí somos muy industriales, la industria tiene mucho peso pero tenemos un esquema muy hard, entendemos la innovación que es tecnológica, que se toca, pero nos cuesta entender la innovación que es más intangible, de relaciones, no nos parece que es innovación. En esto también tenemos que avanzar.

José Esmoris:Muchas gracias María José por introducir esta nueva vertiente de la innovación social que va a ser muy importante en los próximos años. Ahora Amaia, además de la pregunta de los sectores, me gustaría saber si crees que las empresas he-mos sido capaces de transmitirle a la universidad las necesidades que tenemos y dónde queremos hacer negocio en el futuro. Lo digo porque puede haber la sensación de que a lo mejor no sabemos transmitir nuestros objetivos.

Arrate Olaiz, Antonio Martínez y José Esmoris

Page 39: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

39

Amaia Maseda:Efectivamente RIS 3 marca las áreas prioritarias pero también es verdad que habla de nichos de oportunidad y uno de ellos, es el ámbito más social, cultural, etc. Dentro de las propias empresas no sólo hay que hablar de la innovación tecnológica sino también de la innovación no tecnológica. El programa europeo H2020 hace mucho hincapié en este punto, en la necesidad de equipos multi-disciplinares, esa transversalidad necesaria para que funcionemos y dentro de las empresas también se tiene que hablar de la innovación organizativa. Esta-mos hablando de capital humano como principal fuente para el avance del co-nocimiento. Gestionar equipos humanos cada vez es más complejo y, más aún, cuando esas personas pertenecen a distintos ámbitos, a distintas empresas y a distintos entornos. Estos modelos van a cobrar en las organizaciones muchí-sima importancia porque necesitamos buenos líderes de los equipos. Buenos proyectos salen adelante o se quedan en el camino por las personas.

Con respecto a qué tenemos qué hacer, me ha gustado cómo ha derivado la conversación de la Mesa de Ideas. Hemos empezado hablando de ciencia bá-sica y ciencia aplicada, que no es el concepto más apropiado hoy en día. Ahora se habla más de investigación orientada o no orientada. En este contexto, com-parto que lo que queda en esta relación es el gap temporal y hay que tenerlo en cuenta. Pero también hay que tener en cuenta las complementariedades, es decir, no todos tenemos que hacer todo. En algunos momentos tienen que ser más intensivo el trabajo de la universidad o de los centros haciendo una inves-tigación más exploradora, mientras que en otros momentos se tiene que hacer una innovación más explotadora. También tenemos que tener presente que no podemos pretender como país que todo sea investigación orientada, tene-mos que ser capaces de definir modelos mixtos de investigación orientada que conviva con las empresas y las necesidades del entorno y una parte de inves-tigación no orientada, que tradicionalmente han llevado las universidades. ¿A qué me refiero?, a que los avances igual no tienen una aplicación hoy o mañana pero la tendrán y siempre tenemos que estar preparados. Así por ejemplo, las aplicaciones de los láseres que se están haciendo ahora tienen un desarrollo muy anterior. La propia UE dice que se tiene que seguir apostando por el co-nocimiento frontera porque eso permitirá después toda la tracción de nuestra industria y servicios. Nuestro reto y debate es en qué medida tiene que darse financiación para apoyar esta investigación no orientada. ¿Cuánto estamos dis-puestos a apostar por ello? Ese es uno de los grandes retos junto con la otra pata, que es que las administraciones tienen que estar dispuestas a apoyarnos.

José Esmoris:¿Tenéis toda la información que necesitáis de la industria para que la investiga-ción orientada también influya en la no orientada?

Amaia Maseda:La respuesta es muy sencilla, no tenemos toda la información. Desde la uni-versidad hemos intentado generar antenas para buscar e identificar qué es lo que realmente se necesita. Es lo que se llama la transferencia inversa, debemos saber qué se necesita para después poderlo hacer bien. Nosotros hemos tra-bajado con muchas de las industrias representadas en esta mesa y me permito poner como ejemplo a Ibarmia, con la que hemos desarrollado, por ejemplo, una máquina 3D. Esto ha sido posible porque se lleva 10 años de generación de espacios de confianza. Es decir, las cosas salen porque hay espacios generados. Tenemos que ser capaces de establecer antenas para saber qué es lo que se necesita, abrir las puertas de entrada de la universidad y las empresas. No es falta de voluntad pero, a veces, lo inmediato puede a lo importante.

José Esmoris:Hemos hecho un recorrido desde dónde estamos y ahora estamos hablando de esa parte de la investigación orientada o no orientada, de todo ese entorno relacional. Sin embargo, ahora me gustaría introducir un elemento nuevo en la discusión: nos hablan cada vez más de crecer en empresas de base tecnológi-ca, de internacionalizarse, de emprendizaje. Yo me imagino que las empresas nuevas y las que llevan mucho tiempo en el mercado también se enfrentan a

unas necesidades de compaginar la investigación, la innovación y, además, ser cada vez más competitivas en un mercado más global. ¿Cómo se afrontan estos retos, como se intentan solucionar?

Antonio Martínez:Los retos son conocidos y fáciles de identificar: saber aquello que te hace dife-rente, protegerlo, que esa protección no infrinja derechos de terceros, sortear los sistemas regulatorios de los diferentes países. Sin embargo, el principal reto al que se enfrenta la empresa joven es el tiempo y el tiempo significa dinero; cada día que pase tienes que pagar todos tus gastos y esto se traduce en ne-cesidad de financiación. Este ha sido el principal problema que hemos sufrido agudamente las empresas jóvenes. Quizás la financiación necesaria para lanzar el proyecto es asequible; existen herramientas y en Euskadi son muy potentes. Luego hay una travesía del desierto que es cuando necesitas entre 1 y 5 mi-llones de euros, que son muy difíciles de conseguir. Este es el rango que hay que mejorar ya que esta es la financiación que te permite dar el salto de una buena idea a darle cuerpo. Una buena idea que surge de la Universidad tienes

que adaptarla y ponerla en los diferentes mercados. Para nosotros, cuanto más madura venga una idea de la universidad mejor, eso te ahorra tiempo y dinero y te va a permitir la supervivencia. En el momento en que hay que desarrollarla necesitas plataformas tecnológicas muy potentes y caras quien te las puede proporcionar es la Universidad o un Centro Tecnológico. Durante esta etapa del proyecto, el vínculo entre universidad y empresa debe ser muy estrecho para apoyar a la empresa y hacerla más competitiva en el campo internacional.

“El reto de la industria es orientar su investigación para adelantarse a sus necesidades futuras”

Arrate Olaiz

MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?

Page 40: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Azuzena Castro:Sí, evidentemente Antonio acaba de aludir a un talón de Aquiles de empresas tecnológicas como las nuestras. Hemos aprendido el camino para la creación de nuevas empresas y cómo financiarlas en las etapas iniciales, pero la entrada de los productos en el mercado global, requiere adecuación del producto a los diferentes países y legislaciones y por tanto, con una introducción del producto muy lenta que sigue necesitando mucha inversión. Es importante atraer inver-sores especializados que cubran esos gaps de financiación, con inversiones de 3 a 5 millones de euros. La tecnología es muy importante, nosotros la hemos desarrollado internamente, pero en estos momentos, el principal reto del sec-tor es llegar al mercado global. Requiere mucho esfuerzo y es primordial la atracción de inversores especializados.

José Esmoris:Arrate, vosotros en Ibarmia lleváis ya 60 años en un mercado muy competitivo. ¿Cómo se hace eso en una empresa que tiene que estar reinventándose conti-nuamente para sobrevivir y ser líder en su sector?

Arrate Olaiz:Has descrito la situación perfectamente, sobre todo hablando de una típica pyme vasca como nosotros de menos de 100 trabajadores y una tasa de inter-nacionalización cercana al 95% que cada día se enfrenta a competidores mu-cho más grandes. Con todo este panorama, para nosotros es fundamental el dinamismo. Nos reinventamos de manera continua pero sabiendo hacia dónde

vamos y en qué nos reinventamos y tenemos que darle la velocidad necesa-ria para lanzar cosas al mercado con la madurez suficiente, ya que vendemos un producto personalizado y por el tipo de inversión que requiere nuestros prototipos no se testan. La investigación y el acompañamiento de centros e universidades nos resulta fundamental, en primer lugar, para reducir el tiempo de llegada al mercado y, además, para garantizar que aquello que estamos lle-vando al mercado sale bien a la primera. Necesitamos ese apoyo para poder ser competitivos de manera sostenida. ¿Cómo lo hacemos? No es un camino fácil, pero la colaboración con agentes tecnológicos está siendo clave y el cambio de chip y los equipos multidisciplinares han ayudado mucho. Para nosotros los agentes tecnológicos forman parte de nuestra empresa, de nuestra reflexión tecnológica, cuentan desde el principio.

José Esmoris:Si hablamos del sector de la energía sabemos que tiene unos retos muy im-portantes, no sólo de las empresas, sino de los retos que le vienen de la propia sociedad, es decir, la reducción de emisiones, el cambio climático, etc. Eso exige como empresas un trabajo muy específico de investigación pero viéndolo des-de el punto de vista de clúster, con una visión más global del sector. ¿Dónde están las nuevas exigencias de investigación con la universidad, tanto orientada como no orientada? ¿Cómo lo veis desde el mundo energético José Ignacio?

José Ignacio Hormaeche:Como se suele decir me alegra mucho que me hagas esa pregunta. Has citado

“Somos un país pequeño y hay que intentar aunar esfuerzos. Para lograrlo, necesitamos un conocimiento de lo que hacemos todos en el sector de la investigación”

Azucena Castro

“Hay que ser capaces de saber combinar las capacidades de toda la red de ciencia e investigación vasca con la innovación social”

María José Aranguren

Page 41: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

41

MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?

la lucha contra el cambio climático. Tenemos todos muy fresco el acuerdo de París y como sector energético ya nos estamos preocupando de cómo se va a trasladar esto a la industria, de sus implicaciones. Hay todo tipo de informes, incluso de temas de cotización en bolsa. He leído recientemente un artículo del New York Times expresamente dedicado a esta cuestión y citaba cuatro campos en los que este acuerdo iba a influir positivamente en su desarrollo. La buena noticia es que en los 4 campos nuestra industria tiene algo que decir. Hablaba de renovables (eólica y solar), almacenamiento de energía e incluso un apar-tado específico para el vehículo eléctrico. En el Clúster de Energía hay cuatro grupos de trabajo con estos temas, no nos pilla de sorpresa. Hay un esfuerzo que hacer con empresas muy bien posicionadas.

Tenemos por ejemplo una gran cadena de valor en la industria eólica con firmas que fabrican los diferentes componentes, la mayoría son pymes muy peque-ñas. Son empresas que han evolucionado en su mayoría de otros sectores y que aplicaron su experiencia a este sector y hoy en día son líderes a nivel mundial.

Lo que me permite ser optimista sobre los retos que se nos plantean es que tene-mos empresas que ya han hecho ese recorrido y ahora están en el siguiente, por ejemplo en el tema offshore. Quiero aprovechar a hacer un apunte porque me ha gustado lo que ha comentado antes Amaia Maseda sobre el tema de los espa-cios de confianza. Los modos de relación es una de las claves, hay que crear en-tornos más sistemáticos de relación. Hay que encontrar puntos de encuentro. En el campo de almacenamiento de energía, por ejemplo, es de esos que es funda-mental compaginar investigación orientada y no orientada. Nuestros grupos de trabajo tratan de que esos esfuerzos investigadores sean cada vez más cercanos a las necesidades del mercado, también para que la investigación menos orienta-da tenga siempre una referencia, que sepa dónde tiene que acabar aterrizando.

José Esmoris:Empezábamos la mesa hablando de si remábamos juntos, mencionábamos las líneas paralelas, esperando encontrarnos antes del infinito. ¿María José, como Directora General de Orkestra, crees que ya ha llegado la hora de converger? ¿Cómo lo ves desde el punto de vista de las personas que tienen que activar entornos? En definitiva, ¿cómo ves nuestro futuro?

María José Aranguren:Al final cuando hablamos de la investigación y la industria hablamos de perso-nas, yo sí creo que cada vez hay un mayor encuentro de personas que coinciden en ese camino. En este sentido, mi visión es optimista. Lo que sí veo es que en el mundo de la investigación el sistema de incentivos no ayuda mucho. En la universidad se incentivan las publicaciones y no tanto la transferencia, el trabajo con la industria. Los investigadores que tienen una motivación orientada a la in-dustria lo hacen porque les mueve cambiar las cosas, pero no porque el sistema de incentivos ayude. Por lo tanto, creo que si este sistema ayudase también en esto y buscamos fórmulas para que se valore el trabajo con la industria, habría un impulso.

En cuanto a perfiles, vemos que es muy difícil que en una única persona se combinen todos esos conocimientos. La realidad es compleja y cada vez te-nemos que tener más capacidad de trabajar con otros porque cada cual tiene unas cualidades diferentes. Cada vez es más importante el trabajo en equipo y eso requiere también un cambio en los estilos de liderazgo, más liderazgo com-partido, cooperativo, relacional y menos los basados en jerarquías. También tenemos que ir generando capacidad de trabajar en equipo entre diferentes, marcos más cooperativos van a ser claves para que esas líneas paralelas se encuentren.

José Esmoris en un momento del debate con Antonio Martínez.

Page 42: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

INV

ESTI

GACI

ÓN

PROY

ECTO

S DE

Un recubrimiento o coating se define como una capa de material depositada sobre una superficie cuya principal función es proteger el sustrato frente a agentes externos tales como agua, fenómenos atmosféricos, organismos vivos o seres humanos. Los recubrimientos más antiguos descubiertos por el hombre son las pinturas rupestres realizadas por los hombres de Neandertal y del Cro-magnon durante el Paleolítico Medio. En este periodo su función era exclusiva-mente decorativa. Posteriormente, los antiguos egipcios fabricaban una mezcla de materiales orgánicos-inorgánicos a base de cera de abejas, goma arábiga, brea y claras de huevo para implementar recubrimientos impermeables para sus barcos y esculturas de bronce entre los años 3000 y 1000 a.C. En Oriente, las diferentes culturas aplicaban barnices y lacas protectoras para cubrir obras de arte, muebles y edificios en el siglo II a.C. Desde entonces los recubrimientos se han usado en las distintas sociedades y culturas para proteger y conservar herramientas y objetos de la más diversa aplicación.

En la historia encontramos numerosos ejemplos de materiales de origen na-tural que protegen la superficie de agentes externos tales como la corrosión debida a humedad o el moho, ataques de determinados disolventes o el efec-to de la suciedad o las altas temperaturas de funcionamiento. Sin embargo, la tecnología de los recubrimientos fue descrita por primera vez en 1773 por Watin mientras que la primera fábrica dedicada en exclusiva a la fabricación de barnices aplicados como recubrimientos fue inaugurada en 1790 en Ingla-terra.[1] Durante los siglos XIX y XX la industria y la investigación en torno a los recubrimientos ha ido creciendo continuamente dando lugar un gran número de sistemas con diferentes configuraciones que van desde un simple capa a complejos dispositivos multicapa.

En la actualidad, con el desarrollo de la micro y la nanotecnología y su incorpo-ración al campo de los recubrimientos, estos han experimentado una nueva

Nuevas oportunidades en el desarrollo de recubrimientos funcionalesM.C. Morant-Miñana1,2, A. Rodriguez1,2, A. Zuzuarregui3

(1) CIC microGUNE, Polo de Innovación Garaia(2) CEIT-IK4 & Tecnun (University of Navarra)(3) CIC nanoGUNE Consolider

El desarrollo de la micro y la nanotecnología y su incorporación al campo de los recubrimientos ha permitido una nueva transformación de estos últimos, convirtiéndose en un elemento esencial tanto en la industria como en los campos más punteros de la investigación aplicada. Este artículo hace un recorrido por algunas oportunidades que surgen con el desarrollo de estos recubrimientos funcionales.

Page 43: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

43

transformación convirtiéndose en un elemento esencial tanto en la industria como en los campos más punteros de la investigación aplicada. En este con-texto ha aparecido el concepto de recubrimiento funcional (RF) o functional coating, nombre que se debe a que los recubrimientos han adquirido una serie de propiedades que poseen una funcionalidad adicional además de las clásicas propiedades protectoras o decorativas de los recubrimientos al uso. Este avan-ce responde a la necesidad existente en muchas aplicaciones tecnológicas de fabricar e implementar nuevos materiales con propiedades muy bien definidas que además de cumplir los requerimientos pertinentes añadan un valor adicio-nal al material y le doten de una importante ventaja competitiva respecto a la tecnología existente.

Tipos, naturaleza y composición de los coatingsLos RF deben poseer propiedades concretas que los conviertan en un elemento esencial en la producción de materiales avanzados. Además, independiente-mente de la aplicación para la que son diseñados, se deben tener en cuenta otras características como la durabilidad de la capa y su comportamiento con el tiempo, la reproducibilidad del proceso de fabricación, el coste de los materiales y su obtención, la facilidad de aplicación del RF sobre el sustrato, todo ello sin perder de vista un acabado superficial adecuado y la sostenibilidad medioam-biental.[2] Por todo ello, es fundamental diseñar la estructura del RF, los materia-les que lo componen y el método de fabricación. La estructura de los RF varía en función de la naturaleza del sustrato, del tipo de material y de la función que vaya a desarrollar el RF. En general tienen una disposición tipo sándwich con tres elementos en común: (i) una película adherente; (ii) la capa funcional y (iii) la capa protectora.

“La estructura del RF varía según la naturaleza del sustrato, el tipo de material y la función que vaya a desempeñar”

La capa adherente se deposita normalmente antes que el RF. Su papel es la de asegurar la limpieza del sustrato y favorecer la interacción entre las capas su-perficiales y el sustrato. De este modo se consigue reducir las diferencias entre las capas de los distintos materiales del RF. Esta capa se suele aplicar después de la limpieza y/o preparación del sustrato y suele tener espesores de poco na-nómetros. La rugosidad del mismo también es un parámetro a tener en cuenta ya que influye en el conformado de la capa funcional.

El siguiente elemento es la capa funcional, que normalmente se suele depositar inmediatamente después la capa de adhesión para evitar una posible degrada-ción de la primera. Puede estar formada por una monocapa o por varias capas (multicapa) que en función de su organización puede dar lugar a numerosas conformaciones. La capa funcional, y por lo tanto los RF puede fabricarse a par-tir de elementos o compuestos orgánicos, inorgánicos o híbridos que consisten en la dispersión de materiales inorgánicos dentro de una matriz orgánica. Entre los recubrimientos fabricados a partir de materiales inorgánicos se encuentran

los metálicos, los semiconductores y los recubrimientos cerámicos. A pesar de que los recubrimientos metálicos se han utilizado durante muchos años como ánodos de sacrificio y a modo de protección de otros metales nobles, poseen otras funciones que en los últimos años han dirigido su uso a la implementación de sensores de gas y controladores mecánicos. Entre los materiales semicon-ductores, el ZnO es el material más empleado ya que además de las consabidas propiedades eléctricas, muestra actividad fotocatalítica y fotoluminiscente inte-resante para aplicaciones tales como tecnología solar y optoelectrónica.[3] Los recubrimientos cerámicos podrían estudiarse como un grupo individual debido a la gran cantidad de artículos y patentes publicadas al respecto. Entre la inmen-sidad de materiales empleados, el TiO2 goza de una especial relevancia por sus particulares propiedades que permiten su utilización en una amplia gama de aplicaciones que van desde los recubrimientos biocompatibles a los dispositivos solares de alta reflexión.[4]

“En los últimos años ha ido adquiriendo relevancia los denominados recubrimientos híbridos frente a los compuesto orgánicos e inorgánicos”

Los recubrimientos orgánicos están compuestos en su mayoría por polímeros o copolímeros que presentan diferentes propiedades en función de su estructu-ra. Las aplicaciones de estos recubrimientos están basadas en sus propiedades eléctricas (conductores, aislantes o semiconductores) y en su interacción con sistemas acuosos (hidrófobos, hidrófilos o anfifílicos). En los últimos años, sin embargo, otro tipo de recubrimientos funcionales ha ido adquiriendo relevan-cia, los denominados recubrimientos híbridos. Estos sistemas, compuestos por una mezcla de elementos orgánicos e inorgánicos hacen uso de las ventajas de ambos componentes para obtener materiales de propiedades avanzadas como protección ante la corrosión o recubrimientos anti-rayado.

Finalmente tenemos la capa superior. Normalmente, suele tener una función protectora del RF y suelen aislarlo del contacto con la humedad y del oxígeno. Por ello la capa debe de estar libre de micro grietas o agujeros que pueden ocurrir durante el proceso de depósito para evitar la presencia de canales que

PROYECTOS DE INVESTIGACIÓN - Nuevas Oportunidades en el desarrollo de recubrimientos funcionales

Figura 1. Evolución histórica de los recubrimientos funcionales

Figura 2. Estructura de los RF (a) y tipos de configuración más habitual encontrada en la

bibliografía: (b) RF estructurados; (c) RF entrecruzados; (d) RF mezclados; (e) RF multicapa;

(f) RF de nanopartículas; (g) RF nanocompuesto híbrido (h) RF de SAM; (i) RF monocapa.

Page 44: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

permitan la difusión de moléculas que acaben dañando el RF. Esta capa, que se conoce como encapsulado, puede estar o no presente y puede aportar una función extra al RF.

Técnicas de fabricación de recubrimientos funcionalesLos métodos para la síntesis o depósito de los RF en la micro y nano escala pueden clasificarse de forma intuitiva en función del estado de agregación de los reactivos o precursores utilizados en el proceso.

Las técnicas de depósito en fase vapor engloban una serie de métodos, am-pliamente conocidos y estudiados como la pulverización catódica o sputtering (Physical Vapour Deposition, PVD) y el depósito químico en fase vapor (Chemical Vapour Deposition, CVD). Debido a su extendido uso en microelectrónica, la fa-bricación de recubrimientos funcionales mediante estos métodos se ha enfoca-do a su uso en implantes, protección de herramientas y sistemas de embalado inteligentes. Al margen de éstas técnicas, el depósito de capas atómicas (Atomic Layer Deposition, ALD) se ha erigido como un eficiente y valioso método para la fabricación de recubrimientos funcionales. El ALD es una variante particular del CVD, con la peculiaridad de que se trata de una reacción superficial ya que los dos precursores interaccionan con la superficie del sustrato en semi-reacciones separadas y no entre ellos. Los precursores son introducidos de forma secuen-cial en la cámara de depósito de forma que tras un ciclo del mismo se obtiene una monocapa del material objetivo sobre la superficie del sustrato permitien-do el recubrimiento de estructuras en tres dimensiones con una precisión na-nométrica.[5] El ALD se ha utilizado para la fabricación de micro y nano-recubri-mientos funcionales inorgánicos e híbridos con aplicaciones hidrofóbicas, de alta reflexión y conductores.[4]

Entre la gran variedad de técnicas de depósito de RF en fase líquida, el revesti-miento por baño o inmersión (dip coating) es el más antiguo y su metodología no ha sufrido grandes variaciones a lo largo de los años. Una variante de ésta técnica es el depósito capa a capa (Layer by Layer deposition, LbL). Este proce-so aprovecha las propiedades electrostáticas del sustrato y de los precursores para fabricar multicapas formadas en la mayoría de los casos por copolímeros o polielectrolitos. El uso de esta técnica ha permitido la fabricación de superficies con propiedades humectantes e ignífugas.[6] Otra técnica en fase líquida muy

utilizada a nivel industrial consiste en recubrir una pieza con una capa fina de metal mediante un método electroquímico denominado electrodepósito. Esta técnica se usa principalmente para dotar a los metales de resistencia frente a la corrosión y tiene aplicaciones en sectores tan variados como la joyería y la industria del automóvil. El método sol-gel es una técnica que consiste en la for-mación de una solución homogénea y su posterior gelificación por policonden-sación. Con este método pueden fabricarse RF tanto orgánicos como inorgáni-cos tales como las superficies hidrofóbicas auto-limpiables y los dispositivos y tejidos de camuflaje.

Las técnicas de depósito en fase sólida son a menudo las más desconocidas en el mundo académico a pesar de tener una larga trayectoria en la industria. Una de las técnicas que ha supuesto mayores avances en el área de los recubrimien-tos funcionales es el depósito mediante spray, facilitado en la mayoría de los casos por un aporte calorífico (eléctrico o químico). Dadas las características de esta técnica, se ha utilizado para el procesado de materiales metálicos, óxidos metálicos y otros compuestos inorgánicos en la fabricación de recubrimientos antibacterianos y de barrera térmica. [7,8]

Tras la fase de depósito, ciertas aplicaciones requieren modificar la micro o na-noestructura del RF obtenido. En ese sentido, la nanoestructuración láser es una de las técnicas más versátiles y consiste en un conjunto de técnicas que, de manera localizada, modifican física y/o químicamente el RF tras irradiarlo con pulsos de luz de distinta longitudes de onda y duración. Esta variación en los parámetros de procesado es la que permite su uso para la modificación de todo tipo de materiales poliméricos, metálicos y semiconductores.

AplicacionesLos RF pueden clasificarse en función de las propiedades funcionales. Así en-contramos recubrimientos con propiedades ópticas, térmicas, estructurales, mecánicas, fisicoquímicas, magnéticas, eléctricas y biológicas.

Los RF que responden a estímulos generados por luz se engloban dentro de los RF con propiedades ópticas. En este tipo de RF se encuentran aquellos que son capaces de cambiar de manera reversible de una forma estable a otra menos estable y que presentan un espectro de absorción diferente al de la primera. Muchos de estos RF están formados por materiales híbridos orgánicos-inorgáni-cos preparados por métodos sencillos que de manera reproducible y sostenible permiten obtener RF con propiedades fotoluminiscentes. Dentro de este grupo también encontramos superficies que requieren alta reflectividad para concen-trar la mayor energía solar posible en los receptores situados en las plantas solares. Así recubrimientos de films de TiO2 sobre Teflón (FEP) mejoran la adhe-sión de los espejos reflectantes fabricados en Ag.[4]

“Existen recubrimientos con propiedades ópticas, térmicas, estructurales, mecánicas, fisicoquímicas, magnéticas, eléctricas y biológicas”

Algunos elementos como las turbinas necesitan altas temperatura de operación para maximizar su eficiencia. En la actualidad el incremento de esa temperatura ha sido posible gracias al uso de recubrimientos como barrera térmica. Otra de las aplicaciones de los RF con excelentes propiedades térmicas es el uso de ma-teriales híbridos formados por gomas como el butadieno-acrilonitrilo (NBR) o el butadieno-estireno (SBR) en el que se dispersan nanotubos de halloysita y ftalo-cianinas que muestran una mejora en las propiedades térmicas y un aumento de su capacidad calorífica lo que permite su uso como materiales ignífugos.[9]

Las aleaciones de titano se usan a nivel industrial en muchas aplicaciones, prin-cipalmente aquellas relacionadas con la mejora de las propiedades estructu-

Figura 3. Clasificación de los recubrimientos funcionales según su naturaleza, técnicas de

fabricación y aplicaciones más habituales.

Page 45: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

45

rales y mecánicas. Para mejorar su dureza, se preparan RF multicapa de TiN/Ti sobre aleaciones de Ti6Al4V que muestran propiedades superiores en cuanto a dureza en comparación con los fabricados a partir de depósitos de PVD. Ade-más estos RF aumentan el tiempo de vida del Ti en juntas y en turbinas someti-das a desgaste por erosión o abrasión.[10]

En muchas aplicaciones, controlar las propiedades fisicoquímicas tales como la humectabilidad de los sustratos tiene mucho interés. Así cuando un material sólido dispone de una alta energía superficial, es decir que tiene tendencia para atraer, y el líquido dispone de una baja tensión superficial, es decir tiene poca resistencia a deformarse o romperse, es cuando se produce un buen mojado del líquido sobre el sólido. Por el contrario, para los sólidos con una baja energía superficial, es muy difícil conseguir una buena humectabilidad y una buena ad-hesión con cualquier tipo de material, tal y como ocurre con el funcionamiento antiadherente del Teflón, el efecto antigraffiti e hidrófugo de algunos materiales plásticos o la fácil limpieza de las pizarras plásticas con el uso de ciertos rotula-dores no indelebles. Para este tipo de materiales, no es posible conseguir una buena humectabilidad a no ser que se realice un tratamiento superficial que aumente la energía superficial del sólido. [11]

La corrosión es un proceso espontáneo en el que los metales acaban producien-do especies iónicas como óxidos o hidróxidos. Una de las técnicas más habitua-les para prevenir la corrosión es usar RF. La mayoría de esos recubrimientos es-tán formados por polímeros como el polietileno. Para mejorar las propiedades de barrera del polímero se suelen seguir dos estrategias: (i) añadir partículas inorgánicas y formar un composite o añadir un recubrimiento a modo de barre-ra protectora usando materiales cerámicos como el Al2O3. El uso de polímeros anfifílicos como películas protectoras reordena las moléculas de agua deposita-das en la superficie inhibiendo la organización del agua en cristales y evitando la formación de hielo en la superficie de los materiales.

En cuanto a los RF con propiedades eléctricas, el PVC es un típico material ais-lante usado como protector que acumula cargas eléctricas en su superficie lo que lo convierte en un excelente material antiestático. Es muy interesante aumentar la conductividad de este tipo de materiales introduciendo grafeno o nanohilos de Ag que además mejoran la temperatura de transición (Tg) y la constante elástica del compuesto. [12]

La introducción de propiedades electrónicas excluyentes es posible mediante la mezcla de dos componentes electrónicos dentro de una red de dos fases que se interrelacionan entre sí. En este sentido se ha conseguido fabricar un dispositivo de almacenamiento en el que la biestabilidad y la no volatilidad de un polímero ferroeléctrico (P(VDF–TrFE) pueden ser combinadas con la conduc-tividad y la rectificación de un semiconductor (P3HT). [13]

Desde hace unos años, los RF han dejado de considerarse una herramienta para mejorar la biocompatibilidad de los sustratos a pasar a usarse como superficies con diferentes propiedades tales como la liberación controlada de fármacos acompañada muchas veces de un control sobre la adhesión celular. Además,

la modificación de superficies con diferentes materiales biológicos (tejidos, re-ceptores de células, aptámeros, ácidos nucleicos, proteínas) ha dado lugar al campo de los biosensores. Por ejemplo, modificando superficies de Au con áci-dos nucleicos se han obtenido biosensores electroquímicos que son capaces de detectar a Campilobacter jejuni a partir de muestra real.[14] Estudios recientes han mostrado que el ZnO tiene propiedades antimicrobianas frente a bacterias Gram positivas y Gram-negativas. De esta manera, RF homogéneos que consis-ten en cristales de estructura hexagonal (wurzita) son capaces de desactivar el 90% de microorganismos en las primeras 2 horas de tratamiento. Esto ocurre por la producción de H2O2 que produce daños en la membrana de la célula al tiempo que inhibe la formación de biofilms.[15]

Conclusiones y perspectivas futurasLa conjunción de las propiedades intrínsecas de los recubrimientos funcionales y los avances de las micro y nanotecnologías están propiciando un avance ex-ponencial en el campo de los RF así como un desarrollo tanto de las técnicas de fabricación como de las posibles aplicaciones a las que van dirigidos. Los RF han mostrado tener un gran potencial al pasar de ser utilizados para aplicaciones más tradicionales (decoración y protección) a utilizarse en un gran número de aplicaciones enmarcadas en casi todos los campos del conocimiento. Sin em-bargo, la búsqueda de nuevos materiales y la utilización de los ya existentes para desarrollar nuevas aplicaciones es continua por lo que nos encontramos en un área del conocimiento con un gran potencial y que puede dar lugar a sis-temas con propiedades sorprendentes que no se pueden imaginar hoy en día.

Referencias[1] M. Watin, L´Art Du Peintre, Doreur et Vernisseur, 1773.

[2] A. Mathiazhagan, R. Joseph, Int. J. Chem. Eng. Appl. 2011, 2, 228.

[3] F. Grasset, G. Starukh, L. Spanhel, S. Ababou-Girard, D. S. Su, A. Klein, Adv. Mater. 2005, 17, 294.

[4] A. Zuzuarregui, B. Coto, J. Rodríguez, K. E. Gregorczyk, U. Ruiz de Gopegui, J. Barriga, M. Knez, Appl. Phys. Lett. 2015, 107, 061602.

[5] M. Knez, K. Nielsch, L. Niinistö Adv. Mater. 2007, 19, 3425.

[6] X. Huang, N. S. Zacharia, J. Appl. Polym. Sci. 2015, 132, 42767.

[7] X. Chen, Y. Gong, X. Suo, J. Huang, Y. Liu, H. Li, Appl. Surf. Sci. 2015, Surf. Sci. 2015, 356, 639.

[8] J. Gao, C. Zhao, J. Zhou, C. Li, Y. Shao, C. Shi, Y. Zhu, Appl. Surf. Sci. 2015, 355, 593.

[9] P. Rybiński, A. Pająk, G. Janowska, M. Jóźwiak, J. Appl. Polym. Sci. 2015, 132, 42593.

[10] J. C. Avelar-Batista Wilson, S. Wu, I. Gotman, J. Housden, E. Y. Gutmanas, Mater. Lett. 2015, 157, 45.

[11] A. Rodríguez, M.C. Morant-Miñana, A. Dias-Ponte, M. Martínez-Calderón, M. Gómez-Aranzadi, S.M. Olaizola, Appl. Surf. Sci. 2015, 351, 135.

[12] H. Wang, G. Xie, M. Fang, Z. Ying, Y. Tong, Y. Zeng, Compos. Part B Eng. 2015, 79, 444.

[13] K. Asadi, D. M. de Leeuw, B. de Boer, P. W. M. Blom, Nat. Mater. 2008, 7, 547.

[14] M. C. Morant-Miñana, J. Elizalde, Biosens. Bioelectron. 2015, 70, 491.

[15] T. O. Okyay, R. K. Bala, H. N. Nguyen, R. Atalay, Y. Bayam, D. F. Rodrigues, RSC Adv. 2015, 5, 2568.

PROYECTOS DE INVESTIGACIÓN - Nuevas Oportunidades en el desarrollo de recubrimientos funcionales

Figura 4. Ejemplos de diferentes aplicaciones de los RF desarrollados

Page 46: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

INV

ESTI

GACI

ÓN

PROY

ECTO

S DE

La necesidad de la sociedad actual de disponer de energía “in situ” a fin de cubrir la creciente demanda energética de dispositivos móviles y estacionarios, tanto en el ámbito de las comunicaciones como en otras aplicaciones de las nuevas tecnologías (ordenadores, teléfonos móviles, automoción…), ha provo-cado un aumento notable en la búsqueda de nuevos materiales que puedan almacenar dicha energía de forma eficaz. [1,2]

Por otra parte, la emisión de gases producida por la quema de combustibles fósiles y biomasa no sólo contamina el aire de las ciudades grandes y modernas sino que también favorece el calentamiento global de consecuencias alarman-tes.[3] Además, la dependencia del petróleo y/o del gas crea vulnerabilidades adi-cionales en muchos países que pueden poner en peligro su estabilidad social. Estos hechos están captando la atención de los gobiernos que intentan reconsi-derar la utilización de fuentes de energía alternativas y reemplazar por ejemplo, los motores de combustión interna por motores eléctricos.[4,5]

Existen otras fuentes de energía alternativas al petróleo y al gas; por un lado la energía nuclear, que aunque como las dos anteriores es una fuente de energía no renovable, supone otro medio para producir energía constante, pero hay que tener en cuenta los problemas asociados al almacenamiento y radiactividad de los residuos que se generan. Por otro lado, las energías solar, eólica y mare-motriz que se engloban dentro de las fuentes de energía renovables o verdes, representan una opción más respetuosa con el medio ambiente para obtener energía. La gran desventaja de este tipo de energías es que son variables en el tiempo y no extensibles a grandes superficies, por lo que requieren un disposi-tivo de almacenamiento.

Una de las formas más adecuadas de acumular la energía es mediante energía química almacenada en baterías, presentando la ventaja añadida de que puede hacerse de forma portátil, ya que las baterías proporcionan energía química liberada como energía eléctrica con una alta eficiencia de conversión y sin pro-ducir gases contaminantes.

Baterías de ion-sodio: una alternativa más que factible para resolver los problemas energéticosfuturosElena C. GonzaloPostdoctoral Reseacher CIC energiGUNE. Power Storage; Batteries and Supercaps Research Area.

El CIC energiGUNE cuenta con uno de los grupos de investigación más competitivos y numerosos de Europa dedicado al estudio de las baterías recargables de ion-sodio. Estas baterías se proponen como una solución al almacenamiento de energía de forma más segura y con un menor coste que las tecnologías actuales.

Page 47: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

47

Las baterías pueden clasificarse en dos grupos: baterías primarias y baterías secundarias.

Las baterías primarias son aquellas baterías en las que la reacción de oxidación reducción (reacción redox), pérdida y ganancia de electrones, se produce de manera irreversible, de modo que una vez que se ha producido la reacción es-pontánea se agotan los materiales, y ya no pueden ser recargadas y utilizadas de nuevo. Un ejemplo de ellas son las que se utilizan en las calculadoras o en los marcapasos. (Figura 1a y 1b).

“Algunos estudios recientes indican que los recursos de litio naturales pueden no llegar a satisfacer en el año 2025 las demandas del litio necesarias para todos los equipos de esta era digital, de “smart cities” y de coches eléctricos”

Las baterías secundarias, también llamadas recargables, son aquellas en las que la energía liberada puede ser restituida de manera reversible mediante el uso de una fuente externa de electricidad. Así pues, se trata por tanto de una reac-ción reversible, por la que en la descarga de la batería se produce una reacción

espontánea unida a la liberación de la energía asociada. En el proceso contrario, durante la carga, se producirá la reacción inversa no espontánea a costa de consumir energía actuando entonces el sistema como una célula electrolítica. Algunos ejemplos bien conocidos son las baterías de los teléfonos móviles, de los ordenadores portátiles y las de los vehículos eléctricos. (Figura 1c y 1d).

Una batería o celda galvánica, cómo se ha mencionado anteriormente, es un dispositivo que convierte energía química en energía eléctrica mediante pro-cesos de oxidación y reducción. La batería está constituida por dos electrodos: ánodo y cátodo y un electrolito; que es el que permite el flujo de las especies químicas de un electrodo al otro.

Cuando un componente (material de uno de los electrodos) de la celda se oxida, libera electrones que abandonan dicho material y viajan por un circuito exter-no produciendo trabajo (energía). Estos electrones vuelven a incorporarse a la celda a través del otro electrodo, reduciendo el material del electrodo opuesto. Así pues, si la reacción que se pretende ha de ser espontánea, los materiales que se utilizan deben ser fácilmente oxidables y reducibles respectivamente. En la interfase se produce una reacción química de transferencia de electrones de una especie a otra que recibe el nombre de reacción de oxidación-reducción o reacción redox. Esta transferencia electrónica se puede separar formalmente en dos semirreacciones; una de oxidación que se produce en el ánodo y otra de reducción que se produce en el cátodo. La figura 2 muestra un esquema simple de una batería recargable de litio ion (LiB).

Para que un material pueda ser un candidato adecuado a electrodo para ba-terías recargables deben considerarse diversos parámetros en función de los cuales los materiales han de cumplir ciertos requisitos.[6] Estos se describen bre-vemente a continuación:

Capacidad: es una magnitud que indica la cantidad de electricidad que puede almacenarse en una batería, o lo que es lo mismo, el número de electrones que circula por el circuito externo.

Voltaje. La relación de voltaje frente a capacidad durante un ciclo de carga-des-carga obtenida a una velocidad dada C/n entre 2 voltajes límite dados sirve para caracterizar un material electródico. El voltaje medio VM se puede definir así:VM= (∫t Vdt)/n

Energía específica. Los sistemas que operan a alto voltaje proporcionan alta energía específica y volumétrica. La energía específica, εe, es el producto de la capacidad específica y del potencial de salida:εe =Qe E

Potencia. se puede calcular bajo condiciones de corriente constante I con la siguiente fórmula:P(W)= I(A)VM(Volts)

Ciclabilidad. Una buena ciclabilidad, esto es una pequeña disminución de la capacidad con el número de ciclos de carga y descarga, es una condición esen-cial para que un material pueda ser utilizado como electrodo en una batería secundaria. Una reacción reversible con una buena estabilidad de la interfase electrodo-electrolito dará lugar a una buena ciclabilidad o lo que es lo mismo a una larga vida de la pila.

Toxicidad y coste, rango de temperatura al que operará la batería y estabi-lidad de los materiales son otros tres parámetros fundamentales a la hora de seleccionar un material.

Desde que SONY comercializara en 1991 la primera batería de litio ion en la que el óxido de litio y cobalto (LiCoO2, Véase Figura 3) actuaba como cátodo y el carbón como ánodo, han sido numerosos los grupos de investigación que se han volcado en el estudio de materiales catódicos y anódicos para mejorar las prestaciones de esas baterías de litio. [7,8]

Algunos estudios recientes indican que los recursos de litio naturales pueden no llegar a satisfacer en el año 2025 las demandas del litio necesarias para todos

Figura 1. a) y b) Baterías primarias para calculadora y marcapasos. c) y d) Baterías secunda-

rias para teléfonos móviles y ordenadores portátiles.

Figura 2. Esquema del funcionamiento de una batería recargable.

PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible

Page 48: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

los equipos de esta era digital, de “smart cities” y de coches eléctricos teniendo en cuenta en las estimaciones el reciclado de las baterías de litio.[9,10] Además hay que destacar la situación geográfica aislada y la irregular distribución de los recursos de litio que pueden llegar a ser un problema político en el futuro más próximo.[11] Por tanto la búsqueda de otros sistemas de energía es más que necesaria. Una de las alternativas más fascinantes a las baterías de litio ion son las baterías de ion sodio. Estas baterías de ion sodio constituyen una pieza clave en el almacenamiento de energía de forma estacionaria debido entre otras ra-zones a la abundancia natural del sodio (el sexto elemento más abundante), su bajo precio y su similitud con la química ya conocida del ion litio. Gran parte de la comunidad científica está ahora dedicada al estudio de las baterías ion sodio que podrán competir en un corto espacio de tiempo con las ya comercializadas de litio ion. [12,13] Las aplicaciones más adecuadas para las baterías de sodio están unidas a las grandes superficies de red eléctrica donde los costes de operación y la durabilidad de las baterías son los aspectos más importantes del sistema. Como contrapartida; las baterías de ion sodio no podrán alcanzar la densidad energética que poseen las baterías de ion litio ya que el sodio es tres veces más pesado que el litio y el potencial estándar del sodio (2.7V) es menor que el del litio (3.04V) con respecto al electrodo de referencia de hidrógeno.

“La abundancia natural del sodio (el sexto elemento más abundante), su bajo precio y su similitud con la química ya conocida del ion litio hacen a las baterías de ion sodio una pieza clave en el almacenamiento de energía de forma estacionaria”

La apuesta del CIC energiGUNE por las baterías de ion sodio ha sido funda-mental desde sus inicios como centro de investigación en el año 2011. El centro dirigido hasta octubre de 2015 por Jesús María Goiri y actualmente por Nuria Gisbert, cuenta con uno de los grupos más numerosos y competitivos de Europa

dirigido por el catedrático y Director Científico del área de almacenamiento de energía electroquímica EES del CIC energiGUNE, el Prof. Teófilo Rojo Aparicio. El grupo de investigación está dedicado al estudio de la mayor parte de las fa-milias de materiales que constituyen los componentes fundamentales de una batería: ánodo, electrolito y cátodo así como al estudio de las interfases entre ánodo-electrolito y cátodo-electrolito. La ingente actividad del grupo de investi-gación se ha visto plasmada en numerosos artículos científicos en revistas inter-nacionales de alto índice de impacto así como en cuatro artículos invitados de revisión del estado del arte en la revista Energy and Environmental Science.[12a, b,

13, 14] (Factor de impacto: 20.523 en el año 2014).

“La línea de prototipado del CIC energiGUNE, que se encuentra alojada en una sala seca con condiciones controladas de humedad, dispondrá de todo el equipamiento necesario para la fabricación de baterías de tipo coin y pouch cell”

La investigación en nuevos materiales anódicos en el CIC energiGUNE abarca materiales tan prometedores como los titanatos de sodio con fórmula general AxTinO2n+1 o AxTinO2n+2 , de bajo coste, baja toxicidad, fácil fabricación y seguros. Concretamente el  Na2Ti3O7 posee el  potencial de inserción más bajo frente al sodio, (0.3 V vs. Na+/Na), hasta ahora reportado para un óxido  y por tanto es el óxido que actuando como ánodo posee mayor densidad energética y capaci-dad especifica de 178 mAh/g.[15] Otros materiales anódicos prometedores son las bases de Schiff. Estos compuestos electroactivos se sintetizan mediante la reacción de un bloque de diaminas alifáticas no conjugadas o aromáticas con-jugadas con una unidad de tereftaldehido. Dichos materiales son capaces de insertar un átomo de sodio por grupo azometino a voltajes de entre 0 y 1.5V frente a Na+/Na. Los potenciales redox pueden ser modificados en función de la conjugación de la cadena polimérica o mediante la inyección de sustituyentes donadores de electrones sobre las cadenas aromáticas. Los valores de capaci-dad electroquímica de estos compuestos llegan a valores de 350mAh/g.[16]

Figura 4. a) y b) Hornos para síntesis cerámica: tipo mufla y tubular respectivamente. c) mortero de ágata y navecilla de alúmina para la síntesis cerámica. d) horno de microondas.

Figura 3. Estructura de LiCoO2, material catódico comercial de las baterías recargables de

litio ion.

Page 49: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

49

El desarrollo de nuevos electrolitos más seguros y fiables que reemplacen a los actuales constituye también un gran desafío para los investigadores del CIC energiGUNE. La innovación que se propone a través de la investigación en elec-trolitos sólidos poliméricos implica una gran cantidad de ventajas en términos de simplicidad de diseño, bajo coste, fiabilidad y seguridad. De este modo se eliminarán los problemas derivados del uso de electrolitos líquidos orgánicos como fugas, evaporación del disolvente y cortocircuitos. El CIC energiGUNE cuenta con una línea de investigación destinada al estudio de Electrolitos Poli-méricos que está desarrollando nuevos materiales nanohíbridos para baterías ion sodio. Parte de este trabajo ha sido publicado en una revista científica de alto índice de impacto[17] y se ha materializado a su vez en una patente.[18]

Los materiales catódicos estudiados en el CIC energiGUNE se pueden clasificar en tres familias:

- Los fosfatos de metal de transición (MT) y sodio de fórmula general NaM-

TPO4, presentan una estructura tipo olivino, adecuada para la fácil inserción y desinserción de iones sodio. El NaFePO4 concretamente, exhibe una de las mayores capacidades electroquímicas reversibles (154 mAh/g) publicadas hasta ahora para un material catódico polianiónico, con un voltaje medio de 3V. Estos materiales presentan la ventaja de ser estables en condiciones atmosféricas y de estar constituidos por elementos no tóxicos y abundantes en la corteza terrestre. Como desventaja cabe señalar que estos materiales no pueden ser sintetizados directamente, sólo a partir de los correspon-dientes materiales con litio mediante procesos consecutivos de delitiación y sodiación.[19] Actualmente se están realizando diversos ensayos para la pre-paración directa de estos materiales, que supondrá una fácil escalabilidad y por tanto repercutirá en la disminución del coste de los materiales y de la batería final.

- El azul de Prusia, AxFe2(CN)6.yH2O (A=K, Na), y sus derivados cristalizan en una estructura cúbica en la que los átomos de hierro, que presentan dos estados de oxidación distintos: +2 y +3, están enlazados por grupos ciano (-C≡N-) a lo largo de las 3 direcciones del espacio. Esta disposición crea, además, canales/túneles cúbicos cuya arista tiene un tamaño de la mitad del parámetro de una celda unidad, en la que se alojan de forma alterna iones alcalinos. Su fácil y competitivo método de obtención, que normal-mente tiene lugar a temperatura ambiente y en medio acuoso, así como las propiedades redox de los metales de transición presentes en la estructura y los canales/túneles abiertos y modulables que ésta posee para la difusión de iones, hacen de estos materiales buenos candidatos para electrodos en baterías ion sodio. Se ha elegido el azul de Prusia que presenta dos proce-

sos electroquímicos a 2.8V y 3.4V. Actualmente se están realizando diversos ensayos para la preparación directa de estos materiales, que supondrá una fácil escalabilidad y por tanto repercutirá en la disminución del coste de los materiales y de la batería final y 3.4V respectivamente con una capacidad electroquímica de 140mAh/g.[20]

- Los óxidos laminares de metales de transición (NaMTO2, MT = Cr, Mn, Fe, Co, Ni y combinaciones de dos o tres metales), se pueden considerar como unos de los mejores candidatos como cátodos en baterías ion sodio debido a su alta capacidad electroquímica (mayor de 160mAh/g), a su simplicidad estructural y al bajo coste de los reactivos que se utilizan para sintetizar-los, altas capacidades electroquímicas, altos voltajes de intercalación y fácil síntesis.[14] En este tipo de compuestos los iones sodio se colocan entre las capas de los metales de transición. En función de la distribución de las ca-pas de los metales de transición y la posición que ocupen los átomos de sodio en la estructura, se obtendrán distintos compuestos que presentarán diferentes propiedades electroquímicas. Así podremos leer fase P2-, O3- donde la letra representa la posición que ocupan los iones sodio dentro de la estructura tridimensional (P: Prisma trigonal, O; Octaédrica) y el número indica el orden de las capas de metal de transición-oxigeno.

En el año 2014 varios de los investigadores pertenecientes a la línea de investi-gación de sodio del CIC energiGUNE consiguieron obtener dos óxidos laminares de hierro y manganeso con la misma composición química y distinta estructura, logrando comparar directamente y por primera vez el comportamiento electro-químico de ambas fases y el impacto de la estructura en ellos, obteniendo unos

Figura 5. Estructura y comportamiento electroquímico de los electrodos positivos para bate-

rías de ion sodio P2- y O3- Na2/3Fe2/3Mn1/3O2.

PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible

Figura 6. a) Microscopio de barrido (SEM). b) Equipo de Resonancia Magnética Nuclear. c) Equipo de XPS.

Page 50: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

Figura 7. a) Difractograma de rayos X de un material catódico. b) Imagen de alta resolución

tomada por un microscopio de transmisión (HRTEM). c)-d)Distintas imágenes de materiales

catódicos tomadas con un SEM.

Figura 8. Dispositivos para medidas electroquímicas: a) celda Swagelok b) pila botón.

valores de densidad de energía de 386.05 Wh/Kg y 423.87 Wh/Kg para P2- y O3- Na2/3Fe2/3Mn1/3O2 respectivamente.[21] (Véase Figura 5). En el grupo de investiga-ción recientemente se ha obtenido un óxido laminar basado en manganeso que con la incorporación de un mínimo porcentaje de hierro y titanio (que no actúan en el proceso redox) consigue unos altos valores de capacidad electroquímica a altos valores de corriente (1C).[22]

El valor de la densidad de energía, aunque es prometedor, no es todavía compe-titivo con las baterías de litio. Encontrar la combinación y proporción adecuada de los metales de transición, con la estructura y morfología óptimas, permitirá alcanzar 500 Wh/Kg haciendo entonces estos materiales los candidatos adecua-dos para el escalado y prototipado de las baterías ion sodio.

“La apuesta de CIC energiGUNE por las baterías de ion sodio ha sido fundamental desde sus inicios como centro de investigación (año 2011). El centro cuenta con uno de los grupos más numerosos y competitivos de Europa dedicado al estudio de los materiales que constituyen una batería de ion sodio”

El procedimiento habitual de trabajo en el grupo de investigación de baterías ion sodio tiene tres etapas fundamentales; la primera es la síntesis mediante distintos métodos del material a estudio. Los métodos que se emplean abar-can desde los más tradicionales como la síntesis cerámica (altas temperaturas a tiempos prolongados) a los más novedosos como la síntesis con horno microon-das (tiempos cortos y temperaturas más moderadas). (Véase Figura 4)

Esta primera etapa va seguida de la caracterización estructural; en la que se

comprueba que el material obtenido es el que se perseguía, con técnicas como la difracción de rayos X y difracción de electrones. Mediante la microscopía elec-trónica de barrido (SEM), de transmisión (TEM) se comprueba la morfología, el tamaño y la homogeneidad del material sintetizado. Otras técnicas complemen-tarias que se utilizan son las técnicas espectroscópicas tales como Infrarrojo, Raman o Resonancia Magnética Nuclear. Esta última técnica se utiliza para estu-diar los coeficientes de difusión y la movilidad de los iones sodio dentro del ma-terial y así poder evaluar cuál será el mejor candidato para ser testeado como electrodo positivo en baterías recargables de ion sodio. (Véase Figuras 6 y 7)

“El CIC energiGUNE ha conseguido en cinco años abarcar todos los ámbitos del estudio y manufacturación de una batería, yendo desde la investigación más básica en la búsqueda de nuevos materiales hasta el prototipado, que es el enlace perfecto con la industria del País Vasco”

El uso de distintas técnicas de caracterización sofisticadas como el uso del XPS (Espectroscopia fotoelectrónica de Rayos X) permiten estudiar los procesos fi-sicoquímicos que ocurren dentro de una batería así como sus mecanismos de degradación que son para los investigadores del CIC energiGUNE y para la in-dustria de baterías de gran interés.

La última etapa del proceso de búsqueda de nuevos materiales es la caracteriza-ción electroquímica. Los materiales caracterizados como puros (una única fase) se testean en distintos dispositivos electroquímicos (cells) frente a sodio metá-lico (half cell) utilizando distintos electrolitos como NaClO4 o NaPF6 en distintos disolventes orgánicos. Se realizan pruebas galvanostáticas y potenciostáticas, ci-clovoltametrías en dispositivos llamados celdas Swagelok y en pilas botón (coin cells). El material que mayor valor de capacidad electroquímica presenta y ma-

Page 51: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

51

yor voltaje de trabajo (por tanto mayor energía), es el elegido para ser estudiado en una pila botón frente a carbono, consiguiendo así una pila completa (full coin cell) de alta densidad energética. En este proceso de caracterización algunos materiales son descartados si no llegan a cumplir los requisitos de capacidad electroquímica y/o voltaje. (Véase Figura 8)

Los nuevos materiales desarrollados serán utilizados en la línea de prototipado que el CIC energiGUNE está implantando. En esta línea, se analizará el efecto que tienen los diversos parámetros de fabricación de baterías en su posterior funcionamiento y se fabricarán baterías de tipo “pouch cell” o petaca que su-pondrán un avance considerable en el nivel de madurez de la tecnología de ion sodio. Para ello, la nueva línea de prototipado del CIC energiGUNE dispondrá de todo el equipamiento necesario para la fabricación de baterías de tipo botón así como de tipo “pouch cell”, incluyendo maquinaria para mezcla y deposición de los materiales activos sobre el colector de corriente, prensado y apilado de los electrodos, llenado del electrolito y sellado de las celdas finales. Debido a la especial sensibilidad que presentan los componentes fundamentales de las baterías de sodio a la humedad, todo este equipamiento se encuentra dispuesto en una sala seca con condiciones controladas de humedad de -60 ºC de punto de rocío, correspondiente a 11 ppm de humedad. Siendo una de las tres únicas salas secas equipadas en España. En la figura 9 se pueden apreciar los distintos equipos que constituyen ya la sala seca y los electrodos laminados producidos en ella. El resultado final de las pilas tipo petaca se muestra también en la figura.

De esta forma el CIC energiGUNE ha conseguido en 5 años abarcar todos los ámbitos del estudio y manufacturación de una batería, yendo desde la investi-gación más básica en la búsqueda de nuevos materiales hasta el prototipado, que es el enlace perfecto con la industria del País Vasco y del resto de Europa.

En este artículo se ha querido explicar de forma sencilla el por qué de la in-vestigación en nuevos materiales para baterías de ion sodio y se ha dado una pincelada de las diversas actividades que se llevan a cabo en el CIC energiGUNE para en definitiva intentar mejorar el futuro del almacenamiento energético re-duciendo su coste y aumentando sus prestaciones para que pueda ser accesible no solo para el primer mundo sino para todos los ciudadanos del planeta.

Agradecimientos:Este artículo no hubiera podido realizarse sin la ayuda de mis compañeros M. Zarrabeitia, M.J. Piernas, M.A. Muñoz, L. Otaegui, M. Galcerán, O. García, A. Villa-verde, N. Gómez, S. Ortiz y la supervisión de Prof. T. Rojo.

Referencias[1] C. Liu, F. Li, L.P. Ma, H.M. Cheng, Advanced Materials, 2010, 22, 28.

[2] P.G. Bruce, B Scrosati, J.-M. Tarascon, Angewandte Chemie-International Edition 2008, 47, 2930.

[3] J.B. Goodenough, Y. Kim, Chem.of Mat., 2010, 22, 587.

[4] M.S. Whittingham, Chemical Reviews, 2004, 104, 4271.

[5] M. Winter, R.J. Brodd, Chemical Reviews, 2004, 104, 4245.

[6] D. Guyomard, Gordon and Breach Science Publishers 2000, 253.

[7] K. Ozawa, Solid State Ionics 1994, 69, 212.

[8] M. Armand and J.-M. Tarascon, Nature, 2008, 451, 652.

[9] J. B. Goodenough , Y. Kim , Chema. Mater., 2010, 22, 587.

[10] T. C. Wanger, Conserv. Lett., 2011, 4, 202.

[11] R. K. Evans , Energy 1978, 3 ,379.

[12] a] V. Palomares, P. Serras, I. Villaluenga, K. B. Hueso, . Carretero-González and T. Rojo, Energy Environ. Sci., 2012, 5, 5884. b] V. Palomares, M. Casas-Cabanas, E. Castillo-Martínez, M.H. Han, T. Rojo, Energy Environ. Sci., 2013, 6, 2312

[13] K. B. Hueso, M. Armand, T. Rojo, Energy Environ. Sci.,2013, 6, 734.

[14] M. H. Han, E. Gonzalo, G. Singh, T. Rojo, Energy Environ. Sci. 2015 , 8 , 81

[15] M.A. Muñoz-Márquez, M. Zarrabeitia, E. Castillo-Martínez, A. Eguía-Barrio, T. Rojo, M. Casas-Cabanas, Appl. Mater. Interfaces 7, 2015, 7801.

[16] E. Castillo-Martínez, J. Carretero-González, M. Armand. Angewandte Chemie, 201421, 5341,

[17] Villaluenga, I.; Armand, M.; Rojo, T. J. Mater. Chem. A, 2013, 1, 8348.

[18] European Patent Application Number EP12382290.0. Michel Armand, Teófilo Rojo, Irune Villaluenga

[19] M. Galceran, D. Saurel, B. Acebedo, V. V. Roddatis, E. Martin, T. Rojo, M. Casas-Cabanas, Phys. Chem. Chem. Phys., 2014, 16, 8837.

[20] M. J. Piernas-Muñoz, E. Castillo-Martínez , V. Roddatis, M. Armand, T. Rojo, J. Power Sources, 2014, 271, 20, 489.

[21] E. Gonzalo, M. H. Han, J. M. Lopez del Amo, B. Acebedo, M. Casas-Cabanas, T. Rojo, J. Mater. Chem. A, 2014, 2 , 18523.

[22] M.H. Han, E. Gonzalo, N. Sharma, J.M. López del Amo, M Armand, M. Avdeev, J. J. S. Garitaonandia, T. Rojo. Chem. Mater 2015, 28(1), 106

PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible

Figura 9. a) y d) Distintos equipos de la sala seca del CIC energiGUNE. b) y c) Electrodos preparados para ser ensamblados como cátodo y ánodo. e) Pila tipo petaca producida en el CICe.

Page 52: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

INV

ESTI

GACI

ÓN

PROY

ECTO

S DE

Desde hace varios años el modelo productivo industrial ha tendido a una fabri-cación más comprometida con el medio ambiente. Así, el mundo de la fabrica-ción por mecanizado ha buscado formas de aumentar la productividad de sus procesos reduciendo el impacto generado por sus residuos. En este marco es donde nace el concepto ECO2 (ecológico y económico). El empleo de técnicas avanzadas de refrigeración criogénica durante las operaciones de mecanizado es una alternativa interesante a la hora de avanzar hacia el denominado “green manufacturing”. El empleo de fluidos criogénicos, como el nitrógeno líquido o el dióxido de carbono líquido, se traduce en una menor temperatura en la zona de corte, un aumento del rendimiento productivo y una mayor limpieza en la zona de trabajo. Sin embargo, el ECO2 consta de varias ventajas competitivas añadi-das frente a otros fluidos similares debido a sus extraordinarias propiedades lubricantes-refrigerantes y a su forma eco-eficiente de obtención. Es aquí donde Tecnalia Research & Innovation (Tecnalia) y la Universidad del País Vasco (UPV/EHU) colaboran en Euskampus para llevar la vanguardia de esta tecnología al tejido industrial vasco.

Motivación Es bien sabido en la industria del mecanizado que todos los fenómenos de de-gradación conocidos dependen exponencialmente de la temperatura. Por lo

tanto, controlar la temperatura es controlar el desgaste y por tanto la llave para el aumento de la productividad manufacturera. Hasta hace relativamente pocos años, este “control” de la temperatura se realizaba mediante uso de fluidos de corte (taladrinas) y productos altamente contaminantes para el medio ambiente y potencialmente peligrosos para el operario. Además, el uso de estos fluidos refrigerantes cargaba a los productos con un sobrecoste derivado de su lim-pieza.

Debido a esto, en la industria se lleva años investigando y apostando por tecno-logías limpias en el mecanizado. Tanto es así que, estas tecnologías de mecani-zado, han visto incrementado su valor y presencia un 10% anual en la industria. Sin embargo, no es hasta la exposición mundial de máquina herramienta (EMO) de 2011 cuando el grupo alemán MAG® lanza una línea completa de máqui-nas-herramienta con refrigeración criogénica mediante nitrógeno líquido (LN2). Aunque este fue el primer hito importante, la realidad es que la refrigeración criogénica desde un punto de vista industrial ha ido más orientada a la utili-zación del dióxido de carbono líquido (CO2) como fluido refrigerante. Incluso MAG® el mismo año que presentaba su línea basada en LN2 ya trabajaba en el desarrollo de husillos para adaptar sus máquinas a la utilización de CO2.

La principal razón por la que se pensó primeramente en utilizar LN2 en el me-

Mecanizado criogénico, el beneficio que surge del fríoA. Rubio(1), O. Pereira(2), F. Veiga(1), A. Rodríguez(2), A. Rivero(1), L.N. López de Lacalle(2)

(1) Tecnalia Research & Innovation (2) Dpto. de Ingeniería Mecánica. (UPV/EHU)

El desarrollo y puesta a punto de diferentes técnicas de refrigeración criogénica orientadas al sector de la máquina herramienta llevará a las empresas vascas a poder incrementar su competitividad de forma ecoeficiente.

Page 53: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

53

canizado criogénico es bastante evidente, ya que alcanza una temperatura de -196ºC tras su expansión. Además de su capacidad refrigerante, se trata de un gas que es de fácil uso y que se encuentra en abundancia en el aire; por lo que no contamina. Por contrapartida, es de difícil almacenamiento por estar siem-pre en constante ebullición. Este fenómeno hace que, en los tanques donde se almacena, se genere una sobrepresión que lleva al escape y pérdida del fluido a través de la válvula de escape. Por esta razón, desde un punto industrial, no es atractivo su uso para estas aplicaciones. En cambio el CO2, aunque tiene una capacidad de refrigeración menor (-78ºC), puede ser almacenado a temperatura ambiente en recipientes a 55 bares, puede llegar a disolver aceites y su coste es relativamente más bajo. Además, el CO2 utilizado en la industria se obtiene de un proceso primario al cual se le da un segundo uso. De esta forma se reu-tiliza en lugar de eliminarlo como residuo, por lo que el principio de inocuidad medioambiental asociado a los sistemas criogénicos se mantiene.

Varias multinacionales ya están apostando claramente por esta tecnología. Es el caso de multinacionales como Starrag® y Walter®, que ya ofrecen un servicio completo de refrigeración criogénica con el fin de no quedarse fuera del mer-cado. Como resultado de esta unión, en la EMO 2013 presentaron una fresado-ra con refrigeración criogénica mediante CO2 con la que obtuvieron el premio “MM Award for Innovation” al mecanizar palas de turbina con dicha fresadora.

Sistema de regulación e inyección En los últimos años desde Tecnalia y la UPV/EHU se está trabajando en el de-sarrollo de una tecnología de refrigeración criogénica propia con el fin de ser capaces de aplicarla a operaciones habituales de mecanizado como el torneado, taladrado y fresado. Para ello, a partir de estudios previos realizados interna-mente y con el claro objetivo de reducir lo máximo posible la inversión inicial en el momento de ser aplicado en el entorno industrial se ha optado por centrarse principalmente en la refrigeración criogénica con CO2 frente al LN2.

En primer lugar, al mecanizar criogénicamente con CO2 hay que tener en cuenta que para la inyección del CO2 en la zona de corte se necesita de un sistema re-gulador que evite la obstrucción de los conductos del circuito por la formación de hielo seco. Este efecto se debe a que el CO2 se encuentra almacenado en estado líquido a 55 bares de presión y a temperatura ambiente. Así, en caso de ser expandido directamente sin ningún tipo de regulación, sublimaría primera-mente en hielo seco antes de gasificarse. Este efecto se explica analizando su diagrama de fases, mostrado en la Figura 1. Como se puede apreciar, en una expansión incontrolada, el CO2 pasa por la “zona de sólido”, provocando así la formación de hielo seco.

Para evitar dicho efecto, se ha adaptado un sistema de regulación propio de CO2. Este sistema mantiene el circuito a una presión por encima del punto triple (5,11 bares y -56,4ºC) que hace que el CO2 se mantenga en estado líquido en su interior. Así, en la salida del sistema de inyección, la expansión final lleva al fluido a su temperatura más baja (-78,5ºC). Para conseguir esa expansión con-

trolada el sistema de regulación primero presuriza los conductos a 1MPa con CO2 en estado gaseoso. A continuación, se da paso al CO2 líquido a 1,4MPa para refrigerar el proceso de mecanizado. Por último, una vez terminado el proceso de arranque de material, se vuelve a barrer todo el conducto con CO2 en estado gaseoso a 1MPa.

Cabe destacar que este sistema es común a cualquier aplicación de mecaniza-do, si bien es cierto que dependiendo del tipo de operación se han desarrollado diferentes técnicas para su correcta inyección.

Para operaciones de torneado, el CO2 puede ser utilizado tanto externamen-te, de forma análoga a la taladrina; como internamente, utilizando portaherra-mientas con refrigeración interna de alta presión. Este tipo de portaherramien-tas generalmente constan de dos orificios dirigidos hacia la cara de incidencia y desprendimiento respectivamente. Gracias a la inyección del CO2 por ambas caras se logran tres efectos beneficiosos para el proceso. El primero es que, al inyectar CO2 por la cara de incidencia, se consigue reducir la temperatura de corte. Además, al inyectarlo también en la cara de desprendimiento la viruta se vuelve más frágil y se puede controlar su dirección de evacuación, lo que pro-voca un menor contacto viruta-herramienta. Por último se consigue convertir la plaquita en un intercambiador de calor, lo que revierte en un menor desgaste de ésta por efectos térmicos.

Para las operaciones de taladrado y fresado, de manera análoga al torneado, el CO2 puede ser aplicado de forma externa, mediante la utilización de una tobera similar a las utilizas con la taladrina, o interna a través del interior de los conductos de herramientas estándar de refrigeración interna. Para llevar el fluido criogénico por dentro de la herramienta, en el caso del taladrado, se

Figura 1. Diagrama de fases CO2

PROYECTOS DE INVESTIGACIÓN - Mecanizado criogénico, el beneficio que surge del frío

Figura 2. Torneado criogénico

Figura 3. Taladrado criogénico

Page 54: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

puede realizar mediante un adaptador coaxial utilizado comercialmente para aplicar MQL o taladrina. Sin embargo, en el caso del fresado, la única opción de llevar el fluido criogénico a través del interior de la herramienta es adaptando la junta rotativa de la fresadora. Esta solución, que también se puede utilizar en el taladrado, se basa en llevar presurizado el fluido criogénico por el interior de la máquina hasta el portaherramientas debidamente hermetizado. De ahí, el CO2 se lleva por el interior de las herramientas hasta su expansión en los orificios de salida situados en la zona de corte.

AplicacionesCon el objetivo de validar el uso de la refrigeración criogénica en las distintas aplicaciones de mecanizado, se han realizado diferentes pruebas relacionadas con aplicaciones reales de la industria. Los resultados obtenidos se han compa-rado tanto con el mecanizado sin ningún tipo de refrigeración externa (meca-nizado en seco), como con la utilización de MQL (Minimum Quantity Lubricant). La tecnología MQL se basa en proyectar pequeñas gotas de aceite mediante un flujo de aire.

TorneadoPara analizar el comportamiento del CO2 en el torneado se seleccionó un ace-ro inoxidable ya que, este tipo de materiales, son comúnmente utilizados en la industria del entorno. Concretamente se cilindraron barras de AISI 304L. La comparación de resultados se realizó frente al mecanizado en seco y al MQL (80ml/h). El análisis se hizo en función de la vida de la herramienta, fijando como máximo un desgaste del filo de 0.2mm. En base a este valor se han comparado los metros mecanizados con cada una de las tecnologías.

En la Figura 4 se muestran los resultados de vida de la herramienta con las diferentes técnicas de lubricación-refrigeración. Se asigna un valor de 100% al mejor de los casos, el que permite un mayor número de metros mecanizados. En este caso, la tecnología con la que se puede mecanizar más metros es el CO2. En comparación, el mecanizado en seco únicamente puede mecanizar una cuarta parte menos. El MQL, al introducir un elemento de lubricación, mejora los resultados en seco, pero sin alcanzar los resultados con el fluido criogénico.

Por lo tanto se demuestra que el CO2, debido a su capacidad refrigerante, es la opción más productiva. Además, el poder mecanizar en condiciones de semi-se-co, el obtener la viruta seca, eliminar los gastos derivados del uso de taladrinas y sobre todo reducir el impacto ambiental, hacen de esta tecnología la más viable para una inminente implantación en la industria manufacturera.

TaladradoLos ensayos de taladrado se han orientado al sector aeronáutico, dadas las particularidades del mismo: tolerancias dimensionales restrictivas, materiales de difícil mecanizado como el titanio, taladrado de materiales disimilares api-lados o la imposibilidad del uso de lubricación por taladrina. A continuación

se presentan los resultados obtenidos tras el taladrado pasante, con broca de diámetro 7.5mm, de apilados de titanio (Ti-6Al-4V) de 10 mm de espesor y fibra de carbono (FC) de espesor 8mm.

Este tipo de combinación de materiales, denominado stacks, es cada vez más utilizado en el sector aeronáutico. La principal problemática del mecanizado de stacks viene dada por la necesidad de mecanizar en seco la fibra de carbono. Esto lleva a que las temperaturas de corte que se alcanzan sean considerables y por tanto influyan negativamente en el desgaste de la herramienta y en la calidad del agujero.

En cuanto al deterioro de la herramienta, al alcanzarse temperaturas de corte elevadas, estas llevan a producir adhesiones del titanio en el filo de la herra-mienta debido a su gran afinidad con el material de ésta a elevadas tempera-turas. Como se aprecia en la Figura 5, se consiguió minimizar la adhesión de titanio provocada por el mecanizado en seco. Además, también se aprecia como al reducir la temperatura también se consigue eliminar el daño térmico en la fibra de carbono.

En cuanto al deterioro de la calidad del agujero en el Ti debido a la temperatura, se ha analizado la rebaba obtenida en la salida del agujero. La rebaba se pro-duce debido a la alta temperatura acumulada en el Ti que hace que este fluya hacia el exterior a medida que la herramienta termina el agujero. En la Figura 6 se muestra la comparación para un número fijo de 175 agujeros que se pueden realizar antes que la altura de esa rebaba alcance un límite de 600µm.

Por lo tanto, al igual que en el torneado, la opción que mejora más significa-tivamente el proceso sigue siendo el uso de CO2. Además, dado que en esta aplicación el efecto térmico es más influyente, las diferencias con respecto al mecanizado en seco y con MQL son más significativas.

Figura 6. Comparación de número de agujeros dentro de parámetro de calidad en stacks

FC-Ti

Figura 4. Comparación de metros mecanizados en acero inoxidable

Figura 5. Desgaste producido en la herramienta para el mismo número de agujeros com-

parando en seco y con CO2

SECO

CO2

Page 55: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

55

Figura 7. Ensayos de fresado en seco (izda.) y con CO2 (dcha.)

FresadoPor último, para el caso de fresado se han llevado a cabo ensayos de planeado sobre Inconel 718 precipitado (45HRC). Esta superaleación de base Cr-Ni es am-pliamente utilizada en la industria aeronáutica, y entraña una elevada dificultad en su mecanizado. Esta dificultad queda patente en la Figura 7 donde, durante el mecanizado en seco, tanto la pieza como la herramienta se llegan a poner al rojo vivo.

Para comparar los resultados obtenidos en seco, con MQL y con CO2 se ha ana-lizado el desgaste de la herramienta en función de los metros mecanizados. El límite de metros mecanizados se limita por el valor del desgaste máximo de los insertos, fijada en este caso en 0.2mm.

Los resultados en este caso no fueron favorables para el caso de CO2 ya que, a pesar de mejorar los resultados en seco en un 32%, no fueron suficientes para igualar los metros mecanizados con MQL.

Estos resultados muestran que el simple uso de CO2 no es suficiente para abor-dar todas las aplicaciones industriales requeridas hoy en día por el mundo de la máquina herramienta. Es por esto que hace falta desarrollar nuevas tecnologías eco-eficientes que aborden aquellos retos industriales que los fluidos criogéni-cos por si solos no pueden solucionar.

Lineas de desarrolloCon el objetivo de obtener una tecnología que aborde aquellas aplicaciones en las que los fluidos criogénicos no son competitivos, Tecnalia y UPV/EHU colabo-ran en el desarrollo de un sistema de regulación portátil y de mayor poder lu-bricante-refrigerante. Con este desarrollo se busca la capacidad de combinar en un solo sistema la tecnología criogénica junto con la lubricación mediante MQL. Así, utilizando el flujo criogénico para proyectar las gotas de aceite se consigue combinar el poder refrigerante del CO2 y la capacidad lubricante del aceite, lo-grando así la tecnología conocida como “CryoMQL”.

Además, este desarrollo se está enfocando a la sencillez en la instalación en cualquier máquina-herramienta, esto es, la posibilidad de disponer un dispo-sitivo totalmente “Plug & Play”. En la Figura 8 se puede ver el dispositivo de “CryoMQL” que se está desarrollando.

Comparando los resultados con los obtenidos anteriormente en los ensayos de fresado se aprecia como el “CryoMQL” es el que mejor resultados obtiene, demostrando como las tecnologías de MQL y de CO2 son complementarias. Así, en la Figura 9, se muestra el porcentaje de metros mecanizados para cada uno de los casos de estudio.

ConclusionesLos resultados mostrados en esta comunicación muestran que el uso de refri-geración criogénica se posiciona como una alternativa a los sistemas de lubri-cación-refrigeración actuales, especialmente en sectores como el aeronáutico, de matricería y moldes.

En el torneado de materiales donde el desgaste por influencia mecánica tiene prevalencia sobre el desgaste por influencia térmica, el uso de CO2 ha sido la alternativa más prometedora al mecanizado tradicional con taladrina.

Por otro lado, al taladrar materiales como el titanio, donde existen problemas de adhesión, el aplicar la refrigeración criogénica con CO2 logra estabilizar el proceso de forma significativa a la vez que se alarga la vida de herramienta. En cuanto al taladrado de compuestos de carbono se aprecia como gracias a la refrigeración criogénica se elimina el daño térmico que pueda sufrir la pieza por las temperaturas de corte alcanzadas.

Sin embargo, aunque existen aplicaciones de fresado en las que el uso de CO2 es una alternativa viable, existen ciertos casos en los que es necesario una tec-nología con unas propiedades lubricantes superiores. Con objeto de dar una alternativa innovadora y necesaria a este tipo de aplicaciones, la colaboración Tecnalia/UPV ha dado pie al desarrollado de un sistema de regulación e inyec-ción de refrigerante CO2 más lubricante MQL (“CryoMQL”). Las principales ven-tajas de este sistema son:

• Se consigue una combinación del poder lubricante de los sistemas MQL y refrigerante de los sistemas criogénicos, lo que le hace una alternativa real frente a los sistemas de lubricación/refrigeración convencionales.

• Se trata de un sistema ecológica y económicamente factible, entrando en lo que se conoce como “rendimiento ECO2”.

AgradecimientosSe agradece el soporte recibido del programa ETORTEK (Gobierno Vasco) por el Proyecto INPRORET.

PROYECTOS DE INVESTIGACIÓN - Mecanizado criogénico, el beneficio que surge del frío

Figura 8. Dispositivo “CryoMQL”

Figura 9. Vida de herramienta durante el fresado de Inconel 718

Page 56: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

EUSK

ADI

EN

BRE

VE

El grupo QUTIS de la UPV/EHU, junto con Google Inc. y la UCSB, logra detallar el algoritmo más avanzado que se conoce en un simulador cuánticoLos resultados de la investigación han sido publicados en la prestigiosa revista científica Nature CommunicationsEl grupo de investigación Quantum Technologies for Information Science (QUTIS) de la Universidad del País Vasco/Euskal Herriko Unibertsitatea ha publicado en la prestigiosa revista Nature Communications, un artículo titulado “Digital quantum simulation of fermionic models with a superconducting circuit” (Si-mulación cuántica digital de modelos fermiónicos con un circuito superconductor), en colaboración con el grupo de investigación de Google Inc. y la University of California Santa Barbara (UCSB), en el que se lleva a cabo el algoritmo cuántico más avanzado que se conoce y con el que consigue implementar una simulación cuántica de modelos electrónicos de materiales en circuitos superconductores. Este algorit-mo ha sido desarrollado en los laboratorios de circuitos superconductores de Google/UCSB basándose en ideas originales propuestas por el grupo QUTIS de la UPV/EHU.

La colaboración entre la UPV/EHU y Google/UCSB ha logrado de forma pionera realizar un simulador digital de fermiones con más de 300 puertas lógicas cuánticas en un chip de 9 bits cuánticos. Los fer-miones son partículas cuánticas, como los electrones, que son la base fundamental de los superconduc-tores, las reacciones químicas o los procesos de altas energías. Su estudio es por tanto muy relevante, ya que es el primero en que se simulan estas partículas de forma universal con una arquitectura tan avanzada y de forma escalable, como es el caso de los circuitos superconductores a temperaturas crio-génicas.

CIC bioGUNE presenta un estudio que abre la puerta a la generación eficaz de azúcares para investigar nuevas terapiasLogra observar empíricamente por primera vez una especie química de vida corta que se genera durante las reacciones de formación y ruptura de los azúcares El proyecto se enmarca en la búsqueda del intermedio común de todas las reacciones químicas que tienen que ver con la formación y ruptura de hidratos de carbono en la naturaleza. La investigación ha permitido aislar por primera vez ese intermedio común (el ion glicosil oxo-carbenio), observarlo mediante técnicas de resonancia magnética nuclear y corroborar de manera experimental lo que hasta ahora sólo se conocía de forma teórica.

En el experimento se ha determinado la geometría de cuatro iones diferentes procedentes de distintos azúca-res. El objetivo final de los investigadores es ampliar el estudio en el futuro a los más de 20 tipos de carbohidra-tos que existen.

Los azúcares integrados en las células están implicados en todos los procesos del organismo: la fecundación, las infecciones, diversos aspectos del metabolismo, los gru-pos sanguíneos y el desarrollo de ciertas enfermedades como el cáncer o las inflamaciones.

Page 57: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

57

EUSKADI EN BREVE

Para estudiar en detalle la evolución de esos fenómenos y procesos en el laboratorio es necesario disponer de cantidades grandes de azúcares, muy superiores a las que pueden aislarse en los mamíferos, que permitan lle-var a cabo los experimentos. “Este descubrimiento debe permitir mejorar los métodos de preparación de azúca-res en el laboratorio, optimizar su obtención y aumentar las posibilidades de generar estas moléculas en las canti-dades requeridas para estudiar en detalle los fenómenos que dan lugar a enfermedades”, explicó el director cien-tífico de CIC bioGUNE y líder de la investigación, Jesús Jiménez Barbero.

CIC biomaGUNE estudia nuevos nanomateriales para avanzar en un mejor diagnóstico contra el cáncerEl estudio, publicado en la prestigiosa publicación PNAS abre la posibilidad al desarrollo de tratamientos más efectivos y a mejorar la respuesta autoinmune

La investigación de CIC biomaGUNE, resultado de tres años de trabajo, revela de qué modo los na-nomateriales que enlazan varios ligandos de forma simultánea pueden discriminar de forma precisa entre las distintas densidades de receptores presentadas por la superficie de las células y cómo esta capacidad puede afinarse. Las células madre y las células cancerosas presentan receptores específicos en su superficie que permiten su identificación con cierta precisión con sondas que reconocen estos receptores. Sin embargo hay otros tipos de células que presentan los mismos receptores, aunque lo hacen en una cantidad inferior.

“Las sondas convencionales distinguen de forma efectiva una célula que presenta receptores de una que no lo hace, pero tienen limitaciones cuando las células que deben ser aisladas presentan recepto-res en diferentes densidades”, relata el científico de CIC biomaGUNE Ralf Richter, quien ha dirigido la investigación. El estudio, que ha sido publicado en la prestigiosa publicación Proceedings of the Natio-nal Academy of Sciencies of the United States of America (PNAS), ha contado con el apoyo del programa destinado a la investigación de la Comisión Europea Marie Curie y del European Research Council.

El nuevo Grupo de Nanoingeniería de CIC nanoGUNE desarrollará nuevas herramientas de diagnóstico para la industria biomédicaUno de los objetivos es desarrollar microsistemas biomédicos para diversos ámbitos de investigación clínicos, como las enfermedades cardiovasculares, el cáncer y las enfermedades neurodegenerativas

El Grupo de Nanoingeniería de nanoGUNE, liderado por el investigador Ikerbasque Dr. Andreas Seifert, gira en torno a la investigación que combina tanto nanociencia fundamental como ingeniería aplicada, en el área de los microsistemas biomédicos, en particular. El objetivo del grupo es construir puentes entre las ciencias físicas y las aplicaciones industriales y clínicas, introduciendo nanotecnología con la finalidad de aportar valor añadido a innovadores microsistemas médicos y dispositivos mesoscópicos.

El Grupo de Nanoingeniería está preparando un laboratorio de última generación de metrología óptica y servicios de fabricación para materia sólida y blanda. La innovación de los nuevos dispositivos y mé-todos que serán desarrollados tomará como base la micro y nanotecnología con diminutas estructuras de dimensiones nanométricas (una millonésima de milímetro). Para analizar estas microestructuras ultrapequeñas han adquirido un nuevo perfilómetro óptico 3D interferométrico, que complementa a la perfección tanto la investigación estructural como la morfológica mediante microscopía de fuerza ató-mica, disponible en otros grupos de nanoGUNE. Este perfilómetro óptico es capaz de captar la imagen de pequeñas áreas de la muestra a testear, con una resolución a nivel atómica.

Page 58: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

25 científicos se han incorporado a las universidades y centros de investigación de Euskadi gracias a los programas Research Professor y Research FellowDesde 2007, Ikerbasque ha contratado a 194 investigadores con experiencia internacional, procedentes de 31 países

La convocatoria Research Professor, creada en 2007, y dirigida a investigadores consolidados con amplia expe-riencia internacional y capacidad de liderazgo, ha atraído a siete nuevos científicos en 2015. Prueba de su brillan-te trayectoria, algunos de los investigadores recién lle-gados dirigirán centros de investigación o cuentan con ERC Grants, la mayor ayuda europea para investigación científica.

El programa Research Fellow, por su parte, es una inicia-tiva específicamente diseñada para atraer y mantener en el País Vasco a expertos en diversas ramas del saber menores de 40 años, con objeto de crear una “cantera” de científicos e investigadores. Fue puesto en marcha en

2012 y cumple una doble función: por un lado, atraer a científicos que están desarrollando su labor en el extranjero, incluyendo a los investigadores locales que se marcharon en algún momento de su carrera, y por otro, ofrecer oportunidades para consolidar su trayectoria a quienes ya se encuentran in-vestigando en Euskadi. Gracias al programa Research Fellow, en 2015 se han incorporado 18 personas.

Hasta el momento, IKERBASQUE ha atraído para trabajar en el País Vasco a 194 investigadores Re-search Professor y Research Fellow, incorporados al Sistema Vasco de Ciencia, Tecnología e Innovación.

Científicos del Donostia International Physics Center (DIPC) y la UPV/EHU demuestran que los cristales curvados de platino se pueden usar en estudios de fotoemisión de rayos X de alta resoluciónLos cristales curvados de Pt que los científicos han usado en este estudio han sido manufacturados por Bihurcrystal, una start-up donostiarra Un grupo de investigadores del DIPC y el Centro Mixto de Física de Materiales (CFM) del CSIC y la UPV/EHU ha demostrado que los cristales curvados de platino también pueden ser utilizados en estudios de fotoemisión de rayos X de alta resolución en sincrotrones. La parte experimental de dicho trabajo se ha realizado en el Laboratorio de Nanofísica del CFM, y se ha completado en el sincrotrón de la Universidad sueca de Lund.

En los cristales curvados, al contrario de lo que ocurre en un monocristal plano, la densidad de posi-ciones atómicas activas, es decir, la densidad de escalones atómicos, va cambiando de forma suave y progresiva en la misma muestra, facilitando un análisis racional y preciso del papel que juegan dichos sitios activos en una reacción química dada.

Los cristales curvados de Pt que los científicos han usado en este estudio han sido manufacturados por Bihurcrystal, una compañía donostiarra que vio la luz en el año 2013 gracias al apoyo del CFM y el DIPC. Cuando aún se estaba gestando el proyecto de Bihurcrystal, la iniciativa empresarial obtuvo varios premios por su carácter innovador. Hoy esos premios están avalados, puesto que los productos que comercializa esta joven start-up se usan en estudios experimentales luego publicados en revistas científicas de prestigio.

Page 59: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

59

EUSKADI EN BREVE

NanoGUNE lanza Prospero Biosciences, su quinta spin-off para avanzar en la investigación de marcadores biológicosDesarrollará una tecnología innovadora capaz de abrir un nuevo campo de aplicaciones dentro de la industria de la espectrometría de masas

CIC nanoGUNE, junto a otros promotores, ha creado su quinta empresa spin-off: Prospero Biosciences SL (Pros-pero). El objetivo de Prospero es valerse de las ventajas que ofrece la nanotecnología para desarrollar un inno-vador detector de moléculas que será integrado en es-pectrómetros de masas; unos instrumentos de medición que permiten, entre otras cosas, analizar con gran preci-sión los diferentes elementos químicos que forman un compuesto y que constituyen una de las industrias de instrumentación analítica de mayor crecimiento a nivel global.

Prospero se encuentra actualmente en el proceso de desarrollo e industrialización de una innovadora na-no-membrana, la cual representa la base de la tecnología que permite una extraordinaria mejora con respecto a otras soluciones existentes en el mercado.

La tecnología que desarrollará la quinta spin-off de nano-GUNE abre las puertas a un amplio campo de aplicacio-nes, tales como la investigación de marcadores biológi-cos, la investigación y diagnóstico médico, o el desarrollo de fármacos biosimilares que requieren la identificación precisa de moleculas de alta masa.

Investigadores de la UPV/EHU trabajan para la personalización del tratamiento en cáncer pediátricoEl grupo Genética y epigenética del cáncer y las enfermedades mentales estudia marcadores genéticos para evitar las toxicidades que en determinados casos provocan algunos fármacosLos tratamientos utilizados para combatir el cáncer infantil han mejorado la supervivencia de estos niños de un 10 % a un 80 %. Pero hay pacientes que experimentan toxicidad grave, y es necesario parar o reducir el tratamiento, lo que disminuye la probabilidad de supervivencia. El grupo Genética y epi-genética del cáncer y las enfermedades mentales de la UPV/EHU investiga marcadores genéticos para ajustar el tratamiento desde un principio y, de ese modo, evitar las toxicidades que en determinados casos provocan algunos fármacos.

El objetivo es buscar las características genéticas de una persona que indiquen si una substancia utili-zada en un determinado tratamiento contra el cáncer infantil va a ser mejor o peor metabolizada por el paciente. Según explica la investigadora principal del grupo Africa García-Orad, “comparamos las características genéticas de los niños a los que se les ha dado determinados fármacos y han desarro-llado toxicidad, con las características genéticas de otros niños a los que se ha tratado con los mismos fármacos pero no han desarrollado toxicidad”. La farmacogenética predice qué fármacos serán los más efectivos y seguros, sobre la base de los perfiles genéticos del individuo.

Page 60: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

La UPV/EHU y el Departamento de Agricultura de EEUU identifican aromas de las nueces que permitan controlar plagas y disminuir el uso de pesticidas Esta investigación pionera ha analizado los datos procedentes de cultivos de nueces en California y abre camino para realizar otros estudios sobre control de plagas en cultivos autóctonosEl departamento de Química Analítica de la UPV/EHU, en colaboración con el Departamento de Agricul-tura de Estados Unidos (USDA, California), ha identificado en nueces dañadas los compuestos volátiles de los aromas atractivos para los insectos que amenazan las cosechas de estos frutos en California. Son los primeros estudios que se llevan a cabo en nueces con el fin de localizar los componentes del aroma que sirvan para controlar de manera más sostenible las plagas de polillas, y, también, con el objetivo de contribuir a disminuir el uso de pesticidas y plaguicidas.

Del valle central de California proceden dos tercios de las nueces consumidas a nivel mundial y más del 80% de las que se consumen en España. En los últimos 50 años dos plagas de polillas—codling moth (Cydia pomonella) y navel orangeworm (Amyelois transitella, Lepidotera, Pyralidae)— amenazan, cose-cha tras cosecha, la producción de nueces. Depositan sus huevos en los frutos dañados y favorecen la propagación del hongo Aspergillus con consecuencias tanto en el mantenimiento de la seguridad alimentaria como en el desarrollo comercial y económico.

Las estrategias del último siglo para controlar las plagas han estado centradas en el uso de pesticidas y plaguicidas a los que ciertos insectos se han hecho resistentes. Esta investigación avanza en la bús-queda de los compuestos aromáticos que les atraigan de manera natural en momentos claves, como su reproducción y alimentación, y que, combinados con técnicas medioambientales sostenibles, den la posibilidad de sintetizar productos agroquímicos más selectivos y eficientes.

Un cuanto de luz para la ciencia de materialesUn estudio dirigido por el catedrático de la UPV/EHU y director del Max Planck Institute de Hamburgo, Ángel Rubio, demuestra que es posible predecir los efectos de los fotones sobre los materialesLas simulaciones por ordenador que predicen el cambio inducido por la luz en las propiedades físicas y químicas de los sistemas complejos, moléculas, nanoestructuras y sólidos generalmente ignoran la naturaleza cuántica de la luz. Científicos del Instituto Max Planck para la es-tructura y dinámica de la Materia (MPSD), dirigidos por el catedrático Ángel Rubio, del Departamento de Física de Materiales de la UPV/EHU y Director del Departamento de Teoría de la MPSD, han demostrado cómo pueden in-cluirse adecuadamente los efectos de los fotones en es-tos cálculos. Este estudio abre la posibilidad de predecir y controlar el cambio de las propiedades de los materiales debido a la interacción con los fotones desde los princi-pios fundamentales.

La idea básica es tratar todo el sistema QED de partículas y fotones como un fluido cuántico. En el mismo, las par-tículas están representadas por una corriente de carga, y los fotones por un campo electromagnético clásico que actúa sobre la corriente de una manera muy compleja. En una reciente publicación en la prestigiosa revista Pro-ceedings of the National Academy of Sciences, los auto-res han demostrado que esta aproximación puede des-cribir exactamente la dinámica de un electrón que está atrapado en una superficie y que interactúa fuertemente con fotones.

Page 61: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

61

EUSKADI EN BREVE

Tecnalia aprueba su nuevo plan estratégico que estima en más de 1.000 millones su impacto en el PIB vascoEl objetivo del centro de investigación es incrementar en más de un 50% su actividad con empresas vascas

El nuevo Plan se fundamenta en las siguientes líneas estratégicas: cercanía al mercado; especialización y excelencia tecnológica; impulso al potencial de las personas; una organización abierta e innovadora, que favorezca las sinergias; y un modelo sostenible de actividad.

De cara a 2020, el objetivo para garantizar la sostenibilidad del proyecto es aumentar los ingresos en un 30% y alcanzar los 130 millones de euros, de los que un tercio serán de origen internacional. Estos ob-jetivos se enmarcan en lo aprobado en el Plan de Ciencia y Tecnología e Innovación Euskadi, PCTI 2020.

La cercanía al mercado se va a traducir en un aumento de más del 50% de la actividad con empresas vascas, cuyo impacto se calcula, de acuerdo con la metodología desarrollada por Deloitte al efecto, en más de 1.000 millones de euros en el PIB de Euskadi hasta el año 2020. Para entonces, se estima ade-más que 200 de estas empresas estén ya involucradas en proyectos internacionales.

Otro de los pilares fundamentales del Plan Estratégico es el impulso al potencial de las personas, ade-más de captar talento diferencial y promover su transferencia al tejido empresarial vasco. La previsión es transferir más de 300 investigadores a empresas vascas hasta el año 2020. Asimismo, Iñaki San Sebastián relevará a Joseba Jauregizar en marzo de 2016.

Nuria Gisbert se incorpora como Directora General de CIC energiGUNESustituye a Jesús María Goiri al frente del centro de investigación de energía Nuria Gisbert se ha incorporado a CIC energiGUNE como Directora General y sustituye en el cargo a Jesús María Goiri. Gisbert es ingeniera industrial por la Escuela Supe-rior de Ingeniería de Bilbao MSc. en Telecomunicaciones por la misma institución y Executive MBA por el Instituto de Empresa de Madrid.

Gisbert comenzó a trabajar en 2000 en una de las más grandes corporaciones del sector energético del País Vasco de la época (INCOESA) donde desarrolló su carrera frente a distintas responsabilidades, entre otros, Direc-tora Técnica y Directora General de la Unidad de I + D Empresarial de la corporación.

En 2012 Gisbert fue nombrada Directora General de CIC microGUNE donde ha permanecido hasta su incorpora-ción en CIC energiGUNE. En su trayectoria profesional Gisbert ha dirigido centenares de proyectos industriales relacionados con el sector de energía. También ha parti-cipado como Investigador Principal y Investigador Senior en muchos otros.

La nueva Directora de Energigune ha colaborado asimis-mo con diferentes grupos nacionales e internacionales que trabajan en el sector de la energía, tales como, T & D Europe, CIGRE, y los comités de normalización de AENOR.

Page 62: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

IK4 ha captado 122 M€ de fondos europeos de I+D+i en sus 10 años como AlianzaEs una de las diez principales entidades tecnológicas privadas de Europa y líder en su porcentaje de contratación con empresas, situado en un 60%

Hace ahora 10 años cuatro centros tecnológicos vascos decidieron unir sus capacidades para ofrecer a las em-presas una propuesta más atractiva en forma de solu-ciones tecnológicas avanzadas y sumar masa crítica para captar nuevas oportunidades en el ámbito internacional. Una década después, la Alianza Tecnológica IK4, con 9 centros asociados y cerca de 1.300 investigadores, se ha consolidado como un agente clave para la economía vas-ca al erigirse en la referencia a la hora de transferir I+D+i a las empresas para que éstas puedan ser más compe-titivas.

Y así lo avalan los números que a día de hoy puede pre-sentar IK4. En sus 10 años de andadura, ha sido capaz de obtener unos retornos de 122 millones de euros de financiación europea, 90 de ellos procedentes del VII Pro-grama Marco, que finalizó en 2013, y 32 hasta el momen-to en el ‘Horizonte 2020’, el nuevo programa estrella de la UE para apoyar la investigación.

Esto ha dado la oportunidad a más de 140 empresas vascas de participar, de la mano de IK4, en proyectos de investigación de ámbito europeo. En estos 10 años, la Alianza vasca ha realizado proyectos de I+D+i para alre-dedor de 800 empresas al año, superando la cifra global de 4.000 clientes privados.

La empresa donostiarra VIVEbioTECH pone en marcha la primera sala de producción de vectores virales de EspañaEl primer vector viral en el que ya trabaja se utilizará en el tratamiento de la Anemia por Deficiencia de Piruvato Quinasa (PKD)La empresa donostiarra VIVEbioTECH ha puesto en marcha la primera sala de producción de vectores virales de España con capacidad para fabricarlos en las condiciones necesarias para ser aplicados en seres humanos, en ensayos clínicos de terapias génicas para el tratamiento de enfermedades raras.

La instalación se denomina “sala blanca” y el primer vector viral en el que ya trabaja se utilizará en el tratamiento de la Anemia por Deficiencia de Piruvato Quinasa (PKD), una dolencia rara que afecta sobre todo a niños y causa graves trastornos como retraso en el crecimiento o aumento del tamaño de ciertos órganos.

Como la causa de estas dolencias suele estar en la mutación de un gen, las terapias génicas se basan en cambiar el gen defectuoso por uno sano, pero para conseguirlo es necesario transportarlo hasta el interior de la célula, hasta su núcleo. Para ello, el mejor “medio de transporte” conocido son los vectores virales, que son los que aprovechan las virtudes de los virus anulando al mismo tiempo su capacidad de causar enfermedad.

Page 63: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

www.cicnetwork.esa un click de la actualidad científica vasca

3 5 días conectados a la ciencia

Page 64: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

ACTU

ALI

DAD

CIEN

TÍFI

CA

MEDICINA

Un nuevo fármaco frente al cáncer de mama, colon y melanomaEl nuevo compuesto, experimentado en ratones, ha permitido reducir en más de un 50% la actividad tumoral tras 41 días de tratamiento

Científicos de la Universidad de Granada (UGR) han patentado un nuevo fármaco, con la colaboración de la empresa cordobesa Canvax Biotech, que re-

sulta eficaz frente a las células madre cancerígenas de mama, colon y melanoma, y que ha demostra-do tener efecto antitumoral en ratones inmuno-deprimidos. El nuevo compuesto y sus derivados, resultado de una investigación de 22 años, permite reducir en más de un 50% la actividad tumoral tras 41 días de tratamiento secuencial semanal.

Los investigadores han logrado además caracteri-zar el mecanismo de acción del fármaco frente a las células madre cancerígenas, que suponen entre el 2 y el 5% de las existentes en la masa tumoral y que tienen unas características diferentes. Ha-bitualmente, esas células resisten a tratamientos como la quimioterapia y la radioterapia, por su estado latente (no se están dividiendo), y son en buena parte responsables del inicio de la enferme-dad, de su reaparición y de la metástasis. Contra ellas actúa este compuesto que, de momento, se ha probado en cáncer de mama, colon y melano-ma, y con el que se va a experimentar en cáncer de páncreas y pulmón.

BIOLOGÍA

Una expedición quiere perforar hasta el manto terrestre en el Océano ÍndicoEl buque de perforación JOIDES Resolution retoma una misión concebida hace 60 años

La misión concebida hace 60 años para perforar en el fondo del mar a través de la corteza terres-tre hasta penetrar en la capa subyacente se ha re-tomado en aguas del Océano Índico. El buque de perforación JOIDES Resolution tratará de perforar con una broca a través de 3 kilómetros de roca, recogiendo una muestra de núcleo a medida que avanza.

Alcanzar el manto de la Tierra es el objetivo primor-dial, sin embargo, hay varias metas adicionales. Los científicos que participan en la misión quieren es-tudiar la conducta del magma y cómo se forma la nueva corteza oceánica al subir desde el interior del planeta. También examinarán los núcleos de las rocas y si contienen microorganismos.

Page 65: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

65

ACTUALIDAD CIENTÍFICA

BIOMEDICINA

Nueva vacuna efectiva contra el Ébola en un ensayo a gran escala en GuineaUn gran esfuerzo colaborativo permite probar la vacuna y comprobar su eficacia y seguridad en tiempo récord

Los resultados de una nueva vacuna contra el Ébo-la indican un alto nivel de eficacia en un ensayo en el que han estado implicadas 4.000 personas en contacto estrecho con el virus hemorrágico en Guinea, uno de los tres países afectados por la epi-demia.

Según el ensayo, la nueva vacuna, llamada VSV-ZE-BOV, es 100% eficaz diez días después de haber sido administrada a una persona que no estaba infectada. Debido a la urgencia que requiere esta crisis, el desarrollo clínico de esta vacuna se ha hecho en un tiempo record, en apenas doce me-ses, desde la prueba inicial en humanos hasta la demostración de la eficacia y la seguridad de la va-cuna en un estudio de Fase III en Guinea.

A raíz de la crisis del Ébola, se organizó un gran equipo que incluyó médicos, científicos, epidemió-logos y expertos de la Organización Mundial de la Salud (OMS), de Noruega, Canadá, Guinea, Médicos Sin Fronteras, Universidades de Florida, Maryland y Bern, y la Escuela de Higiene y Medicina Tropical de Londres. La financiación se ha obtenido de Welco-me Trust, Noruega, Canadá, la OMS y Médicos Sin Fronteras. Merck (conocida como MSD fuera de los Estados Unidos y de Canadá), una de las grandes compañías farmacéuticas y de vacunas, ha produ-cido la vacuna. Científicos de la compañía, junto a los de la NewLink Genetics Corporation, implicados en el desarrollo inicial de la vacuna, también han dado apoyo técnico al equipo de terreno para la administración.

ASTRONOMÍA

El telescopio VISTA halla 574 galaxias masivas que estaban escondidas hasta ahoraTras analizarlas, los astrónomos han descubierto cuándo surgieron estas monstruosas galaxias

Un equipo de astrónomos dirigido por Karina Ca-puti, del Instituto de Astronomía de Kapteyn en la Universidad de Groninga (Países Bajos), ha sacado a la luz la existencia de muchas galaxias lejanas que habían escapado de los escrutinios anteriores.

UltraVISTA (uno de los seis proyectos que utiliza VISTA) ha estado tomando imágenes de la misma zona del cielo (de un tamaño de casi cuatro veces el tamaño de una Luna llena) desde diciembre de 2009. Se trata de la zona más grande del cielo de la que se han obtenido imágenes hasta ahora a ese nivel de profundidad en longitudes de onda in-frarrojas. El equipo combinó las observaciones de UltraVISTA con las del Telescopio Espacial Spitzer de la NASA, que sondea el cosmos en longitudes de onda del infrarrojo medio (más largas que el in-frarrojo cercano).

Obtener imágenes del cosmos en longitudes de onda infrarrojas ha permitido a los astrónomos ver objetos que están oscurecidos por el polvo y son extremadamente distantes, creados durante la in-fancia del universo.

INNOVACIÓN

Nueva e inesperada forma de generar rayos XLa radiación producida por el sistema tendría una longitud de onda muy uniforme y estrechamente alineada, similar a la de un rayo láser

La tecnología más ampliamente utilizada para pro-ducir rayos X, usados en muchos campos, desde la visualización médica hasta la búsqueda de grietas en materiales industriales, ha permanecido básica-mente igual durante más de un siglo. Pero, a juzgar por los resultados de una nueva investigación rea-lizada por expertos en Estados Unidos y Singapur, eso podría llegar a cambiar en los próximos años.

El hallazgo, fruto del desarrollo de una nueva teo-ría respaldada por simulaciones de gran precisión, muestra que podría utilizarse una hoja de grafe-no, una forma bidimensional (con solo 1 átomo de grosor) de carbono puro, para generar ondas de superficie llamadas plasmones, cuando la hoja sea golpeada por fotones de un rayo láser. Podría propiciarse entonces que estos plasmones a su vez generasen un agudo pulso de radiación, ajustado a la longitud de onda deseada, dentro de un amplio segmento posible que va desde la banda infrarroja a la de los rayos X.

Algo todavía más importante es que la radiación producida por el sistema tendría una longitud de onda muy uniforme y estrechamente alineada, si-milar a la de un rayo láser.

Page 66: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

ENERGÍA

Una batería con nano- materiales duplica la duración de las usadas en los móvilesInvestigadores de las universidades de Córdoba y La Sapienza de Roma han desarrollado un prototipo de batería con iones de litio y azufre.

Investigadores de la Universidad de Córdoba (UCO) han conseguido dar un paso adelante en la conse-cución de la deseada batería de litio y azufre utili-zable a gran escala al desarrollar un prototipo que duplica la duración de los actuales dispositivos de generación de energía y que ofrece mayor seguri-dad que los desarrollos hasta ahora alcanzados.

La pila de litio y azufre parece ser el acumulador más prometedor en la actualidad. Sin embargo, su desarrollo se topa con varias dificultades: hay que mejorar la conductividad del azufre, hay que conseguir evitar la disolución de un subproducto llamado polisulfuro de litio en el electrolito y redu-cir la reactividad del litio que puede provocar pro-blemas de seguridad en la batería.

Los científicos de la UCO han creado de forma ex-perimental baterías de litio y azufre que aportan una solución al problema de la seguridad, así los in-vestigadores emplearon una fuente de iones de li-tio alternativa en una nanoestructura que combina-ba estaño y carbono. Para comprobar si la batería era eficiente, se diseñaron y ensayaron prototipos conjuntamente con la Universidad de Roma La Sa-pienza. Los resultados de esta propuesta han sido publicados en la revista Chemical Communications.

INVESTIGACIÓN

Científicos predicen la actividad solar hasta el 3200Su estudio de la evolución del campo magnético solar y del número de manchas en la superficie del sol se remonta a hace mil años

El grupo de científicos - Valentina Tarasova (Uni-versidad de Northumbria, Inglaterra, Instituto de Investigación Espacial, Ucrania), Elena Popova (Uni-versidad de Lomonosov), Simon John Shepherd (Universidad de Bradford, Inglaterra) y Sergei Zhar-kov (Universidad de Hull, Inglaterra) - analizaron tres ciclos de actividad solar entre 1976 a 2009, con el llamado “análisis de componentes principales,” que revelan olas del campo magnético solar con una mayor contribución de los datos de observación.

Como resultado del nuevo método de análisis, se encontró que las ondas magnéticas en el Sol se ge-neran en pares, y el par principal es responsable del intercambio en el campo dipolar, que se obser-va cuando la actividad solar está cambiando. Los científicos han logrado obtener fórmulas analíticas que describen la evolución de ambas ondas.

Como resultado del aumento del campo magnéti-co en la superficie, las ondas empiezan a interac-tuar hasta unos latidos de amplitud del campo magnético resultante. Esto conduce a una dismi-nución significativa de la amplitud del campo mag-nético durante varias décadas. Al poner de relieve el período indicativo de los latidos (que es de varios siglos), los científicos han reconstruido la actividad solar desde la antigüedad (a partir del año 1200) y han hecho predicciones hasta el año 3200. El grá-fico tiene en cuenta que la actividad solar dismi-nuye dramáticamente cada 350 años, y la próxima disminución de la actividad solar comienza en la actualidad.

MATERIALES

Crean una nueva forma de oro casi tan ligera como el aireLa espuma compuesta por los científicos de la ETH Zurich es mil veces más liviana y tiene multitud de aplicaciones

El equipo de investigadores, dirigidos por Raffaele Mezzenga, profesor de Materiales blandos, ha de-sarrollado una malla tridimensional de oro que consiste principalmente en poros. Es la pepita de oro más ligera jamás creada.

El nuevo oro difícilmente se puede diferenciar del oro convencional a simple vista, ya que el aerogel tiene un brillo metálico. Pero en contraste con la forma convencional, es suave y maleable a mano. Se compone de 98 unidades de aire y sólo dos par-tes de material sólido. De este material sólido, más de cuatro quintas partes son de oro y menos de una quinta parte es fibra de proteína de la leche, lo que corresponde a oro de alrededor de 20 quilates.

El nuevo material podría ser usado en muchas de las aplicaciones en las que se utiliza el oro como jo-yas y relojes, donde la luz se refleja o es absorbida o también para fabricar sensores de presión.

Page 67: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

67

ACTUALIDAD CIENTÍFICA

BIOLOGÍA

Las algas podrían ser la próxima energía verde del planetaUn estudio de la Universidad de Concordia, en Montreal, explica cómo a través de la fotosíntesis y la respiración se produce energía eléctrica

Con el objetivo de acabar con la dependencia de los combustibles fósiles, investigadores de la Uni-versidad de Concordia en Montreal liderados por Muthukumaran Packirisamy, describen en la revis-ta Technology su invención: una célula que produ-ce energía eléctrica de la fotosíntesis y la respira-ción de las algas verdes-azules.

«Tanto la fotosíntesis como la respiración involu-cran a las cadenas de transferencia de electrones. Al atrapar los electrones liberados por las algas durante la fotosíntesis y la respiración, podemos aprovecharlas para la producción de energía eléc-trica naturalmente», dice Packirisamy.

También conocidas como cianobacterias, las algas verdes-azules son los microorganismos más prós-peros del planeta, evolutivamente hablando. Ocu-pan un amplio rango de hábitats a través de todas las latitudes. Y han estado aquí siempre: la flora y fauna tempranas del planeta deben su desarrollo a las cianobacterias, que produjeron el oxígeno que permitió prosperar a las formas de vida superiores de forma definitiva. «Al tomar ventaja de un pro-ceso que se produce constantemente en todo el planeta, hemos creado una tecnología nueva y es-calable que podría conducir a formas más baratas de generación de energía libre de carbono», dice Packirisamy.

TECNOLOGÍA

Internet a través de la luz LEDLa herramienta LIFI promete velocidades hasta cien veces superiores a las actuales

Los primeros pasos para poner en marcha esta he-rramienta los dio el catedrático de la Universidad

de Hedimburgo (Escocia), Harald Haas, quien des-cubrió hace un par de años el potencial que tenía el espectro de la luz para impulsar las comunica-ciones. Haas estableció que el “crecimiento actual y futuro del tráfico inalámbrico de datos” supone un enorme reto para el futuro, ya que “el espectro de frecuencias de radio no proporcionará los recursos suficientes para el año 2025”.

Desde las primeras investigaciones de Haas se han dado grandes avances, y recientemente la firma Velmenni de Estonia (norte de Europa) llegó a la conclusión de que el LIFI logra alcanzar una veloci-dad de transmisión cercana al 1 Gigabyte (GB) por segundo.

Aunque las proyecciones del grupo de investiga-dores son más que optimistas, ya que en pruebas realizadas con anterioridad en los laboratorios de la Universidad estadounidense de Oxford el siste-ma LIFI logró alcanzar una velocidad de 22GB por segundo. Los expertos coinciden en que una de las características más destacadas de esta herra-mienta es su rapidez, pero también la seguridad que brinda y el hecho de que esté ‘blindada’ contra las interferencias, por lo cual podría ser utilizada en aviones.

TECNOLOGÍA

Circuitos electrónicos analógicos y digitales dentro de plantas vivasEl control y la interconexión con vías químicas en las plantas podría allanar el camino hacia células basadas en la energía de la fotosíntesis

El equipo del Laboratorio de Electrónica Orgánica (LOE, por sus siglas en inglés), bajo la dirección del profesor Magnus Berggren, ha utilizado el sistema vascular de rosas vivas para construir componen-tes clave de circuitos electrónicos. El artículo sobre este trabajo que se publica en la revista ‘Science Advances’, muestra cables, lógica digital e inclu-so monitores fabricados dentro de las plantas, lo que podría desarrollar nuevas aplicaciones para la electrónica orgánica y nuevas herramientas en la ciencia de las plantas.

Las plantas son organismos complejos que se ba-san en el transporte de señales y hormonas iónicas para llevar a cabo sus funciones necesarias. Sin embargo, funcionan en una escala de tiempo mu-cho más lenta, por lo que interactuar e investigar las plantas resulta difícil. Ampliar las plantas con funcionalidad electrónica permitiría combinar se-ñales eléctricas con los propios procesos químicos de la planta.

El control y la interconexión con vías químicas en las plantas podría allanar el camino hacia células basadas en la energía de la fotosíntesis, regulado-res de sensores y del crecimiento y dispositivos que modulan las funciones internas de las plantas.

Page 68: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

CIEN

TÍFI

COS

ILU

STRE

S

Nikola Tesla había nacido en Smiljan, el 10 de julio de 1856. Nació por tanto en pleno siglo XIX y en los confines del Imperio Austrohúngaro. Cuando ochenta y seis años después murió en Nueva York en pleno siglo XX el mundo había cambiado enormemente. Y él había tenido mucho que ver en ese cambio. Hoy Smiljan forma parte del territorio de Croacia, aunque el propio Tesla y su fami-lia eran de origen serbio. Un caso perfecto para que naciones antagonistas se puedan apropiar del legado del genio a quien en su día todos ignoraron. Tesla también viajó, trabajó y estudio en ciudades como Gratz , Praga o Budapest , aunque de ningún modo de manera convencional. A pesar de su contrastada aptitud para la física y las matemáticas, la vida le fue llevando por caminos aleja-dos del mundo académico y eligió trabajar con las manos pero usando la cabeza en las máquinas eléctricas de la época. Ya como competente e innovador inge-niero de éxito, Tesla se trasladó a Paris en 1882, para trabajar en la Continental Edison Company, que se había instalado poco antes en esa ciudad. Para enton-ces, Tesla ya había concebido la solución a su personal dilema con las dinamos mediante el uso de corriente alterna polifásica. Había sido en Praga, paseando por el parque al atardecer. En un destello de iluminación había tenido una de sus más intensas visiones, inspirado por un sol rojo intenso en forma de gigante vórtice magnético. Tesla vio en su mente cómo crear un campo magnético gira-torio con, digamos, dos bobinas separadas perpendiculares por las que circula-ban corrientes alternas exactamente fuera de fase. Él siempre lo había sabido, los conmutadores de las viejas dinamos convencionales de corriente continua no eran necesarios. Era absurdo tener que cambiar los polos magnéticos del

rotor mediante escobillas de cobre rozando continuamente sobre el metal. De hecho esa disputa le había costado la enemistad del profesor Poeschl en Graz, donde nunca llegó a acabar la brillante carrera que su genio y su tremenda capacidad de trabajo le auguraban. Después de su visión de aquel motor de inducción, simple y eficientemente movido por un campo magnético giratorio, la mente de Tesla estuvo seducida por la elegancia de la corriente alterna. Sin embargo, nadie parecía ver el potencial de aquellos diseños, ni el alcalde de Es-trasburgo cuando Tesla hizo su primera demostración de su motor de inducción ante posible inversores de aquella ciudad, a donde viajó y trabajó para la Con-tinental Company de Edison, ni el propio Edison, cuando pocos años después intentó convencerlo personalmente. En una extraña dicotomía Tesla soñaba en corriente alterna (AC) mientras trabajaba en resolver los problemas cotidianos de la tecnología de corriente continua (DC) imperante en el mundo real. En Es-trasburgo remedió los problemas de una planta de generación de energía que la compañía de Edison estaba intentando instalar para la alimentación de la estación de tren de esa ciudad. La corriente continua no se podía transportar grandes distancias sin grandes pérdidas y era por tanto una tecnología que re-quería la generación local, cercana al punto de consumo.

Cuando Tesla llegó a Nueva York en 1884 le habían robado dinero y equipaje durante su viaje, pero aún conservaba la carta que el gerente de la Edison Conti-nental Co, Charles Batchelor había escrito para Edison. En ella, el hombre que le animó a emprender su aventura americana pudo haber escrito:

Nikola Tesla, creador de futuroPedro Gómez-RomeroLíder del NEO-Energy Group y Profesor del CSIC, Catalan Institute of Nanoscience and Nanotechnology

Cuando Nikola Tesla desembarcó en Nueva York el 6 de junio de 1884, Manha-ttan ya era una gran urbe, aunque el oeste americano seguía siendo salvaje; y la bombilla incandescente ya se había inventado pero todas las casas se ilumi-naban con quinqués. Tesla llegó prácticamente con lo puesto, después de una aciaga travesía atlántica y se reunió enseguida con Thomas Alva Edison, para quien había acordado trabajar.

Page 69: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

69

“He conocido dos grandes hombres y usted es uno de ellos. El otro es el joven por-tador de esta carta”

Tesla empezó a trabajar para Edison como ingeniero y lo hizo bien. Tan bien que pronto se vio involucrado en el rediseño y mejora global de los generadores de corriente continua de la compañía de Edison. Pero las desavenencias con éste no tardaron en aparecer. En primer lugar, porque Edison no estaba dispuesto a dejar de lado su asentada tecnología de corriente continua, su prestigio y sus muchas patentes para hacer sitio a las nuevas ideas y diseños de corriente al-terna de aquel recién llegado extranjero. Pero además, Tesla y Edison eran dos caracteres contrapuestos. La ruptura definitiva de su relación iba a llegar por un quítame allá esos cincuenta mil dólares. Se ve que Edison lanzo un reto a Tesla en tono de apuesta, desafiándole a mejorar sus generadores de corriente con-tinua. Cuando Tesla consiguió con su buena dosis de trabajo concienzudo me-jorar el diseño técnico y la eficiencia de aquellas viejas dinamos más allá de lo que Edison hubiera podido esperar, resultó que los 50,000 dólares que Edison había mencionado no eran sino una broma. Según parece, Tesla no entendía en absoluto el sentido del humor de los norteamericanos.

“Tesla creó el futuro en 1900 y también el futuro del siglo XXI”

Lo cierto es que, a pesar de acabar viviendo en los Estados Unidos los últimos cincuenta y nueve años de su vida, es probable que efectivamente Tesla no lle-gara nunca a comprender a los norteamericanos; ni su sentido del humor ni su sentido de los negocios. Porque cuando por fin dejó de trabajar para Edison y fundó por primera vez su propia compañía en diciembre de 1884 (Tesla Electric Light and Manufacturing Company), su buena estrella no le duró ni un año. Los inversores de su compañía lo financiaron para que desarrollara un sistema mejorado de iluminación por arco eléctrico, y así lo hizo. Pero lo descabalgaron de su nueva compañía ante su insistencia en la fabricación de motores de co-rriente alterna. Para el pobre Tesla aquel episodio y los dos años que siguieron fueron un amargo infierno. Con tan solo unos títulos sin ningún valor en su poder y habiendo perdido incluso el control de sus primeras patentes, se vio obligado a trabajar como obrero, cavando zanjas incluso, para reunir dinero para su próximo proyecto.

Tesla encontró una segunda oportunidad para fundar su Tesla Electric Com-pany y construir su sueño cuando le presentaron a las personas adecuadas. O quizá fue cuando se le ocurrió una adecuada demostración del poder de sus máquinas de AC. o probablemente una combinación de ambas cosas. Lo cierto es que el director de la Western Union, Alfred S. Brown, y el abogado Charles F. Peck quedaron cautivados por la silenciosa elegancia y eficiencia de la demos-tración de cómo poner de pie un huevo de cobre (el huevo de Colón lo llamó)con una corriente alterna polifásica, por supuesto. El huevo giraba como el rotor de un motor mientras se mantenía en pie gracias al campo magnético giratorio. Tras aquella cautivadora demostración, Brown y Tesla acordaron intercambiar dinero por patentes.

Pero la persona más influyente para potenciar el desarrollo del genio de Tesla estaba todavía por cruzarse en su camino. Fue en el año 1888. El 16 de Mayo de ese año Tesla había presentado ante el American Institute of Electrical Engi-neers (hoy IEEE) una comunicación sobre “A new system on alternate-current motors and transformers” y su trabajo llegó a oídos del ingeniero y empresario George Westinghouse que acabó negociando con Brown y Peck la licencia de los diseños del motor de inducción y transformador de Tesla. Westinghouse era un reputado ingeniero e inventor pero a diferencia de Tesla, era también un avezado empresario y estaba interesado precisamente en patentes de tec-nologías basadas en corriente alterna. Porque, obviamente, la corriente alterna no la había inventado Tesla, ni tampoco Westinghouse, Numerosos pioneros habían sentado las bases con anterioridad desde 1832. Pero la alianza entre Tesla y Westinghouse iba a ser duradera e iba a hacer posible el reinado de la corriente alterna.

Cuando en 1888 Tesla vendió sus patentes de sistemas AC polifásicos a Wes-tinghouse por una buena suma en efectivo, una buena cantidad de acciones y unos royalties de 2.50 dólares por caballo de vapor vendido, la corriente con-tinua llevaba ventaja gracias al desarrollo de partida por parte de Edison. Las calles más céntricas de nueva York ya lucían de noche gracias a la electricidad DC. Pero esta tecnología también adolecía de grandes problemas. El principal era que con los conocimientos de la época no era factible transformar la electri-cidad DC a alto voltaje y la generación debía ser cercana al consumo para evitar las grandes pérdidas que sufría con el transporte a baja tensión. Las calles de Nueva York iluminadas requerían una pequeña central generadora allí mismo, que cubría una zona de acción de unos 800 metros. Esta característica no de-bió de ser un problema para Edison. Al fin y al cabo, cuantas más centrales generadoras fuesen necesarias mejor le iría el negocio. Pero cuando la nueva compañía de Westinghouse con Tesla como consultor de lujo demostró que era capaz de alimentar una ciudad entera con una planta de generación más grande y remota, el cambio de DC a AC era sólo cuestión de tiempo. La clave era la transformación, relativamente fácil, de la corriente alterna entre baja y alta tensión con la tecnología de Tesla y las pérdidas relativamente bajas (en torno a un 7%) en el transporte a alta tensión.

Sin embargo, Edison no iba a rendirse sin presentar batalla. En aquellos años se desató una verdadera guerra con desorbitados intereses en juego que ha pasado a la historia de nuestra evolución tecnológica como “guerra de las co-rrientes”. Se habían dado diversos accidentes, incluso con resultado de muerte, con corrientes de alta tensión y Edison estaba dispuesto a mostrar la corriente AC como mucho más peligrosa que la DC. Puedes llamarlo marketing, o puedes llamarlo juego sucio, pero los compinches [1] de Edison y en particular su aliado H.P. Brown llegaron a electrocutar diversos animales en su afán por llegar a demostrar que la corriente AC era peligrosa. Tristemente, el único apoyo que Edison brindó a la corriente alterna fue para su empleo en una silla eléctrica

CIENTÍFICOS ILUSTRES - Nikola Tesla, creador de futuro

Nikola Tesla, con el libro de Ruđer Bošković Theoria Philosophiae Naturalis, frente a la espiral

de la bobina de su transformador de alto voltaje en East Houston Street, Nueva York.

Page 70: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

que sirvió para electrocutar al asesino convicto William Kemmler, quien tuvo el dudoso honor de sufrir la primera ejecución en silla eléctrica.

A pesar de aquel infausto episodio la corriente AC prevaleció en la guerra de las corrientes y Westinghouse y Tesla medraron sobremanera. En 1893 la Westin-ghouse Electric ganó el contrato para iluminar la exposición universal de Chica-go y se aseguró la construcción de una planta de generación de electricidad en las Cataratas del Niágara que se inauguraría tres años más tarde para abastecer de electricidad a la ciudad de Buffalo a 35 kilómetros. Tanto crecía el mercado de generación, distribución y uso de corriente alterna que quizá la Westinghou-se Electric podría haber muerto de éxito. Efectivamente, la generosa cláusula de los 2.50 dólares por caballo de vapor AC vendido pesaba como una losa en los planes estratégicos de la empresa. De hecho, para asegurar la financiación de su empresa, Westinghouse convenció a Tesla para que liberara a la compañía de aquel acuerdo de explotación de las patentes a cambio de comprárselas por una cantidad fija de 216000 dólares. Y Tesla firmó el documento, que tiempo después reconocería como el mayor error de su carrera.

“Experimentó, además de la corriente alterna, con los Rayos X y la telefonía sin hilos”

La guerra de las corrientes fue tan sólo uno de los inverosímiles episodios en la vida de Nikola Tesla. Y de entre sus innumerables visiones y sueños, sus tec-nologías de corriente alterna acabaron siendo algunos de los más sólidamen-te materializados en nuestra sociedad. Pero no fueron en absoluto los únicos. Tesla experimentó con los Rayos-X, contribuyó enormemente al desarrollo de la “telefonía sin hilos” hasta el punto de que podría considerársele tan padre de la radio como a Marconi, con quien también mantuvo un litigio de patentes, de-sarrolló dispositivos de radiocontrol remoto, y de la transmisión de información sin hilos pasó a la transmisión de energía sin hilos. Ya había demostrado cómo encender lámparas eléctricas sin conexión física alguna, demostraciones que despertaban el asombro de sus contemporáneos y que le hacían merecedor de un poderoso halo de misterio. Pero sus planes de transmisión inalámbrica de energía iban mucho más allá del espectáculo anecdótico. Con el cambio de siglo Tesla cambió de vida. En 1895, con el incendio de sus laboratorios de la 5ª Avenida de Nueva York había perdido una buena parte de su vida en forma de notas, inventos, datos, modelos, fotografías y planos. Se trasladó a Colorado Springs (CO) para instalar allí sus nuevos laboratorios con sitio para sus experi-mentos de alto voltaje. La electricidad atmosférica, la generación de relámpagos artificiales, o sus radiorreceptores, con los que apuntó la posibilidad de haber detectado emisiones extraterrestres, ocupaban su tiempo y contribuyeron a su imagen de científico loco y a la creación de un icono admirado por algunos se-guidores de lo esotérico.

Pero su gran proyecto iba a ser la Torre de Wardenclyffe, en Shoreham, Nueva York, una superantena de más de 50 metros de altura diseñada para desarrollar la transmisión transatlántica de radio, pero con la que Tesla aspiraba a arrancar una nueva tecnología universal para la transmisión masiva de energía. Llegó a construirla, en 1903, pero no llegó a funcionar. El banquero y financiero J.P. Mor-gan, el mismo que había financiado a Thomas Edison, le negó repetidamente su financiación, después de que el dinero de su primer crédito se gastara sin los resultados esperados. La Torre de Wardenclyffe fue desmantelada, igual que antes lo había sido el laboratorio de Tesla en Colorado Springs.

En sus últimas décadas, ya en decadencia, Tesla siguió experimentando incan-sablemente, por ejemplo con el desarrollo de resonadores mecánicos de alta potencia. Y siguió soñando, como siempre había hecho, especulando sobre los efectos beneficiosos de la electricidad sobre el cerebro humano, por ejemplo.

Tesla fue una mente solitaria. Sin medias naranjas, sin contratos matrimoniales ni hijos, con una visión interior de sus diseños electromagnéticos que fluía hasta completarse en su mente, con manías y fobias, con un anhelo utópico por la energía universal. Una mente sin patria y sin hogar, permanente residente en hoteles de lujo, que murió vencida por la miseria física y moral que le rodeaba, en su última residencia neoyorquina, en la habitación 3327 del hotel New Yor-ker, en Nueva York, donde había dedicado los últimos tramos de su vida a cuidar a sus queridas palomas.

Tesla murió olvidado por todos aquellos a los que hizo ricos e ignorado por todos los que se beneficiaron de sus tecnologías.

Mientras el ingeniero con nombre de lavadora (o de turbina) que había sido su aliado en la guerra de las corrientes pasó rápidamente a formar parte de la memoria colectiva del mundo electrificado, el apellido Tesla tuvo que esperar un siglo para que otro visionario lo utilizara como marca de su diseño de coche eléctrico deportivo. Paradójicamente, el Tesla Roadster de Elon Musk, alimenta-do con la corriente continua de sus baterías, quiere ser un debido homenaje al príncipe de la corriente alterna.

Lo cierto es que después de un siglo de AC, nuestra evolución tecnológica po-dría dar lugar a una nueva contienda entre AC/DC, aunque en este caso no se vislumbra tan cruda como antaño. Pero nuestras tecnologías cambian y varios de esos cambios apuntan en la misma dirección. Por una parte, actualmente es posible transformar la corriente continua a alta tensión. Por otra parte, el nú-mero de dispositivos electrónicos que utilizan DC en casa está empezando a ser algo más que sólo anécdota. Nuestros ordenadores, teléfonos móviles y televi-sores de pantalla plana usan DC, mientras que los paneles solares fotovoltaicos, que pronto serán inexcusables en nuestros tejados, generan electricidad DC. Si nos sobrase corriente continua después de alimentar con DC nuestra electró-nica de consumo podríamos usar las baterías de nuestro coche eléctrico para almacenar el excedente. Asimismo, las redes eléctricas ya no son lo que eran. En los tiempos en que Westinghouse reinó fueron una bendición para alejar de los núcleos urbanos la distribución y quemado de combustibles fósiles para producir electricidad. Las redes de corriente alterna de alta tensión también per-mitieron una economía de escala que hizo algo más eficiente el derroche de energía que supone alimentar una bombilla incandescente (10 % de eficiencia) con electricidad procedente de una planta de generación con una eficiencia de un 30%. Pero de un tiempo a esta parte la red eléctrica podría estar pasando de solución a problema con su creciente complejidad, y en el horizonte tecnológico se vislumbra una tendencia hacia el desarrollo de generación y almacenamiento de electricidad de forma distribuida, es decir, no centralizada como hasta ahora.

Nikola Tesla creo el futuro en 1900 y también el futuro del 2000, el futuro de nuestro incipiente siglo XXI.

Nikola Tesla en su laboratorio en Colorado Springs hacia 1900.

[1] Thomas Edison llamaba así, a los cerca de cuarenta científicos, inventores e ingenieros que trabajaban para él en sus laboratorios de Menlo Park : “muckers”

Page 71: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...
Page 72: CIENCIA Y TECNOLOGÍARevista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco ... y al estudio de procesos de reconocimiento molecular, ...

www.cicnetwork.es