Supercomputadores, imprescindibles para la ciencia y la ingeniería

Supercomputadores, imprescindibles para la ciencia y la ingeniería
En Campus Milenio

El superordenador MareNostrum en el Barcelona Supercomputing Center, el cuarto más rápido del mundo, cuenta con chips con velocidades superiores al teraflop por segundo.

El descubrimiento del transistor, fundamental para el desarrollo de la sociedad de la Información, es el descubrimiento que más ha influido en nuestra sociedad y en un tiempo de record. Por un lado, ha hecho posible fenómenos tecnológicos y sociales como Internet, y por otra parte, ha permitido la existencia de los Supercomputadores. Estas máquinas están siendo imprescindibles para el desarrollo de la ciencia y de la ingeniería en los países avanzados. Se describen, como ejemplo, las actividades de investigación y de transferencia de tecnología desarrolladas en el Barcelona Supercomputing Center (Centro Nacional de Supercomputación) en España.

De la Edad de Piedra hasta las TIC

La humanidad ha necesitado descubrimientos e inventos singulares, para avanzar y prosperar. Entre los más antiguos, podríamos nombrar el fuego, hace cientos de miles de años, o la rueda, que data de hace seis mil años. Pero han existido muchos más. Por ejemplo, el papel se empieza a usar en China en el año 200 de la era cristiana, y es la imprenta la que revoluciona, a finales del siglo XV, la reproducción de libros. De hecho, la imprenta popularizó el uso del papel en Europa, reemplazando a los pergaminos de piel animal. A modo de anécdota, comentaremos que para copiar una Biblia se necesitaba la piel de más de 200 ovejas. Y durante muchos años, esos libros, la información en realidad, eran transportados, como mucho, a la velocidad que permitían los caballos.

El panorama cambió con el desarrollo del telégrafo a mediados del siglo XIX, seguido del teléfono y la radio. Hoy en día la humanidad produce varios zettabytes (10 elevado a 24, o lo que es lo mismo, mil trillones) de información en un año, el casi equivalente a la información producida desde el origen hasta hace un año. Esa ingente cantidad de información podemos almacenarla en dispositivos cada vez más pequeños y precisos, cuya capacidad de almacenamiento se duplica cada año. Además, la podemos enviar desde cualquier parte del planeta a otra a velocidades de vértigo, a través de las redes telemáticas de alta velocidad. El desarrollo de estas tecnologías de la comunicación y de la información ha sido prodigioso: de la voz gritada hemos pasado a los tambores, y de éstos, al telégrafo, al teléfono fijo, a internet y a la telefonía móvil. Queda patente que la evolución tecnológica ha sido prodigiosa.

El transistor, fundamento de la revolución electrónica

A mitad del siglo pasado, se producen dos descubrimientos extraordinarios. Por una parte, se descubre la estructura del ADN, y por otra, se descubre el efecto transistor. El primero, ya está cambiando la forma de entender y practicar la medicina, tal como comentaremos al final de este artículo, y el segundo y sus derivados, ha sido el invento que más ha cambiado la sociedad en todos los tiempos. El transistor es el responsable y habilitador de la sociedad del conocimiento; es su verdadero protagonista. Su descubrimiento permitió mejorar otros muchos inventos ya conocidos, como las cámaras de fotografía, el teléfono, la radio y la televisión. Pero sin él, no habrían sido posibles otros muchos, tales como el PC, internet, la web, Google, Facebook, videos, CD, cámaras digitales de fotografía, tarjetas de crédito y el GPS, por nombrar sólo algunos de uso más extendido.

internet es una potente herramienta que ha transformado en unos pocos años nuestra sociedad y los usos y costumbres de muchos cientos de millones de ciudadanos de todo el mundo. Las tecnologías básicas que la han hecho posible han sido el aumento de la velocidad de los computadores, el incremento de la capacidad de almacenamiento y la mejora de las técnicas de intercambio de información a alta velocidad. Usando dichas tecnologías, se ha desarrollado un software sumamente heterogéneo, así como múltiples dispositivos que usamos en el día a día.

El transistor está en el corazón del desarrollo de las tecnologías base que permiten la fulgurante evolución de la sociedad de la información, y su gran influencia en nuestras vidas. Y en concreto, está en el corazón de internet.

A continuación, nos dedicaremos a comentar cómo la idea original del transistor y los avances en su integración han permitido construir computadores y supercomputadores de muy alta velocidad.

La tecnología basada en el silicio tiene sus límites

Con la aparición del transistor en el año 1947 y del primer circuito integrado del año 1958, la capacidad de miniaturización de los transistores ha ido creciendo a una velocidad que fue predicha en el año 1965 por Gordon Moore, cofundador de Intel. Desde entonces, los tecnólogos han logrado reducir su tamaño a la mitad cada menos de dos años. Debido a la llamada Ley de Moore, hoy en día somos capaces de integrar en circuitos basados en la tecnología del silicio unos pocos miles de millones de transistores en una superficie inferior a 6 centímetros cuadrados. Tengamos en cuenta que el primer microprocesador, creado en el año 1971, contenía 2.300 transistores. Esto es increíble.

Durante muchos años, los arquitectos de computadores hemos aprovechado estos avances de la tecnología en el diseño de los transistores para construir procesadores cuya velocidad se ha más que duplicado cada vez que el tamaño de los transistores se reducía a la mitad. Esta espectacular reducción del tamaño de los transistores ha hecho que disminuyera su consumo energético y se incrementara su velocidad de conmutación, permitiendo el desarrollo de nuevos y más potentes procesadores. En el año 1981 apareció en el mercado en primer computador personal y, a partir de ahí, una nueva serie de dispositivos entre los que se encuentran las tabletas y los teléfonos móviles. Hoy en día, los procesadores y el hardware y software asociados a ellos forman parte de nuestra vida cotidiana.

Desde hace poco menos de 10 años, hemos llegado casi al límite en la velocidad de los procesadores.

Por una parte, el aumentar más la frecuencia de reloj o velocidad a la que pueden operar los procesadores, hace que la energía eléctrica consumida sea mayor y, por lo tanto, resulte muy caro el refrigerar los circuitos para evitar que se quemen. Por otro lado, no hemos encontrado la manera de construir memorias más rápidas, por lo que el aumento de la velocidad del procesador no lleva asociado el correspondiente aumento en la velocidad de ejecución de los programas. Por ello, lo que hacemos y, seguiremos haciendo en el futuro, es poner más de un procesador dentro de un chip, dando lugar a los chips multiprocesador o “multicore”.

La tecnología actual todavía permitirá que en el espacio que hoy ocupa un transistor, se puedan integrar unas pocas decenas de transistores. Probablemente, antes de 15 años, los transistores sólo contendrán unos pocos átomos de silicio y nos encontraremos con serios problemas técnicos y económicos para poder seguir reduciendo más su tamaño. Habremos llegado al límite de la tecnología del silicio. Hasta que esto se cumpla, veremos aumentar el número de procesadores integrados en los chips, hasta llegar a tener varios centenares o miles de procesadores, dependiendo de la complejidad de cada procesador.

La velocidad acumulada de los chips es la suma de las velocidades de los procesadores que contiene, pero, cuando llegue ese momento estaremos obligados a hacer que todos ellos trabajen y colaboren en la ejecución de un mismo programa, si queremos que este programa experimente un aumento de velocidad proporcional al incremento del número de procesadores. Es decir, la Ley de Moore continúa en los chips “multicore”, y la velocidad del chip global también, pero es a costa de aumentar el número de procesadores o “cores”, y de que el software sea capaz de hacer que estos “cores” o procesadores trabajen conjuntamente en la solución de los problemas.

Computadores paralelos

No obstante, no es la primera vez que nos enfrentamos con el problema de lograr que varios procesadores colaboren en la ejecución del mismo programa. Desde hace más de 30 años, los investigadores estamos diseñando y usando sistemas computacionales en los que varios procesadores trabajan conjuntamente en la ejecución de un mismo programa. Son lo que llamamos máquinas paralelas, y a las más rápidas se les denomina supercomputadores.

Los supercomputadores vienen a ser como los “Fórmula 1” de los computadores. Su diseño y programación constituyen un gran reto tecnológico. En su lado positivo, los supercomputadores son herramientas que nos ayudan a resolver problemas complejos que precisan una elevada potencia de cálculo. Permiten hacer gran cantidad de operaciones sobre grandes cantidades de datos. También permiten ejecutar programas para simular aquellos problemas de las más variadas especialidades científicas. Son como microscopios que nos permiten ver sistemas antes de haberlos construido, o verlos cada vez con una mayor realidad y precisión. Los superordenadores, junto con la teoría (matemáticas y física) y los laboratorios, constituyen los tres pilares en los que se basan gran parte de los avances de las ciencias y de las ingenierías; son aceleradores de la teoría. Los supercomputadores están siendo fundamentales para el avance de la ciencia y la ingeniería y juegan un papel similar al que representaron las matemáticas como soporte básico al desarrollo de la física durante los dos últimos siglos.

En la actualidad, ya hay varios supercomputadores que tienen unos pocos millones de “minicores” y empieza a ser habitual que algunos tengan varios centenares de miles de procesadores y que alcancen velocidades superiores al petaflop/s, (flop/s es una operación por segundo, en coma flotante) es decir, diez elevado a quince operaciones por segundo. Dos veces al año, se establece un ranking internacional denominado Top-500, donde se ordenan los supercomputadores en función de las velocidades que obtienen al ejecutar el test denominado Linpack, que no es sino resolver un sistema lineal de ecuaciones.

En la lista de los 10 supercomputadores más rápidos en el ranking de junio del 2013. Las diferentes columnas indican el lugar donde está instalado, el fabricante y los chips básicos que lo componen, el número de procesadores, la velocidad a la que ejecuta cada supercomputador la prueba del Linpack, su velocidad máxima, la potencia eléctrica que necesita para ejecutar el Linpack sin tener en cuenta la necesaria para refrigerar la máquina, el número de gigaflops/s que ejecuta la máquina por cada vatio de potencia consumida y el nombre del supercomputador.

Existe otra lista, denominada Green500, que clasifica a los supercomputadores en función de la energía que consumen por gigaflop ejecutado. En este sentido, los supercomputadores BlueGene Q de IBM, posiciones 3,5, 7 y 8 en la tabla, son los mas eficientes energéticamente hablando. Hay supercomputadores que tienen procesadores de propósito general, como los números 3,4,5,7,8 y 9, y otros que además de los procesadores de tipo general, tienen aceleradores, ya sea del tipo MIC de Intel, como los números 1 y 6, o de Nvidia como los clasificados 2 y 10. El número 1 de la lista es un computador chino, del Ministerio de Defensa. Tiene en total casi 6 millones de cores, una potencia pico de 54,90 petaflops, y da un Linpack de 33.86. Cuando este artículo se publique en Campus Milenio, ya existirá otra nueva lista que saldrá a la luz en noviembre.

Evolución de los supercomputadores

Ahora estamos diseñando para dentro de aproximadamente 7 años, supercomputadores que serán 25 veces más potentes que los actuales superaran la barrera del exaflop/s (Exa= 10 elevado a 18, o lo que es lo mismo, un trillón), y contendrán varios millones de procesadores o “cores” que trabajarán conjuntamente en paralelo. Ese número tan elevado de procesadores va a hacer muy difícil la construcción de los sistemas, la fiabilidad tanto de hardware como de software, la programabilidad y la optimización del consumo energético, entre otros problemas.

En cuanto al consumo de energía, tengamos en cuenta que el actual supercomputador número 1 del mundo, 30 veces más lento que el futuro Exascale, consume más de 20 megavatios (MW), si tenemos en cuenta el consumo adicional que precisa la refrigeración del sistema. Una simple regla de tres, nos dice que una extrapolación lineal haría que una máquina Exascale actual consumiría 600 MW. No olvidemos que un gigavatio (GW) es la potencia producida por una central nuclear. Es por ello que los arquitectos de supercomputadores intentamos que los avances en la tecnología de construcción de circuitos hagan posible el diseño de máquinas Exascale con un consumo de entre 20 y 50 MW. Otro de los grandes retos que se nos presenta es cómo reaccionar ante fallos del hardware y del software. El número de procesadores tan elevado, así como el reducido número de átomos que se usarán para construir los transistores, hace prever que sistema pueda tener fallos con una relativa frecuencia.

Durante los últimos 30 años, la velocidad de estos supercomputadores se ha multiplicado por mil cada década. A ello ha contribuido el aumento en la velocidad de cada uno de los procesadores, así como al aumento en el número de procesadores usados para construirlos. Como casos concretos, el primer supercomputador que superó la barrera del gigaflops/s (10 elevado a 9 operaciones por segundo) ejecutando el test Linpack, estaba basado en 8 procesadores del fabricante Cray. Esto ocurría en 1998.

Pues bien, en el año 2008, el primer supercomputador que alcanzó la velocidad del petaflop/s (10 elevado a 15 operaciones por segundo), es decir, un millón de veces más rápido que el anterior, estaba construido con 150 mil procesadores. Así pues, este sistema tenía casi 20 mil veces el número de procesadores del supercomputador más rápido de hace 20 años y cada uno de los procesadores era prácticamente 50 veces más rápido. Tal como hemos dicho anteriormente, hoy, la única manera de aumentar la velocidad de los actuales y futuros chips es aumentar el número de “cores”, ya que hemos llegado a un límite en la velocidad de cada uno de los cores. Es por ello que se espera que los futuros supercomputadores que superen la barrera del exaflops/s contengan alrededor de 100 millones de procesadores.

Por otra parte, tengamos en cuenta que hoy existen chips, con velocidades superiores al teraflop/s (10 elevado a 12, o lo que es lo mismo, un billón), es decir, superiores al supercomputador más rápido del mundo hace tan sólo 12 años. Dentro de 4 años, únicamente con diez chips de éstos, se conseguirá la velocidad que tenía el supercomputador Marenostrum del BSC en el año 2004, que lo convirtió en el número 4 del mundo y en el más rápido de Europa. Los teléfonos móviles más avanzados que tenemos hoy en día, por su velocidad de cálculo, ocuparían el número uno de la lista de los supercomputadores de tan solo 20 años.

Estas ingentes potencias de cálculo estarán muy pronto en los computadores personales, de forma que contribuirán a desarrollar la Ciencia y la Ingeniería a niveles nunca vistos. Esos “locos cacharros” nos ayudarán a disponer de medicina personalizada, a diseñar medios de transporte más seguros y menos contaminantes, a aumentar la calidad de vida de las personas, o a ejecutar modelos globales de la Tierra que nos ayuden a protegerla de las agresiones del ser humano. Estas tecnologías permitirán que los investigadores podamos seguir soñando en un mundo mejor.

A nivel técnico, nos encontramos por primera vez en la historia de la Informática, que los problemas encontrados en el diseño, programación y uso de los distintos dispositivos que van desde los teléfonos móviles, a los supercomputadores más rápidos del mundo, pasando por las tabletas y los servidores de datos, son los mismos. Estamos en una época en que necesitamos todos estos inventos para avanzar, para seguir progresando. Y para ello, necesitamos que nuestros países pongan los medios necesarios, desde la educación primaria hasta la Universidad. Necesitamos que las administraciones pongan un cuidado especial en la enseñanza y uso de estas tecnologías, si no quieren quedarse rezagados de los países del Primer Mundo.

Es de sobras conocido y aceptado, que una de las diferencias entre los países pobres y ricos actuales fue su actitud para aceptar y usar en su capacidad productiva la revolución industrial. Esta revolución, junto con la organización política y legal, marcaron las diferencias actuales, independientemente, muchas veces, de la riqueza natural de estos países antes de la revolución industrial. Las máquinas de vapor primero, y la electricidad después, fueron un factor diferencial en crear riqueza en un país. Hoy, esa potencial riqueza está en el uso y desarrollo adecuado de las tecnologías de la información. Es necesario que los países sean muy activos en la enseñanza, aceptación, uso y desarrollo de estas tecnologías. Y de hecho, se ha visto que países que eran pobres hasta hace muy poco y han invertido en estas tecnologías, ahora se encuentran entre los más avanzados a nivel mundial.

Para que estos súper-chips y estas súper-máquinas puedan realmente servirnos para la finalidad para la que los construimos, tenemos que diseñar programas que usen eficientemente las decenas de procesadores que tendrán los teléfonos móviles del futuro inmediato, los centenares de procesadores que contendrán los computadores personales, y los millones de procesadores que contendrán los supercomputadores del futuro. Se necesitan nuevos algoritmos que usen eficientemente el hardware de estas máquinas y que intenten, por ejemplo, minimizar el movimiento de datos entre las diferentes partes del computador, así como una buena distribución del trabajo a realizar entre los procesadores.

Se calcula que más del 70 por ciento del consumo de energía de esas futuras máquinas estará asociado al movimiento de datos, por lo que también, el diseño de las redes de interconexión entre los procesadores de cada chip y entre los nodos del sistema, son temas que requieren nuevas ideas y la programación de estos nuevos sistemas no será nada fácil. Hemos de lograr que las aplicaciones paralelas generen millones de actividades que se puedan ejecutar en paralelo, que puedan utilizar los millones de procesadores que conformen el sistema. Necesitamos nuevos modelos de programación, así como nuevos mecanismos de gestión dinámica del paralelismo de las aplicaciones.

Por todo ello, precisamos cambiar la educación que impartimos a nuestros jóvenes estudiantes. Es importante introducir el uso de estas tecnologías en las aulas de los más jóvenes. Y es imprescindible formar a los alumnos de carrera y a nuestros estudiantes de doctorado en nuevas disciplinas, tales como algoritmos paralelos y lenguajes de programación, que permitan expresar el paralelismo de las aplicaciones. A nivel de investigación, necesitamos crear equipos multidisciplinares que sean capaces de crear el software que requerirán tan potentes máquinas. Necesitamos que los profesionales en computación se eduquen y colaboren junto con ingenieros, científicos, economistas, biólogos, en un ecosistema apropiado que fomente el intercambio libre de las ideas y de los conocimientos.
Ese número tan elevado de procesadores va a hacer muy difícil la construcción de los sistemas, va a complicar la fiabilidad tanto hardware como software, la programabilidad y la optimización en el consumo energético, entre otros problemas. El reto es muy grande.

Además de los científicos, y de las personas en general, un país moderno necesita crear infraestructuras científicas competitivas a nivel mundial en aquellos temas que sean de su interés. Sin instrumentos avanzados es muy difícil hacer investigación de calidad y competitiva en casi todos los campos de la ciencia y de la ingeniería.

El premio Nobel español, Don Santiago Ramón y Cajal, necesitó usar los mejores microscopios y técnicas de tintado para poder ver y confirmar sus teorías sobre las neuronas. Sin ir tan lejos, es un hecho conocido que las ideas que desarrollaron hace ya 50 años usando sus cerebros, lápiz y papel, los dos investigadores premiados con el Nobel de Física de este año, Peter Higgs y François Englert necesitaron de un instrumento carísimo cuyo coste es de 7 mil millones de euros, como es el acelerador de partículas, y del esfuerzo de muchas personas para confirmar que el bosón de Higgs existe y que puede explicar la existencia de masa en la materia. Lo mismo ha ocurrido con los tres ganadores del premio Nobel de Química de este mismo año: Martin Karplus, Michael Levitt y Arieh Warshel, que fueron pioneros en la década de los 70 en utilizar los supercomputadores para modelar las complejísimas reacciones químicas en las moléculas. En este campo, como en muchos otros, los computadores están cambiando la forma de hacer Ciencia.

La supercomputación en España

Muchos países vieron que, desde la aparición de las primeras máquinas, el uso de los supercomputadores era estratégico para el desarrollo de la ciencia y la ingeniería. hicieron suya la máxima de que “un país que no computa no compite”. Otros, como en el caso español, llegaron un poco más tarde a esa conclusión. En el año 2004, el gobierno español, el gobierno de Cataluña y la Universidad Politécnica de Cataluña decidieron crear el Barcelona Supercomputing Center (Centro Nacional de supercomputación, BSC-CNS). Se basaron en la experiencia que un grupo numeroso de la Universidad Politécnica de Catalunya (UPC), habíamos ido adquiriendo desde finales de los 70 en temas de diseño hardware, software y aplicaciones de los computadores paralelos, a través de otro centro de menor envergadura, también creado por los mismos socios en el año 1991, y que se denominó Centro Europeo de Paralelismo de Barcelona (CEPBA). Los objetivos del BSC están muy claros. Por una parte, dar servicio a los usuarios europeos y españoles de la supercomputación, y por otra, realizar investigación de excelencia y relevancia internacional.

Después de nueve años, se ha visto que los recursos públicos asignados han dado sus frutos. A nivel de servicios, se ha creado una RES —Red Española de Supercomputación—, ideada y coordinada por el BSC, donde diferentes supercomputadores ubicados en diferentes ciudades españolas, ofrecen sus servicios de manera centralizada y coordinada a todos los investigadores de España. Como nodo “Tier-0” de la Red Europea PRACE, se ofrecen horas de cálculo a los investigadores europeos. En ambos casos, el español, y el europeo, los investigadores presentan sus proyectos, que son evaluados por un grupo de 40 expertos independientes. Esta compartición de recursos, aumenta el grado de racionalización y uso de ellos, y abarata enormemente los costes.

Pensado inicialmente para tener 50 personas, el BSC cuenta hoy con más de 400 —, 350 de los cuales son investigadores, de los que el 40 por ciento proceden de 40 países diferentes. Esto ha sido posible porque por cada euro que hemos recibido de nuestros patronos para realizar investigación, el BSC ha logrado obtener más de 5 euros a través de proyectos con empresas y de nuestra participación en proyectos de investigación con la Comisión Europea. Está claro el poder del BSC-CNS de atraer talento externo, crear puestos de trabajo de alta cualificación, y generar riqueza en el tejido empresarial español.

Algunos proyectos de Investigación realizados en el BSC

Enumeraremos a continuación, algunos de los proyectos que realizamos en el BSC. Una información más amplia y precisa puede encontrarse en http://www.bsc.es
En primer lugar, describiremos algunos relacionados con el propio software y hardware de los supercomputadores. El BSC, ocupa una posición de liderazgo a nivel mundial en el desarrollo de los modelos de programación y de herramientas. Los modelos de programación son la manera que tenemos de programar y de expresar el paralelismo de las aplicaciones para poder usar de manera eficiente todo ese hardware cada vez más grande y complejo—. No solamente hemos desarrollado nuestro propio modelo de programación, el OMPS, usado por gran número de usuarios de todo el mundo, sino que también hemos hecho contribuciones a los modelos estándares de programación, tal como el OpenMP.

Las herramientas sirven para medir el comportamiento de los programas, y son tan necesarias para optimizar el uso del hardware de los supercomputadores como para diseñar los supercomputadores del futuro. Dentro del tema puramente informático, el BSC ha sido pionero en demostrar que tiene sentido el diseñar computadores de muy altas prestaciones usando el hardware potentísimo que usan los teléfonos móviles y tabletas. La ventaja frente a los diseños actuales es que se puede ahorrar bastante energía y sobre todo coste.

El proyecto, que cuenta con financiación europea, se denomina Montblanc (www.montblanc-project.eu/) Por todo ello, y por la calidad de nuestra investigación, hemos establecido en el BSC centros de investigación conjuntos con IBM, Intel, Microsoft y Nvidia.
Con el supercomputador MareNostrum, hemos desarrollado programas que nos predicen la calidad del aire, que hasta hace poco eran impensables http://www.bsc.es/caliope. El acoplamiento de un modelo de predicción de tiempo, con modelos locales acerca de emisión de contaminantes, hace posible tener una predicción que no sólo es válida para prevenir, sino para intentar reducir la mala calidad del aire. Este modelo es básico para las ciudades con alto nivel de contaminación. Muchas de estas investigaciones han sido financiadas por las administraciones públicas.

A nivel de aplicaciones para hacer más competitivas a las empresas, empezaré por citar el desarrollo del software http://www.bsc.es/bsit/ que permite a la empresa española Repsol determinar dónde va a instalar un pozo para buscar petróleo en ambientes hostiles, como pueden ser el Golfo de México, donde las enormes capas de sal distorsionan la señal que se envía para recoger la respuesta del terreno y, a partir de ahí, hacer una representación 3D del subsuelo para localizar los puntos donde puede encontrarse el petróleo. El uso de las enormes potencias de cálculo, permite resolver las ecuaciones con mayor precisión y, por lo tanto, definir mucho mejor los puntos de perforación. Este proyecto ha dado una ventaja muy grande a Repsol frente a sus competidores. Y a nivel internacional, quedó en el segundo lugar en los premios— mejores inventos del año 2009, otorgados por el Instituto Norteamericanos de Ingenieros Eléctricos y Electrónicos, y ha recibido muchos otros premios.

Como muestra clara de la importancia de este proyecto, voy a citar las palabras de Antoni Brufau, Presidente de Repsol, en el mes de Octubre del 2013 en -Panamá…. “En Repsol creemos que la tecnología y la innovación han sido y seguirán siendo un motor transcendental y vital para la sociedad, y que el impulso de la innovación desde la empresa, y el desarrollo de proyectos novedosos y retadores tendrán un impacto mucho más positivo si los afrontamos de manera colaborativa, poniendo a la sociedad en el centro del nuestro ecosistema de trabajo.

En lo que se refiere a los hidrocarburos, hace dos décadas, cuando los grandes yacimientos convencionales empezaron a escasear, la industria petrolera se embarcó en la búsqueda de nuevos recursos, hasta lograr perforar pozos a 8 mil metros de profundidad en el lecho marino. Era difícil imaginar que hoy se estuvieran perforando pozos a esa profundidad y, sobre todo, que la tecnología lo haya permitido en un plazo tan corto, de forma segura, con un alto nivel de protección ambiental y en armonía con otras actividades. Como en otros ámbitos, los avances en las telecomunicaciones y en capacidad de supercomputación han permitido que esta industria haya dado en los últimos diez años un salto de gigante. Los sistemas de operaciones en tiempo real hacen posible hoy que los centros de decisión de las compañías dispongan de datos online, desde explotaciones situadas en cualquier lugar del mundo.

En Repsol, la transformación a través de la tecnología es constante. En este aspecto y como ejemplos de iniciativas que desarrolla la compañía, y que han supuesto un importante avance y contribución para la industria, podemos destacar proyectos que Repsol ha desarrollado para descubrir y producir más energía. Por ejemplo, el proyecto Caleidoscopio, una herramienta pionera para mejorar la tasa de éxito cuando se buscan nuevos recursos en el subsuelo, que ha contado con la colaboración de entidades de prestigio, como la Universidad de Stanford o el BSC, Barcelona Supercomputing Center y que ha recibido distintos galardones, como el premio Platts o el del Instituto Norteamericano de Ingenieros Eléctricos y Electrónicos. También podemos mencionar Sherlock, que desarrolla nuevas tecnologías para disminuir el riesgo geológico y aumentar la tasa de éxito exploratorio.

Repsol cuenta desde hace diez años con el Centro de Tecnología Repsol, uno de los más avanzados de Europa y el más grande de España, donde más de 400 investigadores diseñan soluciones energéticas innovadoras que sin duda seguirán jugando un papel importante en la transformación futura de la compañía”…Sobran los comentarios.

Uno de los temas más importantes en los que estamos investigando es el relacionado con las Ciencias de la Salud. En este tema, como en muchos otros, pensamos que lo más importante no es publicar en revistas, tales como Nature y Science, actividad que hacemos frecuentemente, sino llevar el resultado de las investigaciones a los pacientes de los hospitales y a los ciudadanos en general. En este campo, como en la mayoría de nuestras investigaciones, es fundamental formar equipos multidisciplinarios. En este caso, la contribución de los doctores de los hospitales son fundamentales, así como la de biólogos, químicos, físicos, ingenieros, y matemáticos.

En el BSC, estamos investigando en el tema de la búsqueda de nuevos fármacos y en el de la medicina personalizada www.bsc.es/medicahead.

Al comenzar este artículo hablábamos de los dos descubrimientos importantísimos como fueron el DNA y el transistor. Sin lugar a dudas, ambos, son los protagonistas, junto con otros inventos, tales como la resonancia magnética, los TAC y los PET de lo que se denomina la medicina personalizada. En estos temas, el BSC también ocupa una posición de liderazgo a nivel mundial. A este apartado vamos a dedicar las últimas líneas de nuestro artículo.

Desde el origen de la medicina, los médicos usaron los síntomas del cuerpo para reconocer las enfermedades. La capacidad para predecir y para curar las enfermedades fue, durante miles de años, muy limitada. Durante los últimos 200 años, la humanidad ha empezado a usar técnicas más sofisticadas para tener mejor medicina. Nos referimos a análisis de sangre, electrocardiogramas, radiografías, ecografías, resonancias magnéticas o los más modernos PET. No cabe duda de que los avances tecnológicos hayan permitido hacer cada vez, una medicina mejor, más humana y más económica.

Con el descubrimiento del ADN hace poco más de 50 años, tenemos una información valiosísima para predecir, prevenir y curar enfermedades a nivel individual. Permite un cambio drástico en la forma de entender y hacer medicina. Se acuña el término de Medicina Personalizada y se valida aquella frase de Hipócrates que hace 2500 años, predijo que “más importante que conocer la enfermedad que tiene una persona, es el conocer a la persona que tiene la enfermedad”.

El análisis genético individualizado, el familiar y el del entorno, está ya ayudando enormemente a mejorar la salud de los ciudadanos. Nuestro objetivo es conseguir predecir y prevenir las enfermedades antes de que aparezcan los síntomas. Y también a dar tratamientos más eficientes y con menos efectos secundarios a los pacientes. Todo ello, aumentará la longevidad, la calidad de vida y disminuirá, drásticamente, los costes del sistema de salud.

Muchos avances tecnológicos han sido necesarios para encontrarnos en este grado de optimismo. Y necesitamos todavía muchos más, así como muchos años de investigación puntera en este campo. Algunos de ellos, básicos para el avance en esta área, han sido el enorme progreso en la capacidad para secuenciar el genoma, así como el aumento en la capacidad de memorización, y en la potencia de cálculo de los supercomputadores.

La velocidad para secuenciar un genoma, así como el coste de la secuenciación, han evolucionado a una velocidad increíbles. Algunos datos: en el año, 2009, tras 13 años de trabajo, y con un coste de 3.000 millones de dólares, se consigue descifrar el primer borrador de un genoma humano. En el año 2007, el coste de secuenciar un genoma era de 10 millones de dólares. En el año 2008, nuevas técnicas químicas y un uso masivo del hardware producen un cambio muy importante en la tecnología usada en los secuenciadores, de forma que en 2009, secuenciar un genoma tardaba 2 meses y tenía un coste de 50 mildólares.

Hoy, podemos secuenciar en un día y con un coste cercano a los mil dólares. Dentro de poco, será una realidad el que cada ciudadano tenga descrito su genoma en soporte magnético y disponible como uno de los datos más valiosos para controlar y gestionar su salud. Es evidente que a partir de ahí, habrá un cambio substancial y cualitativo en la medicina personalizada.

La medicina basada en la genómica es una revolución que requiere de una gran capacidad de almacenamiento y análisis de datos. En un principio, la dificultad de este tipo de medicina radicaba en la secuenciación de ADN. Ahora, con las nuevas técnicas, secuenciar el ADN de un paciente ya se ha convertido en un proceso relativamente rápido, y cada vez más económico. El reto actual es analizar los millones de datos procedentes de la secuenciación y almacenarlos para que en el futuro los investigadores puedan sacar más provecho de ellos. Hay que pensar que, para el análisis de un sólo genoma (o de un único paciente), se necesitan unos 100 Gb de memoria en disco y varios días de computación. Las predicciones de secuenciar miles y miles de genomas suponen un reto, por lo que son necesarias nuevas concepciones de almacenamiento y procesado de la información.

En estos momentos ya se están analizando miles de genomas en todo el mundo, y esto es sólo el principio. Por ejemplo, en el campo de la genómica del cáncer, se están secuenciando cientos de pacientes, muchos de ellos se analizan en el BSC. Esto permite saber qué mutaciones y qué genes son responsables de cada tipo de tumor y, en un futuro próximo, el objetivo de los investigadores consistirá en ajustar la terapia para cada paciente. Esto ya se está haciendo con muchas enfermedades, tales como la diabetes y el SIDA. Todos estos trabajos se están realizando en colaboración con los doctores de los hospitales, de manera que cualquier hallazgo importante pueda ser aplicado al enfermo lo antes posible.

Otro de las líneas emblemáticas de nuestra investigación, dentro de la medicina personalizada, es el desarrollo de biosimuladores. Se trata de aplicar muchos de los conocimientos acumulados de la Ingeniería al campo de simular órganos humanos, con el objetivo de curar mejor y más rápidamente a los enfermos. Un caso que tenemos bastante avanzado es el simulador del corazón. Se trata de un gran reto tecnológico, ya que se requiere una simulación multifuncional desde las células, a la generación del impulso eléctrico, y al movimiento mecánico que mueve el músculo del corazón, que bombea la sangre.

Es un proyecto realizado en colaboración con doctores de los hospitales y esperamos que puedan utilizarlo en menos de dos años. Este simulador personalizado para cada paciente permitirá ayudar a los doctores a ver el efecto de los fármacos, así como a realizar operaciones virtuales antes de ir al quirófano. Este simulador ganó el premio al mejor video científico concedido por la National Science Foundation y la revista Science en 2012. Hubo 200 finalistas.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s