Noticias

Manuel Martín-Merino: “Las técnicas de big data han contribuido de manera decisiva en el estudio del virus”


Publicado: 24/03/21

Compártelo en:

Nunca una crisis mundial ha contado con tantos datos para procesarlos y, a partir de ellos, tomar decisiones. La pandemia ha precipitado la digitalización de los datos personales y, en particular, de los pacientes. En este sentido, el big data -tecnología que permite recopilar y analizar un gran volumen de datos- ha evidenciado su gran utilidad. El director de la Cátedra 'Big Data Telefónica' de la Universidad Pontificia de Salamanca, Manuel Martín-Merino, explica su potencial y sus múltiples capacidades.

Pregunta (P.): ¿Para qué ha servido el uso de big data desde que comenzó la pandemia?

Respuesta (R): La pandemia ha llegado en un momento en que disponemos de tecnologías muy potentes que generan ingentes cantidades de datos acerca del virus, sus proteínas, interacciones con drogas existentes y evolución de los enfermos de acuerdo a diferentes variables clínicas. Los datos por sí solos no aportan información relevante, pero la aplicación de técnicas de Inteligencia Artificial y Big Data han permitido obtener conocimiento y avanzar en la lucha contra la pandemia.

Además, el big data también ha contribuido a analizar los datos derivados de la incidencia del virus en diferentes regiones y su relación con otras variables como el número de test PCR realizado. Ese conocimiento nos capacita para tomar decisiones más inteligentes en futuras olas del virus.

 

P. ¿Por qué el big data ha contribuido en el estudio del comportamiento del virus?

R: Las técnicas de big data han contribuido de manera decisiva en el estudio de las proteínas del virus, sus interacciones con las del ser humano, las funciones biológicas afectadas y los mecanismos que utiliza el virus para producir dichos cambios. También se ha utilizado de manera intensiva para identificar drogas ya existentes que, aisladas o interaccionando con otras, tienen un efecto positivo para reducir la expansión del virus en el organismo. Las técnicas computacionales han permitido la búsqueda de nuevos compuestos candidatos a ser activos frente al virus, lo que reduce significativamente el tiempo de experimentación en laboratorio. Por último, las técnicas de big data son necesarias en la búsqueda de mutaciones en el virus y en los cambios en las proteínas resultantes.

 

P. El big data ha permitido la creación de aplicaciones móviles de rastreo en todo el mundo. ¿Han sido efectivas?

R: Para que las aplicaciones hubiesen sido efectivas un alto porcentaje de usuarios tendría que haberlas instalado en sus móviles. La preocupación con la confidencialidad de los datos ha hecho que la mayor parte de la población no las instale. Por eso, no han sido efectivas.

 

P. El superordenador Summit -el mayor ordenador con capacidad de procesamiento de datos del mundo- ha facilitado a los investigadores simular hasta 8.000 compuestos en un solo día. ¿Esta simulación ha contribuido a agilizar la búsqueda de la vacuna?

R: El desarrollo de una vacuna suele suponer un trabajo experimental de entre 5 y 10 años. Las vacunas contra la COVID-19 han sido obtenidas en un tiempo récord. Los superordenadores han permitido simular miles de compuestos y analizar si pueden interaccionar con la proteína S que utiliza el virus para entrar en la célula. Ello reduce muchísimo los experimentos de laboratorio y ha disminuido significativamente el tiempo de desarrollo de la vacuna.

 

P. El big data y la inteligencia artificial ayudan a procesar datos como síntomas, comorbilidades, pronósticos, estudios clínicos, etc. Esta tecnología no solo almacena datos, sino que los cruza e interpreta. ¿Se ha demostrado su efectividad para conocer la evolución de la enfermedad de un paciente?

R: La inteligencia artificial ha aplicado modelos estadísticos y neuronales a la predicción del pronóstico en los enfermos de COVID-19 en función de una serie de variables clínicas medidas. Para ello, los modelos han aprendido de manera similar a cómo lo hace el cerebro humano, a partir de los datos clínicos de otros pacientes y de sus pronósticos. Los estudios publicados han mostrado que los modelos pueden ayudar a predecir si un paciente va a entrar en la UCI y a determinar los parámetros clínicos que están asociados a esa evolución.

 

P. ¿Cree que esta tecnología de macrodatos se ha tenido en cuenta por las diferentes administraciones en la toma de decisiones?

R: Las tecnologías de big data están siendo utilizadas ya en diferentes áreas de las administraciones públicas, aunque deberían tener más peso. En ese sentido, debemos acortar la ventaja que nos llevan los países anglosajones.

 

P. El uso de millones de datos sobre salud ha cuestionado el tratamiento de ficheros de alta seguridad especialmente protegidos. ¿Este uso exponencial ha provocado una mayor quiebra en la seguridad datos de carácter personal?

R: Es cierto que cada vez se almacena un mayor volumen de datos personales que pueden revelar información confidencial sobre nuestra salud y su evolución futura. Por eso, es importante que el área de ciberseguridad proporcione métodos seguros y sofisticados para evitar los ciberataques y la fuga de información confidencial.

 

P. ¿Qué valor añadido aportan los expertos en big data en el procesamiento de datos y en otros campos?

R: Los datos por sí solos no tienen valor, lo importante es el conocimiento que los expertos en Big Data pueden extraer de ellos. El procesado de datos es una tarea muy compleja que no puede ser realizada de forma totalmente automática. Por esta razón, son imprescindibles dichos expertos y requieren de personal con una alta cualificación y especialización. La demanda de expertos en Big Data es cada vez mayor porque el número de aplicaciones que generan gran cantidad de datos ha crecido exponencialmente con el uso de las tecnologías digitales. Desde la Facultad de Informática de la Universidad Pontificia de Salamanca tratamos de cubrir esta demanda a través de los postgrados en Big Data.