¿Cómo la nanotecnología puede contribuir al desarrollo de la computación del 2050 y los nuevos desafíos del Big Data?

El desarrollo de la nanotecnología ha abierto un enorme abanico de posibilidades en la búsqueda de soluciones a los grandes problemas que enfrenta el ser humano y su entorno. En medicina, por ejemplo, las terapias basadas en nanopartículas han permitido mejorar la actividad de ciertos fármacos, reduciendo sus dosis y disminuyendo sus posibles reacciones adversas. Sin embargo, existe toda un área casi inexplorada de la bionanotecnología, aquella que se asocia a la computación.

Por Victoria Martínez. 

DNA molecule of spheres. Eps 10
UNAB desarrolla trabajo en conjunto con la Agencia AFOSR 2016.

Los seres vivos y las computadoras tienen mucho en común. Las computadoras modernas son un reflejo de muchos procesos biológicos que ocurren en nuestro cerebro, como la memoria, toma de decisiones y el aprendizaje. Aun así, existen otros procesos que no han sido explorados. ¿Es posible incluir estos procesos en la computación del futuro?

En el marco de un fondo de investigación otorgado por la Agencia AFOSR (Air Force Office of Scientific Research) de Estados Unidos, la Universidad Andrés Bello se hace parte de una destacada colaboración científica entre Chile y los Estados Unidos.

Se trata de un proyecto inédito en Chile que, por primera vez, reúne a distintas instituciones (Universidad de Chile, Universidad de Valparaíso (CINV), Universidad de Santiago de Chile, Pontificia Universidad Católica de Chile, Universidad de California–San Diego, Universidad Andrés Bello y la Fuerza Aérea de Chile).

El proyecto adjudicado será liderado en la Universidad Andrés Bello por el doctor Danilo González, Director del Center for Bioinformatics and Integrative Biology (CBIB), de la Facultad de Ciencias Biológicas. Desde la AFOSR encabeza la iniciativa el Dr. Brett Pokines, Program Officer y desde la oficina de Santiago, el Teniente Coronel, Michael Martínez.

La computación del 2050

El desafío de este estudio es de muy alto nivel y la meta es poder delinear algunas propuestas sobre cómo sería la computación en las próximas décadas. Para tal trabajo se reunió a un equipo multidisciplinario de investigadores provenientes de áreas como la neurociencia, la física y la matemática.

Según explica el Dr. González, el interés de su equipo de trabajo se concentra en evaluar un concepto que, a la fecha, nunca ha sido utilizado en las ciencias de la computación, el cual se conoce como auto-ensamblaje. “Un proceso que ocurre en todas nuestras células, en el cual las proteínas se organizan espontáneamente para conformar estructuras de mayor tamaño, que son utilizadas por la célula como un análogo a los circuitos de un computador”.

La idea es generar una sinergia con un área que hoy en día se está desarrollando muy fuerte en el país: la nanotecnología. “Es ahí donde nosotros queremos evaluar cómo se auto-ensamblan sistemas híbridos, es decir, que mezclan sistemas biológicos –como proteínas– con nanopartículas, que puede ser un primer paso para dar un salto novedoso al área de la computación”, explica el investigador.

Integrando la nanotecnología a la computación

Para realizar tal análisis se trabajará con nanopartículas que, por su pequeño tamaño y grupos funcionales, son capaces de emular razonablemente bien las propiedades de una proteína, lo que permitirá evaluar cómo estas nanopartículas se ensamblan a fragmentos de DNA.

“Comprender este proceso de auto-ensamblaje posibilita la generación de nuevos conceptos que podrían ser asociados al campo de la computación. Al mismo tiempo, este proceso es muy interesante, porque nos podría ayudar a la implementación de futuras terapias celulares, por ejemplo, que requieren la introducción de material genético externo a las células”, señala el Dr. González.

El proyecto asume el desafío de generar nuevos conceptos aplicados a las ciencias de la computación. “La meta es que esto se utilice en los computadores de aquí a unos 30 años más. Entre los objetivos que se desarrollarán en este proyecto está aumentar la capacidad de almacenamiento de datos, para después analizar cómo nosotros podemos evaluar esos datos, mejorando la calidad y cantidad de información”, agrega el investigador.

Los alcances de este proyecto son varios, uno de ellos refiere a la realización de un acucioso análisis de una gran cantidad de información, lo que se conoce como Big Data. En este sentido, el Dr. González explica que “durante ese análisis esperamos contribuir con el mejoramiento del proceso de almacenamiento de información y también la eficiencia con la que los algoritmos se adaptan a diferentes requerimientos”.

Para los investigadores del Centro de Bioinformática y Biología Integrativa de la Universidad Andrés Bello, este proyecto se presentó como una interesante oportunidad para crear y proponer conceptos y herramientas de trabajo; y es una consolidación del trabajo que vienen realizando.

Fuente: Ediciones Especiales “Biotecnología” de El Mercurio, publicada el jueves 24 de noviembre del 2016. Revisa el artículo aquí

Para mayor información escribir a [email protected]