DIEZ CÓDIGOS INFORMÁTICOS QUE TRASNFORMARON LA CIENCIA

Nature, 20 de enero de 2021

 

 

 

E radiotelescopio Murchison Widefield Arrayen Australia Occidental que utiliza transformadas rápidas de Fourier para la recopilación de datos.Crédito: John Goldsmith / Celestial Visions´.

 

 

1. Pionero del lenguaje: el compilador de Fortran (1957).

     Con Fortran, los usuarios podían programar computadoras usando instrucciones legibles por humanos, como x = 3 + 5. Luego, un compilador convirtió esas instrucciones en un código de máquina rápido y eficiente.

2. Procesador de señales: transformada rápida de Fourier (1965).

    Un proceso matemático llamado transformada de Fourier permite a los investigadores que las complejísimas señales de escanear el cielo se puedan ver en función de la frecuencia.. El problema es que es ineficiente y requiere cálculos de N² para un conjunto de datos de tamaño N. En 1965, los matemáticos estadounidenses James Cooley y John Tukey idearon una forma de acelerar el proceso. Usando la recursividad, utécnica de de "divide y vencerás" en el que un algoritmo se vuelve a aplicar repetidamente, la transformada rápida de Fourier (FFT) simplifica el problema de calcular una transformada de Fourier a solo N log2 (N) pasos. La velocidad mejora a medida que aumenta N. Para 1000 puntos, el aumento de velocidad es aproximadamente 100 veces; por 1 millón de puntos, es 50.000 veces.

3. Catalogadores moleculares: bases de datos biológicas (1965).

     Las bases de datos masivas de genomas y proteínas de hoy tienen sus raíces en el trabajo de Margaret Dayhoff, pionera en bioinformática en la National Biomedical Research Foundation en Silver Spring, Maryland, quienpublicó su Atlas of Protein Sequence and Structure en 1965 con tres coautores, descibiendo las secuencias, estructuras y similitudes de 65 proteínas. Después llegaron las bases de datos biológicas computarizadas, como la del Protein Data Bank, que hoy detalla más de 170.000 estructuras macromoleculares, se puso en marcha en 1971. La Universidad de California, San Diego, creó otra base de datos de proteínas llamada Newat en 1981. Y en 1982 se publicó la base de datos que se convertiría en GenBank, el archivo de ADN mantenido por los Institutos Nacionales de Salud de EE. UU.

4. Líder de pronóstico: el modelo de circulación general (1969).

     Al final de la Segunda Guerra Mundial, el pionero de las computadoras John von Neumann comenzó a convertir  computadoras que hacía poco se utilizaronpara calcular trayectorias balísticas y diseños de armas hacia el problema de la predicción del clima.Los trabajos de Manabe Kirk Bryan en los del océano se combinaron creando lo que Nature en 2006 publicó como una revolución en la informática científica.

5. Triturador de números: BLAS (1979).

     BLAS redujo las matemáticas matriciales y vectoriales a una unidad básica de cálculo tan fundamental como la suma y la resta, dice Jack Dongarra, científico informático de la Universidad de Tennessee en Knoxville, que fue miembro del equipo de desarrollo de BLAS.

6. Microscopía imprescindible: NIH Image (1987)

     NIH Image y sus descendientes son programas que inicialmente se utilizaron para los institutos de salud para ver y cuantificar prácticamente cualquier imagende microscopía en cualquier computadora. La familia de software incluye ImageJ, una versión basada en Java que Rasband escribió para usuarios de Windows y Linux, y Fiji, una distribución de ImageJ desarrollada por el grupo de Pavel Tomancak en el Instituto Max Planck de Biología Celular Molecular y Genética en Dresden, Alemania, que incluye complementos clave.

7. Buscador de secuencias: BLAST (1990)

     En 1985, William Pearson de la Universidad de Virginia en Charlottesville y David Lipman del NCBI introdujeron FASTP, un algoritmo que combinaba la matriz de Dayhoff con la capacidad de realizar búsquedas rápidas. Más tarde en 1990se desarrolló un refinamiento aún más poderoso: la Herramienta Básica de Búsqueda de Alineación Local (BLAST), que combinó la velocidad de búsqueda requerida para manejar bases de datos de rápido crecimiento con la capacidad de detectar coincidencias que eran evolutivamente más distantes. Al mismo tiempo, la herramienta podría calcular la probabilidad de que esas coincidencias ocurrieran por casualidad.

8. Potencia de preimpresión: arXiv.org (1991)

     En 1991, Ginsparg, del Laboratorio Nacional de Los Alamos en Nuevo México, escribió una respuesta automática por correo electrónico. Los suscriptores recibieron listas diarias de preimpresiones, cada una asociada con un identificador de artículo. Con un solo correo electrónico, los usuarios de todo el mundo pueden enviar o recuperar un artículo del sistema informático del laboratorio, obtener listas de nuevos artículos o buscar por autor o título. Ese fue el momento en que pasó del tablero de anuncios al archivo.

9. Explorador de datos: IPython Notebook (2011)

     Por esa época el informático FernandoPérez, trabajando con el físico Brian Granger y el matemático Evan Patte lanzaron el programa IPython Notebook que combinó código, resultados, gráficos y texto en  un solo documento. Pero a diferencia de otros proyectos similares, IPython Notebook era de código abierto e invitaba a las contribuciones de una vasta comunidad de desarrolladores.

10. Fast learner: AlexNet (2012) 

     La inteligencia artificial (IA) tiene dos cualidades. Una es la de usar reglas codificadas, otra permite que una computadora "aprenda" emulando la estructura neuronal del cerebro. Geoffrey Hinton en 2012 reflejó la importancia de la combinación de tres factores: un conjunto de datos de entrenamiento lo suficientemente grande, una gran programación y el poder emergente de las unidades de procesamiento gráfico, los procesadores que fueron diseñados originalmente para acelerar el rendimiento de video por computadora. Todo esto permite ejecutar un algoritmo 30 veces más rápido.