Crean una supercomputadora inspirada en el cerebro

sinapsis

Lawrence Livermore National Laboratory (LLNL) anunció la adquisición de una plataforma de supercomputación inspirada en el cerebro. Esta plataforma fue desarrollada por IBM Research y se compone de de 16 chips TrueNorth. Es la primera en su tipo y procesará el equivalente a 16 millones de neuronas y 4 mil millones de sinapsis con un consumo de energía equivalente a una Tablet – sólo 2.5 vatios de potencia.

La sinapsis (del griego σύναψις [sýnapsis], ‘unión’, ‘enlace’)1 es una unión (funcional) intercelular especializada entre neuronas2 , ya sean entre dos neuronas de asociación, una neurona y una célula receptora o entre una neurona y una célula efectora (casi siempre glandular o muscular). En estos contactos se lleva a cabo la transmisión del impulso nervioso. Éste se inicia con una descarga química que origina una corriente eléctrica en la membrana de la célula presináptica (célula emisora); una vez que este impulso nervioso alcanza el extremo del axón (la conexión con la otra célula), la propia neurona segrega un tipo de compuestos químicos (neurotransmisores) que se depositan en la hendidura o espacio sináptico (espacio intermedio entre esta neurona transmisora y la neurona postsináptica o receptora). Estas sustancias segregadas o neurotransmisores (noradrenalina y acetilcolina entre otros) son los encargados de excitar o inhibir la acción de la otra célula llamada célula post sináptica.

Similar al cerebro, el diseño de redes neuronales del Sistema Neuromórfico de IBM es capaz de inferir tareas cognitivas complejas, como el reconocimiento de patrones y procesamiento sensorial integrado, de manera más eficiente que los chips convencionales.

Cada uno de los chips del sistema neuromórfico consiste en 5.400 millones de transistores conectados entre sí para crear una matriz de 1 millón de neuronas digitales que se comunican a través de 256 millones de sinapsis eléctricas. Como el cerebro humano, los sistemas neurosinápticos requieren significativamente menos energía eléctrica y volumen. Consume 70 milivatios de potencia en funcionamiento en tiempo real y realiza 46 giga operaciones sinápticas por segundo.

LLNL también recibió un ecosistema de extremo a extremo que ayude a crear máquinas eficientes energéticamente que imiten las habilidades del cerebro para la percepción, acción y cognición. El ecosistema consiste en un simulador; lenguaje de programación; un entorno de programación integrado; una librería de algoritmos, así como aplicaciones; firmware; herramientas para la composición de las redes neuronales para aprendizaje profundo; un plan de estudios y un entorno cloud.

El objetivo de LLNL consiste en explorar nuevas capacidades de computación para las misiones de la Administración Nacional de Seguridad Nuclear (NNSA, por sus siglas en inglés) en seguridad cibernética, y administración de la fuerza disuasiva nuclear de la nación y no proliferación. El programa de Simulación Avanzada y Computación de la NNSA (ASC, por sus siglas en inglés) evaluará las aplicaciones de aprendizaje automático, los algoritmos y arquitecturas de aprendizaje profundo y llevará a cabo estudios de viabilidad de computación en general.

Esta tecnología representa el despegue fundamental del diseño de computadoras que ha prevalecido en los últimos 70 años y podría ser un complemento de gran alcance en el desarrollo de la próxima generación de supercomputadoras capaces de trabajar a velocidad exaescala, 50 veces más rápido que el más avanzado sistema petaflop (mil billones de operaciones por segundo).

Los científicos computacionales de Lawrence Livermore colaborarán con IBM Research, asociados en el Departamento de Energía compleja, y universidades para expandir las fronteras de la arquitectura neurosináptica, diseño de sistemas, algoritmos y ecosistema de software.