viernes, 27 de septiembre de 2013

El Pentágono quiere desarrollar sus futuros ordenadores basados en el cerebro humano



La Agencia de Proyectos de Investigación Avanzada de Defensa, DARPA, está desarrollando un nuevo programa de procesamiento de señales y de análisis de datos complejos y ha solicitado información a empresas y universidades sobre tecnologías y aplicaciones de procesamiento cortical que emulen las capacidades del cerebro humano. 
 
Los investigadores de la Darpa señalan que el proyecto dependerá principalmente de modelos neuronales basados en el conocimiento del funcionamiento del neocórtex cerebral.
 
Según ha explicado la Darpa en un comunicado los sistemas actuales de procesamiento de señales y de análisis de datos presentan limitaciones para mejorar sus resultados: los sistemas de análisis de señales e imágenes más modernos tienen problemas para captar las estructuras espaciales y temporales complejas existentes en datos ambiguos y con un gran ruido de fondo; los ordenadores actuales, que utilizan gran cantidad de medios de cálculo, sólo son capaces de extraer estructuras espaciales limitadas de relativamente pequeñas cantidades de datos; y cuando se detectan anomalías las máquinas actuales tienen que reconocer todos los aspectos de las señales normales para determinar aquellas partes que no se corresponden con ellas.
Por ello, busca nuevos enfoques con gran capacidad y bajo consumo que superen los enfoques actuales, que incluyen aprendizaje automático, técnicas bayesianas y estructuras de conocimiento gráficas, ya que proporcionan solamente soluciones parciales y no pueden ampliarse de forma eficiente a conjuntos de datos más grandes y más complejos. Y aunque utilizan gran cantidad de medios informáticos, su capacidad de procesamiento en paralelo es limitada, exigen programas aritméticos de elevada precisión y, en la mayoría de los casos, no procesan adecuadamente los datos temporales.

El nuevo enfoque de DARPA se basa en el funcionamiento del neocortéx del cerebro de los mamíferos, que capta de forma eficiente las estructuras temporales y espaciales y resuelve normalmente problemas de reconocimiento de extraordinaria dificultad en tiempo real. Y, aunque no se ha logrado una compresión completa del funcionamiento del córtex, se están identificando algunos algoritmos básicos, que se están integrando en máquinas de aprendizaje automático y en técnicas de redes neurales.

Los algoritmos inspirados en modelos neurales, en especial, los del neocórtex, pueden reconocer modelos espaciales y temporales complejos y pueden adaptarse a los cambios del entorno, por lo que representan un enfoque prometedor para filtrar y procesar grandes flujos de datos y tienen la posibilidad de proporcionar nuevos niveles de rendimiento y capacidades para una amplia gama de problemas de reconocimiento de datos.

Por ello, la DARPA ha solicitado a empresas y universidades nuevos conceptos y tecnologías para desarrollar un ´procesador cortical´ basado en la ´memoria temporal jerárquica´ (Hierarchical Temporal Memory, HTM), que representa una familia de modelos de procesamiento cortical en lugar de un algoritmo específico. Y aunque estos algoritmos específicos tienen características interesantes para el proyecto, la Darpa señala que hay unas características clave de la HTM que serían necesarias para desarrollar un procesador cortical, y que incluyen el reconocimiento temporal y espacial, el uso de representaciones distribuidas limitadas (sparse distribuited representations, SDR) y una estructura "modular" en columna. El procesamiento tiene lugar en un modelo jerárquico similar al desarrollado en el córtex, que emplea la evolución espacial y temporal de la representación de los datos para formar relaciones.

Las SDR son un componente clave de la HTM porque asignan un significado a cada bit de información y expresan los datos mediante grados de semejanza debido al solape de sus características.

El modelo de ordenador cortical debería también ser capaz de tolerar lagunas en los datos, trabajar principalmente en paralelo, ser extremadamente eficiente en consumo de energía y ampliarse sin problemas; asimismo debería tener unos requisitos mínimos de precisión artimética. Para este proyecto, los investigadores de Darpa están solicitando información en cuatro áreas generales: algoritmos, hardware, sistemas y aplicaciones.

Los algoritmos deben hacer cálculos lógicos probabilísticos y utilizar técnicas de aprendizaje automático que mejoren las capacidades del sistema a lo largo del tiempo, capaccidades críticas para el éxito de analizar datos para muchas aplicaciones. El hardware, simple y de bajo consumo para funcionar en sistemas de bajo consumo, deberá permitir implementar eficientemente algoritmos probabilísticos que funcionen fundamentalmente en paralelo, inspirados en modelos corticales. Los sistemas onstruidos deberán implementar aplicaciones complejas y críticas. Y las aplicaciones que trata de desarrollar la Darpa deben ser lo suficientemente genéricas para que se puedan utilizar en una gran gama de sistemas, como sistemas de visión e imagen, fusión de datos de sensores, control de robots y otras aplicaciones complejas de procesamiento de señales.

Tomado de  http://www.ateneadigital.es

No hay comentarios:

Publicar un comentario

ShareThis