Quelle est l'unité de calcul la plus performante, la moins encombrante et la moins consommatrice en énergie ? Le cerveau, répond l'agence de recherche militaire américaine Darpa (Defense advanced research projects agency, à l'origine d'Internet), qui vient d'allouer un budget de 4,9 M$ à IBM pour conduire une première phase d'études visant à élaborer l'ordinateur du futur, une machine intelligente. Le projet Synapse de la Darpa (pour Systems of neuromorphic adaptive plastic scalable electronics) ambitionne d'aller au-delà des capacités informatiques actuelles en s'inspirant de la biologie. Dharmendra S. Modha, responsable de l'informatique cognitive au centre de recherches d'IBM à Almaden, explique que l'architecture technique actuelle des ordinateurs est dépassée par l'augmentation exponentielle du nombre d'informations à traiter, alors qu'au contraire, les systèmes biologiques sont capables de s'adapter à des environnements complexes, et ce de façon autonome. Pour Dharmendra Modha, les systèmes actuels sont limités à la fois par le matériel, les algorithmes conçus par les programmeurs, et par l'architecture technique actuelle (décrite par John Von Neumann) qui sépare l'unité de stockage des données de l'unité de traitement, créant un goulet d'étranglement. Citant un ancien employé d'IBM, Dharmendra Modha estime qu'il s'agit d'un goulet réduisant non seulement la bande passante, mais aussi le champ de la pensée ; il s'agit aujourd'hui, dit-il, de trouver un autre paradigme, en se basant sur le système de connexions synaptiques du cerveau. Un ordinateur synaptique plutôt qu'une intelligence artificielle [[page]] Cette technologie inspirée du cerveau, dite « neuromorphique », devrait être capable d'absorber tous les éléments entrants en temps réel, d'apprendre seul et d'arriver à des résultats logiques en fonction de calculs probabilistes. Sélectionné par la Darpa, le projet d'IBM, C2S2 (Cognitive computing via synaptronics and supercomputing), dirigé par Dharmendra Modha, verra la collaboration de deux centres R&D d'IBM (Almaden et T.J. Watson) ainsi que des spécialistes des universités de Stanford, Wisconsin-Madison, Columbia et California-Merced. Même si le but est de produire des systèmes plus intelligents, Dharmendra Modha se garde bien de parler d'intelligence artificielle.Il préfère, dit-il, explorer d'abord la façon dont on pourrait adapter l'architecture du cerveau pour l'informatique. D'ici 9 mois, le chercheur pense pouvoir concevoir des liaisons synaptiques à une échelle nanométrique. Dharmendra Modha estime en effet que c'est sur les connexions entre neurones qu'il faut se concentrer. Elles sont, indique-t-il, 10 000 fois plus nombreuses dans les cerveaux de rats et de souris que les neurones eux-mêmes, et elles changent en fonction du vécu du sujet, de son apprentissage et de son environnement. « Le cerveau est donc moins un réseau neural qu'un réseau synaptique. »