La cybernétique

La cybernétique:

La cybernétique
Alan Turing
Les principes de l'intelligence artificielle (I)
En 1910, les philosophes Bertrand Russel et Alfred Whitehead ont donné au mot "calcul" une extension cognitive en formalisant les propositions. Vingt cinq ans plus tard, le mathématicien anglais Alan Turing démontra que tous les problèmes pouvaient être transcrits sous forme d'algorithmes et exécutés par des "machines de Turing" universelles. A partir d’une bande infinie codée en langage binaire et d’un déchiffreur, Turing prétendait pouvoir résoudre n’importe quel problème.
Le logicien anglais John von Neumann fera un premier pas dans ce sens en inventant l’ENIAC, une machine monotâche dans laquelle les relais électromécaniques étaient remplacés par une logique opératoire universelle : c'était la naissance du langage de programmation. Mais trop lourd, trop encombrant et consommant trop d’énergie, von Neumann le remplacera par l’EDVAC fin 1948.
Bientôt équipée de transistors et de microprocesseurs, cette machine donnera naissance aux micro-ordinateurs.
Télécharger la machine de Turing
Illustration du logiciel (400 KB).
Un programme Windows de Cheran Software SRL
A l’époque, le neurobiologiste Warren Mac Culloch et le mathématicien Walter Pitts démontrèrent que la dynamique du cerveau humain possédait les mêmes algorithmes que le calcul des propositions de Russel. Cette isomorphie entre des états biologiques et un système artificiel (robot) conduira à la cybernétique[1]. Les machines universelles de Turing trouvent aujourd'hui des applications en neurobiologie, en biologie moléculaire et en psychologie cognitive.
La société de l'esprit
L'évolution de l'informatique et de la cybernétique sont aujourd'hui intimement liées aux progrès de l'électronique. Ci-dessus l'ENIAC de John von Neumann en 1946 et le CRAY Y-MP de 1995 constitué de 2 CRAY-II. Ci-dessous la "bête-machine" de Descartes et le robot humanoïde P3 de Honda. Documents François Guillier/Histoire de l'Informatique et Honda.
Pour de nombreux chercheurs en intelligence artificielle et des neurobiologistes tels Warren Mac Culloch, Marvin Minsky, Herbert Simon ou Norbert Wiener, l'inventeur de la cybernétique, tout système vivant et l'homme en particulier n'est qu'une espèce du genre machine; son intelligence peut-être démontrée par le mécanisme de Turing, c’est-à-dire par la programmation. Ce concept mécaniste du vivant trouve pignon sur rue : des laboratoires de biologie étudient la "logique du vivant", des logiciens et des biologistes travaillent sur la "cybernétique auto-organisée" tandis que des physiciens étudient les lois scientifiques comme des algorithmes. Depuis ces découvertes dans le domaine de la logique, il y a eu une dérive de la méthodologie vers le discours ontologique, sur les termes en soi. Cette réponse quasi métaphysique aux comportements humains signifie peut-être que le monde devient logique et compréhensible, une espèce de "méta-calculateur", à la plus grande joie d'Einstein qui appréciait la cohérence de l'univers.
Les visages de la cybernétique
De gauche à droite Warren Mac Culloch, Marvin Minksy, Walter Pitts et Herbert Simon
Depuis la fin de la seconde guerre mondiale nous savons que l'ordinateur peut effectuer certaines tâches dans des conditions optimales pour nous soulager des travaux ingrats, dangereux ou routiniers. Ses capacités de simulation ou d'apprentissage sont quelquefois étonnantes et surprennent même leurs concepteurs. Mais peut-on assimiler ces capacités à de l'intelligence ? Ainsi qu'Alan Turing se le demandait, Une machine peut-elle penser ? Pourra-t-on parler un jour “d’ordinateur de chairs et d’os” comme le soutient Minsky ? Ici comme dans toutes les disciplines deux écoles s'affrontent, en particulier les logiciens - Alan Turing, Marvin Minsky, Kurt Gödel - contre les philosophes - John Searle, Hubert Dreyfus, John Lucas - pour lesquels les ordinateurs ne penseront jamais. Quelques pages ne suffiront pas à expliquer leurs positions respectives, d'autant que leurs ouailles se retrouvent dans les deux camps. Aussi nous abordons directement les conclusions de chaque courant et les conceptions avant-gardistes. Consulter le dossier consacré à la philosophie des sciences où nous tenterons de définir l’intelligence et le rôle des sciences.
John von Neumann devant l'un des "plugboard" de l'ENIAC en 1946
Dans les années 1940, à l'époque de von Neumann, l'ordinateur était à peine ébauché; on parlait encore de "plugboard" puis bientôt de calculateur numérique sans imaginer qu'à l'autre bout de la console cette machine pouvait acquérir l'apparence d'un être humain. 
Savant de génie, von Neumann n'a jamais réellement dit que les machines ne penseraient jamais, mais il faisait une distinction entre les fonctions des organes biologiques et leurs homologues artificiels. Il était sceptique face à l'idée de pouvoir construire un ordinateur offrant les mêmes capacités que notre cerveau. von Neumann n'imagina jamais un support artificiel capable de reproduire les capacités de traitement de nos neurones, la vitesse de l'influx à travers les axones, les performances des synapses, etc. Mais peut être von Neumann se trompait-il.
Le paradigme de la méthode comportementale
Depuis plus de trois milles ans, des statues égyptiennes aux créatures virtuelles, en passant par Adam, le Golem et Frankenstein, l’homme a toujours essayé de créer des objets à son image. Mais comment leur donner réellement vie, comment créer une "machine" à l'image des êtres vivants ?
Dans la mythologie grecque Pygmalion sculpta une statue qui devint vivante mais ce n'est qu'en 1738 que l'automaticien Vaucanson parvint à créer un canard mécanique capable de battre des ailes, manger du pain et le digérer. Mais il n'était pas pour autant doté d'intelligence et encore moins de facultés sensorielles, tout ce qui représente l’Homme en ce qu’il a d’humain.
Aujourd'hui, il ne fait aucun doute qu'on voit aisément la différence entre un être gumain et une machine, aussi évoluée soit-elle. L'adaptation et les facultés du premier sont encore largement inégalées dans les robots et autres cyborgs en devenir.
Pour les précurseurs de la cybernétique et inventeurs de l’intelligence artificielle que sont Norbert Wiener, John von Neumann et Alan Turing, il ne fait aucun doute qu’à l’avenir les sociétés accorderont une large place aux systèmes de communications, dans une symbiose entre l’homme et la machine. Nous y arrivons doucement, à pas mesurés, en commençant par l'informatisation à outrance dans tous les domaines techniques et même au-delà.
Mais comment construire une représentation de l’Homme, savoir ce qu’il est à travers son cerveau et sa capacité à échanger de l’information ?
Une représentation de l’Homme
Modèle proposé par Wiener :

Constituants de l’Univers = Différences entre objets
¯
Objets = Formes informationnelle, humaine ou non
¯
Différences = Comportements complexes
¯
Complexité = Intention - rétroaction
Pour le mathématicien Norbert Wiener[2] qui recevra son Ph.D d'Harvard à 18 ans, on peut approcher le réel par la méthode comportementale d’étude : “Cette méthode dit-il néglige, dans l’objet, sa structure spécifique et son organisation propre. Elle s’occupe des relations (comportements) qu’entretiennent les objets”.
A ses yeux, l’univers tout entier est accessible à la connaissance puisqu’il est entièrement composé de formes informationnelles, sans distinguer les humaines des autres objets. Ces formes informationnelles sont transparentes au regard. Nous pouvons dès lors les maîtriser et même les reproduire. Pour Wiener seul le support matériel différencie l’homme de la machine. C’est ce modèle que les spécialistes en IA essayent de mettre au point.
Selon ce schéma mis au point par Norbert Wiener l’analogie informatique est presque irrésistible. Au sens large, cette assertion est indéniable. Le système prend connaissance de l’information à travers les sens qui, à l’instar des composants d’entrées-sorties électroniques, sont relativement lents, opérant sur une échelle de temps de quelques millisecondes, mais dont les informations sont utilisées à l’instar d’un calcul, d’un traitement de données. C'est ici que la cybernétique nous offre concrètement l'opportunité d'explorer et de concrétiser le mythe de Pygmalion
Deuxième partie


La cybernétique
La philosophie de la cybernétique (II)
Fin 1948, à l'époque de l'EDVAC, le philosophe et logicien français le Père Dominique Dubarle présentait ainsi le nouvel ordinateur de von Neumann qui touchait plus à une représentation informationnelle de l’humain, qu’à la description d’une machine à calculer[3]: “Traduisons maintenant en langage psychophysiologique. Organes d’enregistrement: terminaisons nerveuses fonctionnant elles aussi suivant la loi du tout ou rien. Circuits transmetteurs d’impulsions : neurones. Combinateurs élémentaires de la machine : synapses nerveuses. Organes de contrôle local : ganglions nerveux. Organes de mémoire, de conduite, de programme général : système nerveux central, aux différentes fonctions, elles aussi coordonnées et hiérarchisées avec des bases organiques à cette coordination et à cette hiérarchisation [...] l’analogie n’est même pas seulement organique, elle est aussi fonctionnelle et quasi mentale : les machines ont comme pour ainsi dire leurs réflexes, leurs troubles nerveux, leur logique, leur psychologie et même leur psychopatologie [...]. Un claquage de circuit se traduit par un résultat erroné, des erreurs dans les circuits de contrôle peuvent désorganiser tout le circuit de fonctionnement d’un organisme partiel de calcul, des failles dans le programme peuvent retentir sous forme d’une véritable folie de la part de la machine, s’emportant alors dans un travail. absurde jusqu’à ce qu’on y remédie. On devine quelles perspectives de pareils faits peuvent ouvrir à ceux qui étudient d’une part le fonctionnement du système nerveux, d’autre part les possibilités de réaliser des machines à exécuter les tâches de la pensée”.

De grands esprits face à la logique
Kurt Gödel et Norbert Wiener, le logicien et le mathématicien ont cru qu'il était possible de réaliser la symbiose entre l'homme et la machine.
Aujourd’hui encore, un physiologiste de renom tel Alain Berthoz[4] du Collège de France  ne peut éviter de faire des rapprochements entre les mouvements du corps ou certaines stratégies du cerveau et le monde de la robotique. Je le cite : “Pour moi, le cerveau est un simulateur, au sens d’un “simulateur de vol”; Le développement des modèles de réseaux neuronaux en composants à silicones appelés VLSI relève [...] de la même idée : il faut incarner les modèles biologiques dans la réalité physique comme le cerveau est incarné dans le corps. Un muscle qui se contracte atteint son maximum de force environ 80 millisecondes après une commande nerveuse [...] Dans le langage des systèmes asservis, on dit que “l’avance de phase des fuseaux [musculaires] compense les propriétés de filtre passe-bas des muscles”; Selon la théorie du contrôle non linéaire des mouvements de robots élaborés par Slotine, des “variables composites” (un mélange de grandeurs et de leurs dérivées successives) pourraient être utilisées par le système nerveux; Soit le cerveau maintient les muscles des doigts peu contractés (en termes de robotique, on dira qu’il s’agit d’une stratégie “compliante”); Les roboticiens, qui, à ce jour, ne sont toujours pas capables de réaliser des machines de la complexité du moindre insecte, savent à quel point tous les ordinateurs sont vite saturés, à la fois en capacité de calcul et en rapidité, par les quelques degrés de liberté des robots qu’ils essayent de construire. Quelles sont les astuces que la nature a trouvées pour réduire ce nombre de degrés de liberté ?”
Berthoz utilise également des expressions imagées telles la “décharge” d’un neurone, l’“intégrateur neuronal fuit”, la “bande de fréquences”, le “filtre de Kalman”, autant de termes empruntés à l’électronique et incorporées aux neurosciences. Enfin il n’oublie pas les mathématiques pour formaliser ces concepts quand il parle de fonctions de transferts, de covariance, d’intégration, de dérivée, de fonction de puissance, de modèles, etc, tout en discutant du sens du mouvement.
A l’entendre, la limite entre l’homme et la machine se dissipe...mais en guise de clôture Berthoz[5] nous met en garde : “le cerveau n’est pas un ordinateur ni une machine semblable à aucun des dispositifs d’intelligence artificielle [...]. La métaphore du cerveau-ordinateur est un guide utile de la pensée, mais elle est extrêmement dangereuse. Elle repose, en effet, sur l’hypothèse implicite d’une séparation des processus cognitifs complexes [...] semblables au logiciel et un substrat neuronal [...]. On pourrait y voir une forme moderne du mentalisme de Bergson, que je ne suivrai pas lorsqu’il dit, en substance, que l’esprit est au cerveau ce que le manteau est au clou qui le supporte.
Bertrand Russell
Malgré ce dualisme bien ancré, suites aux études théoriques de Wiener, von Neumann et Turing en particulier, des travaux remarquables ont été effectués pour tenter de rapprocher la technologie des robots de l’architecture du cerveau. 
Depuis la fin des années 1970, les chercheurs de Stanford, Yale ou de MIT parmi d’autres considèrent que l'architecture électronique, son côté matériel n'est plus le niveau fondamental du traitement de l'information. Dansles langages de programmation évolués (4GL), les algorithmes sont quasi indépendants de l'outil qui les supporte. Grâce à Russel la pensée put ainsi être décomposée en propositions élémentaires et être transplantée sur un matériel non biologique. Comme l'a écrit avec intelligence le philosophe Daniel Dennett[6] "[la cause matérielle des états cognitifs] ne provient pas du matériel, mais du fonctionnement ". Il rejoint ainsi l’idée exprimée en 1943 par Norbert Wiener dans son texte fondateur de la cybernétique.
Cette distinction que certain jugeront hardie traduit l'état actuel de la recherche en intelligence artificielle. Cette discipline a retenu la “géométrie d’assemblage des noeuds de calcul” comme la structure fondamentale des superordinateurs et des robots; les centres de calculs équipés de processeurs sont organisés sous forme d’arbre, sous forme d’hypercube, d’assemblage total, etc. Les performances et l’encombrement sont les facteurs sélectifs de façon à pouvoir échanger les données le plus rapidement possible. Ces robots fonctionnent actuellement dans l'industrie et sont à la base de ce qu'il convient d'appeler le concept "néo-mécaniste".
En fait les chercheurs étaient déjà disposés à comparer nos neurones au fatras de silicium depuis la fin des années 1950. Tous les chercheurs ont essayé d'expliquer nos états cognitifs de manière réductionniste, à partir des processus fonctionnels jugés élémentaires. Les plus avant-gardistes sont déjà parvenus à reproduire électroniquement certains neurones de la mouche, d’autres planchent sur des "réseaux de neurones" (structure arborescente ou assemblage total en général), des ordinateurs bourrés de silicium et construits sur le modèle des cellules du cerveau humain.
La géométrie des noeuds de calcul
L’intelligence Artificielle organise les noeuds de calcul en arbre de façon à répartir le traitement et pouvoir traiter plusieurs données en même temps. Elle peut toutefois s’avérer encombrante.
Dans un assemblage total tous les noeuds sont reliés entre eux. La circulation est optimale mais la structure devient rapidement très complexe.
Les projets
Les efforts théoriques aboutirent à plusieurs réalisations, notamment le programme d'anagrammes Jumbo du Prof. Hofstadter de l'université d'Indiana.Jumbo est capable de choisir certaines combinaisons parmi un ensemble de lettres en fonction de "l'entropie du système"; le programme Eurisko élaboré par Douglas Lenat de Stanford est capable de modifier ses propres règles (heuristiques) et ses propres concepts par un processus "naturel", tandis que le programme Perceptron de Frank Rosenblatt de l'université de Cornell est capable de reconnaître et d'apprendre différents symboles.
L’un des projets les plus avancés est celui développé par Gerald Edelman de l'université Rockfeller. Dénommé Darwin III, son ordinateur est réglé par des algorithmes équivalents à un réseau de 6000 neurones et 100000 synapses neuronales, loin en deçà du cerveau du plus stupide insecte. Mais ces réseaux sont "conditionnés" par l'apprentissage. Leur mémoire est répartie dans l'ensemble des circuits et les données sont traitées de façon globale. Ces ordinateurs sont capables de reconnaître des visages, de prononcer des mots ou de détecter des odeurs. On en reparlera à propos des robots.
Les chercheurs envisagent également d’appliquer les biotechnologies et notamment la nanotechnologie à la mise au point de circuits moléculaires, sortes de mémoires chimiques. 
Rappelons également que Peter Fromherz à l’institut Max Planck de Munich ou le Dr Wyatt de MIT étudient actuellement le développement de cellules nerveuses sur des supports de silicium, premices des implants bioniques dans le cortex cérébral. 
Enfin, régulièrement, la médecine bionique réhabilite des handicapés moteurs et les chercheurs nous rappellent que les androïdes sont à notre porte. Faut-il craindre ou applaudir cette évolution, c'est ce que nous allons essayer d'apprécier.
La place de l'homme : entre idéal et réalisme
Comme l’on dit plus d’un écrivain depuis 400 ans,"Science sans conscience n'est que la ruine de l'âme". Certains ingénieurs nous rappellent que l’homme peut se fourvoyer en cherchant à créer des machines à son image.
Concepteur du fameux programme de simulation Eliza[7], Joseph Weizenbaum de MIT souhaite discuter de la place de l'homme dans ce monde devenu trop artificiel. Il nous rappelle que l'homme est une fin en soi et non pas un moyen d'acquérir de l'information. Toutefois, tout le monde ne partage pas sn opinion.
En créant des robots à notre image, ne sommes-nous pas en train de créer des besoins, de pousser le progrès dans une direction incontrôlable ? Weizenbaum dénonce le fait que l'informatique asservit notre esprit et que sans y prendre garde nous lui serons totalement dévoué. Demain la nature sera peut-être artificielle et on oubliera sa beauté naturelle. La machine va-t-elle supplanter toutes les espèces vivantes, l'homme y compris ?  
A l'opposé, Rucker ou Gödel considère qu'une machine offrant les mêmes capacités que l'homme est tout à fait réalisable même si Gödel avoue ne pouvoir démontrer son universalité et fixe certaines limites aux capacités de la logique[8].
Reproduire le cerveau
Qu'ils soient scientifiques ou non, moralistes ou mystiques, avec toutes ces données les chercheurs idéalistes concluent que notre problème ne mettra plus très longtemps à être résolu. Mais on peut sérieusement douter de cet optimiste; avec un peu de réalisme, reproduire un cerveau avec ses quelque 30 à 100 milliards de neurones (1011) ne sera certainement pas pour demain. Son "équivalent" numérique devrait gérer quelque 21011 états possibles ! L'ordinateur qui simulerait ces conditions devrait être plus performant que notre cerveau s'il veut coder mécaniquement tous ces états. Selon Jacob T. Schwartz[9], disposant de 1015 synapses et 10000 contacts par cellule (valeur haute), le cortex de l’homme est capable de traiter 1019 bits d’information soit, en jargon informatique l’équivalent d’une puissance de 10000 Teraflops; notre cortex à la puissance d’un superordinateur Cray-3 mais ce dernier est loin d’être optimisé. Il est très cher, encombrant et serait, au mieux, mille fois plus lent que notre cerveau, à moins d’interconnecter 1000 Cray-3 en réseau.
John Hopfield. Doc U.Princeton .
Nous savons aujourd’hui que les réseaux neuronaux dit de Hopfield[10] ont une capacité de stockage de 0.15n, n étant le nombre de neurones. Par analogie le cerveau serait capable de stocker 15 à 32 milliards de bits, environ 2 Gigabytes, l’équivalent d’une bibliothèque de 2000 ouvrages. C'est dans ce contexte que John Hopfield  de l'Université de Princeton a construit une souris Silicium, un modèle informatique constitué de 800 neurones et capable de reconnaître des mots.
Les ordinateurs pourraient ainsi approcher un jour les capacités du cerveau. Les signaux électriques par exemple, se propagent dans un ordinateur à la vitesse de la lumière et parcourent ainsi 10 cm en 0.586 nanosecondes. Un ordinateur équipé d’une horloge battant à moins de 600 MHz suffirait. Nous l'avons construit en 1999. Quant à la dissipation de la chaleur, le cerveau produit de 10 à 100 impulsions par seconde. Il est pourtant capable de traiter 1000 fois plus d’information qu’un superordinateur. Nous sommes peut-être de temps en temps "lents à comprendre", nous gardons la tête froide !
Comment pourrait-on augmenter la vitesse d’un ordinateur sans dissiper trop de chaleur ? Il est possible de véhiculer l’information sur plusieurs canaux en parallèles. Ainsi nous sommes passé des bus de données de 4 canaux ou bits à 8, 16 et bientôt 132 bits.
Enfin, plutôt que de séparer les centres de traitement (processeur) et de stockage (mémoire) on peut aussi fusionner les deux modules, ce qui évitera de devoir effectuer des millions de transferts tout en permettant de s’affranchir de la vitesse finie de la lumière.
Le cerveau est peut-être bien en mesure de calculer et de mémoriser, effectuant simultanément de nombreuses opérations, mais personne ne sait ni où ni comment il le fait. Rien qu’à travers nos yeux transitent des millions de bits d’information chaque seconde. Par comparaison, un portrait digitalisé est reconnaissable sur une trame de 20 x 20 pixels contenant 4 tons de gris représente 1600 bits d’information élémentaires. Mais cette résolution est des millions de fois inférieure à la capacité de notre cerveau. 
La Connection Machine CM-5.
Nous n’avons en effet pas l’impression d’observer notre environnement à travers une trame grossière. Un écran d’ordinateur standard offrant 65000 couleurs et une résolution de 800x600 pixels s’approche déjà plus de l’image que nous avons de notre environnement. Mais cela représente déjà un total d'environ 31 milliards d’informations élémentaires que notre cerveau traite en moins d’une seconde !
Actuellement l'une des machines les plus rapides contient 250000 processeurs parallèles et 16000 noeuds de calculs, c’est la “Connection Machine” (CM) construite par Thinking Machines Inc. aux Etats-Unis. Pour l'anecdote les connaisseurs la reconnaîtront dans le film "Jurassic Park"; elle apparaît en effet dans le fond de la salle informatique... Le modèle CM-5 a une puissance de calcul de 2.5 TFlops (nombre d'opérations en virgule flottante par seconde ou "FLoating point Operations Per Second").
Le record est actuellement détenu par le superordinateur Cray XT baptisé "Jaguar " installé au National Center for Computational Sciences (NCCS ) du Oak Ridge National Laboratory (ORNL ) qui atteint une puissance de calcul de 2.33 PFlops. Mais plusieurs systèmes chinois dépassent également 2 PFlops comme indiqué sur le site TOP500  qui reprend les 500 supeordinateurs les plus rapides au monde.
Ceci dit ces ordinateurs ne sont pas "intelligents" car ils sont encore loin de rivaliser avec l'intelligence du plus stupide insecte, qui reste polyvalente. Le système expert équivalent devrait disposer d’un nombre peut-être infini de bases de connaissances pour transmettre ne fut-ce qu’une indication précise sur un objet tel que l’exécute une abeille qui se respecte.
Si tout cela paraît peu envisageable, seul l'avenir nous permettra de découvrir quelle place nous occupons réellement dans l'Univers.
Pour plus d'information
TOP500  des superordinateurs les plus rapides.

'via Blog this'

Popular posts from this blog

L’AVIATION israélienne a simulé une attaque contre l’Iran

Les data centers de Google consomment plus de 16 milliards de litres d’eau par an