LA VIE ARTIFICIELLE: INTELLIGENCE COLLECTIVE

Qu´est-ce que l´intelligence collective ?
L´intelligence en essaim
Systèmes multi-agents
Robotique collective
Algorithmie et émergence

















































Qu´est-ce que l´intelligence collective ?


       Biologie, formalisme et artificialité

       L´intelligence

       L´intelligence collective

Biologie, formalisme et artificialité

         Les colonies d´insects (comme les fourmis ou les abeilles) réalisent des tâches complexes (construction de cités, gestion de la nourriture, planification de la reproduction, organisation de la défense du territoire) même lorsque l´environnement se modifie, ce qui suppose une certaine flexibilité et des capacités d´adaptation. Le système cognitif très limité des individus composant ces sociétés ne permet pas d´expliquer une coordination aussi évoluée en l´absence d´un contrôle central. On appelle Intelligence Collective le fait que des capacités cognitives collectives évoluées peuvent émerger de capacités cognitives individuelles limitées. On retrouve de telles situations avec des colonies de bactéries, le système immunitaire ainsi qu´avec des sociétés d´êtres évolués.
         Ces systèmes partagent un mode de fonctionnement formel. Alors que les méthodes analytiques de pensée utilisent une causalité matérielle, nous parlerons de causalité formelle pour exprimer que des propriétés analogues dans des systèmes différents reflétent une structure commune.
         Le concept d´auto-organisation est essentiel pour comprendre ces phénomènes, le principe fondamental en est que des patterns collectifs fonctionnels complexes peuvent émerger des interactions entre individus simples. L´objet de l´intelligence collective est d´étudier le mode de fonctionnement de systèmes d´agents réalisant des performances collectives évoulées sans commande centrale et sans qu´aucun des agents, pris individuellement, n´en soit capable.
         Les principales applications de l"intelligence collective sont:
         1) La réalisation de systèmes artificiels constituant de nouveaux moyens d´expérimentations biologiques permettant de tester les théories, non pas sur des populations réelles peu maniables, mais sur des modèles virtuels (vie artificielle) ou réels (robots) de ces populations.
         2) Comme les réseaux neuronaux et les algorithmes génétiques, ces systèmes permettent de résoudre des problèmes sans qu´il ne soit nécessaire d´en connaitre la solution ni même un algorithme de résolution.
         La problématique de l´intelligence collective rapelle celle de l´intelligence artificielle mais, parce qu´à l´époque où elle a été développée, la biologie et les neurosciences n´étaient pas aussi avancées qu´ajourd´hui, la recherche s´était éloignée des réalités biologiques au profit d´une connaissance essentiellement symbolique.

L´intelligence

         Le terme d´intelligence vient de la psychologie et concerne généralement un être humain doté de capacités langagières (au moins potentiellement), Mais on connait l´importance des rapports sociaux dans le développement de l´intelligence chez l´enfant, on ne peut donc dissocier celle-ci de la collectivité à laquelle il appartient.
         On parlera d´intelligence à propos d´un agent en interaction avec son environnement, c´est à dire capable de percevoir et d´agir pour survivre. Les actions sont le résultat des perceptions, mais celles-ci dépendent des actions antérieures de l´agent; On dit que le couple actions-perceptions est bouclé. Un organisme n´a donc pas connaissance d´une réalité en soi mais seulement de la conséquence de ses actions sur ses perceptions, il se construit ainsi un monde pour lui (ses affordances [Gibson 79]). L´exigence de survie implique un "principe de réalité" sans que la stratégie à employer ne soit spécifiée (contrainte de viabilité): Il n´existe donc jamais de solution unique ni même optimale (ce qu´illustre parfaitement la grande diversité des variétés biologiques).L´organisme (vivant, robot ou toute création de la Vie Artificielle) doit assurer son homéostasie, c´est à dire maintenir son identité.
         Le test d´intelligence le plus connu est le test de Turing (1950): Turing imagine le jeu dit de l´"imitation" consistant, pour un observateur communiquant au moyen de telescripteurs avec un homme et une femme, de determiner le sexe de ces personnages, sachant que ceux-ci cherchent a l´induire en erreur. Dans une autre version de ce test l´un des personnages est un ordinateur, celui-ci sera déclaré "intelligent" si l´observateur ne peut le distinguer de l´autre personnage qui est un humain.
         La thèse dite de l´"intelligence artificielle forte" identifie l´esprit à un programme formel éxécuté sur une machine universelle de Turing, et en déduit que la pensée est indépendante de son support. John Searle [Searle 1980] réfute cette thèse avec sa fameuse "pièce chinoise": Un expérimentateur, supposé ne pas connaitre le chinois, est dans une pièce et dispose de tous les idéogrammes chinois ainsi que d´un ensemble de règles permettant d´identifier des groupes d´idéogrammes et d´en construire des réponses plausibles sans en connaitre le sens. Dans une autre pièce un chinois envoie à l´expérimentateur des phrases écrites en chinois, l´expérimentateur pourra y répondre correctement et passera donc lui-même pour chinois. Cette expérience théorique est bien évidemment irréalisable et l´analogie entre un expérimentateur (qui manipule des idéogrammes sans les comprendre) et un ordinateur (qui manipule des symboles formels sans leur attacher de signification) est instructive: Sachant que les programmes sont formels, que la pensée a un contenu sémantiquee, que la sémantique et la syntaxe formelle ne sont pas réductibles l´une à l´autre, alors les programmes sont insuffisants pour produire de la pensée. Comme par ailleurs le cerveau engendre la pensée, un système artificiel ne pourra produire des phénomènes mentaux que s´il possède certaines des propriétés biologiques du cerveau.

L´intelligence collective

         La cognition collective est un phénomène émergent dépendant des interactions entre individus, c´est une organisation pouvant être considérée elle-même comme un agent intelligent soumis à une contrainte de viabilité. On parlera d´intelligence collective si cet organisation est nécessaire à la survie des individus.
         La contrainte de viabilité s´applique aussi bien aux organismes naturels qu´aux systèmes artificiels, et rejoint la notion de résolution de problème:
         Un système passant d´un l´état (E0,S0) à l´instant 0, à un état (Et,St) à l´instant t, où E représente l´état de l´environnement et S celui du système, parcourt un ensemble (Ei,Si) d´états devant toujours rester viables. Si (E0,S0) est un état initial et (Et,St) un état souhaité, la transformation est une résolution de problème.
         Une intelligence collective suppose, pour apparaitre, que soient réalisées certaines conditions [Bonabeau 94]:
         1) Le système est constitué d´individus indépendants et assez simples dont les comportements sont corrélés. Chaque individu est autonome (réponses aux actions de l´environnement et interaction avec les autres individus). Le comportement global est alors le résultat finalisé des comportements individuels.
         2) Aucun individu ne dirige tous les autres et il n´y a pas de stratégie au niveau global (pas d´"esprit de la ruche").
         3) Le système, somme des interactions entre individus, a un comportement intelligent, c´est à dire qu´il est capable de s´adapter et de résoudre des tâches génériques (maintenir sa viabilité dans des environnements variables). Ce comportement émerge des interactions entre individus.
         Un collectif d´agents simples interagissants permet:
         1) Une grande adaptabilité: Aucun plan prédéterminé ne guidant la colonie, celle-ci peut s´adapter pragmatiquement à toute variation de l´environnement.
         2) Une grande robustesse, ou tolérance aux pannes, le collectif survivant à la mort, ou au disfonctionnement, de certains de ses membres.
         3) Une absence de contrôle global. Les individus réalisent des tâches simples, la complexité du système résultant des interactions entre eux. L´aléatoire est source d´adaptabilité, les erreurs individuelles pouvant conduire à des solutions nouvelles, les rétroactions corrigeant ces erreurs permettent la coordination probalistique des comportements individuels.
         Le degré zéro de l´intelligence collective correspond à des individus identiques sans interactions. Des degrés d´intelligences variés peuvent être définis en créant par exemple des hiérarchies ou des spécialisations. Stephanie Forrest [Forrest 90] caracterise ainsi l´intelligence collective:
         1) Existence d´une collection d´agents suivant des instructions explicites.
         2) Existence d´une interaction entre ces agents.
         3) Existence d´une interprétation des épiphénomènes, ce qui suppose l´existence d´un observateur pour lequel le comportement du système prend un sens.
         L´intelligence collective simple traite d´agents cognitifs ayant des capacités réduites, L´intelligence collective complexe traite d´agents pensants (comme les sociétés humaines ou le Web). Les agents intelligents savent faire et savent communiquer, et les super-organismes émergents savent se conserver, mais ni les uns ni les autres ne savent ce qu´ils font.
         Les méthodes classiques de conception de systèmes artificiels reposent sur une approche hétéronome (c´est à dire en spécifiant son comportement de l´extérieur), l´intelligence collective utilise plutôt le principe d´auto-organisation (c´est à dire l´organisation dynamique et autonome du système en interaction avec son environnement lors de sa naissance et de sa vie).

L´intelligence en essaim


       L´organicisme

       Le béhaviorisme

       L´auto-organisation

       L´intelligence en essaim

       Comment expliquer le comportement complexe d´un système (par exemple une ruche) dont les éléments sont simples (les abeilles), c´est à dire comment expliquer le paradoxe par lequel du particulier puisse engendrer du général ? Nous allons examiner deux réponses, l´organicisme et le béhaviorisme, et montrer que le paradoxe n´est réellement levé qu´avec la notion d´auto-organisation.

L´organicisme

         L´organicisme est une théorie biologique défendue par Bichat (1771-1802) posant que les propriétés d´un organisme sont globales et que c´est le tout qui explique la partie. Cette conception, définie d´abord sur un organisme vivant, a été appliquée à la société humaine considérée comme un organisme. Au XX ème siècle la métaphore organiciste est reprise par Maeterlinck qui parle de l´âme de la ruche (1927) et même de l´intelligence des fleurs. Ces idées furent utilisées pour expliquer le fonctionnement d´une société d´insects sur le modèle d´un organisme (super-organisme).
         Mais l´organicisme reste une analogie, une métaphore, qui n´explique rien. Il reviendra à la théorie générale des systèmes, à l´étude des processus d´auto-organisation et des phénomènes non linéaires, de permettre une meilleure description des processus d´émergence apparaissant dans les sociétés naturelles et artificielles.

Le béhaviorisme

         Etienne Rabaud (1868-1956) postule que la cause du comportement est dans l´individu. Dans une société d´insects tout individu agit seul, toute entraide ou toute division du travail n´étant qu´illusoire. Ces affirmations sont à replacer dans leur contexte historique, en réaction à un mentalisme et à un anthropomorphisme ambiant. Rabaud définit l´interattraction comme l´attraction naturelle de deux individus d´une même espèce, ou degré zéro de la sociabilité. Il définit l´interaction interindividuelle comme phénomène fondamental de tout mécanisme social.
         En affirmant l´incoordination spécifique de toute société animale, Rabaud est en contradiction avec la simple observation des faits (ce sont des interactions élémentaires entre individus qui permettent d´expliquer l´apparition d´un fonctionnement collectif).

L´auto-organisation

         La cybernétique a été definie par Wiener [Wiiener 48] comme l´étude du contrôle et de la communication chez les êtres vivants et les machines, elle est la science des mécanismes finalisés. Son principe de base repose sur la notion de rétroaction (feed-back) par laquelle un système modifie son action en fonction de ses propres sorties. Une rétroaction négative permet de minimiser une différence entre une sortie et un but à atteindre, une rétroaction positive permet d´amplifier un phénomène. La finalité dont il s´agit n´est pas celle d´un "besoin" ou d´une "volonté", mais plutôt celle d´une cause "efficiente". Si les comportements d´une société d´insects apparaissent dirigés vers un but c´est en raison d´un programme génétique spécifiant ce but et régularisant ces comportements.
         Pour Culloch, les insects sont de véritables machines, les propriétés globales qui émergent résultent des interactions entre individus, et les sociétés d´insects sont des systèmes complexes adaptatifs (voir 5-3-3).
         Les erreurs de transmission jouent un rôle important dans l´étude des interactions et de la communication entre insects d´une même colonie: Meyer [Meyer 66] a montré que c´est essentiellement du grand nombre d´individus qui la composent que dépend le fonctionnement adapté d´une société d´insects. Non seulement une telle société est capable de fonctionner en présence d´un bruit de fond, mais encore elle a besoin d´un certain degré d´erreurs pour s´adapter aux perturbations extérieures. Tout organisme est capable de s´orienter vers des buts (manger, se reproduire, ...), il peut aussi s´adapter à des situations nouvelles en ajustant son comportement ou même en changeant de comportement. Pour cela il maintient les variables essentielles dans des limites permises au moyen d´un système ultrastable utilisant des rétroactions négatives. Plusieurs systèmes ultrastables couplés réalisent un système métastable. Par exemple, chez les abeilles, les nourrices, les gardiennes forment chacunes des systèmes ultrastables, la ruche formant un système métastable. Lorsque les variables essentielles de l´un des systèmes sortent de leur intervalle permis, les individus de ce système changent de comportement par essais et erreurs jusqu´au retour à la normale.
         L´homéostasie, ou faculté de maintenir un certain équilibre, n´est pas un concept suffisant pour expliquer que les sociétés, non seulement maintiennent leurs variables essentielles dans leurs limites physiologiques, mais encore sont capables d´élaborer de nouveaux comportements en réponse à des variations environnementales. Si la rétroaction négative permet l´homéostase, la rétroaction positive va permettre la genèse de nouvelles structures morphogenétiques en amplifiant les déviations (accumulation de capital, reproduction, ...).
         Un système physique initialement homogène et soumis à un flux de matière ou d´énergie en provenance de l´extérieur peut, lorsqu´il présente des dynamiques non linéaires et lorsqu´il s´éloigne suffisamment de son équilibre, évoluer vers de nouveaux états d´équilibre, appelés structures dissipatives. Un système physique présente une composition moyenne autour de laquelle il évolue au cours du temps (fluctuations). Si le système est dans un état stationnaire stable, les fluctuations régressent, et il demeure au voisinage de sa moyenne. Par contre, si le système est dans un état stationnaire instable, les fluctuations s´amplifient, et il s´éloigne de son état initial pour évoluer vers un nouvel état structuré. Les sociétés d´insects peuvent être assimilées à de tels systèmes et on peut donc leur appliquer les résultats trouvés à propos des structures dissipatives: Par exemple, en ce qui concerne le dépot aléatoire de phéromone par les fourmis, sa concentration diminue selon un processus dissipatif lorsque seulement quelques formis sont impliquées. Mais lorsque le nombre d´insects augmente, à partir d´un seuil critique, une réaction autocatalytique se produit, engendrant des patterns qui traduisent la coordination des insects. C´est par un processus analogue que l´on explique la construction de piliers, d´arches et de domes dans les termitièlres.

L´intelligence en essaim

         Le concept d´intelligence en essaim formalise le mode de fonctionnement d´une société d´insects sociaux et l´étend à tout groupe d´agents naturels ou artificiels obéissant à des règles simples, ne disposant que d´informations locales et devant coordonner leurs actions pour réaliser une tâche globale complexe [Theraulaz 94]. La résolution d´un problème dans un essaim correspond à l´apparition de configurations stables d´un système dynamique, la solution étant un état particulier du couple essaim-environnement pour lequel la réalisation fonctionnelle recherchée est atteinte. Il s´agit d´un processus morphogenétique impliquant une double structuration de l´essaim et de l´environnement. L´environnement et l´essaim se co-déterminant, il s´agit des deux faces d´un même phénomène de structuration.
         Chaque agent réagit en fonction de signaux qui lui parviennent des autres agents ou directement de l´environnement, modulant l´expression des règles de son comportement.
         Il n´y a pas de contrôleur central, le fonctionnement d´un essaim est hautement décentralisé.
         Il n´ya pas non plus de représentation globale de la tâche ni de carte de l´environnement, et ceci aussi bien au niveau des individus qu´à celui de l´essaim. Par exemple le dépot de phéromone par les fourmis sert de traces-repères directement inscrites dans l´environnement qui fonctionne comme une carte à l´echelle 1/1 et joue le rôle de mémoire dynamique.

Systèmes multi-agents


       L´intelligence Artificielle

       Systèmes Multi-Agents

       Interactions

L´intelligence Artificielle

       L´Intelligence Artificielle (IA) a pour but de concevoir une machine "intelligente", c´est à dire capable d´égaler, ou de surpasser, l´humain dans certaines tâches complexes qu´il était , jusqu´à maintenant, le seul à pouvoir réaliser. Il s´agit donc d´une intelligence individuelle matérialisée par un programme tournant sur un ordinateur. C´est la même conception que l´on retrouve dans les Systèmes Experts où un savoir-faire humain et une logique sont censés représenter un comportement humain. De cette idée découle la centralisation et la séquentialité qui sont les points les plus faibles de l´informatique actuelle.
         Mais le développement cognitif est très limité en dehors d´une collectivité, et l´intelligence est autant due aux bases génétiques définissant notre structure neuronale qu´aux interactions avec le milieu naturel et culturel, c´est à dire avec le monde extérieur mais aussi, et surtout, avec d´autres humains. C´est l´une des limitations intrinsèques de l´I.A. que de n´avoir pas considéré la genèse de ses programmes, c´est à dire de l´interaction qu´ils devraient avoir entre eux et avec le milieu. D´autre part la complexité croissante des problèmes qui sont posés oblige à concevoir, non pas un programme, mais plusieurs entités couplées en interaction, chacune définie localement sans vision d´ensemble d´un système qui la dépasse. De plus la plupart des problèmes rencontrés se posent de façon distribuée (robots explorateurs sur la planète Mars, contrôleur aérien).

Systèmes Multi-Agents

         L´Intelligence Artificielle Distribuée (I.A.D.) postule que l´intelligence n´est plus définie comme une propriété cognitive d´un individu, mais qu´elle émerge des interactions que les agents entretiennent entre eux et avec l´environnement. Le but de l´Intelligence Artificielle Distribuée est de concevoir des Systèmes Multi-Agents (S.M.A.) qui sont des sociétés d´agents artificiels autonomes en interaction complexe (coopération, conflit, négociation, concurrence) ayant pour but la réalisation d´un objectif global déterminé par un observateur (le concepteur du système). Ces nouveaux concepts sont communs à l´I.A. et à la sociologie, la dynamique des groupes, la biologie, et font appel aux techniques de la communication (protocoles, messages, ...). Les systèmes experts, qui confiaient à un seul individu le soin d´"éduquer" une machine, deviennent des systèmes chargés de coordoner des expertises distribuées pouvant conduire à des bases de connaissances, vastes et complexes, parfois contradictoires, de tels systèmes sont amenés à gérer des conflits et à trouver des compromis.
         l´École Cognitive, qui a vu le jours dans les années 70 dans le but de faire coopérer des systèmes experts classiques, considère des agents dejà "intelligents", c´est à dire capables de résoudre seuls certains problèmes. Cette école s´appuie sur les résultats de la sociologie des petits groupes, et, comme l´I.A. classique, elle manipule du symbolique.
         l´École Réactive considère des agents très simples, non nécessairement intelligents, et postule que de leurs interactions peut émerger un comportement global intelligent. Par opposition à l´école cognitive, très formelle, cette école utilise une approche expérimentale.
         Entre ces deux écoles, la première traitant d´agents complexes gros grain, et la deuxième, traitant d´agents simples (grain fin), peuvent exister divers approches, allant de systèmes complexes à base de connaissances jusqu´à des systèmes à base d´automates simples.

Interactions

         La notion d´ Interaction est au centre de la problématique des systèmes multi-agents. Elle est à la fois le résultat et la condition de l´existence d´une organisation complexe. L´individu n´est plus "égo-centré", se croyant le centre de l´univers et seul dépositaire d´une intelligence qui lui serait propre, mais n´existe en tant que tel que par les interactions qu´il entretient avec ses semblables et une société définie par ces interactions mêmes. L´interaction n´est pas limitée aux individus mais intéresse également toutes les combinaisons du couple homme-machine:
         Les systèmes Homme(s)-Machine(s)) ne se limitent pas à l´étude des interfaces mais considère les deux composantes autonomes.
         Les systèmes Machine(s)-Machine(s)) (univers multi-robots, le Web, collisions de véhicules autonomes, ...) permettent de mieux comprendre les systèmes Homme(s)-Homme(s) en fournissant un modèle expérimental d´étude.
         A la différence de l´I.A. classique qui n´envisage que des connaissances internes, ces interactions, plus générales, supposent une boucle Perception-Décision-Action permettant une prise de décision dans un univers évolutif.

Robotique collective


       La robotique classique

       La robotique collective

La robotique classique

       La robotique classique, comme l´I.A. classique, s´est attachée à copier les capacités humaines plutôt qu´à en modéliser les conditions d´existence. Très tôt est apparu la nécessité de la coopération de plusieurs robots, chacun étant spécialisé dans une tâche particulière. Un contrôle centralisé revient à construire un super-robot dont l´espace d´états est le produit des espaces d´états des individus qu´il contrôle. La taille de cet espace grandit rapidement et la gestion de la moindre tâche, fut-elle simple, devient inextricable. Un contrôle distribué, au contraire, coordonne les activités au niveau local, chaque robot n´ayant qu´une compétence et une connaissance limitées: C´est la Robotique Collective.

La robotique collective

         Alors que l´Intelligence Artificielle Distribuée s´est orientée vers des systèmes multi-agents dont les éléments intégraient des comportements sophistiqués, la Robotique Collective, s´inspirant de l´intelligence collective, n´utilise que des agents simples (sur le mode stimuli-réponse) n´ayant pas de représentation du système dans son ensemble. Actuellement des recherches sont menées dans le sens du développement de systèmes intelligents de robots inspirés de l´étude des sociétés d´insectes. Les réseaux neuronaux constituent un exemple d´organisation de petites unités réactives simples (les neurones artificiels) de l´interaction desquelles peuvent émerger un comportement global "intelligent".
         Le monde industriel s´intéresse aujourd´hui à ces recherches pour plusieurs raisons:
         1) L´utilisation d´un grand nombre d´agents identiques réduit le temps d´exécution d´une tâche.
         2) La résolution de problèmes dont on ne connait pas d´algorithme de résolution, ou dont l´étude serait trop complexe.
         3) La capacité d´un système collectif à effectuer des tâches complexes sans qu´aucun de ses éléments ne sache le faire.
         4) Absence de contrôle central.
         5) Robustesse de ces systèmes à tolérance de pannes.
         La robotique collective auto-organisée s´appuie sur une logique décentralisée utilisant des unités disjointes, simples et aléatoires, distribuées dans l´environnement sans une connaissance exhaustive de celui-ci. Ces unités interagissent avec l´environnement et entre elles au moyen de signaux dont seule l´intensité est signifiante. Chaque agent est capable d´anticiper une action en extrapolant sa situation actuelle au voisinage dont il a connaissance. Dans de tels systèmes, la solution au problème posé n´est pas "programmée", mais émerge des nombreuses interactions. La résolution collective d´une tâche fait appel à la coopération (par exemple le transport d´un fardeau trop lourd pour un seul individu suppose une coordination des actions et des buts locaux). Ces résultats sont obtenus sans qu´aucune représentation symbolique de l´environnement n´existe, ni au niveau individuel, ni au niveau global. La spécialisation de certains individus (fourmis soldats, fourmis agricultrices) peut être nécessaire à la réalisation d´une tâche complexe. Les différences entre individus peuvent être génétiquement cablées ou, au contraire, résulter d´un apprentissage, ce qui permet une plus grande adaptabilité à des environnements instables. De telles capacités d´apprentissage peuvent être réalisées par un renforcement donnant aux individus ayant réussis une tâche au temps t, une plus grande porobabilité de la réussir au temps t + 1, ce qui a pour effet de diminuer la capacité des autres individus à réussir cette tâche, ainsi se crée une sous-population de spécialistes. l´apprentissage peut aussi être associatif par mémorisation, association et reconstitution de stimuli.
         Quels sont les avantages d´une telle approche ?
         1) Si, pour résoudre une tâche simple facilement modélisable par une approche classique, une méthode centralisée est très efficace, par contre, la résolution de problèmes complexes, dont la définition peut d´ailleurs varier au cours du temps, ne peut se faire que par une approche distribuée.
         2) La redondance des unités et leur simplicité assurent au système une grande robustesse.
         3) Aucune situation n´est prévue à l´avance, le groupe trouvant lui-même quelle configuration est la mieux adaptée à un instant donné, d´où une grande flexibilité.
         4) La tolérance aux pannes ainsi qu´aux bruits, due à l´usage de l´aléatoire, procure à ces systèmes certains avantages des organismes vivants. Cet aléatoire permet de trouver des solutions optimales qu´un système déterministe aurait ignoré.
         5) Le coût réduit des agents simples et l´absence de contrôle central devraient permettre une industrialisation rapide de ces systèmes.
         6) L´opérationnalité immédiate d´un système général capable de s´adapter, sans programmation particulière, à toute nouvelle situation.

Algorithmie et émergence


       La résolution des problèmes

       Exemple

La résolution des problèmes

       La méthode analytique suit une approche hiérarchique (dite "top-down") qui postule l´existence d´une réalité à priori qu´il suffit de décomposer en éléments simples dont l´étude des propriétés permet de reconstituer un modèle pertinent de cette réalité. La résolution classique des problèmes utilise une telle méthode pour décomposer un problème en sous-problèmes plus simples qu´il suffit, pense-t-on, de résoudre pour venir à bout du problème initial, en combinant les solutions partielles. Cette méthode échoue à rendre compte des propriétés émergentes qu´une analyse fait justement disparaitre.
         Avec l´essor des calculateurs parallèles les approches distribuées et décentralisées sont préferées. La computation émergente étudie des systèmes instables par des interactions locales sans contrôle central produisant ainsi un comportement global supérieur à la somme des comportements individuels de ses composants.
         Une nouvelle heuristique est ainsi définie pour la résolution de problèmes dont les solutions émergent selon un processus synthétique (dit "bottom-up") d´interactions entre éléments simples.

Exemples

         Le célèbre problème dit du voyageur de commerce consistant à trouver un parcours de longueur minimale passant une et une seule fois par un ensemble de villes et revenant au point de depart a reçu une solution élégante grâce à l´intelligence collective en s´inspirant du comportement d´une population de fourmis: Lorsqu´une fourmi, explorant aléatoirement les environs de la fourmillière, découvre de la nourriture, elle revient vers la colonie en déposant du phéromone, substance chimique servant de marqueur incitant les autres fourmis à suivre le même chemin. Or ce produit s´évapore avec le temps, il en résulte un double phénomène d´amplification (chaque fourmis suivant ce chemin y dépose aussi du phéromone) et de réduction (les parcours les plus longs sont désertés par abscence du marqueur). Le taux de phéromone sur le chemin le plus court augmente plus rapidement que sur les autres chemins, si bien, qu´à la longue, il est le seul fréquenté.
         La Réalité Virtuelle, longtemps cantonnée à la reproduction fidèle d´une réalité supposée exister à priori, commence à s´intéresser à une complexité non déterministe mettant en jeu une interactivité adaptative et "intelligente", pour cela elle utilise les résultats des recherches en vie artificielle.
         La simulation de populations d´individus (bancs de poissons, vols d´oiseaux, colonies d´insectes, ...) vivant en société et confrontés à des situations particulières (au sein d´un écosystème et/ou en interaction avec le spectateur) utilise les résultats de l´intelligence collective.
         Des installations interactives mettent en scène des "êtres" artificiels munis d´une perception-action en leur donnant une certaine autonomie, utilisent des méthodes d´apprentissage associées à des réseaux neuronaux (voir La Funambule Virtuelle. Des populations de tel êtres sont gérées par des algorithmes génétiques.
         Des écosystèmes d´êtres artificiels sont présentés en situation interactive (voir les installations de M. Tolson).
         Des espèces artificielles s´autoconfigurent pour s´adapter à un environnement donné voir les travaux de K. Sims et les animats.