LA VIE ARTIFICIELLE: INTELLIGENCE COLLECTIVE
Qu´est-ce que l´intelligence collective ?
Biologie, formalisme et artificialité
Les colonies d´insects (comme les fourmis ou les abeilles)
réalisent des tâches complexes (construction
de cités, gestion de la nourriture, planification de la
reproduction, organisation de la défense du territoire) même
lorsque l´environnement se modifie, ce qui suppose une certaine
flexibilité et des capacités d´adaptation. Le système
cognitif très
limité des individus composant ces sociétés ne permet pas
d´expliquer une coordination aussi évoluée en l´absence d´un contrôle
central. On appelle Intelligence Collective le fait que des
capacités cognitives collectives évoluées peuvent émerger de capacités
cognitives individuelles limitées. On retrouve de telles
situations avec des colonies de bactéries, le système immunitaire
ainsi qu´avec des sociétés d´êtres évolués.
Ces systèmes partagent un mode de fonctionnement formel.
Alors que les méthodes analytiques de pensée utilisent une
causalité matérielle, nous parlerons de causalité formelle pour
exprimer que des propriétés analogues dans des systèmes différents
reflétent une structure commune.
Le concept d´auto-organisation est essentiel pour
comprendre ces phénomènes, le principe fondamental en est que des
patterns collectifs fonctionnels complexes peuvent émerger
des interactions entre individus simples. L´objet de l´intelligence
collective est d´étudier le mode de fonctionnement de systèmes d´agents
réalisant des performances collectives évoulées sans commande
centrale et sans qu´aucun des agents, pris individuellement, n´en
soit capable.
Les principales applications de l"intelligence collective sont:
1) La réalisation de systèmes artificiels constituant de
nouveaux moyens d´expérimentations biologiques permettant de tester
les théories, non pas sur des populations réelles peu maniables, mais
sur des modèles virtuels (vie artificielle) ou réels (robots)
de ces populations.
2) Comme les réseaux neuronaux et les algorithmes génétiques, ces
systèmes permettent de résoudre des problèmes sans qu´il ne soit
nécessaire d´en connaitre la solution ni même un algorithme de
résolution.
La problématique de l´intelligence collective rapelle celle
de l´intelligence artificielle mais, parce qu´à l´époque où elle
a été développée, la biologie et les neurosciences n´étaient pas aussi
avancées qu´ajourd´hui, la recherche s´était éloignée des
réalités biologiques au profit d´une connaissance essentiellement
symbolique.
L´intelligence
Le terme d´intelligence vient de la psychologie et concerne
généralement un être humain doté de capacités
langagières (au moins potentiellement), Mais on connait
l´importance des rapports sociaux dans
le développement de l´intelligence chez l´enfant, on ne peut donc
dissocier celle-ci de la collectivité à laquelle il appartient.
On parlera d´intelligence à propos d´un agent en interaction
avec son environnement, c´est à dire capable de percevoir et
d´agir pour survivre. Les actions sont le résultat des perceptions,
mais celles-ci dépendent des actions antérieures de l´agent; On dit
que le couple actions-perceptions est bouclé. Un organisme
n´a donc pas connaissance d´une réalité en soi mais seulement
de la conséquence de ses actions sur ses perceptions, il se construit
ainsi un monde pour lui (ses affordances
[Gibson 79]). L´exigence de survie implique un "principe de réalité"
sans que la stratégie à employer ne soit spécifiée (contrainte
de viabilité): Il
n´existe donc jamais de solution unique ni même optimale (ce
qu´illustre parfaitement la grande diversité des variétés
biologiques).L´organisme
(vivant, robot ou toute création de la Vie Artificielle) doit assurer
son homéostasie, c´est à dire maintenir son identité.
Le test d´intelligence le plus connu est le test de Turing (1950):
Turing imagine le jeu dit de l´"imitation" consistant, pour un observateur
communiquant au moyen de telescripteurs avec un homme et une femme, de
determiner le sexe de ces personnages, sachant que ceux-ci cherchent
a l´induire en erreur. Dans une autre version de ce test l´un
des personnages est un ordinateur, celui-ci sera déclaré "intelligent"
si l´observateur ne peut le distinguer de l´autre personnage qui
est un humain.
La thèse dite de l´"intelligence artificielle forte" identifie
l´esprit à un programme formel éxécuté sur une machine universelle
de Turing, et en déduit que la pensée est indépendante de son
support. John Searle [Searle 1980] réfute cette thèse avec sa fameuse
"pièce chinoise": Un expérimentateur, supposé ne pas connaitre le chinois,
est dans une pièce et dispose de tous les idéogrammes chinois ainsi
que d´un ensemble de règles permettant d´identifier des groupes
d´idéogrammes et d´en construire des réponses plausibles sans
en connaitre le sens. Dans une autre pièce un chinois envoie
à l´expérimentateur des phrases écrites en chinois, l´expérimentateur
pourra y répondre correctement et passera donc lui-même pour chinois.
Cette expérience théorique est bien évidemment irréalisable et
l´analogie entre un
expérimentateur (qui manipule des idéogrammes
sans les comprendre) et un ordinateur (qui manipule des symboles
formels sans leur attacher de signification) est instructive:
Sachant que les programmes sont formels, que la pensée
a un contenu sémantiquee, que la sémantique et la syntaxe formelle
ne sont pas réductibles l´une à l´autre, alors les programmes
sont insuffisants pour produire de la pensée. Comme par ailleurs
le cerveau engendre la pensée, un système artificiel ne pourra
produire des phénomènes mentaux que s´il possède certaines des
propriétés biologiques du cerveau.
L´intelligence collective
La cognition collective est un phénomène émergent
dépendant des interactions entre individus, c´est une organisation
pouvant être considérée elle-même comme un agent intelligent soumis
à une contrainte de viabilité. On parlera d´intelligence
collective si cet organisation est nécessaire à la survie des
individus.
La contrainte de viabilité s´applique aussi bien aux organismes
naturels qu´aux systèmes artificiels, et rejoint la notion de
résolution de problème:
Un système passant d´un l´état (E0,S0) à l´instant 0,
à un état (Et,St)
à l´instant t, où E représente l´état de
l´environnement et S celui du système, parcourt un ensemble
(Ei,Si) d´états devant toujours rester viables. Si (E0,S0) est un
état initial et (Et,St) un état souhaité, la transformation
est une résolution de problème.
Une intelligence collective suppose, pour apparaitre, que soient
réalisées certaines conditions [Bonabeau 94]:
1) Le système est constitué d´individus indépendants et
assez simples dont les comportements sont corrélés. Chaque individu
est autonome (réponses aux actions de l´environnement et interaction
avec les autres individus). Le comportement global est alors le
résultat finalisé des comportements individuels.
2) Aucun individu ne dirige tous les autres et il n´y a pas
de stratégie au niveau global (pas d´"esprit de la ruche").
3) Le système, somme des interactions entre individus, a un
comportement intelligent, c´est à dire qu´il est capable de s´adapter
et de résoudre des tâches génériques (maintenir sa viabilité dans
des environnements variables). Ce comportement émerge des
interactions entre individus.
Un collectif d´agents simples interagissants permet:
1) Une grande adaptabilité: Aucun plan prédéterminé
ne guidant la colonie, celle-ci peut s´adapter pragmatiquement
à toute variation de l´environnement.
2) Une grande robustesse, ou tolérance aux pannes,
le collectif survivant à la mort, ou au disfonctionnement,
de certains de ses membres.
3) Une absence de contrôle global. Les individus réalisent
des tâches simples, la complexité du système résultant des
interactions entre eux. L´aléatoire est source d´adaptabilité,
les erreurs individuelles pouvant conduire à des solutions
nouvelles, les rétroactions corrigeant ces erreurs permettent
la coordination probalistique des comportements individuels.
Le degré zéro de l´intelligence collective correspond à des
individus identiques sans interactions. Des degrés d´intelligences
variés peuvent être définis en créant par exemple des hiérarchies
ou des spécialisations. Stephanie Forrest [Forrest 90] caracterise ainsi
l´intelligence collective:
1) Existence d´une collection d´agents suivant des instructions
explicites.
2) Existence d´une interaction entre ces agents.
3) Existence d´une interprétation des épiphénomènes, ce qui
suppose l´existence d´un observateur pour lequel le comportement
du système prend un sens.
L´intelligence collective simple traite d´agents cognitifs
ayant des capacités réduites, L´intelligence collective complexe
traite d´agents pensants (comme les sociétés humaines ou le Web).
Les agents intelligents savent faire et savent communiquer,
et les super-organismes émergents savent se conserver, mais
ni les uns ni les autres ne savent ce qu´ils font.
Les méthodes classiques de conception de systèmes artificiels
reposent sur une approche hétéronome (c´est à dire en spécifiant
son comportement de l´extérieur), l´intelligence collective
utilise plutôt le principe d´auto-organisation (c´est à dire
l´organisation dynamique et autonome du système en interaction avec son
environnement lors de sa naissance et de sa vie).
L´intelligence en essaim
Comment expliquer le comportement complexe d´un système
(par exemple une ruche) dont les éléments sont
simples (les abeilles), c´est à dire comment expliquer le
paradoxe par lequel du particulier puisse engendrer du général ?
Nous allons examiner deux réponses,
l´organicisme et le béhaviorisme, et montrer que le paradoxe
n´est réellement levé qu´avec la notion d´auto-organisation.
L´organicisme
L´organicisme est une théorie biologique défendue par Bichat
(1771-1802) posant que les propriétés d´un organisme sont globales
et que c´est le tout qui explique la partie. Cette conception,
définie d´abord sur un organisme vivant, a été appliquée à la
société humaine considérée comme un organisme. Au XX ème siècle
la métaphore organiciste est reprise par Maeterlinck qui parle de
l´âme de la ruche (1927) et même de l´intelligence
des fleurs. Ces idées furent utilisées pour expliquer le
fonctionnement d´une société d´insects sur le modèle d´un
organisme (super-organisme).
Mais l´organicisme reste une analogie, une métaphore, qui n´explique
rien. Il reviendra à la théorie générale des systèmes,
à l´étude des processus d´auto-organisation et des phénomènes
non linéaires, de permettre une meilleure description des processus
d´émergence apparaissant dans les sociétés naturelles et
artificielles.
Le béhaviorisme
Etienne Rabaud (1868-1956) postule que la cause du comportement
est dans l´individu. Dans une société d´insects tout individu agit
seul, toute entraide ou toute division du travail n´étant qu´illusoire.
Ces affirmations
sont à replacer dans leur contexte historique, en réaction à un
mentalisme et à un anthropomorphisme ambiant. Rabaud définit
l´interattraction comme l´attraction naturelle de deux
individus d´une même espèce, ou degré zéro de la sociabilité. Il
définit l´interaction interindividuelle comme phénomène
fondamental de tout mécanisme social.
En affirmant l´incoordination spécifique de toute
société animale, Rabaud est en contradiction avec la simple
observation des faits (ce sont des interactions élémentaires entre
individus qui permettent d´expliquer l´apparition d´un fonctionnement
collectif).
L´auto-organisation
La cybernétique a été definie par Wiener [Wiiener 48]
comme l´étude du contrôle et de la communication chez les êtres
vivants et les machines, elle est la science des mécanismes finalisés.
Son principe de base repose sur la notion de rétroaction
(feed-back) par laquelle un système modifie son action en
fonction de ses propres sorties. Une rétroaction négative
permet de minimiser une différence entre une sortie et un but à
atteindre, une rétroaction positive permet d´amplifier
un phénomène. La finalité dont il s´agit n´est pas celle d´un
"besoin" ou d´une "volonté", mais plutôt celle d´une cause "efficiente".
Si les comportements d´une société d´insects apparaissent dirigés
vers un but c´est en raison d´un programme génétique spécifiant
ce but et régularisant ces comportements.
Pour Culloch, les insects sont de véritables machines, les
propriétés globales qui émergent résultent des interactions
entre individus, et les sociétés d´insects sont des systèmes complexes
adaptatifs (voir 5-3-3).
Les erreurs de transmission jouent un rôle important dans
l´étude des interactions et de la communication entre insects
d´une même colonie: Meyer [Meyer 66] a montré que c´est essentiellement
du grand nombre d´individus qui la composent que dépend le fonctionnement
adapté d´une société d´insects. Non seulement une telle société
est capable de fonctionner en présence d´un bruit de fond, mais
encore elle a besoin d´un certain degré d´erreurs pour s´adapter
aux perturbations extérieures. Tout organisme est capable de
s´orienter vers des buts (manger, se reproduire, ...),
il peut aussi s´adapter à des situations nouvelles
en ajustant son comportement ou même en changeant de comportement. Pour
cela il maintient les variables essentielles dans des
limites permises au moyen d´un système ultrastable utilisant
des rétroactions négatives. Plusieurs systèmes ultrastables
couplés réalisent un système métastable. Par exemple,
chez les abeilles, les nourrices, les gardiennes
forment chacunes des systèmes ultrastables, la ruche formant
un système métastable. Lorsque les variables essentielles de
l´un des systèmes sortent de leur intervalle permis, les individus
de ce système changent de comportement par essais et erreurs
jusqu´au retour à la normale.
L´homéostasie, ou faculté de maintenir un certain
équilibre, n´est pas un concept suffisant pour expliquer que les
sociétés, non seulement maintiennent leurs variables essentielles
dans leurs limites physiologiques, mais encore sont capables
d´élaborer de nouveaux comportements en réponse à des variations
environnementales. Si la rétroaction négative permet l´homéostase,
la rétroaction positive va permettre la genèse de nouvelles
structures morphogenétiques en amplifiant les déviations
(accumulation de capital, reproduction, ...).
Un système physique initialement homogène et soumis à un flux
de matière ou d´énergie en provenance de l´extérieur peut, lorsqu´il
présente des dynamiques non linéaires et lorsqu´il s´éloigne
suffisamment de son équilibre, évoluer vers de nouveaux états
d´équilibre, appelés structures dissipatives. Un système
physique présente une composition moyenne autour de laquelle il
évolue au cours du temps (fluctuations). Si le système est
dans un état stationnaire stable, les fluctuations régressent, et
il demeure au voisinage de sa moyenne. Par contre, si le système
est dans un état stationnaire instable, les fluctuations
s´amplifient, et il s´éloigne de son état initial pour évoluer
vers un nouvel état structuré. Les sociétés d´insects peuvent
être assimilées à de tels systèmes et on peut donc leur appliquer les
résultats trouvés à propos des structures dissipatives: Par exemple,
en ce qui concerne le dépot aléatoire de phéromone par les fourmis,
sa concentration diminue selon un processus dissipatif lorsque
seulement quelques formis sont impliquées. Mais lorsque le nombre
d´insects augmente, à partir d´un seuil critique, une réaction
autocatalytique se produit, engendrant des patterns qui traduisent
la coordination des insects. C´est par un processus analogue que
l´on explique la construction de piliers, d´arches et de domes
dans les termitièlres.
L´intelligence en essaim
Le concept d´intelligence en essaim formalise le mode
de fonctionnement d´une société d´insects sociaux et l´étend à
tout groupe d´agents naturels ou artificiels obéissant à
des règles simples, ne disposant que d´informations locales et devant
coordonner leurs actions pour réaliser une tâche globale complexe
[Theraulaz 94]. La résolution d´un problème dans un essaim
correspond à l´apparition de configurations stables d´un système
dynamique, la solution étant un état particulier du couple
essaim-environnement pour lequel la réalisation fonctionnelle
recherchée est atteinte. Il s´agit d´un processus morphogenétique
impliquant une double structuration de l´essaim et de l´environnement.
L´environnement et l´essaim se co-déterminant, il s´agit des deux faces
d´un même phénomène de structuration.
Chaque agent réagit en fonction de signaux qui lui parviennent
des autres agents ou directement de l´environnement, modulant
l´expression des règles de son comportement.
Il n´y a pas de contrôleur central, le fonctionnement d´un
essaim est hautement décentralisé.
Il n´ya pas non plus de représentation globale de la tâche ni
de carte de l´environnement, et ceci aussi bien au niveau des
individus qu´à celui de l´essaim. Par exemple le dépot de phéromone
par les fourmis sert de traces-repères directement inscrites dans
l´environnement qui fonctionne comme une carte à l´echelle 1/1 et joue
le rôle de mémoire dynamique.
Systèmes multi-agents
L´intelligence Artificielle
L´Intelligence Artificielle (IA) a pour but de concevoir
une machine "intelligente", c´est à dire capable d´égaler, ou de
surpasser, l´humain dans certaines tâches complexes qu´il
était , jusqu´à maintenant,
le seul à pouvoir réaliser.
Il s´agit donc d´une intelligence individuelle
matérialisée par un programme tournant sur un ordinateur. C´est
la même conception que l´on retrouve dans les Systèmes Experts
où un savoir-faire humain et une logique sont censés représenter
un comportement humain. De cette idée découle la centralisation
et la séquentialité qui sont les points les plus faibles de
l´informatique actuelle.
Mais le développement cognitif est très limité en dehors
d´une collectivité, et l´intelligence est autant due aux bases
génétiques définissant notre structure neuronale qu´aux interactions
avec le milieu naturel et culturel, c´est à dire avec le monde
extérieur mais aussi, et surtout, avec d´autres humains. C´est l´une
des limitations intrinsèques de l´I.A. que de n´avoir pas
considéré la genèse de ses programmes, c´est à dire de l´interaction
qu´ils devraient avoir entre eux et avec le milieu. D´autre part
la complexité croissante des problèmes qui sont posés oblige
à concevoir, non pas un programme, mais plusieurs entités
couplées en interaction, chacune définie localement sans vision
d´ensemble d´un système qui la dépasse. De plus la plupart des
problèmes rencontrés se posent de façon distribuée (robots
explorateurs sur la planète Mars, contrôleur aérien).
Systèmes Multi-Agents
L´Intelligence Artificielle Distribuée (I.A.D.) postule
que l´intelligence n´est plus définie comme une propriété
cognitive d´un individu, mais qu´elle émerge des interactions
que les agents entretiennent entre eux et avec l´environnement.
Le but de l´Intelligence Artificielle Distribuée est de concevoir des
Systèmes Multi-Agents
(S.M.A.) qui sont des sociétés
d´agents artificiels autonomes en interaction complexe (coopération,
conflit, négociation, concurrence) ayant pour but la réalisation d´un objectif
global déterminé par un observateur (le concepteur du système). Ces
nouveaux concepts sont communs à l´I.A. et à la sociologie, la
dynamique des groupes, la biologie, et font appel aux techniques de
la communication (protocoles, messages, ...). Les systèmes experts,
qui confiaient à un seul individu le soin d´"éduquer" une machine,
deviennent des systèmes chargés de coordoner des expertises
distribuées pouvant conduire à des bases de connaissances,
vastes et complexes, parfois contradictoires, de tels systèmes
sont amenés à gérer des conflits et à trouver des compromis.
l´École Cognitive, qui a vu le jours dans les
années 70 dans le but de faire coopérer des systèmes experts classiques,
considère des agents dejà "intelligents", c´est à dire capables
de résoudre seuls certains problèmes. Cette école s´appuie
sur les résultats de la sociologie des petits groupes, et, comme
l´I.A. classique, elle manipule du symbolique.
l´École Réactive considère des agents très simples,
non nécessairement intelligents, et postule que de leurs interactions
peut émerger un comportement global intelligent. Par opposition
à l´école cognitive, très formelle, cette école utilise une
approche expérimentale.
Entre ces deux écoles, la première traitant d´agents complexes
gros grain, et la deuxième, traitant d´agents simples
(grain fin), peuvent exister divers approches, allant de
systèmes complexes à base de connaissances
jusqu´à des systèmes à
base d´automates simples.
Interactions
La notion d´
Interaction
est au centre de la problématique
des systèmes multi-agents. Elle est à la fois le résultat et
la condition de l´existence d´une organisation complexe. L´individu
n´est plus "égo-centré", se croyant le centre de l´univers et
seul dépositaire d´une intelligence qui lui serait propre, mais
n´existe en tant que tel que par les interactions qu´il
entretient avec ses semblables et une société définie par ces
interactions mêmes. L´interaction n´est pas limitée aux individus
mais intéresse également toutes les combinaisons du couple
homme-machine:
Les systèmes Homme(s)-Machine(s)) ne se limitent pas
à l´étude des interfaces mais considère les deux composantes
autonomes.
Les systèmes Machine(s)-Machine(s)) (univers multi-robots,
le Web, collisions de véhicules autonomes, ...) permettent de
mieux comprendre les systèmes Homme(s)-Homme(s) en
fournissant un modèle expérimental d´étude.
A la différence de l´I.A. classique qui n´envisage que des
connaissances internes, ces interactions, plus générales, supposent
une boucle Perception-Décision-Action permettant une
prise de décision dans un univers évolutif.
Robotique collective
La robotique classique
La robotique classique, comme l´I.A. classique, s´est attachée
à copier les capacités humaines plutôt qu´à en modéliser les
conditions d´existence. Très tôt est apparu la nécessité de
la coopération de plusieurs robots, chacun étant spécialisé
dans une tâche particulière. Un contrôle centralisé revient à
construire un super-robot dont l´espace d´états est le produit
des espaces d´états des individus qu´il contrôle. La taille de
cet espace grandit rapidement et la gestion de la moindre tâche,
fut-elle simple, devient inextricable. Un contrôle distribué,
au contraire, coordonne les activités au niveau local, chaque
robot n´ayant qu´une compétence et une connaissance limitées: C´est
la Robotique Collective.
La robotique collective
Alors que l´Intelligence Artificielle Distribuée
s´est orientée vers des systèmes multi-agents dont les éléments
intégraient des comportements sophistiqués, la Robotique
Collective, s´inspirant de l´intelligence collective,
n´utilise que des agents simples (sur le mode
stimuli-réponse) n´ayant pas de représentation du système dans
son ensemble. Actuellement des recherches sont menées dans le
sens du développement de systèmes intelligents de robots inspirés
de l´étude des sociétés d´insectes. Les
réseaux neuronaux
constituent un exemple d´organisation de petites unités réactives
simples (les neurones artificiels) de l´interaction desquelles
peuvent émerger un comportement global "intelligent".
Le monde industriel s´intéresse aujourd´hui à ces recherches
pour plusieurs raisons:
1) L´utilisation d´un grand nombre d´agents identiques réduit
le temps d´exécution d´une tâche.
2) La résolution de problèmes dont on ne connait pas
d´algorithme de résolution, ou dont l´étude serait trop complexe.
3) La capacité d´un système collectif à effectuer des tâches
complexes sans qu´aucun de ses éléments ne sache le faire.
4) Absence de contrôle central.
5) Robustesse de ces systèmes à tolérance de pannes.
La robotique collective auto-organisée s´appuie sur une logique
décentralisée utilisant des unités disjointes, simples et
aléatoires, distribuées dans l´environnement sans une connaissance
exhaustive de celui-ci. Ces unités interagissent avec
l´environnement et entre elles au moyen de signaux dont
seule l´intensité est signifiante. Chaque agent est capable
d´anticiper une action en extrapolant sa situation
actuelle au voisinage dont il a connaissance. Dans de tels
systèmes, la solution au problème posé n´est pas "programmée",
mais émerge des nombreuses interactions. La résolution
collective d´une tâche fait appel à la coopération (par
exemple le transport d´un fardeau trop lourd pour un seul individu
suppose une coordination des actions et des buts locaux).
Ces résultats sont obtenus sans qu´aucune représentation
symbolique de l´environnement n´existe, ni au niveau individuel,
ni au niveau global. La spécialisation de certains
individus (fourmis soldats, fourmis agricultrices) peut
être nécessaire à la réalisation d´une tâche complexe. Les
différences entre individus peuvent être génétiquement cablées
ou, au contraire, résulter d´un apprentissage, ce
qui permet une plus grande adaptabilité à des environnements
instables. De telles capacités d´apprentissage peuvent être
réalisées par un renforcement donnant aux individus
ayant réussis une tâche au temps t, une plus grande
porobabilité de la réussir au temps t + 1, ce qui a pour effet
de diminuer la capacité des autres individus à réussir cette
tâche, ainsi se crée une sous-population de spécialistes.
l´apprentissage peut aussi être
associatif
par mémorisation, association et reconstitution de stimuli.
Quels sont les avantages d´une telle approche ?
1) Si, pour résoudre une tâche simple facilement modélisable
par une approche classique, une méthode centralisée est très
efficace, par contre, la résolution de problèmes complexes,
dont la définition peut d´ailleurs varier au cours du temps, ne
peut se faire que par une approche distribuée.
2) La redondance des unités et leur simplicité assurent au
système une grande robustesse.
3) Aucune situation n´est prévue à l´avance, le groupe
trouvant lui-même quelle configuration est la mieux adaptée à
un instant donné, d´où une grande flexibilité.
4) La tolérance aux pannes ainsi qu´aux bruits, due à
l´usage de l´aléatoire, procure à ces systèmes certains avantages
des organismes vivants. Cet aléatoire permet de trouver des
solutions optimales qu´un système déterministe aurait ignoré.
5) Le coût réduit des agents simples et l´absence de contrôle
central devraient permettre une industrialisation rapide de
ces systèmes.
6) L´opérationnalité immédiate d´un système général capable
de s´adapter, sans programmation particulière, à toute nouvelle
situation.
Algorithmie et émergence
La résolution des problèmes
La méthode analytique suit une approche hiérarchique
(dite "top-down") qui postule l´existence d´une réalité
à priori qu´il suffit de décomposer en éléments simples dont l´étude
des propriétés permet de reconstituer un modèle pertinent
de cette réalité. La résolution classique des problèmes utilise
une telle méthode pour décomposer un problème en sous-problèmes
plus simples qu´il suffit, pense-t-on, de résoudre pour venir
à bout du problème initial, en combinant les solutions
partielles. Cette méthode échoue à rendre compte des propriétés
émergentes qu´une analyse fait justement disparaitre.
Avec l´essor des calculateurs parallèles les approches
distribuées et décentralisées sont préferées. La computation
émergente étudie des systèmes instables par des interactions
locales sans contrôle central produisant ainsi un comportement
global supérieur à la somme des comportements individuels de ses
composants.
Une nouvelle heuristique est ainsi définie pour la
résolution de problèmes dont les solutions émergent selon un processus
synthétique (dit "bottom-up") d´interactions entre éléments simples.
Exemples
Le célèbre problème dit du voyageur de commerce consistant
à trouver un parcours de longueur minimale passant une et une seule
fois par un ensemble de villes et revenant au point de depart a
reçu une solution élégante grâce à l´intelligence collective
en s´inspirant du comportement d´une population de fourmis:
Lorsqu´une fourmi, explorant aléatoirement les environs de la
fourmillière, découvre de la nourriture, elle revient vers la colonie
en déposant du phéromone, substance chimique servant de
marqueur incitant les autres fourmis à suivre le même chemin.
Or ce produit s´évapore avec le temps, il en résulte un double
phénomène d´amplification (chaque fourmis suivant ce
chemin y dépose aussi du phéromone) et de réduction (les parcours
les plus longs sont désertés par abscence du marqueur). Le taux
de phéromone sur le chemin le plus court augmente plus
rapidement que sur les autres chemins, si bien, qu´à la longue,
il est le seul fréquenté.
La Réalité Virtuelle, longtemps cantonnée à la reproduction
fidèle d´une réalité supposée exister à priori, commence à
s´intéresser à une complexité non déterministe
mettant en jeu une interactivité adaptative et "intelligente", pour
cela elle
utilise les résultats des recherches en vie artificielle.
La simulation de populations d´individus (bancs de poissons,
vols d´oiseaux, colonies d´insectes, ...) vivant en société et
confrontés à des situations particulières (au sein d´un
écosystème et/ou en interaction avec le spectateur) utilise
les résultats de l´intelligence collective.
Des installations interactives mettent en scène des "êtres"
artificiels munis d´une perception-action en leur donnant une
certaine autonomie, utilisent des méthodes d´apprentissage associées
à des réseaux neuronaux
(voir La Funambule Virtuelle.
Des populations de tel êtres sont
gérées par des algorithmes génétiques.
Des écosystèmes d´êtres artificiels sont présentés en
situation interactive
(voir les installations de M. Tolson).
Des espèces artificielles s´autoconfigurent pour s´adapter
à un environnement donné voir les travaux de
K. Sims et les
animats.