Comment des délégués artificiels peuvent nous aider à être plus sociaux, mais échouent néanmoins à atteindre des objectifs collectifs

Comment des délégués artificiels peuvent nous aider à être plus sociaux, mais échouent néanmoins à atteindre des objectifs collectifs

"Penser que l’on peut tout confier à la technologie sans y investir soi-même est une illusion dangereuse."

 

Les délégués artificiels – des agents autonomes qui prennent des décisions à notre place – peuvent-ils nous aider à obtenir de meilleurs résultats dans des situations où nous risquons l’échec collectif, comme lors des décisions liées au changement climatique ou lorsqu’une action rapide s’impose face à une pandémie? Une nouvelle expérience comportementale dirigée par le professeur Tom Lenaerts (VUB/ULB) apporte un éclairage sur cette question. Les résultats sont surprenants : les personnes qui confient leurs décisions à des représentants numériques adoptent un comportement globalement plus prosocial, mais cela ne signifie pas automatiquement que les résultats obtenus sont meilleurs.

L’étude montre que les individus qui laissent leurs choix à des agents artificiels contribuent davantage au bien collectif, même lorsqu’ils ont vécu des expériences négatives ou des situations d’inégalité. «Ce que nous observons, c’est que dès que les gens prennent du recul et laissent une IA configurable décider à leur place dans un dilemme social, leurs contributions sont plus importantes que lorsqu’ils choisissent eux-mêmes leurs actions», explique Lenaerts. «Ils semblent plus disposés à faire leur part, ce qui représente une forme intéressante de changement de comportement.»

Cependant, cette volonté accrue ne mène pas à de meilleurs résultats collectifs. Les outils artificiels sont cohérents, mais manquent de la capacité d’adaptation humaine nécessaire pour réagir de manière flexible aux actions des autres participants. «Ils ne réagissent pas bien aux circonstances inattendues ou aux décisions de dernière minute. Ils sont bien programmés, mais pas parfaits», ajoute Lenaerts.

Même si le recours à des représentants numériques favorise des comportements positifs, cela ne suffit pas à résoudre efficacement des problèmes de groupe complexes. La clé réside dans l’implication humaine dans la programmation de ces représentants. «Le recours à ces outils ne fonctionne que si les gens continuent à réfléchir activement à la manière dont ils les programment», insiste Lenaerts. «Penser que l’on peut tout déléguer à la technologie sans y investir nous-mêmes est une illusion dangereuse.»

Ces résultats révèlent un dilemme important dans l’évolution vers une prise de décision plus numérique: la technologie peut renforcer les intentions sociales, mais elle ne garantit pas un impact collectif. Dans des domaines comme la politique climatique ou la santé publique, cela peut avoir des conséquences considérables. «Les agents artificiels ont certainement du potentiel, mais ils ne sont pas une solution miracle», conclut Lenaerts. «Si nous voulons qu’ils fonctionnent réellement dans la pratique, nous devrons, en tant qu’humains, continuer à assumer nos responsabilités, non seulement dans les décisions, mais aussi dans la construction des systèmes qui les prennent.»

Ces résultats font partie de la recherche doctorale de la Dr. Ines Terrucha, qui fait sa thèse à la VUB et l’ Université de Gand, en collaboration avec un groupe de scientifiques nationaux et internationaux, et ont été publiés sous le titre Humans program artificial delegates to accurately solve collective-risk dilemmas but lack precision dans la revue scientifique PNAS (Proceedings of the National Academy of Sciences USA).

Plus d'infos :
​Prof. Tom Lenaerts : tom.lenaerts@vub.be – +32 486 93 19 96

www.pnas.org/doi/10.1073/pnas.2319942121

 

 

 


Frans Steenhoudt
Frans Steenhoudt Perscontact wetenschap en onderzoek

 

WE IR ES
A propos de Press - Vrije Universiteit Brussel

Press - Vrije Universiteit Brussel
Pleinlaan 2
1050 Brussel