IA coopérative : les machines doivent apprendre à trouver un terrain d'entente

PARIS-SINGULARITY, 04/06/2021

Partagé par : 

Beesens TEAM

IA coopérative : les machines doivent apprendre à trouver un terrain d'entente

"L’apprentissage par renforcement profond connaît son heure de gloire. Il alimente des robots plus intelligents. Il simule les réseaux neuronaux humains. Il surpasse les médecins en matière de diagnostic médical et écrase les meilleurs joueurs de l’humanité au Go et à Atari. Bien qu’elle soit loin d’atteindre la souplesse et la rapidité de réflexion qui sont naturelles chez l’homme, l’idée séduisante d’apprentissage automatique semble constituer le signe avant-coureur de machines plus intelligentes. Sauf qu’il y a un obstacle de taille : leur exécution prend une éternité. Le concept qui sous-tend ces algorithmes est basé sur les essais et les erreurs. Un “agent” d’IA à apprentissage par renforcement n’apprend qu’après avoir été récompensé pour ses bonnes décisions. Pour les problèmes complexes, le temps nécessaire à un agent d’IA pour essayer et échouer à apprendre une solution peut rapidement devenir intenable.

L’état de l’art des applications d’IA reflète celui du domaine de la recherche. Celui-ci a longtemps été imprégné par une sorte d’individualisme méthodologique. Comme le montrent les manuels d’introduction, le problème canonique de l’IA est celui d’une machine solitaire confrontée à un environnement non social. Un système d’IA doit d’abord acquérir une compréhension de base de son environnement et de la manière d’interagir avec lui. Même dans les travaux impliquant plusieurs agents d’IA, le domaine ne s’est pas encore attaqué aux problèmes difficiles de la coopération. Les résultats les plus marquants proviennent de jeux à somme nulle à deux joueurs, tels que le backgammon, les échecs, le jeu de Go et le poker. Dans ces exemples de compétition, les gains ne peuvent être réalisés qu’au détriment des autres..." Lire la suite