L’Intelligence Artificielle Explicable, enjeu majeur pour démystifier les « boîtes noires »

MEDIUM, 22/06/2021

Partagé par : 

Beesens TEAM

L’Intelligence Artificielle Explicable, enjeu majeur pour démystifier les « boîtes noires »

"L’omniprésence de l’IA et le besoin d’explicabilité
Vous l’avez probablement remarqué mais les algorithmes d’apprentissage automatique (i.e. machine learning) sont devenus omniprésents dans nos vies quotidiennes. Ils gèrent le contenu qui nous est visible, nous suggèrent le chemin idéal pour nous rendre au bureau, décident si nous sommes de bons candidats pour un poste en entreprise, etc. Cette ubiquité ne cesse de s’accentuer alors qu’ils gouverneront bientôt un plus large spectre d’activités essentielles comprenant éducation, travail, transport ou encore médecine.
Alors bien sûr, ces algorithmes sont construits et supervisés (du moins dans la plupart des cas) par des humains. Mais les modèles utilisés actuellement, c’est à dire principalement des réseaux de neurones profonds, sont d’une telle complexité qu’il est pratiquement impossible pour leur créateur de comprendre leur fonctionnement, d’où le terme “boîte noire”. Pourtant, être capable d’expliquer leurs décisions confère de multiples bénéfices, comme nous allons le voir à travers l’exemple suivant...." Lire la suite