Ethique de l’intelligence artificielle : expliquer « l’explicabilité

REVUE-BANQUE, 02/03/2020

Partagé par : 

Équipe Beesens

Ethique de l’intelligence artificielle : expliquer « l’explicabilité

" Dans le débat public, l’intelligence artificielle (IA) est souvent présentée comme l’instrument de notre entrée dans un monde dystopique qui n’aurait plus besoin de nous. Cette vision anxiogène est parfois alimentée par les esprits les plus brillants et avertis [1] qui craignent que cette technologie nous échappe et que la machine, non satisfaite d’avoir dépassé l’homme, le fasse disparaître.

Dans le champ économique, même si les cas d’usage restent pour l’essentiel à développer, le procès de l’intelligence artificielle semble déjà instruit : l’IA est suspectée de servir exclusivement les intérêts mercantiles de certaines entreprises à qui elle permettrait de percer les profils, comportements, besoins ou risques des consommateurs et donc de mieux orienter leurs offres, excluant le cas échéant une frange de la population, jugée commercialement moins intéressante, de services ou produits aussi fondamentaux qu’un crédit ou une assurance. L’IA est ainsi vue comme inexorablement biaisée et opaque. On exige donc, comme condition non négociable à l’acceptabilité de la technologie IA, la plus totale transparence [2]. La question du caractère fondamental du droit à l’explicabilité des algorithmes est même posée [3]. À certains égards, « nous montrons plus d’exigence en termes de transparence dans nos rapports avec les machines que dans nos rapports avec les humains » .." Lire la suite