Geneviève Fieux-Castagnet, Déontologue, et Gérald Santucci, Penseur et Écrivain
26 septembre 2019
Il ne fait aucun doute que l’intelligence artificielle connaît depuis plus d’une décennie des avancées spectaculaires qui vont encore s’amplifier. La santé, l’automatisation, la mobilité et le transport, les analyses prédictives, la justice et la police, la sécurité dans les villes, l’art, les jeux, et bien d’autres domaines encore, sont peu à peu gagnés par l’attractivité de cette discipline et de ses technologies qui promettent plus de performance, moins de coûts.
Chacun sent bien que le recours à l’IA pose de nombreuses questions éthiques que certains États et des entreprises de plus en plus nombreuses sont en train de prendre en considération. C’est pourquoi de nombreux acteurs publics et privés conçoivent des lignes directrices et des chartes éthiques pour le déploiement de l’intelligence artificielle. La tâche n’est pas aisée puisqu’il faut arbitrer entre innovation et protection, nouveaux modèles économiques et réglementations. Actuellement, il apparaît que la Commission européenne est bien placée dans la recherche de cadres appropriés pour évaluer les impacts éthiques de l’IA. Après le rayonnement du RGPD (règlement général sur la protection des données), elle peut s’employer à légiférer sur les questions éthiques tout en poursuivant son dialogue avec les autres parties du monde afin que sa démarche devienne un jour universelle. Dans notre essai rédigé en anglais, Gérald Santucci et moi-même proposons un cadre général des grandes problématiques de l’IA et évoquons les principaux outils susceptibles de permettre de développer une IA éthique universelle, notamment par le recours à des analyses d’impact éthique.