August 27, 2022
Vous allez tout comprendre : l'intelligence artificielle éthique (série spéciale)

Reconnaissance faciale, discriminatons, désinformation... Les risques de dérapage de l'intelligence artificielle sont nombreux. Comment les identifier et les limiter ? Comment créer une intelligence artificielle "éthique" ? Tout l'été, Monde Numérique décrypte des technologies qui nous entourent. Bonne écoute !


En partenariat avec

Les exemples de dérapages en matière d'intelligence artificielle se multiplient. Une IA mal entraînée peut produire des résultats inattendus aux conséquences potentiellement graves. Comment limiter les biais qui perturbent les algorithmes d'IA ? Comment rendre les IA plus transparentes ? Sur quelles valeurs baser leurs fonctionnements ? Un sujet de première importance à l'heure où les algorithmes d'intelligence artificielle sont de plus en plus nombreux autour de nous.

    Avec : 

🔵 Roxane Adle-Aiguier , Directrice de domaine de recherche "Sustainable Digital Society" chez Orange Innovation et responsable du secrétariat du Conseil Éthique de la data et de l'IA du groupe Orange .

🔵 Aurélie Jean , scientifique et entrepreneuse, auteur de "Les algorithmes font-ils la loi ?" (redif).

🔵 Arno Pons , du Think Tank Digital New Deal (redif).


Cet épisode vous a plu ? Découvrez la série spéciale Vous allez tout comprendre consacrée aux technologies du quotidien.

Transcript

Introduction

 

De Terminator à Matrix, de 2001 L'Odyssée de l'Espace à I-Robot. La fiction est pleine d'intelligences artificielles qui déraillent, mais aujourd'hui l'IA ce n'est plus de la fiction. L'IA est partout : dans les entreprises pour les recrutements ou les relations avec les clients, dans des commissariats ou des tribunaux pour aider la police et la justice et même dans certains pays dans la rue pour la reconnaissance faciale. Autant de secteurs sensibles où il n'y a pas de droit à l'erreur. Alors, comment encadrer l'IA ? Comment éviter les dérapages ? Comment concilier IA et éthique ?

C'est ce que nous allons voir dans cet épisode spécial du Monde Numérique.

 Cet épisode vous est proposé en partenariat avec Orange, qui a Monde Numérique pour vous aider à mieux comprendre la technologie choisie.

L'IA qu'est-ce que c'est ?

 

En mars 2016, Microsoft lance sur les réseaux sociaux un chabot baptisé Tay capable de dialoguer avec les utilisateurs, mais en quelques heures, Tay se met à dérailler complètement, à débiter des insanités, à tenir des propos racistes, à glorifier Hitler, etc. Au point que Microsoft est obligé de la débrancher. Que s'est-il passé ? Et bien Tay, qui savait apprendre à partir de ses échanges avec les internautes s'est fait littéralement intoxiquer par des milliers de farceurs ou de personnes mal intentionnées, comme un bébé auquel on aurait appris que des mauvaises choses. Un autre exemple :

En 2015, un algorithme d'intelligence artificielle de Google est chargé de reconnaître et de classer les images sur Internet. Avions, vélos, chiens, chats. Confronté à des personnes noires mal photographiées, il les identifie comme des gorilles. Ces deux exemples, déjà un peu anciens mais devenus emblématiques, montrent et rappellent que parfois l'IA peut déraper.

Pour en parler, j'ai invité Roxane Adle-Aiguier, Directrice de domaine de recherche « Sustainable Digital Society » chez Orange Innovation et responsable du secrétariat du Conseil Éthique de la data et de l'IA du groupe Orange. Tout d'abord, si on revenait un petit peu au début. L'IA qu'est-ce que c'est, en fait ?

[Interview Roxane Adle-Aiguier]

Voilà pour une définition générale de l'intelligence artificielle. Quand on creuse un peu, on se rend compte que l'IA ce sont surtout des techniques algorithmiques de traitement des données. Et ça ne date pas d'hier.

[Interview Roxane Adle-Aiguier]

Quand on creuse encore, on découvre qu'il y a ce que l'on appelle l'IA faible et l'IA forte.

[Interview Roxane Adle-Aiguier]

Enfin, comme l'IA, ce sont avant tout des logiciels, il en existe plusieurs sortes. Et il y a notamment cette notion qui est devenue aujourd'hui assez populaire, le machine learning. De quoi s'agit-il exactement ?

[Interview Roxane Adle-Aiguier]

Voilà pour les définitions. On y voit plus clair. Maintenant, une question. Pourquoi at-on parfois peur de l'IA ?

[Interview Roxane Adle-Aiguier]

Les dérives de l'IA

 

Donc, on ne pourra pas dire qu'on n'était pas prévenus. Si l'Intelligence artificielle prend le pouvoir un jour, c'est qu'on l'aura bien cherché. Au fond, on comprend qu'il y a un problème, parce que, comme je l'explique dans les exemples de Microsoft ou de Google, l'IA peut se déraper. Roxane Adlé-Aiguier

[Interview Roxane Adle-Aiguier]

Alors que se passe-t-il ? Pourquoi un algorithme conçu avec des intentions louables – par exemple pour tenter d'introduire la neutralité de jugement - peut-il produire des résultats aussi éloignés de ce que l'on attend ? Comment faire pour éviter que l'IA dérape ?

[Interview Roxane Adle-Aiguier]

Parfois, ça fait quand même un peu peur. Les accidents d'IA accréditent l'idée que l'IA n'est parfois même pas très fiable et peut nous échapper. J'avais interrogé à ce sujet en novembre dernier une autre spécialiste, la scientifique et entrepreneure Aurélie Jean , auteur notamment du livre "Les algorithmes font-ils la loi ?" (Éd. de l'Observatoire). C'était à l'époque où l'on s'inquiétait des dérives de l'algorithme de recommandation de Facebook et où certains disaient que l'algorithme avait échappé à ses concepteurs.

[Entretien Aurélie Jean]

Comment recadrer l'IA ?

 

La transparence des algorithmes. C'est l'une des grandes questions qui se posent justement lorsque l'on parle d'éthique de l'IA. Mais rendre les algorithmes transparents, ce n'est pas si simple. Roxane Adle-Aiguier du conseil Ethique d'Orange.

[Interview Roxane Adle-Aiguier]

L'intelligence artificielle doit donc rester sous le contrôle des humains. La transparence des algorithmes ne peut pas régler tous les problèmes. ça peut même poser des problèmes économiques, selon Aurélie Jean

[Entretien Aurélie Jean]

Des algorithmes pas assez transparents. Des algorithmes qui dérapent.

Certaines IA sont-elles plus dangereuses que d'autres ? Avec des risques accrus de biais et de dérives. Là encore, ce n'est pas si simple.

[Entretien Aurélie Jean]

Mais ça pose quand même une autre question, ça. Et si certaines intelligences artificielles étaient des éléments non éthiques. Des IA dont il vaudrait mieux se passer complètement, parce qu'on sait qu'elles ne seront jamais parfaites ou parce que les risques de dérives sont trop importants. Certains l'ont fait.

[Interview Roxane Adle-Aiguier]

Heureusement, il existe aussi des intelligences artificielles que l'on peut remettre dans le droit le chemin. Cela permet de bonifier les outils. Exemple avec un logiciel nommé Data Just expérimenté en France en 2020 pour fixer les indemnités des victimes.

[Entretien Aurélie Jean]

Malheureusement, le programme data vient d'être arrêté début 2022. Officiellement parce que son déploiement s'avère trop compliqué. Alors, cette question des IA plus ou moins bien coachées par les humains, cela pose une question intéressante. Sur quels critères exactement fixer ce qui est bien et ce qui est mal pour une intelligence artificielle ? Notamment dans les entreprises. Cela oblige à s'interroger sur les valeurs des entreprises.

[Interview Roxane Adle-Aiguier]

Du coup, si on parle de valeurs, qu'est-ce qu'il faut penser de l'IA appliquée à l'armement ? On sait que les armes automatiques, pilotées par l'intelligence artificielle, ce n'est plus de la science-fiction. Peut-on imaginer des armes intelligentes éthiques ?

[Interview Roxane Adle-Aiguier]

Au fond, encore une question est-ce que tout cela ne montre pas que l'IA a de vraies limites ? Est-ce qu'on peut confier n'importe quel travail à l'IA ?

[Interview Roxane Adle-Aiguier]

Régulation

 

Alors que faire ? Pour tenter de tirer le meilleur de l'IA en évitant le pire, l'Europe prépare une réglementation pour les algorithmes d'intelligence artificielle. Le but : développer une IA dite « des Lumières », une IA de confiance. C'est ce que mettait en évidence récemment un rapport co-écrit par Arno Pons, du Think Tank Digital New Deal.

[Interview Arno Pons]

Mais régler comporte toujours des risques. Règlementer à outrance, et donc interdire, pourrait conduire à ce que l'on soit privé dans le futur d'outils réellement utiles parce que leur développement pourrait comporter des risques. Comment régler sans brider la recherche et l'innovation ?

[Interview Roxane Adle-Aiguier]

Après avoir créé l'IA, l'homme parviendra-t-il à faire rentrer le démon dans la boite et à le mettre réellement à son service ? Rendez-vous après 2025.

Merci d'avoir écouté cet épisode spécial du Monde Numérique acheté à l'intelligence artificielle éthique, en partenariat avec Orange. Réalisation signée Thomas Lenglain. Abonnez-vous à ce podcast. Faites-le connaître à vos amis. Laissez des petites étoiles et des commentaires sur les plateformes de podcast. Et retrouvez tous les épisodes sur le site MondeNumérique.info.

 

Aurélie Jean Profile Photo

Aurélie Jean

Docteur en sciences | Spécialiste des algorithmes

Docteur en science (ex MIT, Bloomberg).
Spécialiste des algorithmes et de la modélisation numérique.

Livres :
• « Les algorithmes font-ils la loi ? » (L’Observatoire, 2021)
• « L'apprentissage fait la force » (L’Observatoire, 2020)
• « De l'autre côté de la machine : voyage d'une scientifique au pays des algorithmes  » (L'Observatoire, 2019)

Arno Pons Profile Photo

Arno Pons

Fondateur du think-tank Digital New Deal

Roxane Adle-Aiguier Profile Photo

Roxane Adle-Aiguier

Directrice de domaine de recherche chez Orange Innovation

Directrice de domaine de recherche "Sustainable Digital Society" chez Orange Innovation
Responsable du secrétariat du Conseil Éthique de la data et de l’IA du groupe Orange