Les défis du droit à l'égard de l'intelligence artificielle

Notion introduite dans les années 1950, l'intelligence artificielle (IA) vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique, lorsqu’il s’agit de prendre des décisions. 

Son point fort est définitivement sa rapidité et sa fiabilité à prendre des décisions mieux que l'humain dans de nombreuses situations. 

L'humain aura-t-il encore sa place dans quelques-années?  À qui appartiendra cette IA?  Son usage pourra-t-il être limité dans un monde de libertés?

Cette vidéo soulève l'importance du droit autour de l'usage de l'IA dans l'Union Européenne. 

Un cadre juridique devra accompagner les développements de l'IA en mettant les droits fondamentaux des personnes au coeur de son usage.  Ce cadre juridique devra à son tour être accompagné d'une démarche éthique (solidarité et justice).

Dans le cyberespace de l'Union européenne, l'IA devra :

  • être sous un contrôle humain adéquat;
  • permettre de mettre à jour des contenus et déceler la désinformation;
  • être attentive à l'intégrité des contenus (block chain);
  • permettre le traitement de l'information de manière fiable (algorithmes cognitifs).

Autant dans les modes de pensée que les réflexions autour des objectifs et des finalités, l'IA révolutionne les 4 principales libertés de l'Union Européenne : libre circulation des marchandises, des personnes, des capitaux et des services, ce qui oblige à un encadrement juridique qui remet l'humain au coeur de ces libertés notamment avec le souci de ne pas laisser des générations entières "au bord de la route" complètement dépassées par ces nouvelles technologies.

Un défi de taille semble poindre autour des choix technologiques puisqu'il faudra avoir recours à des experts capables de définir si le choix respecte les droits fondamentaux de la personne.  Ici c'est l'aspect des biais cognitifs qui est difficile à cerner pour le droit ce qui oblige la rédaction de règles juridiques et éthiques robustes afin d'assurer la sécurité du cyberespace.

En matière d'IA, l'Union Européenne a ainsi posé 3 lignes directrices pour encadrer juridiquement  l'IA :

  • Un cadre licite;
  • Des règles éthiques;
  • Un dispositif juridique robuste.

Les travaux de l'Université d'Harvard reprennent à peu près ces mêmes directives en tuant la singularité technologiques pour mettre l'humain au coeur de toutes les décisions essentielles dans l'IA.

La tendance de la communauté scientifique, valorisant la singularité technologique et souhaitant donner aux robots une personnalité juridique propre, s'est afffaiblie autour d'un large consensus pour mettre l'humain responsable des décisions des machines.

Il y a eu une progression dans le rapport à l'évolution technologique puisqu'il y a 5 ans, on avait besoin d'une protection de la vie privée, on a ensuite eu besoin de sécurité, puis d'interopérabilité et on a besoin aujourd'hui de confiance technologique, autant de défis pour les législateurs.

Cet article américain d'opinion de Bruce Schneier le confirme :

Similarly, we need rules about how our data can be combined with other data, and then bought and sold without our knowledge or consent. The data broker industry is almost entirely unregulated; there's only one law — passed in Vermont in 2018 — that requires data brokers to register and explain in broad terms what kind of data they collect. The large internet surveillance companies like Facebook and Google collect dossiers on us more detailed than those of any police state of the previous century. Reasonable laws would prevent the worst of their abuses.

Le magazine The Atlantic enfonce le clou du défi avec cet article "Un monde sans vie privée serait une mascarade".  Patrick Tanguay (Répères - Atelier 10) le résume.

Il y a 20 ans, Scott McNealy, alors PDG de Sun Microsystems, déclarait: «Vous n’avez de toute façon aucune vie privée. Passez à autre chose.»

À partir de cette «vision» que plusieurs semblent aujourd’hui partager, Jonathan Zittrain imagine deux mondes possibles: 1) un monde de pseudos (Pseudoworld) qui se réalisera si les cadres juridiques entourant la protection de la vie privée ne sont pas actualisés et; 2) un monde de transcriptions (Transcriptworld) au sein duquel les cadres juridiques auront été renforcés au point de documenter la vie de tous, qui n’aura alors plus rien de privée. Un monde où nous serions en apparence plus à l’aise de partager nos données sur l’internet, mais où chacun de nos gestes serait en réalité surveillé. L’analyse de ces deux mondes montre clairement la nécessité de trouver une sorte de point médian, et vite.

Privacy defenders have perhaps inadvertently encouraged the same sense of inevitability by speaking in generic apocalyptic terms. But this fight is not simply about keeping particular facts about people out of the public eye. Privacy now is as much about freedom, the freedom to maintain a boundary between ourselves and those who want to shape us.

---

Jerry Espada 2 juin 2021 à 16:13

"L’Europe propose des règles pour l’intelligence artificielle". https://theconversation.com/leurope-propose-des-regles-pour-lintelligenc...

Le texte adopté par la Commission contient une méthodologie qui permet de définir quand un système d’IA est à haut risque pour la santé et la sécurité des personnes ou pour les droits fondamentaux des citoyens.

L’approche par les risques a été identifiée comme la plus pertinente lors de la consultation publique, plutôt que de donner un blanc-seing à tous les systèmes d’IA ou de légiférer de manière ad hoc.

Ainsi, certaines pratiques reposant sur l’IA générant un risque inacceptable sont interdites :
- l’utilisation de techniques subliminales (basées sur un stimulus incorporé dans un objet et conçu pour être perçu au-dessous du niveau de conscience),
- l’exploitation de groupes ou personnes vulnérables en raison de leur âge, handicap physique ou mental,
- le score de confiance ou d’évaluation sociale des personnes (comme celui utilisé en Chine).

Certaines utilisations de systèmes d’identification biométrique en temps réel à distance dans l’espace public à des fins d’application de la loi s’accompagneront de restrictions spécifiques et de mesures de sauvegardes.

Huit catégories de systèmes d’IA sont d’ores et déjà considérées comme étant à haut risque. Parmi elles :
- identification biométrique et catégorisation des personnes;
- information et formation professionnelle;
- emploi, gestion des salariés et accès au travail indépendant;
- accès et jouissance de services privés essentiels et de services publics;
- immigration, asile et gestion des contrôles à la frontière.

La proposition de règlement est basée sur les valeurs et les droits fondamentaux et affirme que l’IA devrait être une force pour la société avec comme but ultime l’accroissement du bien-être humain.

---

Judith Oliver 9 mars 2020 à 12:37

Intéressant!

---

Émilien Gruet 9 mars 2020 à 10:46

Merci Jerry!

---

Miriam Fahmy 9 mars 2020 à 10:35

Les dimensions juridiques de l'éthique en IA.

 

Commentaires

Pour consulter les commentaires ou pour commenter cette publication, vous devez vous connecter sur Passerelles ou vous inscrire.