Qui va aller en prison ? - La vision de l'intelligence artificielle d'un point de vue juridique

 

Aujourd'hui, il est difficile d'imaginer notre vie sans recourir à l'intelligence artificielle. Les technologies de l'intelligence artificielle se développent très intensément. Ainsi, dans le monde entier, il existe aujourd'hui un problème d'absence presque totale de réglementation juridique normative et de réglementation technique normative des bases, des conditions et des caractéristiques du développement, du démarrage du travail, du fonctionnement et de l'activité, de l'intégration dans d'autres systèmes et du contrôle de l'application des technologies d'intelligence artificielle.

Risques juridiques sectoriels de l'application de l'IA

1) Phase de formation à l'IA - risques juridiques découlant du processus de collecte, de stockage et d'analyse des données par les systèmes d'IA.

2) Phase d'exploitation de l'IA - risques juridiques liés au processus d'exploitation de l'IA.

À l'heure actuelle, le programme est d'abord formé de manière itérative sur un ensemble de données. Plus tard, à l'issue de la formation, le développeur du programme lance le programme en opération.  Il peut placer le programme chez Google Play ou l'App Store d’Apple pour que les utilisateurs puissent le télécharger.

Considérons les risques juridiques qui surgissent pendant la phase de formation de l'algorithme d'IA sur l'exemple de la protection des données personnelles et de l'interdiction de la discrimination. Le problème dans le domaine de la protection des données personnelles au stade de la formation de l'algorithme d'IA est la déanonymisation. L'algorithme d'IA est enseigné sur de grands ensembles de données, qui peuvent inclure des informations dépersonnalisées sur les personnes, comme le sexe, l'âge, les maladies etc. Le problème est que l'algorithme d'IA peut identifier une personne spécifique lorsque deux bases de données déanonymisées sont analysées ensemble. Un problème émergent du développement des méthodes d'apprentissage automatique est la capacité des machines à trouver des moyens de déanonymiser les données. Par exemple, l'enseignement de l'algorithme d'IA sur deux bases de données contenant des données anonymes sur les patients peut permettre à l'algorithme d'IA d'identifier un patient spécifique. Ainsi, le développeur peut potentiellement violer la législation sur les données personnelles.  Un autre risque qui se présente au stade de la formation à l'IA est la discrimination. L'algorithme d'IA dans le processus de formation a la possibilité d'apprendre à discriminer sur la base du sexe, de la race, de la nationalité, de la religion etc. Ce problème a des exemples dans la pratique : Au tribunal, les juges ont utilisé un programme d'IA pour évaluer la probabilité de récurrence. Ce programme a discriminé les personnes ayant la peau noire, estimant la probabilité de récidive de ces personnes deux fois plus élevée que celle des prisonniers ayant une autre couleur de peau.

Au stade de l'exploitation, les risques juridiques de l'IA se manifestent sous d'autres aspects. Ces risques peuvent être traités par des institutions juridiques telles que la responsabilité en matière de délits et d'ententes. Il n'est pas rare qu'un système d'IA cause des dommages à la vie ou à la santé pendant son fonctionnement, mais en 2018, un drone Uber a frappé un piéton qui traversait la rue à un passage pour piétons. Qui est responsable des dommages causés à la vie ou à la santé lors de l'utilisation de systèmes d'IA ? Un développeur de programmes d'IA ou un fabricant de produits d'IA peut-il être tenu responsable ? Dans quelles conditions la responsabilité peut-elle être attribuée à un utilisateur du système d'IA ? Est-il nécessaire d'établir des exceptions lorsqu'un promoteur est responsable d'un préjudice indépendamment de sa culpabilité ? Cette imputation objective et la responsabilité inconditionnelle d'un développeur d'IA en cas de défaillance d'un logiciel neutraliseront-elles les mesures d'investissement incitatives prises pour promouvoir le développement dans ce domaine ? La question se pose également de savoir s'il est nécessaire de légiférer sur l'immunité de l'utilisateur du programme lorsque celui-ci n'est pas responsable du préjudice causé par le recours au programme d'IA. Ainsi, la question clé est de savoir si un système juridique moderne est adéquat pour répondre aux infractions découlant du fonctionnement des systèmes d'IA. À l'heure actuelle, il n'existe tout simplement pas de réponse universelle aux questions posées. Les programmes sont souvent utilisés pour le truquage des offres. Les robots de calcul de prix, qui surveillent le prix des marchandises des concurrents et fixent un prix similaire pour leurs propres marchandises, sont également de plus en plus courants.

En conclusion, le développement de l'apprentissage automatique donne la priorité à la recherche de réponses à ces questions. Il est difficile de prévoir à l'avance si l'utilisation de l'IA conduira à une collusion ou contribuera à la conduite efficace des affaires dans le respect de la loi.

1
2
3
4
1
2
3
4