Enregistrez-vous sur www.info-utiles.fr    Connexion
    
Menu principal
Navigation dans les sujets
Arlo

Insolite : CESE : Pas de personnalité juridique pour les robots en IA
Posté par JPilo le 20/6/2017 13:30:00 Articles du même auteur

Depuis maintenant plusieurs années, le secteur de la technologie robotique a été particulièrement marqué par le développement de l’intelligence artificielle.


La société des machines dans laquelle nous vivons aujourd’hui semble être à l’aube d’une nouvelle ère, où les robots ne seraient non plus utilisés à des fins purement techniques, mais seraient dotés d’une véritable intelligence et autonomie, leur permettant de remplacer l’homme dans l’accomplissement de certaines tâches.

Plusieurs applications de l’intelligence artificielle ont déjà été pensées, notamment dans les domaines de la production et le commerce mais également dans le transport, les soins médicaux, l’éducation et l’agriculture, avec pour objectif l’amélioration de la vie des peuples et la croissance économique.

Si ces nouvelles avancées technologiques sont le symbole du progrès et de l’avenir, elles apportent également un lot important de risques et de problématiques auxquels il est impératif d’apporter un encadrement et une protection juridique adaptés. 

En effet, le développement de l’intelligence artificielle soulève nécessairement des questions, en matière d’éthique, de sécurité, mais aussi de respect, de protection et de garantie de nos valeurs, et de nos droits et libertés fondamentaux.

Dans une proposition de résolution contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103 (INL), le Parlement européen s’est prononcé en faveur de la reconnaissance d’une personnalité juridique spéciale pour les robots, pour « qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis y compris celui de réparer tout dommage causé à un tiers ».

En revanche, dans un avis publié le 31 mai 2017, le Conseil économique social et européen (CESE) s’y est opposé, préférant plutôt une approche « human in command », de l’intelligence artificielle, dans laquelle « les machines restent des machines que les hommes ne cessent jamais de contrôler » comme l’a déclaré la rapporteur Catelijne Muller, ce pour des raisons compréhensibles de développement responsable, sûr et utile de l’intelligence artificielle.

Le CESE [Le Conseil économique social et européen ] avance comme principal argument pour justifier sa position, le fait que les effets correctifs préventifs du droit de la responsabilité civile seraient mis à mal, ce que le Parlement européen avait d’ailleurs déjà remarqué, en notant que « les règles habituelles ne suffiraient pas à établir la responsabilité du robot, puisqu’elles ne permettraient pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés ». 

Le CESE soutient par ailleurs que la reconnaissance de la personnalité juridique aux robots créerait des risques d’abus et moraux trop importants.

On peut soulever de nombreuses autres difficultés que poserait la reconnaissance d’une personnalité juridique pour les robots.

En effet, bien que reconnus comme sujets de droits, les robots devront nécessairement être représentés et gérés de façon ultime par un être humain. Dès lors, quel serait le mode de désignation de ce représentant ? De plus, la notion de responsable de l’éducation du robot devrait être définie de façon très précise dans l’hypothèse où le robot serait mis à la disposition d’utilisateurs tiers.

La personnalité juridique impliquera la reconnaissance de droits. Un robot peut-il bénéficier de droits patrimoniaux impliquant qu’ils puissent être rémunérés ? Doit-on reconnaître aux robots des droits fondamentaux, similaires à ceux accordés aux personnes morales, tel que la protection des biens, l’accès à la justice, la liberté d’expression, d’entreprendre, ou encore le principe d’égalité.

Enfin, et surtout, se pose la problématique fondamentale de la sécurité. Le CESE distingue la sécurité interne de la sécurité externe. La sécurité interne conduit à se poser la question de savoir si le système d’intelligence artificielle est suffisamment solide pour (continuer à) fonctionner correctement, si l’algorithme est fiable, efficace. 

La sécurité externe quant à elle se rapporte plutôt à l’utilisation du système d’intelligence artificielle au sein de la société, aussi bien dans une situation normale, qu’inconnue, critique ou imprévisible.

Autant de questions et d’incertitudes qui ont mené le CESE à se prononcer contre la reconnaissance de la personnalité juridique aux robots, et à émettre une série de propositions.

Ainsi, le CESE propose la création d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’intelligence artificielle, afin que l’exploitation des robots ne porte pas atteinte à la dignité humaine, l’intégrité personnelle, la liberté, le respect de la vie privée, la diversité culturelle et plus largement aux grands principes protecteurs de l’être humain.

Le CESE propose également la mise en place d’un système paneuropéen de normalisation pour la vérification, la validation et le contrôle des systèmes d’intelligence artificielle, avec des normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques, tel qu’il en existe dans les secteurs de l’alimentation et des appareils ménagers.

Enfin, le CESE souhaite la création d’une infrastructure d’intelligence artificielle européenne, composée de cadres d’apprentissage libres et respectueux de la vie privée, d’environnements d’essai en situation réelle et de séries de données de haute qualité pour que le développement et la formation des systèmes d’intelligence artificielle se fassent dans un cadre sûr et adapté.

Bien qu’un robot doté d’intelligence artificielle puisse prendre des décisions et agir de manière indépendante et autonome, il n’en demeure pas moins que cela résulte d’une programmation développée par l’homme. 

Dès lors, le robot n’existe pas par lui-même. A cela s’ajoute les risques qu’il représente pour l’être humain et la société en général, justifiant la position de la CESE concernant la reconnaissance d’une personnalité juridique aux robots, aussi spécifique soit-elle.

Antoine Chéron, avocat associé

Note: 0.00 (0 votes) - Noter cet article -




Autres articles
18/3/2024 15:00:00 - Sécuriser le cloud hybride : mission impossible ?
18/3/2024 14:00:00 - Attaques par déni de service distribué
18/3/2024 13:00:00 - Cinq applications pratiques de l'IA pour l'automatisation
15/3/2024 15:00:00 - Saviorless annonce sa date de sortie.
15/3/2024 14:00:00 - La France fait face à une nouvelle cyberattaque
15/3/2024 13:00:00 - L'IA; menace pour l’élection présidentielle de 2024
13/3/2024 15:00:00 - Ark of Charon sortira en 2024 sur Steam
13/3/2024 14:00:00 - Unicorn Overlord sur consoles
13/3/2024 13:00:00 - Quand les IA prendront le contrôle de nos vies
11/3/2024 15:00:00 - Le monde du Cloud et des datacenters aux enfants

Les commentaires appartiennent à leurs auteurs. Nous ne sommes pas responsables de leur contenu.



Facebook
facebook
Bitdefender



Bitdefender

Pocketalk
Arlo





© 2008 info-utiles.fr - Tous droits réservés  |  hébergé par www.iloclic.com   - règles de confidentialité