Enregistrez-vous sur www.info-utiles.fr    Connexion
    
Menu principal
Navigation dans les sujets
Arlo

Internet : Protection des données et éthique : l’importance de l’IA Act européen
Posté par JPilo le 24/5/2023 14:00:00 Articles du même auteur



En avril 2022, la Commission Européenne (CE) a voté la décision de mettre en place le premier cadre juridique mondial pour réguler la commercialisation et l’usage de l’Intelligence Artificielle (IA).

Après des mois de discussions pour les législateurs, la proposition de loi devrait être votée au Parlement Européen prochainement. Avec la présence grandissante de l’IA dans tous les aspects de la vie quotidienne, et celle des applications telles que ChatGPT, qui a connu une croissance spectaculaire, les risques et dérives qui s’y rapportent sont plus que jamais au cœur des débats, et ce projet de loi devenu nécessaire.

Pour Neil Thacker, RSSI EMEA chez Netskope, règlementer l’usage de l’Intelligence Artificielle est essentiel pour protéger les données, mais cela doit se faire avec des préceptes légaux précis et transparents, qui évoluent avec les technologies, afin d’éviter les vides juridiques, tout en respectant des principes éthiques.

« Avec l’IA Act, les législateurs tendent à mesurer l'impact potentiel de l'intelligence artificielle sur la société, plus particulièrement sur les droits des citoyens, et le cadre législatif inhérent pour les protéger.

La loi permettra aux organismes de surveillance d'exiger le retrait ou la modification d'un modèle d'IA s'il présente un risque élevé. Le schéma est donc similaire à celui du RGPD.

Si ce dernier se concentre sur les données personnelles, leur utilisation et leur traitement responsables, l’IA Act le complètera en garantissant le respect des exigences et de la législation existante en matière de droits fondamentaux par les nouvelles technologies génératives.

De ce fait, les organisations devront se conformer aux deux, et pourront potentiellement subir des répercussions conjointes : par exemple, une mauvaise hygiène en matière de protection des données entraînerait une négligence aussi en termes d’IA, si elle utilisait des données auxquelles elle ne devrait pas avoir accès.

La nouvelle législation devrait ainsi garantir l'établissement, la mise en œuvre, la documentation et le maintien de systèmes, de processus et de la gestion des risques. Les entreprises devront déterminer si leurs systèmes d'IA sont catégorisés à risque élevé, et pourront faire l'objet d'une évaluation régulière.

Certains systèmes, notamment s’ils exploitent les personnes vulnérables en raison de leur situation sociale ou économique, ou mettent en place des "scores sociaux", comme représenté dans un épisode de la série TV Black Mirror, sont d’ores et déjà interdits par la proposition discutée en ce moment même au Parlement Européen.

De plus, ce règlement devrait également obliger les organisations à communiquer quand et comment l'IA a été intégrée dans la prise de décisions, et leur influence sur ces dernières.

L'une des questions cruciales de ce cadre législatif repose sur la définition de ce qui se rapporte à la négligence ou d’un acte commis intentionnellement en cas d’entrave à la loi, susceptible alors d’engager la responsabilité pour faute.

L’enjeu sera en effet de définir s’il est question d’une erreur liée à une négligence involontaire en matière de protection des données ou encore si par exemple elle est le fruit d’une pratique discriminatoire basée sur des informations dont la partialité est connue. Ainsi, les leçons tirées du RGPD - y compris en matière d’hygiène des données, de normes et de processus - seront extrêmement utiles pour se conformer à l’IA Act.

Seulement, ce dernier réglemente aussi la méthodologie relative à la prise de décision, et les données sur lesquelles elles sont basées, ce qui va donc bien plus loin que la seule gestion de ces données.

Au-delà de la question de l’éthique, l'exfiltration des données n'est de fait plus la seule cybermenace. L’IA peut en effet devenir une porte d’entrée pour les cybercriminels qui chercheraient à voler les données utilisées par cette technologie. Or, si la compromission de l'intégrité des informations incite l'intelligence artificielle à prendre une décision différente et contraire à l’éthique, les hackers pourraient se servir de ce risque pour nuire à l'organisation ciblée.

Une prise de décision éclairée est cruciale pour mettre en place une intelligence artificielle éthique et qui répond aux exigences de l’IA act. Connaître et documenter l’utilisation de la technologie est un moyen simple de comprendre et d’anticiper les failles pour les données critiques de l’entreprise, tout en garantissant une utilisation responsable de l’IA.

La transparence suscite en effet la confiance, c’est pourquoi une visibilité complète sur les technologies permet leur protection. Toutefois, une IA en open source semble difficile à contraindre, par sa nature libre, car il parait compliqué d’imposer une morale sans autorité supérieure. »

Note: 0.00 (0 votes) - Noter cet article -




Autres articles
18/3/2024 15:00:00 - Sécuriser le cloud hybride : mission impossible ?
18/3/2024 14:00:00 - Attaques par déni de service distribué
18/3/2024 13:00:00 - Cinq applications pratiques de l'IA pour l'automatisation
15/3/2024 15:00:00 - Saviorless annonce sa date de sortie.
15/3/2024 14:00:00 - La France fait face à une nouvelle cyberattaque
15/3/2024 13:00:00 - L'IA; menace pour l’élection présidentielle de 2024
13/3/2024 15:00:00 - Ark of Charon sortira en 2024 sur Steam
13/3/2024 14:00:00 - Unicorn Overlord sur consoles
13/3/2024 13:00:00 - Quand les IA prendront le contrôle de nos vies
11/3/2024 15:00:00 - Le monde du Cloud et des datacenters aux enfants

Les commentaires appartiennent à leurs auteurs. Nous ne sommes pas responsables de leur contenu.



Facebook
facebook
Bitdefender



Bitdefender

Pocketalk
Arlo





© 2008 info-utiles.fr - Tous droits réservés  |  hébergé par www.iloclic.com   - règles de confidentialité