Enregistrez-vous sur www.info-utiles.fr    Connexion
    
Menu principal
Navigation dans les sujets
Arlo

Info : Des données sensibles partagées avec ChatGPT en entreprise.
Posté par JerryG le 26/7/2023 14:00:00 Articles du même auteur

Netskope, leader sur le marché du SASE (Secure Access Service Edge), dévoile les conclusions d’une nouvelle étude selon laquelle pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT. Le code source représente la part la plus importante des données sensibles compromises.



Cette information figure parmi les conclusions du rapport Cloud & Threat Report: AI Apps in the Enterprise, première analyse complète du Threat Labs de Netskope consacrée à l’utilisation de l’intelligence artificielle en entreprise et aux risques pour la sécurité.

Sur la base des données générées par des millions d’employés d’organisations du monde entier, Netskope a constaté que l’utilisation des applications d’IA générative augmente rapidement. Elle a en effet augmenté de 22,5 % au cours des deux derniers mois, une accélération qui entraine un risque croissant que des utilisateurs compromettent des données sensibles.

L’usage croissant des applications d’IA

Netskope a constaté que les entreprises d’au moins 10 000 collaborateurs emploient en moyenne cinq IA applicatives par jour, ChatGPT comptant à elle seule plus de huit fois plus d’utilisateurs quotidiens actifs que toute autre application. Au rythme actuel de croissance, ce nombre d’utilisateurs devrait doubler au cours des sept prochains mois.

Au cours des deux derniers mois, Google Bard est l’application d’IA qui a enregistré la croissance la plus soutenue, avec une hausse hebdomadaire du nombre d’utilisateurs de 7,1 %, contre 1,6 % pour ChatGPT. 

A ce rythme, Google ne devrait pas rattraper ChatGPT avant plus d’un an, sachant que le monde des applications d’IA générative va probablement évoluer de façon significative au cours de cette période, un grand nombre de plateformes étant en cours de développement.

Les utilisateurs alimentent ChatGPT en données sensibles

Au cours de son étude, Netskope a constaté que les codes source sont publiés dans ChatGPT, plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. 

Parmi les autres données confidentielles partagées sur ChatGPT figurent des données réglementées, notamment financières, ou médicales, et des informations personnellement identifiables (IPI).

C’est aussi le cas de blocs de propriété intellectuelle, à l’exclusion du code source et, ce qui est encore plus préoccupant, des mots de passe et des clés généralement intégrés dans le code source.

« Il est inévitable que certains utilisateurs téléversent du code source propriétaire ou du texte contenant des données sensibles vers des outils d’IA qui promettent de les aider à programmer ou à rédiger des contenus, concède Ray Canzanese, Threat Research Director, Netskope Threat Labs.

Il est par conséquent impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques. 

Les contrôles les plus efficaces combinent la prévention des pertes de données (DLP) et un encadrement interactif des utilisateurs. »

Bloquer ou permettre l’accès à ChatGPT

Le Threat Labs de Netskope suit actuellement les proxies de ChatGPT ainsi que plus d’un millier d’adresses URL et de domaines malveillants associés à des cybercriminels opportunistes qui cherchent à exploiter l’engouement suscité par l’IA au travers de campagnes de phishing et de distribution de malware, ou de la création de spam et de sites internet frauduleux.

Le blocage de l’accès aux applications d’IA et aux contenus liés à l’intelligence artificielle est une solution à court terme pour minimiser les risques au détriment des avantages potentiels qu’offrent ces nouvelles applications pour l’innovation des entreprises et la productivité de leurs employés.

Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé, près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.

« En tant que leaders sur le marché de la sécurité, nous ne pouvons tout simplement pas décider d’interdire des applications sans influencer sur l’expérience et la productivité des utilisateurs, ajoute James Robinson, Deputy Chief Information Security Officer.

Les entreprises doivent se concentrer sur la sensibilisation de leurs collaborateurs et leurs politiques de données afin de répondre aux besoins des employés qui utilisent ces technologies de manière productive. En conjuguant les bons outils et le bon état d’esprit, il est tout à fait possible de profiter des atouts de l’intelligence artificielle générative en toute sécurité. »

Pour pouvoir adopter les applications d’IA dans des conditions de sécurité maximales, les entreprises doivent centrer leur approche sur l’identification des applications autorisées et la mise en place de contrôles permettant aux utilisateurs d’en exploiter pleinement le potentiel, tout en se protégeant contre les risques.

Une telle approche inclut le filtrage de domaines, le filtrage des adresses URL et l’inspection des contenus pour neutraliser les attaques. D’autres mesures permettent de défendre les données et d’utiliser les outils d’IA en toute sécurité :

• Le blocage de l’accès aux applications qui ne répondent à aucun objectif professionnel légitime ou présentent un risque disproportionné pour l’entreprise ;
• L’encadrement des utilisateurs et le rappel des règles de l’entreprise relatives à l’utilisation des applications d’IA ;

• L’utilisation de technologies de prévention des pertes de données (DLP) de nouvelle génération pour détecter les publications contenant des informations potentiellement sensibles.

Plus d'info.

Note: 0.00 (0 votes) - Noter cet article -




Autres articles
18/3/2024 15:00:00 - Sécuriser le cloud hybride : mission impossible ?
18/3/2024 14:00:00 - Attaques par déni de service distribué
18/3/2024 13:00:00 - Cinq applications pratiques de l'IA pour l'automatisation
15/3/2024 15:00:00 - Saviorless annonce sa date de sortie.
15/3/2024 14:00:00 - La France fait face à une nouvelle cyberattaque
15/3/2024 13:00:00 - L'IA; menace pour l’élection présidentielle de 2024
13/3/2024 15:00:00 - Ark of Charon sortira en 2024 sur Steam
13/3/2024 14:00:00 - Unicorn Overlord sur consoles
13/3/2024 13:00:00 - Quand les IA prendront le contrôle de nos vies
11/3/2024 15:00:00 - Le monde du Cloud et des datacenters aux enfants

Les commentaires appartiennent à leurs auteurs. Nous ne sommes pas responsables de leur contenu.



Facebook
facebook
Bitdefender



Bitdefender

Pocketalk
Arlo





© 2008 info-utiles.fr - Tous droits réservés  |  hébergé par www.iloclic.com   - règles de confidentialité