Insolite : Epitech, peut-on éteindre l'Internet ?

Date 3/2/2011 15:00:00 | Sujet : Insolite

Il y a quelques temps, nous avions publié un article de pure spéculation sur l'arrêt de l'Internet, une annonce d'un Armaguedon numérique probable et bien voici que l'Epitech (École de l'expertise informatique) publie son Compte rendu « Peut-on éteindre Internet ? » enfin de compte sur Le Journal de la Next-Gen nous sommes des visionnaires.


Dans le cadre de sa conférence annuelle sur la sécurité informatique, Epitech, l'école de l'expertise informatique, a invité jeudi 27 janvier 2011 quatre experts pour une table ronde « Peut-on éteindre Internet ? » qui fait échos à l'actualité. L'événement, ouvert au public, a réuni aussi bien des professionnels que des étudiants de l'école.

En ouverture, Nicolas Sadirac, directeur général d'Epitech a présenté les résultats de l'étude annuelle menée par l'école "Vie privée, sécurité et Internet".

Les échanges étaient animés par Cédric Ingrand, journaliste « High-tech » à LCI, déjà hôte de la précédente édition. Ils ont permis aux trois intervenants d'exprimer leurs sentiments, leurs interrogations et les perspectives sur l'avenir d'Internet :





- Benjamin Bayart, président du fournisseur d'accès associatif FDN

- Jean-Michel Planche, fondateur de Witbe

- Tangui Morlier, président de l'APRIL

Le réseau des réseaux à l'épreuve

Techniquement, en coupant le réseau électrique à l'échelle mondiale, Internet est éteint. Cependant, Internet reste un concept : il serait théoriquement possible alors de le recréer avec d'autres supports. De plus, il est toujours possible de revenir à ses origines de la fin du XXe siècle en utilisant le réseau téléphonique commuté pour l'exploiter. Dans la pratique, on ne peut pas éteindre Internet : même le pouvoir le plus totalitaire n'y arriverait pas. Cependant, on peut le modifier ou l'abîmer... et même très facilement.

L'infrastructure même d'Internet est partagée sur toute la Terre et par toute l'humanité. Des modifications du réseau ne sont donc pas sans risques, puisqu'en modifier une partie revient à la modifier en totalité. Le géant américain YouTube en a fait les frais en 2008. Le site internet venait d'être bloqué au Pakistan. Ses fournisseurs d'accès, en modifiant leurs infrastructures, ont accidentellement prévenu, non pas uniquement leur pays mais l'ensemble de la planète de la modification.

Résultat : youtube.com était inaccessible durant deux heures, entraînant des complications à l'échelle planétaire.

Il a été souligné ensuite qu'Internet sait également se défendre seul face à ce qui menace son intégrité : ses administrateurs systèmes et réseaux veillent au grain, souvent à l'aide de moyens détournés et en dehors de leur temps de travail ! L'exemple de Wikileaks est très parlant. Bien que le site ne soit ni condamné ni même poursuivi en justice, plusieurs gouvernements ont tenté de le rendre inaccessible ou de l'éteindre. En un temps record, le réseau a répondu : quelques heures après que sa première adresse Internet ai été inaccessible, 200 nouveaux autres noms de domaine étaient déposés. Quarante-huit heures plus tard, une opération de « mass-miroiring », c'est à dire de reproduction à l'identique d'un site Internet à un autre endroit (un « miroir »), était lancée. Désormais, il y a plus de 1600 copies de Wikileaks sur Internet à filtrer...




Le filtrage : un mal ou un bien ?

Paradoxalement, le filtrage a toujours fait partie d'Internet. Il est par exemple nécessaire et salutaire pour se prémunir des attaques à son encontre. Dans le cas d'une attaque par déni de service (DoS) qui consiste à envoyer des requêtes en masse à un site Internet pour le ralentir ou le faire tomber, la méthode pour mettre fin à l'agression consiste à bloquer l'origine de ses transmissions.

Cependant, vers qui se tourner pour filtrer efficacement, par exemple dans le cas de la distribution d'un logiciel malveillant ? L'hébergeur du fichier, qui est parfois situé dans un autre pays avec une législation différente ? L'utilisateur final, alors qu'il est peut-être un client ou un électeur ? Reste un acteur au milieu : l'opérateur Internet sollicité voire réquisitionné pour s'approcher d'un réseau « civilisé ». Cependant, ce filtrage n'a pas fait l'unanimité autour de la table ronde. Etaient critiqués notamment les réelles intentions d'un tel filtrage, derrière ceux de sujets qui ne portent pas à débat comme la pédopornographie.

Une solution a retenu l'attention des participants : le filtrage périphérique, directement chez l'utilisateur d'internet et sous son contrôle, de la même manière que chaque foyer possède un tableau régulant l'utilisation de l'électricité dans ses pièces.

Ce filtrage présente plusieurs avantages :

- il ne porte pas atteinte à l'infrastructure globale d'Internet ;

- il laisse le contrôle aux citoyens eux-mêmes ;

- il est efficace, avec la possibilité de sur-filtrer ou de sous-filtrer ;

- enfin, il permet la création de logiciels libres dédiés à ce filtrage - des logiciels où leurs actions spécifiques sont connues de l'utilisateur, en opposition aux logiciels propriétaires dont le fonctionnement est caché.

« La loi LOPPSI impose aux opérateurs le devoir de filtrer tout et n'importe quoi. On s'est battu là dessus depuis deux ans. Il ne faut pas penser que ce n'est qu'un problème politique ou qu'un problème d'opérateur. Les clients - vous, nous - ne sont pas vraiment mobilisés sur cette affaire là. Résultat des courses, nous avons eu la double peine : le filtrage, et sans juge pour pouvoir le décréter. » Jean-Michel Planche, La pérennité de l'Internet à travers les logiciels libres

Si l'Internet est devenu quelque chose de si robuste actuellement, c'est avant tout grâce aux logiciels libres. La synergie qui existe entre les deux a permis un développement mutuel. Internet est devenu le vecteur de transport des logiciels libres. Lorsque les utilisateurs les étudient, ils les améliorent et améliorent le réseau. Cela est rendu possible par les libertés fondamentales apportées par les logiciels libres et qui sont bien souvent écartées dans le cas de logiciels propriétaires.

Ce conflit entre les solutions libres et les solutions propriétaires est au cœur de la question du logiciel de sécurisation d'Hadopi. Son but n'est pas de protéger l'utilisateur, mais de prouver son innocence en cas de litige : une inversion des charges. Cette philosophie est alors incompatible avec un logiciel libre : n'importe qui serait alors capable de percer le secret de l'innocence. Cependant, des logiciels de filtrage libres existent et rencontrent du succès. AdBlock Plus est par exemple une extension pour Firefox qui bloque au cours de la navigation l'apparition de publicités. Elle profite des retours de ses utilisateurs et des améliorations qu'ils peuvent apporter au code source pour innover dans le domaine.

Enfin, l'apparition d'AppStores, boutiques en lignes qui n'acceptent que sous conditions certains logiciels disponibles et qui en ferment les sources, présage de lourdes dérives. Dans un monde où tout est contrôlé, y compris les logiciels que l'on peut ou non installer, Internet serait relégué d'un vecteur d'innovation à un vulgaire moyen de diffusion. Toute notre créativité, qui a été rendue possible grâce aux logiciels libres, serait alors bridée. A défaut d'être éteint, Internet ne serait plus vraiment allumé.

Lisez notre article sur l'Armaguedon numérique





Cet article provient de info utiles
https://www.info-utiles.fr

L'adresse de cet article est :
https://www.info-utiles.fr/modules/news/article.php?storyid=4934