Bienvenue sur le forum non officiel de l'Etoile Nord-Africaine;

Afin de profiter pleinement de certains sujets sur le forum, merci de vous identifier si vous êtes déjà membre ou de rejoindre notre espace si vous ne l'êtes pas encore.

Géostratégie de l’Internet 120px-10

http://www.intervalle-dz.com/
Sondage
Derniers sujets
» nouvelle grille de lecture du monde
Géostratégie de l’Internet EmptyMer 13 Mar - 20:42 par ZIGHOUD15

» Wilaya 5 historique en Oranies ( 1954/1962 )
Géostratégie de l’Internet EmptySam 6 Oct - 19:16 par Sphinx

» dépenses militaires mondiales
Géostratégie de l’Internet EmptyDim 6 Mai - 16:38 par ZIGHOUD15

» algerian barkhane la citadelle
Géostratégie de l’Internet EmptyVen 27 Avr - 16:27 par ZIGHOUD15

» cabale
Géostratégie de l’Internet EmptyMer 25 Avr - 16:06 par ZIGHOUD15

» Département du Renseignement et de la Sécurité (DRS)
Géostratégie de l’Internet EmptySam 20 Jan - 16:30 par ZIGHOUD15

» L'emir Abdelkader et le monde antique ....
Géostratégie de l’Internet EmptyLun 4 Déc - 20:26 par Sphinx

» Abd-el-Qadir al-Djazaïri : naissance ,vie et mort ...
Géostratégie de l’Internet EmptyMar 28 Nov - 22:07 par Sphinx

» BRICS
Géostratégie de l’Internet EmptyMar 14 Nov - 9:42 par ZIGHOUD15

» LA MATRICE DU TERRORISME
Géostratégie de l’Internet EmptyLun 30 Oct - 15:49 par ZIGHOUD15

» La science du transhumanisme
Géostratégie de l’Internet EmptyJeu 19 Oct - 12:43 par ZIGHOUD15

» la guerre de syrie
Géostratégie de l’Internet EmptyJeu 12 Oct - 10:38 par ZIGHOUD15

» la chine nouveau joueur en afrique
Géostratégie de l’Internet EmptySam 30 Sep - 21:16 par ZIGHOUD15

» Médias- Mensonges et Manipulation de l'information
Géostratégie de l’Internet EmptyMer 20 Sep - 14:23 par ZIGHOUD15

» Les exercices militaires russo-biélorusse
Géostratégie de l’Internet EmptyLun 18 Sep - 14:22 par ZIGHOUD15

» l'inde nouveau joueur ?
Géostratégie de l’Internet EmptyJeu 14 Sep - 12:50 par ZIGHOUD15

» Birmanie
Géostratégie de l’Internet EmptyMar 12 Sep - 16:46 par ZIGHOUD15

» divulgation ET sommes nous prets ?
Géostratégie de l’Internet EmptyMer 30 Aoû - 15:23 par ZIGHOUD15

» la lachété comme le courage seraient hereditaires
Géostratégie de l’Internet EmptyMar 22 Aoû - 10:08 par ZIGHOUD15

» Le Pentagone fait son deuil du « Nouveau Siècle américain »
Géostratégie de l’Internet EmptyLun 21 Aoû - 19:05 par ZIGHOUD15

» le mouton de l'aid
Géostratégie de l’Internet EmptyDim 20 Aoû - 10:32 par ZIGHOUD15

» Le captagon vient au secours des manifestants vénézuéliens
Géostratégie de l’Internet EmptyLun 14 Aoû - 16:56 par ZIGHOUD15

» Le franc CFA, arme de destruction massive contre le développement africain
Géostratégie de l’Internet EmptyLun 14 Aoû - 16:12 par ZIGHOUD15

Galerie


Géostratégie de l’Internet Empty
Mai 2019
DimLunMarMerJeuVenSam
   1234
567891011
12131415161718
19202122232425
262728293031 

Calendrier Calendrier

Connexion

Récupérer mon mot de passe


Géostratégie de l’Internet

Aller en bas

Sujet / Message Géostratégie de l’Internet

Message par Syfou le Mer 1 Fév - 13:25

Histoire d'Internet

1961
juillet

Leonard Kleinrock théorise la transmission par paquets
Leonard Kleinrock, du MIT, publie son premier texte sur la transmission de données par paquets et pose ainsi un des fondements de ce qui deviendra Internet. Reprise par les concepteurs de l’Arpanet, cette théorie propose un système qui découpe les données informatiques lors de leur transmission. Ces données peuvent être transmises en discontinu et être reconstituées par le récepteur. Ce sera la méthode employée pour les données transmises par Internet, comme un message électronique : celui-ci est découpé, envoyé par morceaux qui passent par des voies différentes et rassemblé par le récepteur. L'homme qui contribuera le plus à la mise en oeuvre de cette technique est Paul Baran.
Voir aussi : Histoire d'Arpanet - MIT - Histoire d'Internet

1962
août

Licklider écrit ses mémos
Le docteur en psychologie Joseph Licklider publie des mémos (On-Line Man Computer Communication) qui présentent l’ordinateur comme un outil de communication, de partage des ressources. L’idée d’un « réseau galactique » formulé par ce psycho-accousticien du MIT aura un impact important sur la conception d’Internet. Il intégrera trois mois plus tard l’ARPA (Agence des projets de recherche avancée), organisme créé en 1958 pour assurer la supériorité militaire et technologique des États-Unis après l’humiliation ayant suivi le lancement du premier Spoutnik. Directeur du Bureau des techniques de traitements de l’information (IPTO), il participera à la prise de conscience de l’utilité des réseaux informatiques.
Voir aussi : MIT - ARPA - Histoire d'Internet

1968
août

L'ARPA accepte et finance l'Arpanet
Le projet Arpanet, proposant une communication décentralisée par paquet, est approuvé par l’ARPA et donc financé. Le projet repose sur les travaux de l’IPTO au sein de l’ARPA et ceux de Rand Coorporation. Les solutions techniques proposées permettent de concevoir un système de communication des données résistant à une attaque nucléaire par l'emploi d'un réseau tissé. En fait, le précurseur d’Internet n’aura pas d’application militaire mais se développera au sein des Universités américaines, notamment dans l’Ouest.
Voir aussi : Histoire d'Arpanet - ARPA - Histoire d'Internet

1969
7 avril

Publication de la première RFC
La mise en place des normes qui régiront Internet s’amorce avec la toute première RFC émise par Steve Crocket. Une « Request for Comments » est un document public qui permet d’établir les normes et standards des réseaux et d’Internet. Écrite par un spécialiste, elle est ensuite validée par un ensemble d’experts. Au-delà de l’acte de naissance d’un système de norme qui deviendra essentiel, ce premier document illustre l’aspect collaboratif qui préside au développement d’Internet et en constituera l’esprit.
Voir aussi : Histoire d'Arpanet - Histoire d'Internet

1969
2 septembre

La naissance d'Arpanet
Le premier nœud de raccordement d'Arpanet est installé dans l'université de Columbia dans l'Etat de de New-York. Suivront celles de la Californie, de l’Utah et l’institut de recherche de Standford. Le réseau Arpanet, communément considéré comme l’ancêtre d’Internet, est né. Les premières données sont échangées à une vitesse de 50kbits/s et le réseau de quatre ordinateurs s’avèrera opérationnel dès la fin de l’année.
Voir aussi : Histoire d'Arpanet - Histoire d'Internet

1972
mars

Premier courrier électronique
Mis au point par Ray Tomlinson, le premier message électronique est envoyé. Ce dernier, qui travaille sur des programmes permettant d’envoyer des messages sur le réseau et de les lire, développe un code pour envoyer un message d’un ordinateur à l’autre. Pour définir l’adresse, il a alors besoin d’un séparateur entre le nom et la "résidence" du destinataire. Il opte alors pour l’arobase qui possède le double avantage d’être inutilisé et de se prononcer "at" en anglais, ce qui dans ce contexte équivaut en français à "chez". Loin du contenu solennel des premiers messages télégraphiques ou téléphoniques, ce premier message n’aurait eu pour texte que la première ligne d’un clavier QWERTY…
Voir aussi : Histoire d'Arpanet - Ray Tomlinson - Histoire d'Internet

1972
juillet

Invention de la messagerie électronique
Lawrence Roberts décide de creuser l’idée de message électronique initiée par Ray Tomlinson quelques mois auparavant. Pour ce faire, il conçoit un système qui permet de trier les messages, d’y répondre, de les transférer. Les principales fonctions de la messagerie sont alors fixées.
Voir aussi : Ray Tomlinson - Histoire d'Internet

1972
octobre

Première démonstration publique d'Arpanet
C’est au cours d’une conférence internationale à Washington que la première démonstration publique d’Arpanet est réalisée. Le succès sera réel et contribuera à l’expansion du projet. C’est aussi à cette période que l’idée d’une interaction entre réseaux perce mais tout en restant limité par les protocoles d’Arpanet. Un projet sera initié pour les modifier dès l’année suivante, il donnera naissance au protocole TCP/IP.
Voir aussi : Conférence - Histoire de Washington - Histoire d'Arpanet - Histoire d'Internet

1983
1 janvier

Arpanet bascule vers le protocole TCP/IP
Le réseau Arpanet adopte définitivement un mode de fonctionnement qui sera la base d’Internet, le TCP/IP. Ce système, développé notamment sous l’impulsion de Vinton Cerf dès 1973, permet d’interconnecter des réseaux différents contrairement à la solution NCP utilisée jusqu’ici par Arpanet. Le protocole TCP/IP est intervenu progressivement sur le réseau et avait connu une mutation importante en 1978, lorsque le protocole inter-réseaux avait été séparé du protocole de transmission des données. Dorénavant Arpanet est avant tout un projet universitaire et se nomme Arpa-Internet, le volet militaire étant désormais indépendant et nommé MILNET.
Voir aussi : Histoire d'Arpanet - Histoire d'Internet

1989
mars

Tim Berners-Lee lance l'idée de la Toile
En tant qu’utilisateur de CERNET, le réseau du CERN, le chercheur Tim Berners-Lee conçoit l’idée de naviguer simplement d’un espace à un autre d’Internet à l’aide de liens hypertextes et grâce à un navigateur. Tim Berners-Lee parle de la création d’une toile, tout internaute pouvant aller d’un contenu à l’autre suivant des voies multiples. Il présentera son projet au CERN en Novembre 1990. Pendant les trois années suivantes, il travaillera à l’apparition du World Wide Web, « toile d’araignée mondiale ».
Voir aussi : Histoire du Web - Histoire du CERN - Tim Berners-Lee - Histoire d'Internet

1993
22 avril

L'Université de l'Illinois présente Mosaic
L’université de l’Illinois présente son navigateur Web graphique, reposant sur les principes de la Toile tels qu’ils ont été formulés par l’équipe du CERN de Tim Berners-Lee, notamment le HTTP. Nommée Mosaic, l’application retient l’attention puisqu’elle tourne sous Windows et simplifie considérablement la navigation. Elle annonce le développement ultérieur de Netscape et autres navigateurs qui feront sortir Internet du cercle des initiés pour le rendre accessible au grand public.
Voir aussi : Histoire du Web - Windows - Histoire du CERN - Netscape - Tim Berners-Lee - Histoire d'Internet

1994
janvier

Création de Yahoo!
Deux étudiants de Stanford, David Filo et Jerry Yang, créent l’annuaire Internet Yahoo! Celui-ci doit permettre aux Internautes de trouver rapidement des sites grâce à un classement hiérarchique, la difficulté étant alors de trouver le site ou l’information pertinente voulue. Yahoo! est à la fois une référence à Gulliver et un acronyme reprenant la traditionnelle formulation « Yet another… » des projets informatiques de Stanford, classés à Y. Yahoo! fait donc référence à des êtres non civilisés à forme humaine tout en signifiant : « Un oracle à classement hiérarchique officieux de plus ». L’entreprise sera fondée en 1995 et connaîtra un rapide succès.
Voir aussi : Histoire du Web - Yahoo - Histoire d'Internet

1994
octobre

Naissance du W3C
Tim Berners-Lee fonde le World Wide Web Consortium, également appelé W3C. Cet organisme a pour objectif et fonction d’émettre des recommandations afin de promouvoir et d’assurer la compatibilité des technologies utilisées sur le Web. Toutefois les standards proposés ne sont pas des normes absolues. L’organisme, essentiel pour assurer l’efficacité des applications tels que les navigateurs, est géré conjointement par des universités et centres de recherche américains, européens et japonais.
Voir aussi : Histoire du Web - Tim Berners-Lee - Histoire d'Internet

1995
9 août

Netscape entre en bourse
La jeune société Netscape entre en Bourse pour être immédiatement sujet de la spéculation qui caractérise alors les nouvelles technologies Internet. Sorti fin 1994, le navigateur de Netscape a alors connu un énorme succès qui lui a permis de supplanter sans difficultés Mosaic. Netscape dominera largement pendant quelques années avant de succomber sous les assauts du produit Microsoft dès 1998 : Internet Explorer.
Voir aussi : Dossier histoire de la bourse - Histoire de Microsoft - Netscape - Mosaic - Histoire d'Internet

1996
12 avril

Yahoo! entre en bourse
Moins de deux ans et demi après sa naissance, Yahoo ! fait son entrée en bourse. Transformant son statut de simple annuaire en celui de portail aux contenus divers, implanté dans différents pays, le site est devenu incontournable sur le Web. Le portail arrivera d’ailleurs en France au mois de septembre de la même année.
Voir aussi : Dossier histoire de la bourse - Histoire du Web - Yahoo - Histoire d'Internet

1998
31 mars

Netscape donne son code source et fonde Mozilla
L’entreprise Netscape, qui subit les assauts d'Internet Explorer, décide d’ouvrir son code pour fonctionner comme les logiciels libres. Le procès de Netscape face à Microsoft ne permet pas d’éradiquer l’hémorragie qui touche l'ancien géant du Web. Ce dernier intègre en fait son navigateur dans Windows et Netscape Navigator perd rapidement du terrain tout en prenant du retard techniquement. Finalement, Netscape, racheté par AOL, ne reprendra jamais le dessus et l’entreprise disparaîtra en 2003.
Voir aussi : Windows - Histoire de Microsoft - Netscape - Histoire d'Internet

1999
26 mars

Melissa pollue le Web
Un virus du nom de Melissa apparaît et génère un important trafique de messages électroniques, saturant en partie les serveurs. L’auteur du virus sera rapidement identifié et verra sa peine réduite grâce à sa collaboration avec le FBI pour l'identification d'auteurs de virus.
Voir aussi : Virus - Histoire d'Internet

2000
9 mars

La bulle Internet prête à éclater
Les valeurs boursières des entreprises du secteur de l’Internet atteignent un paroxysme qui annonce un sévère revers. En effet, depuis quelques années, toute arrivée d’actions de start-up Internet est accompagnée d’une forte confiance dans le potentiel de croissance de ces entreprises. Les cours atteignent ainsi des proportions impressionnantes sans rapport avec le chiffre d’affaire de ces dernières. Mais à partir de mars la bulle va éclater pour aboutir à un réajustement violent, entraînant le secteur dans la récession.
Voir aussi : Dossier histoire de la bourse - Histoire d'Internet

2004
19 août

Entrée en bourse de Google
Après des effets d’annonces, des retards et autre procédés inhabituels, l’action Google gagne 15% le jour de son introduction en Bourse. La start-up de 1998, devenue incontournable sur le Web, rejoint les "grands" de l’Internet que sont Yahoo!, Ebay ou encore Amazon.

http://linternaute.com


Géostratégie de l’Internet

Estonie, Géorgie, WikiLeaks, Tunisie, Egypte... Les démonstrations de la dimension géopolitique d’Internet abondent. Alors que des états-majors de cyber-guerre se mettent en place, le Diploweb.com donne la parole à des experts en sécurité informatique.

Les Éditions Eyrolles publient le 23 juin 2011 la troisième édition actualisée du livre Sécurité informatique, Principes et méthode de Laurent Bloch et Christophe Wolfhugel. L’éditeur a bien voulu autoriser le Diploweb.com à en publier quelques bonnes feuilles, extraites du dernier chapitre du livre, consacré aux questions géostratégiques.

Quelles armes pour la guerre sur Internet ?
L’ARME la plus fréquente à ce jour sur l’Internet est l’attaque par déni de service distribué (distributed denial of service, abrégé DDoS). L’attaquant s’assure le contrôle d’un nombre aussi important que possible d’ordinateurs piratés à l’insu de leurs propriétaires et qualifiés de « zombies ». Ce réseau de machines sous contrôle s’appelle un botnet [1]. Les machines infectées animent alors un programme qui leur permet de déclencher une action simultanée, comme une avalanche de messages ou de tentatives de connexion. Certains botnets comportent plus d’un million de machines et peuvent émettre 14 millions de messages par minute. Peu de services résistent à 100 000 tentatives de connexions réalisées durant la même seconde.

Les logiciels destinés à réaliser de telles attaques sont disponibles sur l’Internet. Leur ergonomie est excellente et il n’est nul besoin d’être un expert en informatique pour les utiliser. Il est aussi possible de louer un botnet, éventuellement par tranches, avec une excellente assistance téléphonique en anglais assurée par un vendeur souvent situé dans la partie orientale de l’ensemble eurasien.

États-majors de cyberguerre
L’un après l’autre, les pays développés se dotent de commandements spécialisés pour la cyberguerre. Depuis mai 2010 c’est le cas du US Cyber Command américain. La Corée du Sud a créé le sien en janvier 2010 afin de résister aux attaques en provenance de Corée du Nord et de Chine. Le Royaume-Uni et la Suisse y réfléchissent, aisni qu’Israël et la Chine, et à un autre niveau l’OTAN. En France, le décret du 11 février 2011 (http://www.ssi.gouv.fr/site_article...) a élargi le domaine de compétence de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et jeté les bases de la stratégie française en matière de défense et de sécurité des systèmes d’information. On observera que la création de ces centres de commandement ne permet pas toujours de distinguer ce qui est défensif de ce qui pourrait devenir offensif, ni même ce qui est militaire de ce qui est civil.

Estonie et Géorgie
Les procédés d’attaque sur l’Internet ont été utilisés contre l’Estonie et la Géorgie.

L’attaque par déni de service de 2007 contre l’Estonie a été revendiquée en 2009 par Konstantin Goloskokov, activiste de l’organisation de jeunesse nationaliste proche du pouvoir russe Nachi (« Les Nôtres »). Elle a concerné 130 sites Web estoniens, gouvernementaux ou privés. Il s’agissait essentiellement d’une manœuvre d’intimidation après la décision estonienne de déplacer un monument soviétique commémoratif de la seconde guerre mondiale. L’implication du gouvernement russe n’est pas prouvée. Les dommages ont été estimés à plusieurs dizaines de millions d’euros.

En prélude à la guerre russo-géorgienne de l’été 2008, des sites géorgiens gouvernementaux et privés ont été attaqués de façon continue, à la manière d’une préparation d’artillerie dans une guerre du siècle dernier, piratés et rendus inutilisables. De nombreux observateurs ont émis l’idée que ces attaques étaient trop perfectionnées, massives et bien coordonnées pour être le fait d’internautes indépendants, mais là non plus l’implication du gouvernement russe n’est pas prouvée.

Ross Stapleton-Gray et William Woodcock ont publié dans les Communications of th ACM [2] de mars 2011 un article intitulé National Internet Defense – Small States on the Skirmish Line qui tire les leçons contrastées de ces événements. L’Estonie a mieux résisté à l’attaque que la Géorgie, et a rétabli plus vite ses communications, parce que ses connexions à l’Internet global étaient multiples et de meilleure qualité que celles de la Géorgie, dont la plupart des liens internationaux passaient par le territoire russe. L’Estonie avait un Internet Exchange Point (IXP) sur son territoire, à la différence de la Géorgie. Cela étant dit, l’Estonie était plus dépendante de l’Internet pour son économie et son administration que ne l’était la Géorgie, qui d’autre part, à la différence de l’Estonie, était confrontée à une « vraie » guerre sur le terrain physique.

Les auteurs terminent leur article par une liste de recommandations à l’adresse des petits pays, auxquels il est conseillé de réaliser quelques investissements dans leur infrastructure d’accès à l’Internet afin d’assurer leur indépendance de ce côté-là :

. favoriser la création d’une infrastructure physique robuste, au moyen de la réglementation, de la politique publique et de l’investissement public ;

. assurer la diversité des connexions internationales ;

. susciter la création sur le territoire national d’au moins un Internet Exchange Point (IXP) ;

. assurer la résolution de noms du DNS sur le territoire national par l’installation d’au moins une copie d’un serveur racine ;

. encourager le développement d’une communauté de professionnels du réseau et de sa sécurité, et stimuler ses collaborations locales et internationales.

Le Centre d’excellence OTAN de Tallinn en Estonie a publié un excellent ouvrage sous la plume de Eneken Tikk, Kadri Kaska et Liis Vihul, International Cyber Incidents : Legal Considerations [3].

WikiLeaks
Le problème numéro 1 que doivent résoudre tous ceux qui travaillent dans le domaine de la sécurité informatique, et au premier chef les Responsables de la sécurité des Systèmes d’information (RSSI), est le faible niveau de conscience et de mobilisation des utilisateurs et des responsables à cet égard. Le RSSI est perçu comme un perturbateur, dont les recommandations et les exigences vont accroître, parfois dans des proportions considérables, les coûts et les délais de tous les projets dans lesquels il a réussi à mettre son nez. Comme l’a écrit l’un d’entre eux, c’est « celui qui mange tout seul à la cantine ». L’auteur de ces lignes a occupé cette fonction pendant sept années, au long desquelles il a vérifié qu’il était fui par ceux qui craignaient d’avoir à tenir compte de ses avis.

Dans ce contexte, WikiLeaks, de toute évidence, a fourni une contribution majeure à l’amélioration de la situation ! Le spectacle des dépêches confidentielles du corps diplomatique américain étalées sur le Web (même s’il ne s’agissait pas, après tout, d’informations ultra-secrètes) a suscité une prise de conscience qu’aucun travail pédagogique n’aurait accompli. Certes, la plupart des informations publiées par WikiLeaks ne sont pas obtenues par des procédés informatiques : ce sont le plus souvent des détenteurs légitimes qui en ont organisé l’évasion. Les moyens qui permettent l’acheminement de ces données de telle sorte que l’origine en soit brouillée reposent bien sur des infrastructures informatiques établies à cet effet, mais qui existent depuis des années au vu et au su de chacun, comme le service d’anonymisation Tor [4].

Le souci primordial des administrateurs de WikiLeaks, on le comprend aisément, est de protéger leurs sources ; ils ont cette préoccupation en commun avec les journalistes d’investigation. Bien que par définition les mesures prises pour assurer cette protection ne soient pas publiques, elles reposent sur la multiplication de serveurs dispersés géographiquement et non administrés par une seule entité, le chiffrement, l’acheminement des données par des itinéraires non publiés selon les normes habituelles. Pour citer la page d’accueil du projet Tor : « Tor vous protège en faisant transiter vos communications au sein d’un réseau distribué de relais hébergés par des volontaires partout dans le monde : il empêche quiconque observant votre connexion Internet de savoir quels sites vous visitez, et il empêche le site que vous visitez de savoir où vous vous trouvez. Tor fonctionne avec bon nombre d’applications existantes, y compris les navigateurs web, les clients de messagerie instantanée, les connexions à distance, et autres applications basées sur le protocole TCP. » [5].

Daniel Berg-Domscheit [6] indique un procédé astucieux et très facile pour communiquer discrètement : le partage d’un compte Webmail chez un opérateur quelconque, dont tous les participants à la conspiration possèdent le mot de passe. Les messages sont écrits, placés dans le dossier « Brouillon », et jamais envoyés, la boîte aux lettres du compte n’est jamais relevée, ainsi il n’y a aucun trafic, aucune circulation de données, juste des connexions à un compte Yahoo ! ou Gmail quelconque.

Les rebondissements judiciaires consécutifs aux publications de WikiLeaks et aux actions en justice contre son fondateur ont révélé que les institutions les plus sérieuses en apparence pouvaient être vulnérables du point de vue de la sécurité de leur système d’information. Le groupe d’activistes Anonymous [7] a soutenu et défendu WikiLeaks : lorsque PayPal et Mastercard ont bloqué les comptes de WikiLeaks, les membres d’Anonymous ont paralysé leurs sites par des attaques en déni de service distribué. Ils ont de même attaqué les sites des gouvernements tunisiens et égyptiens lorsque les dirigeants de ces pays, dans le cadre de leurs actions pour couper court au soulèvement de leurs peuples, ont voulu réduire WikiLeaks au silence sur leurs territoires.

Finalement, le travail de WikiLeaks est un peu le même que celui du Canard enchaîné ; l’apport de la dimension informatique, c’est la possibilité de divulguer instantanément un énorme volume de données à la planète entière.

Le livre de Daniel Berg-Domscheit, un collaborateur congédié et déçu par Julian Assange, le fondateur de WikiLeaks, donne (p. 327) une récapitulation chronologique des activités du site : premières publications fin 2006, mise en ligne du manuel de la prison de Guantánamo fin 2007, en 2008, publication de documents secrets de l’Église de Scientologie, d’une liste de membres du British National Party (nationaliste, xénophobe, raciste), du rapport de l’ONG Oscar sur les escadrons de la mort de la police du Kenya. En 2009, publication de 6 700 rapports de recherche commandés par le Congrès américain, du rapport d’un soldat sur une bavure de l’armée américaine dans la province afghane de Kunduz, en 2010, nouvelles publications sur des opérations et des bavures en Afghanistan et en Irak, arrestation du soldat Bradley Manning, accusé d’être à l’origine de certaines fuites. Depuis Bradley Manning est incarcéré sans jugement dans des conditions qui ne respectent pas les droits de l’homme. La bande vidéo sur l’Irak, mise en ligne sous le titre Collateral Murder, « montrait, vus depuis le viseur du canon d’un hélicoptère militaire, des soldats américains en train de tirer sur des civils irakiens. Deux journalistes de l’agence Reuters avaient aussi été tués ce jour-là... Des soldats qui tiraient sur les civils sortis d’un minibus qui passait par là pour porter secours aux deux journalistes et aux autres victimes. Leurs commentaires cyniques ont provoqué l’indignation du monde entier. » (pp. 193-194). Cette publication a marqué une date pour la notoriété de WikiLeaks, et c’est parce qu’il est soupçonné d’être à l’origine de la fuite qui l’a permise que Bradley Manning est emprisonné.

Les spécialistes des relations internationales ne manquent pas de souligner que la généralisation de publications de documents confidentiels tels que ceux mis en ligne par WikiLeaks serait de nature à modifier considérablement les conditions d’exercice de la diplomatie et, plus généralement, de la négociation politique. De par la nature d’une négociation, chaque négociateur est amené à proposer à la partie adverse des concessions et des compromis, à certains desquels aucune suite ne sera donnée, mais dont la divulgation prématurée serait de nature à faire échouer toute la transaction, et dont même la publication ultérieure pourrait être très embarrassante pour les parties concernées. On peut citer ainsi les négociations qui ont eu lieu durant les années 1980 entre les juntes militaires au pouvoir dans certains pays d’Amérique du Sud (Brésil, Uruguay, Chili, Argentine) et les partis politiques qui leur ont succédé, ou celles qui ont permis la transition démocratique dans les pays du Pacte de Varsovie après la chute du mur de Berlin : elles ont abouti parce qu’elles ont pu rester secrètes.

Dès lors qu’un diplomate se saurait exposé, à tout moment, à l’étalage sur le Web de tout ce qu’il aurait pu dire lors d’une négociation de cette nature, il est hors de doute que son comportement sera différent, plus prudent à tout le moins.

En tout cas, la violence des réactions et de la répression déclenchées par WikiLeaks démontre que le phénomène n’a rien d’anodin. Cela dit, l’expérience tend à prouver que la divulgation des turpitudes des pouvoirs au nom de la transparence peut servir la démocratie, mais tout aussi bien les pires totalitarismes : tout dépend en fait de l’usage que veulent en faire les citoyens et les sociétés.

Stuxnet

Le ver Stuxnet, qui s’attaque aux systèmes Windows, a été identifié en juin 2010 par la société biélorusse VirusBlokAda. Il est plus particulièrement destiné à modifier le comportement des systèmes de commande des installations industrielles, et notamment des automates programmables de la marque Siemens.

La lecture du bulletin signalétique détaillé émis par l’éditeur d’anti-virus Symantec [8] nous apprend que Stuxnet a contaminé des dizaines de milliers de systèmes, surtout situés en Iran, mais aussi en Allemagne, en Inde et en Indonésie. Son mode de propagation favori est par clé USB.

Le même document révèle que le virus Stuxnet obéit à une conception révolutionnaire, d’une complexité jamais vue : il utilise quatre failles zero-day d’un coup, ce qui est un luxe particulièrement dispendieux. Il utilise deux certificats légitimes émis au nom de sociétés bien connues (JMicron et Realtek) pour échapper aux anti-virus, et se camoufle dans le système infecté au moyen d’un rootkit. Les spécialistes estiment que ce ver a demandé un travail de six mois à un an à une équipe de 6 à 10 ingénieurs.

Une fois installé sur un système de contrôle de processus industriel, Stuxnet est capable de modifier le comportement des machines que ce système pilote, et c’est bien par ce procédé qu’il a atteint une célébrité planétaire.

En effet, Stuxnet est soupçonné d’avoir été utilisé pour perturber le fonctionnement des centrifugeuses des installations nucléaires iraniennes de Natanz ; les déclarations des autorités iraniennes à propos d’un arrêt de certaines activités de centrifugation et d’enrichissement d’uranium de mars à septembre 2010 à cause d’un sabotage informatique sembleraient corroborer ces soupçons, mais elles doivent être prises avec précaution parce que plusieurs versions contradictoires en ont été données. Les services secrets israéliens et américains figurent au rang des suspects d’un éventuel sabotage. Le général israélien Gabi Ashkenazi aurait reconnu être le père du ver Stuxnet.

On pourra lire avec intérêt l’analyse de Daniel Ventre pour la revue MISC [9]. Le même auteur a également consacré une étude aux capacités des deux Corées en termes de cyberguerre [10]. On consultera aussi l’article de James P. Farwell et Rafal Rohozinski [11] Stuxnet and the Future of Cyber War.

Tunisie, Égypte : Internet pour la liberté
Lors des soulèvements révolutionnaires du « Printemps arabe [12] » de 2010-2011 qui ont abouti au renversement des dictatures en Tunisie et en Égypte, les réseaux sociaux en ligne tels que Facebook et Twitter ont joué un rôle que les premiers commentaires ont sans doute surestimé, mais qui ne saurait néanmoins être négligé. Les Tunisiens et les Égyptiens n’avaient sans doute guère besoin de l’Internet pour savoir à quoi s’en tenir sur les dirigeants de leurs pays, mais ces réseaux ont permis, comme en Iran lors des manifestations consécutives aux élections truquées de 2009, des échanges d’informations instantanés et discrets entre les manifestants, pour déclencher des rassemblements, etc. Surtout, ils ont créé un sentiment d’appartenance à une collectivité dotée de valeurs, de soucis et de buts communs, ou en d’autres termes ce que logiciens et économistes ont nommé, dans la théorie des jeux, du savoir commun (Mutual Knowledge). Là encore, l’Internet fut un facteur d’ouverture au monde et de libération des esprits.

Peut-on éteindre l’Internet ?
Ces événements donnèrent lieu à une expérience inédite : l’extinction de l’Internet, tentée d’abord à une échelle partielle par les services de sécurité tunisiens [13], puis de façon plus radicale en Égypte [14].

Pour toutes les raisons évoquées ci-dessus (et quelques autres), l’Internet énerve parfois les détenteurs du pouvoir (ou d’un pouvoir), qui sont alors tentés de s’en débarrasser. Le gouvernement des États-Unis rêve ainsi de l’Internet kill switch [15], un gros bouton rouge qui permettrait au président, « en cas de crise internationale grave ou de cyber-attaque », de couper l’Internet. De façon plus insidieuse, des acteurs moins puissants, comme l’industrie du divertissement, ou le gouvernement français lorsqu’il se laisse influencer par elle, tentent toutes sortes de mesures pour censurer ou filtrer l’Internet, comme la loi Hadopi et la loi Loppsi.

Comme nous allons le montrer, et pour citer Pierre Col [16], « l’Internet est à la fois globalement robuste et localement vulnérable ».

Par attaque de la racine du DNS ?

La première idée qui pourrait venir à l’esprit d’un candidat à l’extinction de l’Internet serait sans doute de s’en prendre à la racine du DNS : les explications des chapitres précédents montrent que la difficulté d’une telle entreprise, si l’on voulait une interruption planétaire d’une durée supérieure à quelques dizaines de minutes, serait pratiquement insurmontable, parce qu’il faudrait neutraliser (ou gruger) des centaines de serveurs dispersés à la surface de la terre, qui s’appuient sur des technologies diverses et variées. Et au fur et à mesure que DNSSEC, protocole destiné à sécuriser les données envoyées par le DNS, sera déployé, les possibilités de corrompre les serveurs DNS, en leur insinuant des informations fallacieuses, se réduiront considérablement. Une telle attaque ne serait d’ailleurs qu’imparfaitement efficace car l’accès par les numéros IP resterait possible et parce que la mise en place d’un autre DNS est relativement facile.

Par attaque sur le routage ?

Une attaque sur le routage serait plus prometteuse : les expériences réussies de Pakistan Telecom [17] montrent que des choses sont possibles, notamment parce que le protocole BGP (qui sert à transmettre les informations de routage entre Autonomous Systems) est traditionnellement dépourvu de toute sécurité. Mais dans tous les exemples documentés de telles attaques, le dysfonctionnement n’a été que partiel et le caractère décentralisé de l’Internet a permis un rétablissement rapide du fonctionnement de la plupart des réseaux, ce qui confirme la véracité de l’aphorisme de Pierre Col cité ci-dessus.

Comment les dictateurs tunisien et égyptien ont-ils procédé ? Dans les deux cas il s’agissait, d’une part, de régimes politiques dotés d’une police toute-puissante et, d’autre part, de pays avec un nombre restreint de FAI. Le cas de l’Égypte, par exemple, a été particulièrement simple : un ministre ou un fonctionnaire de grade suffisamment élevé a décroché son téléphone et a ordonné aux quatre FAI du pays de couper les communications, ce qu’ils ont fait en interrompant le routage par la suppression des annonces de routes BGP. L’idée qu’ils puissent ne pas obtempérer n’était même pas envisageable. La censure tunisienne a été dans un premier temps brutale : six mois de coupure franche de l’Internet, suivis d’une période d’accès sélectif contrôlé par le système de filtrage surnommé Ammar404 par les opposants, qui n’a pris fin qu’avec le renversement du régime.

Il est clair que si le président des États-Unis voulait s’attaquer à l’Internet, comme certains parlementaires lui conseillent de s’en donner les moyens, il pourrait faire plus de dégâts : ainsi, beaucoup de communications entre pays tiers, ou même entre deux FAI d’un même pays tiers, transitent par les États-Unis, soit parce que l’infrastructure est ainsi faite pour des raisons techniques ou géographiques, soit pour des raisons tarifaires. Dès lors, en appuyant sur le gros bouton rouge d’extinction de l’Internet, il ne parviendrait peut-être pas à couper toutes les communications internes aux États-Unis, mais il en couperait beaucoup à l’extérieur.

La cybersécurité en 2011
En janvier 2011 le Center for Strategic & International Studies à Washington, un think-tank dévolu principalement aux questions de défense et de politique étrangère, a publié un rapport intitulé Cybersecurity Two Years Later [18], qui émet des recommandations adressées au gouvernement américain, qui pourraient tout aussi bien s’adresser au gouvernement français. Ces recommandations sont centrées autour de « dix domaines clés où des progrès doivent être accomplis » :

. Une organisation et un leadership cohérents pour des efforts dans le domaine de la cybersécurité, et la reconnaissance de la cybersécurité comme priorité nationale.

. Une autorité clairement identifiée à même d’imposer une amélioration de la cybersécurité des infrastructures critiques et de développer des collaborations innovantes avec le secteur privé.

. Une politique étrangère qui utilise tous les leviers de la puissance américaine pour créer des normes, de nouvelles approches pour la gouvernance et des suites aux actions malveillantes dans le cyberespace. Cette nouvelle politique devra comporter une vision pour l’avenir de l’Internet mondial.

. Une aptitude accrue à utiliser les services de renseignements et les capacités militaires aux fins de défense contre les menaces étrangères de pointe.

. Une attention renforcée pour la protection de la vie privée et des libertés civiles, avec des règles claires et des procédures adaptées aux technologies numériques.

. Améliorer l’authentification des identités pour l’accès aux infrastructures critiques.

. Accroître les effectifs d’experts en cybersécurité tant en quantité qu’en niveau de compétence [19].

. Modifier la politique d’achats publics afin d’inciter le marché à fournir des produits et des services plus sûrs.

. Réviser la politique et le cadre légal de façon à guider les actions du gouvernement en matière de cybersécurité.

. Développer la recherche et le développement sur les problèmes difficiles liés à la cybersécurité, un processus d’identification de ces problèmes, et leur allouer des crédits de façon coordonnée.

Copyright Juin 2011-Bloch-Wolfhugel/éditions Eyrolles

Plus

Laurent Bloch et Christophe Wolfhugel, Sécurité informatique. Principes et méthode à l’usage des DSI, RSSI et administrateurs, Paris, éd. Eyrolles, 3e édition en librairie le 23 juin 2011

Présentation de la 3e édition

Que recouvre le terme de sécurité informatique pour l’entreprise ? Existe-t-il des normes et bonnes pratiques universelles ? Comment mettre en œuvre une politique de sécurité et mettre au point des chartes de conduite pour minimiser le risque humain ? Une bible pratique et systématique pour le responsable informatique Écrit par un responsable de la sécurité des systèmes d’information devenu DSI, et par un expert des réseaux et des systèmes, ce livre limpide expose les risques inhérents à tout système informatique – et les moyens de s’en protéger. S’adressant aux administrateurs et responsables informatiques comme à leurs interlocuteurs, il offre au professionnel consciencieux un exposé clair des modes opératoires des programmes nocifs et des outils censés les contrer, ainsi qu’une méthode rigoureuse pour concevoir une véritable politique de sécurité. Outre un modèle de politique de sécurité et de charte d’utilisation que le lecteur pourra adapter à son environnement, cette troisième édition, mise à jour avec les dernières évolutions en matière de menaces et de sécurité, propose notamment un éclairage sur la dimension géostratégique de la sécurité liée à l’Internet (WikiLeaks, attaques contre la Géorgie et l’Estonie, coupure de l’Internet en Égypte ou en Tunisie, etc.).

Géostratégie de l’Internet Securi10

Sécurité informatique
À qui s’adresse cet ouvrage ?

. Aux administrateurs de systèmes et de réseaux, mais aussi aux DSI et aux responsables de projets ;

. À tous ceux qui doivent concevoir ou simplement comprendre une politique de sécurité informatique.

Sur le site des éditions Eyrolles Voir :http://www.editions-eyrolles.com/Livre/9782212125252/securite-informatique

Références

Spoiler:
[1] Projet Tor. Avril 2011. http://www.torproject.org.

[2] « The web’s trust issues ». The Economist, avril 2011. http://www.economist.com/blogs/babb....

[3] Jean-François Abramatic. « Croissance et évolution de l’Internet ». Université de tous les savoirs – Les Technologies, 7, Paris, 2002. Odile Jacob.

[4] Daniel Berg-Domscheit. Inside WikiLeaks. Grasset, Paris, 2011. 319 p – ISBN 9782246785422.

[5] Laurent Bloch. Les systèmes d’exploitation des ordinateurs – Histoire, fonctionnement, enjeux. Vuibert, Paris, 2003. Texte intégral disponible ici : http://www.laurentbloch.org/spip.ph....

[6] Laurent Bloch. Systèmes d’information, obstacles et succès – La pensée aux prises avec l’informatique. Vuibert, Paris, 2005. Texte intégral disponible en ligne ici : http://www.laurentbloch.org/spip.ph....

[7] Laurent Bloch. « La régulation universelle de l’internet, enjeu économique et culturel ». Questions internationales, (39), septembre-octobre 2009. http://www.ladocumentationfrancaise....

[8] Laurent Bloch. « La maîtrise d’Internet : des enjeux politiques, économiques et culturels ». Questions internationales, (47), janvier-février 2011. Numéro spécial Internet http://www.ladocumentationfrancaise....

[9] Laurent Bloch, Nat Makarévitch. « La signature électronique universelle ». Site Web de Laurent Bloch, mars 2007. http://www.laurentbloch.org/spip.ph....

[10] James R. Langevin, Michael T. McCaul, Scott Charney, Lt. General Harry Raduege, James A. Lewis. « Cybersecurity Two Years Later ». janvier 2011. http://csis.org/publication/cyberse....

[11] Ross Stapleton-Gray William Woodcock. National Internet Defense – Small States on the Skirmish Line. CACM, 54(3):50–55, Mars 2011.

[12] Symantec. « W32:Stuxnet ». Symantec.com, juillet 2010. http://www.symantec.com/security_re....

[13] Eneken Tikk, Kadri Kaska, Liis Vihul. International Cyber Incidents : Legal Considerations. NATO Cooperative Cyber Defence Centre of Excellence, Tallinn, Estonie, 2011. http://www.ccdcoe.org/231.html.

[14] Daniel Ventre. « Guerre de l’information et cyberguerre : les deux Corées face à face ». MISC, (55):62–71, mai-juin 2011.

[15] Daniel Ventre. « Stuxnet : interprétations ». MISC, (53):53–63, janvier-février 2011.

[16] Karen Evans Franklin Reeder. « A Human Capital Crisis in Cybersecurity : Technical Proficiency Matters ». novembre 2010. http://csis.org/publication/prepubl....

[1] Bot est l’abréviation de robot.

[2] Ross Stapleton-Gray William Woodcock. National Internet Defense – Small States on the Skirmish Line. CACM, 54(3):50–55, Mars 2011.

[3] Eneken Tikk, Kadri Kaska, Liis Vihul. International Cyber Incidents : Legal Considerations. NATO Cooperative Cyber Defence Centre of Excellence, Tallinn, Estonie, 2011. http://www.ccdcoe.org/231.html.

[4] Le projet Tor associe un logiciel libre et un réseau informatique de tunnels virtuels pour permettre à tout un chacun une communication confidentielle et anonyme : http://www.torproject.org

[5] Projet Tor. Avril 2011. http://www.torproject.org.

[6] Daniel Berg-Domscheit. Inside WikiLeaks. Grasset, Paris, 2011. 319 p – ISBN 9782246785422.

[7] Cf. http://fr.wikipedia.org/wiki/Anonym...)

[8] Symantec. « W32:Stuxnet ». Symantec.com, juillet 2010. http://www.symantec.com/security_re....

[9] Daniel Ventre. « Stuxnet : interprétations ». MISC, (53):53–63, janvier-février 2011.

[10] Daniel Ventre. « Guerre de l’information et cyberguerre : les deux Corées face à face ». MISC, (55) pp. 62–71, mai-juin 2011.

[11] James P. Farwell and Rafal Rohozinski. « Stuxnet and the Future of Cyber War », Survival, vol. 53 n° 1, pp. 23-40, www.informaworld.com/smpp/ti....

[12] Le calendrier suggère plutôt « Hiver arabe », mais Printemps convient mieux au côté « renaissance » de l’événement, et rappelle le « Printemps des peuples » européen de 1848.

[13] Cf. http://www.bortzmeyer.org/eteindre-...

[14] Cf. http://www.bortzmeyer.org/egypte-co...

[15] http://news.techworld.com/security/...

[16] http://www.zdnet.fr/blogs/infra-net...

[17] http://www.bortzmeyer.org/pakistan-...

[18] James R. Langevin, Michael T. McCaul, Scott Charney, Lt. General Harry Raduege, James A. Lewis. « Cybersecurity Two Years Later ». janvier 2011. http://csis.org/publication/cyberse...

[19] Karen Evans Franklin Reeder. « A Human Capital Crisis in Cybersecurity : Technical Proficiency Matters ». novembre 2010. http://csis.org/publication/prepubl....

Par Christophe WOLFHUGEL, Laurent BLOCH*, le 24 juin 2011


__
« Vouloir prouver des choses qui sont claires d'elles-mêmes, c'est éclairer le jour avec une lampe. »  


http://algerie-institution.blog4ever.com

Syfou
Syfou
Adminstrateur
Adminstrateur

Masculin
Nombre de messages : 5687
Age : 36
Emploi/loisirs : Les souvenirs s'envolent aussitot la la porte ouverte .
Humeur : Bien / H.M.D / Toujours.
Date d'inscription : 11/01/2010
Localisation : Dans un autre repère !

Revenir en haut Aller en bas

Revenir en haut


 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum