Histoire de l'Internet
Sommaire
Histoire d'Internet
Horaire de train, achats en ligne, réservations de billets de concert… Autant de petites actions quotidiennes pratiquées sur le web : Internet semble si naturel et évident aujourd’hui pour la plupart d’entre nous, que l’on oublie presque que l'humanité a aussi vécu sans. Retour en quelques lignes sur l’histoire épatante de cette technologie.
Les visionnaires du monde virtuel
Printemps 1968. A Paris, mais aussi à Prague, Chicago ou Mexico, des hordes d'intellectuels et d'étudiants scandent le slogan "sous les pavés, la plage" : ils manifestent en appelant aux valeurs de partage, de solidarité, d'équité des chances, et contestent la société de consommation en plein essor. En parallèle, dans ce qui allait devenir la Silicon Valley, une poignée de scientifiques travaillent sur de toutes nouvelles technologies, eux aussi guidés par les idéaux de "Mai 68". Ils sont sociologues, psychiatres, linguistes, anthropologues ou mathématiciens. A leur tête, Norbert Wiener, génie des sciences de la communication : le groupe crée une nouvelle science, nommée cybernétique.
Cybernétique signifie "modélisation de l'échange, par l'étude de l'information et des principes d'interaction" [1]. Les méthodes de travail des cybernetticiens empruntaient autant aux sciences exactes qu'à d'autres domaines de la connaissance : débats, entraide, méditation en groupe, modification de l'état de conscience étaient par exemple des méthodes souvent utilisées. Norbert Wiener voyait le monde comme un ensemble de systèmes, imbriqués les uns dans les autres : la société, un organisme, un cerveau, une machine sont considérés comme des systèmes, qu'il s'agit de contrôler au mieux. Les chercheurs de ce mouvement partageaient une expérience académique d'envergure comme chercheur, une volonté d'explorer de nouvelles approches, sans tabous ni limites. Dans la mouvance de cette fin de décennie, ils travaillaient aussi dans le but de changer les choses, de rendre le monde meilleur et de rapprocher les individus.
A cette même période, fortement influencé par les conférences et publications des cybernéticiens, l'anthropologue Gregory Bateson, réunissait d'autres chercheurs dans ce qu'il appelait le mouvement de l'écologie spirituelle. (L'objectif fondamental du mouvement était de mettre de la cohérence, du sens et de la durabilité dans les relations avec soi-même et avec le monde.) Bateson avait fondé en 1952 l'Ecole de Palo Alto, un groupe de scientifiques qui étudiaient le "paradoxe de l'abstraction dans la communication" [2], pionnière dans le développement de systèmes informatiques modernes. [L'école travaillait particulièrement dans un cadre d'étude psychiatrique : ils tentent de comprendre les logiques de communication chez les schizophrènes, etc. Donc, les deux mouvements sont très organistes : ils comprennent les choses "sans vie" comme des organismes à part entière. Donc, l'étude du cerveau et l'étude d'un système informatique est très proche pour eux. Programmation informatique et programmation neuro-linguistique, mentale sont donc reliés dans ces mouvements.] <- idée à reformuler.
(La programmation neuro-linguistique (PNL), est troisième mouvement important, l'un des corollaires du web. La culture internet, hypertexte, et la culture de programmation neuro-linguistique, de conscience des modes de communication et de programmations mentales sont interdépendants (pourquoi?). )
Doug Engelbart, pilier d'un nouveau monde
Bien que peu présent dans les livres d'Histoire, Doug Engelbart fut un des plus importants scientifiques du XXème siècle. Nous lui devons l'invention de la souris, mais aussi du lien hypertexte ou encore du bureau graphique (liens internes vers le glossaire à ajouter) : autant d'outils qui ont révolutionné l'informatique, et qui font aujourd'hui partie de notre quotidien.
C'est dans le cadre du programme de recherche ARPA que Doug Engelbart fit ses plus impressionnantes inventions. Avec d'éminents chercheurs, comme Robert Taylor (+), il développa le premier réseau informatique a transfert de paquets (expliquer?). Ce premier réseau reliait l'institut de recherche de Stanford, et l'université de Californie à Los Angeles. Par la suite, les universités de Californie à Santa Barbara et de l'Utah seront également reliées par le réseau ARPA.
ARPA est l'ancêtre de l'Internet que nous connaissons : ses inventeurs avaient compris qu'il révolutionnerait les modes de communication, les liens sociaux et qu'il réduirait les écarts. En 68 déjà, dans son livre "The Computer as a Communication Device", Taylor affirmait qu'en quelques années, les Hommes pourraient communiquer mieux à travers les machines que face à face : "In a few years, men will be able to communicate more effectively through a machine than face to face." [3]. Les idéaux de Engelbart et de Taylor, très imprégnés de culture hippie, leur faisait espérer un monde meilleur, grâce aux nouvelles technologies informatiques : "The Internet is not about technology; it's about communication. The Internet connects people who have shared interests, ideas and needs, regardless of geography."[4] (L'internet n'est pas une question de technologie ; c'est une question de communication. Internet connecte des personnes qui partagent des intérêts et des besoins, sans se soucier de géographie).
Et le réseau s'étend
C'est donc en parallèle au mouvement hippie, révolutionnaire à sa manière, que la révolution scientifique qui vit naître Internet se déroulait. A l'ombre des manifestations contre la guerre du Viet-Nam, les scientifiques de la Silicon Valley travaillaient pour la défense de certains droits menacés par la société de l'information en plein essor, et au nivellement des différences par les réseaux informatiques.
D'abord limité à quelques centres de recherches et universités, Internet s'étendra sur tout le monde académique dans les années 80, pour devenir totalement public la décennie suivante : les années 90 voient exploser les grands débats sur la liberté de l'information et Internet est alors compris comme remède à toutes les censures. (étique Hackers, voir dans wikinomics).
(++ sur les années 90 et l'ampleur du réseau?).
Un quelque chose de naturel et d’intuitif
Le fonctionnement d’internet n’est pas né d’un choix numérique ou militaire, mais d’une conscience intuitive que c’est comme ça que le numérique fonctionne.
⇨ gratuité : formule gagnante d’internet (peut-être en encart avec renvoi au chapitre 6). ⇨ importance de la conscience citoyenne, et de l’impact économique et social d’internet sous sa forme actuelle. (Quelques grandes entreprises basées sur l'actionnariat spéculatif ont massivement investi dans des jeunes entreprises de fonceurs possédant des plans de développement visant à occuper de nouveaux marchés le plus rapidement possible (on les appelles des start-up). Ces grands groupes sont ceux qui ont achetés les autres par des mécanismes financiers très peu reliés à leurs réelles valeurs productive (biens, services), et fusionnés en moins de 5 ans le 90% des informations qui circulent, principalement avec de l'argent gagné dans la fabrication et ventes d'armements et d'outils de traitement des énergies.)
En résumé, montrer les idéaux qui étaient à la base de la création d'Internet, qui font que le numérique a été créé avec des propriétés qui empêchent contrôle et centralisation (neutralité des réseaux). Mais quand même, prudence, car utilisation commerciale, économique, et intérêts cachés, qui nous demandent une éthique en tant qu'utilisateur, un savoir faire tout comme pour vivre en société.
Sources
Wikipédia : cybernétique, Robert Taylor (computer scientist), Gregory Bateson, histoire d'internet, ARPA, ...
J.C.R. Licklider; Robert Taylor (April 1968). "The Computer as a Communication Device". Science and Technology
2e essai sur ce thème
Contenu fusionné ici, en provenance de l'article "le choc du futur".
Avant l’informatique, l’information était une ressource rare.
Avant l’informatique, pour copier une information -une musique, un texte, une image- il fallait des technologies mécaniques très coûteuses et toute une équipe pour s’en occuper. L’imprimerie, la radio, la télévision, toutes ces technologies modernes utilisaient de l’électricité pour fonctionner, mais uniquement sous une forme mécanique. Donc, le partage d’informations était plus difficile au 20e siècle qu’au 21e siècle. C'est bien du partage dont il s'agit. Car accéder passivement à une information sans interagir était du domaine du possible surtout grâce à la Radio et à la TV. Mais pour pouvoir diffuser ses propres infos, c’était au mieux le journal local (d’étudiant, de quartier, de groupement social ou culturel), et plus souvent encore l'oralité. A l’époque, il était difficile de toucher des personnes ayant des centres d’intérêts communs sans dépendre d’un émetteur unique. Prenons 3 groupes aux centres d’intérêts très différents : - des responsables des stocks dans les entreprises - des collectionneurs de papillons - des parents d’élèves Croyez-vous qu'il était facile pour eux de trouver la bonne info rapidement ? Plus ils souhaitaient être dans le coup par rapport à leur centre d’intérêt (personnel, professionnel, social…), plus ils devaient investir d’argent pour accéder aux informations et les redistribuer. A l’époque, les rédactions des journaux, des radios et des TV jouaient un rôle social de type religieux : si c’est la radio qui le dit, c’est que c’est vrai !
Lorsque l’information et les réseaux électriques s’accouplent, ils font des bits.
Puis, dès les années 50, des pionniers de l’informatique réussissent à créer des machines à calculer très rapides. Pour ce faire, ils trouvent un truc imparable: découper les informations en très petits morceaux. Par exemple, une photo passeport ou un texte seront découpés en 100'000 petits morceaux d’informations, nommés « bits ». Et ils les font circuler sur des cartes où sont gravés des réseaux électriques miniatures: les circuits électroniques. Les bits ne peuvent faire qu’une chose : indiquer s’ils sont un morceau d’information allumé ou éteint, comme un inteerupteur pour la lumière de votre bureau. Cela suffit pour que l’image soit « numérisée » : une image devient un assemblage de bits positifs et neutres. Rien de négatif là-dedans. Ainsi, cette image est décomposée en millions de commutateurs allumés ou éteints -des bits- par une machine à calculer. Puis, ces bits sont gravés sur un support (une disquette par exemple), afin d’être redistribués et recomposés en l’image initiale sans perte de qualité. Cette copie de l’information peut s’effectuer en nombre quasiment illimité à très bas coût. Pour décomposer et recomposer ces informations, il faut un programme de gestion des bits, sorte de marche à suivre : un programme logiciel informatique. Il faut aussi une pièce électronique, appelée processeur, qui va suivre la procédure donnée par le programme logiciel. Bits, processeur et logiciel sont quelques-unes des principales bases des ordinateurs. La science des ordinateurs va s’appeler « systèmes de communication par voie électronique », alias informatique. En anglais, on dit « computer science ».
Ceci a changé un seul petit détail pour l’humanité depuis les années 70 : l’information s'est mise à circuler dans tous les sens à la vitesse de la lumière, sans que cela coûte cher. Et ce petit détail va devenir la base de la plus grande mutation des habitudes de l’humanité. Copier et redistribuer une information est devenu progressivement possible pour tous, sans contraintes économiques.
Le choc informatique.
Puis, dans les années 60, l’ingénieur Moore perçoit un phénomène qui va donner naissance à une loi fondamentale de la production informatique : chaque 18 mois environ, la capacité de calcul des ordinateurs est multipliée par 2. Cela permet de prédire un avenir radieux à l’informatique : les machines pourront traiter les données de plus en plus rapidement, avec des machines de plus en plus petites. Au début cela paraissait bien abstrait, mais c’est maintenant assez logique.
Ceux qui ont compris l’impact de la loi de Moore s’en donnent à cœur joie pour annoncer de profonds bouleversements de nos habitudes. Martin Ader publie en 1984 "le choc informatique". Dans ce livre, il annonce les mutations à venir: passage de la mécanique à l'électronique dans toutes les branches professionnelles, réduction du temps de travail, fossé numérique entre connectés et débranchés. Il explique que ces mutations vont avoir une influence majeure sur notre vie quotidienne. Big Blue pour coloniser la planète Bleue.
C’est l’entreprise IBM qui concentre à elle seule plus de la moitié des développements informatiques pendant plus de 30 ans (1950 à 1980). Son surnom est Big Blue, la grande bleue. En parallèle, l’industrie électronique grand public fait ses premiers pas, en commercialisant les calculatrices, les facsimilés (ce qui veut dire « fait pareil », surnommés Faxes ), les montres à quartz (qui traitent des 1 et des 0), les jeux électroniques et autres gadgets dont on rigole aujourd’hui. Plus généralement, l’électronique s’installe dans notre quotidien.
Il faut sauver le soldat XYZ
C’est là qu’interviennent les militaires, qui, comme tout le monde, ont besoin d’ordinateurs pour mieux gérer leurs opérations. Les militaires occidentaux possèdent les plus gros budgets pour la recherche. Ils mandatent alors des ingénieurs pour répondre à un besoin très précis. Le mandat est le suivant : nous, chefs de l’armée, souhaitons pouvoir communiquer en tout temps avec nos soldats sur le terrain. Si l’ennemi coupe nos troupes en deux, par exemple en détruisant un pont, nous voulons pouvoir continuer à échanger des informations de manière décentralisée (de partout), asynchrone (quand on veut, même si on s’échange pas en même temps) et nomade (chaque nouveau message peut être envoyé d’un autre endroit…). Manque de bol, les plus grands experts scientifiques sont des pacifistes. Ils créent un outil qui fonctionne tellement bien que 20 ans plus tard, dès les années 90, alors qu'il commence à sortir de la pénombre des académies scientifiques, il est très rapidement adopté par des centaines de millions d’utilisateurs occasionnels.
Comment est né le mythe d’Internet ?
Extrait du Monde Diplomatique (voir sources)
Il y aura surtout le consultant indépendant Alvin Toffler, auteur des best-sellers Future Shock (Le Choc du futur) (1970) et The Third Wave (La Troisième Vague) (1979), à qui il reviendra de « porter aux masses le futurisme », selon l’expression de Time (9). Cet ancien marxiste a clairement indiqué la fonction opérationnelle des scénarios d’anticipation. Pour éviter le « traumatisme du choc du futur », il faut créer chez les citoyens le désir du futur. L’horizon d’attente qu’il pronostique est caractérisé par la démocratie interactive, la démassification des médias, la production-consommation, le pluralisme, le plein emploi, la flexibilité. Et, surtout, par la fin du « dangereux anachronisme » de l’Etat-nation et par un nouveau clivage, celui qui mettra face à face les anciens et les modernes, et se substituera à l’opposition entre riches et pauvres, entre capitalisme et communisme.
1980 : le vortex qui inverse les pôles. [redondant par rapport aux sections qui précèdent]
Un Vortex, c’est le cœur d’un tempête tourbillonnante. Cela peut complètement modifier l’état énergétique de ce qui le traverse. Or il semblerait bien que l’espèce humaine ait traversé un vortex en 1980, à l’insu de son plein gré.
Comment ce fait-ce ? Justement, l'ntrée dans l’ère de l’informatique a provoqué une grosse tempêtes conceptuelle, qui a rejailli sur nos quotidiens. Deux pôles solides de nos croyances se sont brusquement inversés, tel un choc électro-magnétique.
Première inversion : alors que le partage du savoir était limité par la matière, il devient illimité, grâce à l’électronique qui permet de le copier sans frais matériels. Les flux financiers notamment s’accélèrent très vite, et les grandes fusions des économies transnationales aussi. Pour être performant commercialement, il faut être toujours plus gros, pour contrôler les mouvements de ressources avec l’informatique, nouveau centre de puissance.
Seconde inversion : on croyait que les ressources naturelles étaient illimitées. Pétrole illimité, eau potable illimitée, air illimité univers illimité, capacités des hommes illimitées, et tout d’un coup on commence à se heurter à l’infiniment grand et à l’infiniment petit. Oui, il reste de nombreux espaces à explorer. Mais nos ressources naturelles et nos territoires, qui paraissaient illimités, sont en fait limités, cela devient un fait accepté par la communauté scientifique.
Albert Jaccard parle d’un passage du monde infini au monde fini.
Plus généralement, on commence à parler de changement de croyances (du monde infini au monde fini, des ressources illimitées aux ressources limitées). Or les croyances sont justement les bases des paradigmes. Et les paradigmes sont générateurs de Cultures. Une culture étant un répertoire de solution à des problèmes et des passions à un certain moment dans une certaine région.
Et les prophéties de « choc du Futur » paraissent de moins en moins saugrenues. Réaction de l’humanité, qui vraisemblablement n’était pas prête : l’économie de la panique s’installe dans une société non plus de consommation mais de surconsommation. Les humains, principalement les citadins occidentaux, consomment des ressources à un rythme plus fort que la terre ne peut leur en fournir. Et se désengagent de leur rôle de citoyen. La majorité perd pied, une minorité exploite ces faiblesses face aux mutations pour verrouiller le pouvoir en moins de 20 ans (1980 – 2000). C’est la génération Big Brother.
En marge pour mesurer cette empreinte que laisse l’humanité, un nouvel indicateur est créé dès la fin des 60’s, pour remplacer l’indicateur de croissance (le PIB) qui devient obsolète. Cet indicateur, c’est l’empreinte écologique, qui prend en compte l’impact indirect de nos activités sur terre, afin de calculer les vrais effets de nos actes à long terme. L’empreinte est écologiquement positive si globalement on consomme les ressources à un rythme de moins de 100%. Elle est négative si c’est plus de 100%. On plante un arbre : hop, l’empreinte baisse. On brûle du kérosène pour les avions : hop, l’empreinte augmente. Les citadins occidentaux, qui ont tous un frigo un ventilo et une voiture, sont les plus gros pollueurs. Ils sont aussi ceux qui utilisent le plus les ordinateurs pour contrôler le flux d’information.
Chronologiquement :
1960 : 70% d’empreinte écologique, il restait encore une marge avant d’atteindre le seuil critique.
1980 : 100% d’empreinte, aucune marge, la grande inversion des pôles se produit. A cette époque, un poète visionnaire comme Gil Scot Heron écrit « the revolution will not be televised ». Il n’avait pas tort, car il semble que cette révolution n’ait pas été très médiatisée, et pourtant nous la vivons au quotidien, et nous avons pas encore vraiment réagi à cette nouvelle donne.
1990 : 200%, rythme de consommation 2 fois trop fort par rapport aux ressources disponibles. A Rio de Janeiro en 1992 est adopté la notion de développement durable, et le droit aux générations futures s’installe dans nos cerveaux comme une question de société.
2000 : 300% , rythme de consommation puissamment destructeur (on consomme la planète à crédit, mais a-t-on de quoi rembourser ?).
Iconographie (en option)
http://gizmodo.com/5616108/the-history-of-the-internet-visualized
Sources (en option) =
http://fr.wikipedia.org/wiki/Loi_de_Moore
http://www.monde-diplomatique.fr/2000/08/MATTELART/14116#nb1
http://www.youtube.com/watch?v=JP_3WnJ42kw&feature=player_embedded#!
Autres documents pour usages complémentaires (en option)
Non disponible pour le moment