EN QUELQUES LIGNES L HISTOIRE DE L INFORMATIQUE

 

L'INFORMATIQUE ET INTERNET

 

......

L'idée révolutionnaire

En 1962, alors que le communisme faisait force, l'US Air Force demande à un petit groupe de chercheurs de créer un réseau de communication militaire capable de résister à une attaque nucléaire. Le concept de ce réseau reposait sur un système décentralisé, permettant au réseau de fonctionner malgré la destruction d'une une ou plusieurs machines.

Le modèle de Baran

Paul Baran est considéré comme un des acteurs principaux de la création d'Internet. Il eu l'idée, en 1964, de créer un réseau sous forme de grande toile. Il avait réalisé qu'un système centralisé était vulnérable car la destruction de son noyau provoquait l'anéantissement des communications. Il mit donc au point un réseau hybride d'architectures étoilées et maillées dans lequel les données se déplaceraient de façon dynamique, en « cherchant » le chemin le moins encombré, et en « patientant » si toutes les routes étaient encombrées. Cette technologie fut appelée « packet switching ».

L'ARPANET

En août 1969, indépendamment de tout objectif militaire, le réseau expérimental ARPANET fut créé par l'ARPA (Advanced Research Projects Agency dépendant du DOD, Department of Defense) afin de relier quatre instituts universitaires :

·        Le Stanford Institute ;

·        L'université de Californie à Los Angeles ;

·        L'université de Californie à Santa Barbara ;

·        L'université d'Utah.

Le réseau ARPANET est aujourd'hui considéré comme le réseau précurseur d'internet. Il comportait déjà à l'époque certaines caractéristiques fondamentales du réseau actuel :

·        Un ou plusieurs nœuds du réseau pouvait être détruits sans perturber son fonctionnement ;

·        La communication entre machines se faisait sans machine centralisée intermédiaire ;

·        Les protocoles utilisés étaient basiques.

 

Le courrier électronique

En 1971, Ray Tomlinson mit au point un nouveau mode de communication : le courrier électronique. Le contenu de ce premier e-mail était le suivant :

QWERTYUIOP

Par ailleurs, le caractère « @ » servait déjà à séparer le nom de l'utilisateur du nom de la machine dans les adresses.

En juillet 1972, Lawrence G. Roberts améliora les possibilités ouvertes par Ray Tomlinson en développant la première application permettant de lister, de lire de manière sélective, d'archiver, de répondre ou de faire suivre un e-mail. Dès lors, la messagerie électronique n'aura de cesse de croître, pour devenir la principale utilisation du réseau des réseaux au début du XXIe siècle.

C'est également en 1972 (octobre 1972) que le réseau ARPANET fut présenté pour la première fois au grand public, lors de la conférence ICCC (International Computer Communication Conference). A cette même époque, l'ARPA devint le DARPA (Defense Advanced Research Projects Agency) et le terme « internetting » est utilisé pour désigner l'ARPANET, devenant alors un embryon d'internet.

Le protocole TCP

Le protocole NCP, utilisé jusqu'alors, ne permettait pas de gérer de contrôle d'erreur et était donc par principe uniquement utilisable sur le réseau ARPANET, dans la mesure où l'infrastructure était correctement maîtrisée.

Ainsi Bob Kahn, arrivé à l'ARPA depuis 1972, commença à travailler sur les bases d'un nouveau protocole, déjà baptisé TCP. permettant d'acheminer des données sur un réseau en les fragmentant en petits paquets. Au printemps 1973, il demanda à Vinton Cerf (alors à Stanford) de l'aider à bâtir le protocole.

En 1976, le DoD décida de déployer le protocole TCP sur le réseau ARPANET, composé de 111 machines reliées entre elles. En 1978, le protocole TCP fut scindé en deux protocoles : TCP et IP, pour constituer ce qui allait devenir la suite TCP/IP.

Le DNS

Le système de nommage DNS, utilisé de nos jours, fut mis en œuvre en 1984, afin de pallier le manque de souplesse du nommage par table de nommage, demandant la mise à jour manuelle des correspondances entre le noms de machines et leur adresse sur des fichiers textes sur chacune des machines.

Les RFC

En 1969, S. Crocker (alors à l'université de California) met au point le système « Request for Comments » (RFC). Il s'agit de documents présentés sous forme de note, permettant aux chercheurs d'échanger leurs travaux.

Jon Postel (6 août 1943 - 16 octobre 1998) fut chargé de l'administration de ces documents jusqu'à sa mort.

Le World Wide Web

Dès 1980, Tim Berners-Lee, un chercheur au CERN de Genève, mit au point un système de navigation hypertexte et développa, avec l'aide de Robert Cailliau, un logiciel baptisé Enquire permettant de naviguer selon ce principe.

Fin 1990, Tim Berners-Lee met au point le protocole HTTP (Hyper Text Tranfer Protocol), ainsi que le langage HTML (HyperText Markup Language) permettant de naviguer à l'aide de liens hypertextes, à travers les réseaux. Le World Wide Web est né.

L'histoire de l'ordinateur nous provient du fait que l'homme, par nature paresseux, a toujours cherché à améliorer sa façon de calculer, afin de limiter ses erreurs et pour économiser de son temps.

A l'origine : le boulier

Le boulier, appelé aussi « abaque », a été inventé en l'an 700 ; il fut longtemps utilisé et l'est encore aujourd'hui dans certains pays.

Puis vint le logarithme

On attribue généralement l'invention du logarithme à l'écossais John NEPER (1550-1617, parfois orthographié NAPIER). En effet en 1614 celui-ci démontra que la multiplication et la division pouvaient se ramener à une série d'additions. Ceci permit dès 1620 l'utilisation de la règle à calcul.

Pour autant le vrai père de la théorie des logarithmes est « Mohamed Ybn Moussa Al-KHAWAREZMI », un savant arabe issu de la ville persane appelée « Khawarezm ». Ce savant développa par ailleurs l'Algèbre, terme provenant de l'arabe « Al-Jabr », qui signifie compensation, sous-entendu « la compensation par la recherche de la variable inconnue X afin d'équilibrer les résultats des calculs ».

Les premières machines à calculer

En 1623, William Schickard inventa la première machine à calculer mécanique.
En 1642, Blaise Pascal créa la machine d'arithmétique (baptisée Pascaline), une machine capable d'effectuer des additions et soustractions, destinée à aider son père, un percepteur de taxes.
En 1673, Gottfried Wilhelm Von Leibniz ajouta à la Pascaline la multiplication et la division.
En 1834, Charles Babbage invente la machine à différence, qui permet d'évaluer des fonctions.
Cependant il apprend qu'une machine à tisser (métier à tisser Jacquard) est programmée à l'aide de cartes perforées, il se lance donc dans la construction d'une machine à calculer exploitant cette idée révolutionnaire.

C'est en 1820 qu'apparaissent les premiers calculateurs mécaniques à quatre fonctions :

·        addition

·        soustraction

·        multiplication

·        division

Ceux-ci sont rapidement (1885) agrémentés de clavier pour saisir les données. Des moteurs électriques viennent rapidement supplanter les manivelles.

 Les ordinateurs programmables

En 1938, Konrad Zuse invente un ordinateur qui fonctionne grâce à des relais électromécaniques : le Z3. Cet ordinateur est le premier à utiliser le binaire au lieu du décimal.
En 1937, Howard Aiken met au point un ordinateur programmable mesurant 17 m de long et 2.5 mètres de hauteur, permettant de calculer 5 fois plus vite que l'homme :
C'est le Mark I d'IBM.
Il est alors constitué de 3300 engrenages, 1400 commutateurs reliés par 800 km de fil électrique.

En 1947, le Mark II voit le jour, ses engrenages sont remplacés par des composants électroniques.

Les ordinateurs à lampes

En 1942, l'ABC (Atanasoff Berry Computer) du nom de ses concepteurs J.V. Atanasoff et C.Berry voit le jour.

En 1943, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J.Mauchly et J.Presper Eckert : l'ENIAC (Electronic Numerical Integrator And Computer). Il est composé de 18000 lampes à vide, et occupe une place de 1500 m2. Il fut utilisé pour des calculs ayant servi à mettre au point la bombe H.
Son principal inconvénient était sa programmation :
l'ENIAC était en effet uniquement programmable manuellement avec des commutateurs ou des câbles à enficher.

La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les lampes et avait créé un court-circuit. Ainsi le terme anglais pour « insecte » étant « bug », le nom est resté pour désigner une erreur informatique. Le terme bug a été francisé par la suite en bogue, terme désignant également le nom de l'enveloppe épineuse et piquante de la châtaigne.

En effet, les tubes étant de médiocres conducteurs, ils nécessitaient une grande quantité d'énergie électrique qu'ils dissipaient en chaleur. Cette lacune est palliée en 1946 avec la mise au point de l'EDVAC (Electronic Discrete Variable Computer) permettant de stocker les programmes en mémoire (1024 mots en mémoire centrale et 20000 mots en mémoire magnétique).

Le transistor

En 1948, le transistor est créé par la firme Bell Labs (grâce aux ingénieurs John Bardeen, Walter Brattain et William Shockley). Il permet dans les années 50 de rendre les ordinateurs moins encombrants, moins gourmands en énergie électrique donc moins coûteux : c'est la révolution dans l'histoire de l'ordinateur 

Le circuit intégré

Le circuit intégré est mis au point en 1958 par Texas Instruments, il permet de réduire encore la taille et le coût des ordinateurs en intégrant sur un même circuit électronique plusieurs transistors sans utiliser de fil électrique.

Les premiers ordinateurs à base de transistors

En 1960, l'IBM 7000 est le premier ordinateur à base de transistor.
En 1964, l'IBM 360 fait son apparition, avec également l'arrivée remarquée du DEC PDP-8.

Les micro-ordinateurs

C'est en 1971 qu'apparaît le premier micro-ordinateur : le Kenback 1, avec une mémoire de 256 octets.

Les microprocesseurs

En 1971, le premier microprocesseur, l'Intel 4004, fait son apparition. Il permet d'effectuer des opérations sur 4 bits simultanément.
A la même époque Hewlett Packard commercialise la calculatrice HP-35.
Le processeur 8008 d'Intel (permettant de traiter 8 bits simultanément) apparaît en 1972.

En 1973, le processeur 8080 d'Intel garnit les premiers micro-ordinateurs : le Micral et le Altair 8800, avec 256 octets de mémoire. A la fin de l'année 1973, Intel commercialisait déjà des processeurs 10 fois plus rapides que le précédent (le Intel 8080) et comportant 64 ko de mémoire.

En 1976, Steve Wozniak et Steve Jobs créent le Apple I dans un garage. Cet ordinateur possède un clavier, un microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de mémoire vidéo.
La petite histoire dit que les 2 compères ne savaient pas comment nommer l'ordinateur ; Steve Jobs voyant un pommier dans le jardin décida d'appeler l'ordinateur pomme (en anglais apple) s'il ne trouvait pas de nom pour celui-ci dans les 5 minutes suivantes...

En 1981 IBM commercialise le premier « PC » composé d'un processeur 8088 cadencé à 4.77 MHz.

Les ordinateurs d'aujourd'hui

Il est très difficile de nos jours de suivre l'évolution de l'ordinateur. En effet cette évolution suit la loi de Moore (Intel©) : « on peut placer 4 fois plus de transistor sur une puce tous les 3 ans ».
On devrait ainsi arriver à 1 milliard de transistors sur une puce aux alentours de 2010.

L'histoire du disque dur

Le premier disque dur a été inventé au début en 1956, sur demande de l'US Air Force, par la firme IBM. Il s'agit du Ramac 305 (Random Access Method of Accounting and Control), un ensemble de 50 disques en aluminium de 61 centimètres de diamètre, tournant à 3600 tours par minute et recouverts d'une fine couche magnétique, permettant de stocker un total de 5 millions de caractères (5 mégaoctets). Ce disque proposait un taux de transfert de 8.8 Ko/s et pesait plus d'une tonne ! Le 10 février 1954 le disque dur baptisé Ramac 305 put lire et écrire successivement des données, ce fût une première dans ce que l'on nomma les périphériques de stockage à accès direct (en anglais Direct Access Storage Devices ou DASD).

En 1962 IBM introduit le modèle 1301 proposant une capacité de 28 Mo avec un taux de transfert et une densité surfacique 10 fois supérieurs à ceux du RAMAC 305 et une distance entre les têtes et la surface du disque passant de 20.32 µm à 6.35 µm.

Ainsi à partir de 1962 plusieurs fabricants commencèrent à commercialiser de tels disques durs.

En 1965 IBM commercialisa le modèle 2310 dont la particularité était de posséder une partie amovible.

Le modèle 2314 commercialisé en 1966 était équipé de têtes de lecture en ferrite (oxyde de fer).

En 1973, IBM lança le Winchester 3340, un disque dur dont la tête de lecture était soulevée par un film d'air d'une épaisseur de seulement 0.43 µm. Sa capacité accrue par rapport au RAMAC ainsi que sa taille et son poids réduits firent de ce disque le nouveau standard de périphérique de stockage à accès direct. C'est sa capacité de 30 Mo qui lui valut le surnom de 30-30 et donc de « Winchester » (le nom de la fameuse carabine 30-30).

Le premier lecteur de disques durs 5 pouces un quart verra le jour en 1980, développée par la firme Seagate.

La naissance de l'interface SCSI

A partir de 1979, la compagnie Shugart Associates, fondée par Alan F. Shugart (un ancien chef de produit de la firme IBM), met au point une connexion parallèle permettant de connecter des disques durs à des ordinateurs de type PC et nomme cette technologie SASI (Shugart Associates Standard Interface). Cette interface deviendra le SCSI en 1982 et sera standardisée par l'ANSI (American National Standards Institute) en 1986.

La naissance de la disquette

En 1967 le premier lecteur de disquettes « souples » (en anglais floppy disk) est mis au point par IBM.

En août 1976 Shugart annonce le premier lecteur de disquettes 5 pouces 1/4 (5.25 pouces) à un prix de 390 $.

En juin 1982 c'est au tour de Sony de présenter un nouveau format de disquettes : les disquettes 3"1/2 (trois pouces et demi).

astuces pour windows xp 

 

                                                           

Ce site permet une communication sans frontières et en continu : en effet avoir un site internet permet d’obtenir une vitrine de notre activité, de notre passion, etc. accessible partout dans le monde 24h/24h et 7 jours/7 jours. Internet est le seul support de communication de masse permettant de diffuser a la fois du texte, des photos, de l’audio, et des vidéos. Cette capacité en fait un support particulièrement riche, vivant et dynamique ; grâce à internet les échanges entre les hommes se sont particulièrement développés et accélérés. Nous allons à la rencontre des autres, nous proposons des contenus aux internautes, qui les feront vivre en les commentant, en participant à notre forum …MERCI…

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×