next up previous contents
Next: Panorama des NTI Up: Table des matières Previous: Table des matières

Sous-sections


Introduction

Deux prédictions informées mais néanmoins erronées:

1940, T.J. WATSON (PDG de IBM) : ``Il n'y a pas de débouchés importants pour les ordinateurs dans les entreprises, ils ne seront utilisés que dans les projets scientifiques ou gouvernementaux.''

1949, Norbert Wiener (mathématicien) : ``La diffusion rapide et universelle de l'automation (robots everywhere) grâce aux ordinateurs.''

En effet, le développement et l'extension de l'usage des ordinateurs ont été à la fois beaucoup plus rapide que ce que Watson prévoyait et beaucoup plus lent que ce que beaucoup d'écrivains de SF espéraient.

Pourquoi?

\includegraphics[
height=3.0116cm,
width=5.7661cm
]{boulier.eps} \includegraphics[
height=3.0599cm,
width=4.0857cm
]{eniac.eps} \includegraphics[
height=3.0116cm,
width=2.6425cm
]{pcmodern.eps}
Boulier chinois : 3000 BC ENIAC : 1946 (30 tonnes) PC Portable : 2001 (2kg)

Les robots ne sont pas partout, mais les ordinateurs le sont: les nouvelles technologies de l'information et l'intégration des bases de données.

Figure 1.1: Évolution de la population d'internautes
\fbox{\includegraphics[scale=0.8]{internautes.eps}}

Figure 1.2: Transactions B2B sur l'Internet aux E.U.
\fbox{\includegraphics[scale=0.5]{usb2becommerce.eps}}

Les mots-clé des NTI : Ordinateur - Réseaux - Bases de données - Identification

L'objectif de ce cour est double:

  1. Vous donner un aperçu des composantes des NTI (Partie I);

  2. Vous sensibiliser par rapport à leurs conséquences sur les sociétés industrialisées (Partie II).

Les douze séances de travaux pratiques vous donneront les moyens de les utiliser sous Microsoft Windows: la création des documents et l'utilisation de l'Internet.

Petite histoire de l'ordinateur

Source : J.A.N. Lee, Stanley Winkler (1996), Key Events in the History of Computing, IEEE Computer Society.

Assez vite les individus mais surtout les empires ont eu besoin de simplifier et d'automatiser les calculs (de la surface des terrains, des impôts levés...).

Les premier calculs concernaient l'addition et la soustraction et on utilisait des objets (des pierres, des perles...) pour représenter d'autres objets. C'est le principe du boulier qui a été probablement inventé à Babylone et obtenu sa forme finale en Chine.

Le calcul n'est devenu une manipulation de symboles qu'à partir du moment où il est devenu abstrait: on a commencé à représenter de manière abstraite des groupes d'objet au lieu de représenter chacun d'eux. Le processus qui allait conduire à l'invention de l'ordinateur était en marche.

Au 12e siècle, Mohammad bin Musa Al'Khowarizmi a écrit un livre où il développe le concept d'un processus écrit qu'il faut suivre pour faire un calcul de manière systématique: un algorithme .

En 1612, John Napier utilise pour la première fois le point décimal et il invente par la suite les logarithmes. Il développe aussi les première machines pour effectuer des multiplications.

En 1622, William Oughtred a inventé la règle à calcul qui allait être utilisée par des ingénieurs jusqu'aux années 1980. Elle avait une précision de trois chiffres après la virgule.

En 1642 Blaise Pascal a créé une machines à additions ( la Pascaline ) qui gère automatiquement les retenues.

En 1673 Gottfried Leibniz a construit un calculateur qui était capable de multiplier de manière répétitive et à ajouter le résultat dans un accumulateur (permettant donc le calcul des puissances).

En 1822 Charles Babbage, reconnaissant que tous ces calculateurs manquaient de précision, a cherché à inventer une machine qui permet de calculer toutes les principales tables utilisées à l'époque et cela avec une subvention du gouvernement Britannique (la machine à différence de Babbage).

En 1854 George Boole décrit pour la première fois son système de logique symbolique qui va devenir la base de calcul dans les ordinateurs.

La population croissante des États-Unis rendant de plus en plus long le dépouillement des données de recensement, le gouvernement a publié un appel d'offre qui a été gagné en 1890 par Herman Hollerith qui a développé un équipement pour traiter ces données. Hollerith a fondé en 1914 la firme Calculating-Tabulating-Recording (C-T-R) qui allait devenir International Business Machines (IBM) en 1924.

En 1935-38 Konrad Zuse a développé, dans la salle de séjour de ses parents, à Berlin, son ordinateur Z-1 utilisant une arithmétique binaire. Le gouvernement Nazi refusant de l'aider (car la construction allait prendre plus de temps que la fin e la guerre), il a continué à l'étranger et il a construit Z-4 en Suisse. Il a fondé une entreprise qui a été par la suite absorbée par Siemens.

En 1937 Alan Turing a développé l'idée de la Machine Universelle capable d'exécuter tout algorithme qui peut être décrit. Cela correspond aussi à l'invention du concept de computabilité. Il a aussi innové fondamentalement en solvant les problèmes arithmétiques en introduisant le concept de manipulation symbolique.

En 1940, Les Laboratoires Bell a utilisé son Calculateur de Nombres Complexes (inventé un an plus tôt) à travers une ligne téléphonique et inventé ainsi la possibilité de mettre en réseau les ordinateurs et le partage de temps de calcul sur un système.

La Seconde Guerre Mondiale a accéléré les recherches sur l'automatisation des calculs et les algorithmes (pour la logistique, le ravitaillement des vaisseaux...).

En 1944, le premier calculateur électro-mécanique généraliste et grande échelle a été créé: Harvard Mark I (alias IBM ASCC). Il effectuait les opérations qu'on lui demandait en les codifiant sur une bande de papier perforé.

L'effort de décryptage des messages codés a poussé les deux camps à développer des machines à coder et décoder les messages de manière de plus en plus sophistiquée. Le service de décryptage des alliés à Londres (ENIGMA) utilisait, en autres, Alan Turing.

En 1943 le travail sur ENIAC a commencé à l'Université de Pennsylvanie avec le soutien de l'Armée Américaine.

Le 30 juin 1945 John von Neumann a écrit ``Première version d'un rapport sur EDVAC qui a établie les bases de l'architecture de plusieurs générations d'ordinateurs à vernir même s'il existe une controverse de paternité à ce sujet.

En 1945, Grace Murray Hopper a trouvé le premier bug informatique pendant qu'il travaillait sur l'ordinateur Mark II à l'Université de Harvard:

\includegraphics[
height=4.6327cm,
width=11.8464cm
]{bug.eps}
Premier bug informatique trouvé par Hopper

Le 14 février 1946 l'Université de Pennsylvanie a montré ENIAC au public. On programmait cette machine en changeant la connexion des câbles entre les composantes.

En 1947 William Shockley, John Bardeen, et Walter Brattain inventent ce qu'on va par la suite appeler le transistor .

Pendant les années 1950, plusieurs projets ont développé des ordinateurs capables de stocker leur programme en mémoire, dont celui de von Neumann à Princeton en 1952 et UNIVAC qui est utilisé pour prédire le résultat des élections présidentielles américaines de 1952, à la télévision.

En 1957, le premier langage de programmation supérieur (le Fortran) a été créé par John Backus et son équipe chez IBM.

En 1959, après plusieurs années de travail, la firme General Electric Corporation a livré 32 systèmes ERMA à la Banque d'Amériques à Californie pour permettre le traitement du nombre croissant de chèques avec même un système de reconnaissance de caractères. C'était le début de l'automatisation du système bancaire.

En 1960, Joe Wegstein a développé un nouveau langage de programmation: le COBOL qui allait dominer l'industrie du logiciel pendant plusieurs décennies. La commercialisation des premiers circuits intégrés a commencé en 1961.

Dans la diversité de tous les projets développés, l'idée de la nécessité d'une standardisation a clairement apparu même si cela pose problème encore aujourd'hui.

Les lois du monde de l'informatique ont été modifiées par IBM en 1964 avec la première machine compatible: System/360.

A l'automne 1964, le BASIC a été retenu comme le langage du système informatique de l'Université de Dartmouth après son développement par John Kemmeny and Tom Kurtz.

En 1965, Digital Equipment (maintenant acheté par Compaq, qui lui est acheté par Hewlet Packard) a inventé le premier mini-ordinateur en concurrence directe avec les super-ordinateurs en vigueur jusqu'alors.

En 1969 , le Département de la défense américain crée ARPANET . Le réseau, voué avant tout à la recherche militaire, est constitué de quatre ordinateurs, également appelés noeuds, interreliés.

1971 a vu la naissance du premier micro-processeur (INTEL 4004) et du premier lecteur de disquette (par Alan Sugar chez IBM).

En 1973, Robert Metcalfe invente Ethernet chez Xerox PARC pour les réseaux locaux. Ethernet allait devenir le protocol de transmission sur ARPANET une fois qu'elle sera opérationnelle.

En 1972, Bob Kahn organise une démonstration en reliant par le biais d'ARPANET 40 machines lors d'une conférence internationale sur les communications par ordinateur. De même, Vint Cerf préside l'InterNet Working Group (INWG) qui a pour mandat de définir un protocole universel permettant à tous les ordinateurs et réseaux existants de se relier entre eux et Ray Tomlinson de la firme de consultants BBN développe un programme de courrier électronique (courriel).

En 1974 , Gary Kildall introduit CP/M comme le premier système d'exploitation (presqu') indépendant de toute plate-forme.

Les années 1970s voit l'émergence d'une demande sociale pour l'ordinateur, y compris en kit si le montage ne nécessite pas un diplôme d'ingénieur. Edward Roberts, William Yates et Jim Bybee développent entre 1973 et 1974 MITS Altair 8800 . La machine coûte 375$ et elle n'a ni clavier, ni écran et elle n'a que 256 octets de mémoire vive. Plus tard Bill Gates et Paul Allen vont développer leur premier logiciel pour ce système: un compilateur de BASIC.

IBM développe le premier ordinateur personnel (PC) en 1975 : le 5100. Son prix et la disponibilité de peu de logiciels a fait qu'il n'a jamais eu le succès d'Altair. La même année CRAY I est né de manière à établir le standard pour les super-ordinateurs modernes. La puissance d'une machine est encore aujourd'hui évaluée en la comparant avec un CRAY.

Une année après Altair, Steve Jobs et Steve Wozniak produisent Apple II en 1976 . Complet avec son clavier et son écran et vendu à un prix très raisonnable, Apple II obtint un succès immédiat et il est utilisé dans les écoles. La même année les sociétés Apple et Microsoft sont fondées.

En 1978, Daniel Bricklin et Bob Frankston ont introduit le premier tableur: le Visicalc . Pour beaucoup d'utilisateurs, notamment pour les entreprises, c'est le début des logiciels utilisables. Ce succès est suivi par la création de Wordstar par Micropro International en 1979. Visicalc a mis en place les standards pour le tableur et Wordstar, pour le traitement de texte.

En 1979, grâce à des subventions de la National Scientic Foundation, le CSNET (Computer Science NETwork) voit le jour.

En 1980 , Alan Shugart quitte IBM et fonde sa propre société qui propose le premier disque dur Winchester. Cela complète définitivement l'ordinateur personnel en lui donnant la capacité de stockage qui lui faisait défaut pour concurrencer les mini-ordinateurs et, plus tard, les super-ordinateurs.

La même année une passerelle est jetée entre le réseau ARPANET et le CSNET. La jonction de ces deux grands réseaux signifie en quelque sorte la naissance d'Internet, ou le réseau des réseaux.

Après avoir attendu que le marché soit calmé, IBM entre dans le domaine en 1981 avec l'IBM PC utilisant le micro-processeur 8086 d'Intel. Au lieu d'adopter CP/M qui est déjà le standard, IBM préfère établir un accord avec Microsoft pour son système DOS. Cet accord donne tous les profits à Microsoft en échange du coût de développement du DOS. La même année Commodore introduit le Vic-20 dont il se vend rapidement un million d'unités. La même année le Minitel est né en France.

En 1982, Disney produit le premier film dont les effets spéciaux sont développés avec un ordinateur (Tron). La même année les protocoles TCP et IP (Internet Protocol) sont adoptés officiellement par la Défense américaine pour le réseau ARPANET, qui accepte de les distribuer gratuitement sur le réseau. Un nouveau standard de communication est né et il est utilisé encore aujourd'hui.

En 1984, Steve Jobs annonce la naissance de Apple Macintosh.

En 1991 GOPHER, le premier logiciel de navigation et de recherche sur le réseau Internet, est mis au point par le service informatique de l'Université du Minnesota.

La même année le World Wide Web est développé en Suisse par le CERN, un centre de recherche en physique. Il s'agit d'une nouvelle interface graphique conviviale incorporant textes, images, sons grâce au langage SGML (Single Generalized Markup Language), dont l'équivalent sur l'Internet sera le HTML (HyperText Markup Language).

Au même moment, un étudiant finlandais de l'Université de Helsinki, Linus Torvalds , poste sur un forum de discussion un message annonçant qu'il a développé un petit clone d'Unix pouvant fonctionner sur les plate-forme Intel (PC) et qu'il est prêt à l'offrir à la communauté. Le système d'exploitation Linux naît en version 0.02. Torvalds continue à travailler sur Linux jusqu'à la version 1.0 en 1994. La version actuelle du noyau de Linux est 2.4 (développée en janvier 2001). C'est aussi la naissance du mouvement des logiciels libres.

En 1993 , Mosaic, le premier navigateur qui sait afficher des documents multimédia en HTML voit le jour. Avec la naissance de sa version commerciale (gratuite pour les utilisateurs individuels), Netscape, le WWW prend définitivement son essor comme un nouveau médium de communication. 1993 voit aussi la création du réseau universitaire français: le RENATER.


next up previous contents
Next: Panorama des NTI Up: Table des matières Previous: Table des matières
Murat Yildizoglu