Histoire de l'informatique

Histoire de l'informatique

Histoire de l'informatique

Cet article présente les avancées majeures dans lévolution de linformatique. Pour une chronologie détaillée, voir : Chronologie informatique.

LENIAC

Quand on parle dinformatique on pense souvent ordinateur. Pourtant, linformatique existe depuis plus longtemps. Il sagit avant tout de méthode technique pour améliorer le calcul. Ensuite sont apparues les manipulations de données non calculatoires, et la recherche de lIA.

Sommaire

Premiers outils

Depuis des milliers dannées, lhomme a créé et utilisé des outils laidant à calculer. Au départ, la plupart des sociétés ont sans doute utilisé la main, ainsi que dautres parties du corps, comme auxiliaires de calcul. Puis apparurent les entailles dans du bois, les entassements de cailloux, de coquillages ou dosselets (il est intéressant de remarquer que le mot « calcul » provient du mot latin, calculi qui signifiait « cailloux »). Le premier exemple doutil plus complexe est labaque, qui connut diverses formes, jusquau boulier toujours utilisé en Chine et en Russie. Parmi les algorithmes les plus anciens, on compte des tables datant de lépoque dHammurabi (env. -1750).

Vers 1617, John Napier invente une sorte dabaque perfectionné. Son invention des logarithmes permit en 1625 à William Oughtred de développer la règle à calcul qui fut utilisée jusquà lapparition des calculatrices de poche par de nombreux ingénieurs. Ainsi, par exemple, une grande partie des calculs nécessaires au programme Apollo furent effectués avec des règles à calcul.

Premiers calculateurs mécaniques

Les premiers outils autonomes — mécaniques — apparurent au XVIe ou XVIIe siècle. Limités tout dabord aux simples opérations daddition et de soustraction, ils utilisaient des pignons et roues à dents dhorlogerie.

Il est difficile de dire qui créa le premier modèle de ces machines. Deux manuscrits de Léonard de Vinci, écrits vers 1500, semblaient décrire un tel mécanisme. Une analyse plus approfondie de ces manuscrits montre quil sagit en fait de machines de levage. Des modèles fonctionnant ont pu être fabriqués par la suite mais il nen reste pas de trace.

Wilhelm Schickard en 1623, dans une lettre écrite à Johannes Kepler, propose lutilisation dune machine décrite comme une horloge à calcul capable de « calculer immédiatement les nombres donnés automatiquement ; additionner, soustraire, multiplier et diviser, etc. », aucun exemplaire dépoque na été retrouvé mais il a été possible den construire à partir de ses descriptions.

En 1640, le jésuite hollandais Jean Ciermans mentionne dans ses Disciplinae Mathematicae un appareil à roues pour effectuer sans erreur les multiplications et les divisions mais il nen donne aucune description.

Du fait quaucun modèle fonctionnel antérieur na pu être découvert et quaucun navait été commercialisé, on crédite en général Blaise Pascal de la création du premier calculateur mécanique : la pascaline. Le premier exemplaire fut construit vers 1642 et nétait capable deffectuer que des additions et des soustractions.

En 1673, Gottfried Leibniz en perfectionne le principe pour la rendre capable deffectuer des multiplications, des divisions et même des racines carrées, le tout par une série dadditions sous la dépendance dun compteur. Leibniz inventa aussi le système binaire, système de numération qui sera approprié aux futurs ordinateurs (soit sous forme de binaire pur pour les machines scientifiques, soit sous forme de décimal codé binaire, ou DCB, pour les machines commerciales qui font plus dentrée-sortie que de calcul). Néanmoins, jusquen 1945, les machines étaient encore basées sur le système décimal, plus difficile à implémenter.

À la fin du XVIIIe siècle, des machines étaient capables de réaliser un grand nombre dopérations afin de calculer des fonctions polynomiales et de , obtenir des tables logarithmiques et trigonométriques (par approximation polynomiale). Il est étonnant de constater que cest précisément le développement de linformatique qui a rendu aujourdhui lusage de ces tables presque inutiles.

Premières machines programmables

La principale marque dun ordinateur est sa programmabilité. Celle-ci permet à lordinateur démuler toute autre machine à calculer en changeant la séquence des instructions disponibles.

En 1725, Basile Bouchon, un Lyonnais, met au point un système de programmation dun métier à tisser à laide dun ruban perforé. Cétait le début de la programmation. Cette invention est perfectionnée en 1728 par son assistant, Jean-Baptiste Falcon, qui utilise une série de cartes perforées reliées entre elles. Jacques de Vaucanson reprend lidée en remplaçant ruban et cartes par un cylindre métallique perforé. On crédite souvent Joseph-Marie Jacquard de linvention des cartes perforées, mais il ne fit que perfectionner et commercialiser le métier à tisser automatique au début du XIXe siècle.

En 1833, Charles Babbage décrivit sa machine analytique. Cétait un calculateur mécanique programmable utilisant des cartes perforées comme données et fonctionnant à la vapeur. Bien que sa théorie ait été correcte, le manque de pièces mécaniques suffisamment précises et de financement public firent obstacle à la construction de cette machine. Ada Lovelace créa une série de programmes (suite de cartes perforées) pour cette machine, ses efforts firent delle la première programmeuse du monde.

Sur les conseils dHerman Hollerith (qui allait créer IBM), le Bureau du recensement américain (United States Census Bureau) utilisa des cartes perforées pour le recensement de 1890.

Au XIXe siècle et XXe siècle, lélectricité permit de motoriser les calculateurs mécaniques et de remplacer certains mécanismes, par de l'électromécanique.

L'essor de l'informatique au XXe siècle

Un survol du XXe siècle permet d'avancer plusieurs raisons à l'essor fulgurant de l'informatique :

  • Les progrès dans la réflexion sur les fondements de la Logique et des Mathématiques : la volonté de fonder les Mathématiques par la Logique aboutit à un échec.
  • Les progrès de l'électronique
  • La mobilisation massive de moyens militaro-industriels au moment de la seconde guerre mondiale dépasse l'ambition des programmes nationaux habituels d'aide au développement.

Les calculateurs analogiques

Avant la Seconde Guerre mondiale, les ordinateurs analogiques, quils fussent mécaniques ou électriques, étaient considérés comme le dernier cri de la technologie et beaucoup pensaient quils seraient le futur de linformatique. Ces ordinateurs analogiques utilisaient des quantités physiques, telles que la tension, le courant ou la vitesse de rotation des axes, pour représenter les nombres. Ainsi, ils devaient être reprogrammés manuellement à chaque nouveau problème. Leur avantage par rapport aux premiers ordinateurs numériques était leur capacité à traiter des problèmes plus complexes, avec une certaine forme de parallélisme.

Les calculateurs stochastiques, la grandeur physique était remplacée par une probabilité, parurent sur le moment être lavenir du calculateur analogique : ils étaient en effet bon marché, faciles à produire en masse, et rapides (en particulier pour les multiplications). Mais les ordinateurs numériques, plus faciles encore à programmer, remplacèrent ces ordinateurs analogiques.

Première génération dordinateurs (1936-1956)

En 1936, la publication de l'article fondateur de la science informatique (en)On Computable Numbers with an Application to the Entscheidungsproblem par Alan Mathison Turing allait donner le coup d'envoi à la création de l'ordinateur programmable. Il y présente sa machine de Turing, le premier calculateur universel programmable, et invente les concepts de programmation et de programme.

Enigma, une machine de chiffrement électromécanique à cylindres; la version ci-dessus est probablement militaire, mais est similaire à la version commerciale Enigma-D

Lère des ordinateurs modernes commença avec les grands développements de la Seconde Guerre mondiale. Les circuits électroniques, tubes à vide, condensateurs et relais remplacèrent leurs équivalents mécaniques et le calcul numérique remplaça le calcul analogique. Les ordinateurs conçus à cette époque forment la première génération dordinateurs.

Vers 1954, les mémoires magnétiques (tores de ferrite pour la mémoire vive, bandes, ensuite disques amovibles puis fixes pour la mémoire de masse) supplantèrent toute autre forme de stockage et étaient dominantes au milieu des années 1970.

De nombreuses machines électromécaniques furent construites avec des capacités diverses. Elles neurent quun impact limité sur les constructions à venir.

Les premiers calculateurs programmables

En 1937, George Stibitz construisit le premier circuit binaire, un additionneur : le Model K. K, pour Kitchen. En effet, il construisit son appareil dans sa cuisine.

En 1938, Konrad Zuse commença la construction des premières séries-Z, des calculateurs électromécaniques comportant une mémoire et une programmation limitée. Zuse fut soutenu par la Wehrmacht qui utilisa ces systèmes pour des missiles guidés. Les séries-Z furent les précurseurs de nombreuses avancées technologiques telles que larithmétique binaire et les nombres en virgule flottante.

Konrad Zuse mit au point cette année- le Z1 (ou Versuchsmodell), qui ne fonctionna jamais vraiment correctement faute de crédits de développement (le Troisième Reich ne croyait guère à lidée de Zuse).

La même année, John Vincent Atanasoff et Clifford E. Berry, de lUniversité de lÉtat de lIowa, développèrent lordinateur Atanasoff-Berry, un additionneur 16 bits binaire. Cette machine avait pour but de résoudre des systèmes déquations linéaires. La mémoire était stockée à laide de condensateurs fixés à un tambour rotatif.

En novembre 1939, John Vincent Atanasoff et Clifford E. Berry achevèrent lABC (Atanasoff Berry Computer). Composé de lampes et de tambours pour la mémoire, il fut construit pour résoudre des systèmes déquations linéaires. Bien que nétant pas programmable, il était basé sur trois idées propres aux ordinateurs modernes : lutilisation du système binaire (plus fiable et plus simple à mettre au point que le système décimal), la séparation entre le calcul et la mémoire et lutilisation de composants électroniques plutôt que des éléments mécaniques pour réaliser les calculs. Il pouvait stocker 60 mots de 50 bits dans ses deux tambours, fonctionnait à une vitesse dhorloge de 60 Hz et réalisait 30 additions par seconde.

En 1940, George Stibitz et Samuel Williams achevèrent le Complex Number Computer (ou Model I), un calculateur à base de relais téléphoniques. Ce fut la première machine utilisée à distance via une ligne de téléphone. Il réalisait une multiplication en une minute.

En 1941, Konrad Zuse construit le Z3. Il était basé sur 2 600 relais de téléphone, lisait les programmes sur bandes magnétiques et fonctionnait parfaitement, ce qui en fit le premier ordinateur programmable fonctionnel. Il utilisait larithmétique binaire et les nombres à virgule flottante. Le Z3 pouvait enregistrer 64 nombres de 22 bits, avait une fréquence de 5,33 Hz et réalisait quatre additions par seconde ou 15 multiplications en une minute.

En 1944, le Harvard Mark I (ou lASCC, Automatic Sequence Controlled Calculator) fut mis au point par Howard H. Aiken chez IBM. Cétait une machine de calcul décimal qui lisait les programmes depuis une bande de papier. Elle pesait cinq tonnes et occupait une place de 37 mètres carrés. Elle était composée de plusieurs calculateurs qui travaillaient en parallèle et réalisait trois opérations sur 23 chiffres par seconde.

Pendant la Seconde Guerre mondiale, le Royaume-Uni fit de grands efforts à Bletchley Park pour déchiffrer les codes des communications militaires allemands. Le principal système de chiffrement allemand, Enigma (et ses différentes variantes), fut attaqué avec laide de machines appelées bombes, créées par les services secrets polonais et améliorées par les Britanniques, qui permettaient de trouver les clés de chiffrement après que dautres techniques en eurent réduit le nombre possible. Les Allemands créèrent également une autre série de systèmes de chiffrement (appelés FISH par les Britanniques) très différents dEnigma. Pour casser ces systèmes, le professeur Max Newman et ses collègues fabriquèrent Colossus ou la « bombe de Turing », il n'était pas Turing-complet bien qu'Alan Turing ait travaillé au projet. À la fin de la guerre, il fut démonté et caché à cause de son importance stratégique.

Colossus était la première machine totalement électronique, elle utilisait uniquement des tubes à vide et non des relais. Elle était composée de 2 000 tubes à vide et lisait des rubans perforés à la vitesse de 5 000 caractères par seconde. Colossus implémentait les branchements conditionnels. Neuf machines ont été construites sur le modèle Mk II ainsi quune dixième lorsque la seule Mk I a été convertie en Mk II. Lexistence de cette machine a été tenue secrète jusque dans les années 1970 ce qui explique pourquoi de nombreuses histoires de linformatique nen font pas mention. Il a été dit que Winston Churchill a personnellement donné lordre de leur destruction en pièces de moins de vingt centimètres pour conserver le secret. Il existe actuellement un projet actif pour reconstruire une de ces machines.

Les premiers ordinateurs

LENIAC

Début 1946, Presper Eckert et John William Mauchly achevèrent lENIAC (Electronic Numerical Integrator and Computer), qui est le premier ordinateur entièrement électronique construit pour être Turing-complet. Il avait été commandé en 1942 par larmée américaine afin deffectuer les calculs de balistique. LENIAC utilisait des tubes à vide (au nombre de 17 468) contrairement au Z3 qui utilisait des relais mécaniques. Néanmoins, il faisait ses calculs en système décimal. Malgré la véhémence de ses détracteurs qui auguraient de sa fragilité (celles des tubes à vide), il était très fiable pour lépoque et pouvait calculer plusieurs heures entre deux pannes. Physiquement cétait un monstre: il pesait plus de 30 tonnes, occupait 72 m² et consommait une puissance de 160 kW. Il tournait à 100 kHz, était composé de 20 calculateurs fonctionnant en parallèle et pouvait effectuer 100 000 additions ou 357 multiplications par seconde.

À partir de 1948 apparurent les premières machines à architecture de von Neumann : contrairement à toutes les machines précédentes, les programmes étaient stockés dans la même mémoire que les données et pouvaient ainsi être manipulés comme des données. La première machine utilisant cette architecture était le Small-Scale Experimental Machine (SSEM) construit à luniversité de Manchester en 1948. Le SSEM fut suivi en 1949 par le Manchester Mark I qui inaugura un nouveau type de mémoire composée de tubes cathodiques. La machine était programmée avec le programme stocké en mémoire dans un tube cathodique et les résultats étaient lus sur un deuxième tube cathodique.

Parallèlement luniversité de Cambridge développa lEDSAC, inspiré des plans de lEDVAC, le successeur de lENIAC. Contrairement à lENIAC qui utilisait le calcul en parallèle, lEDVAC et lEDSAC possédaient une seule unité de calcul. Il utilisait un type de mémoire différent du Manchester Mark I, constitué de lignes à retard de mercure. LEDSAC tournait à une vitesse dhorloge de 0,5 MHz.

On peut considérer que larchitecture de tous les ordinateurs actuels dérive de celle de Manchester Mark I / EDSAC / EDVAC, ils sont dit de type von Neumann.

En 1950 naquît le premier ordinateur soviétique, le MESM (МЭСМ en russe, Small Electronic Calculating Machine), sous la direction de Sergei Alexeevich Lebedev à linstitut dÉlectrotechnologie de Kiev. Il était composé de 6 000 tubes à vide, consommait 25 kW et réalisait 3 000 opérations par seconde.

En février 1951, le premier modèle de Ferranti Mark I, version commerciale du Manchester Mark I et premier ordinateur commercial de lhistoire, est vendu. Il sen vendra 9 jusquen 1957.

Quatre mois plus tard, P. Eckert et J. Mauchly de Remington Rand commercialisèrent lUNIVAC I (Universal Automatic Computer). Contrairement aux machines précédentes, il ne lisait pas des cartes perforées mais des cassettes métalliques. Il possédait 5 200 tubes à vide, avait une mémoire à lignes à retard de mercure de 1 000 mots de 72 bits et consommait 125 kW. Il exécutait 8 333 additions ou 555 multiplications par seconde. 46 exemplaires furent vendus au total, à plus dun million de dollars lunité.

En avril 1952, IBM produit son premier ordinateur, lIBM 701, pour la défense américaine. LIBM 701 utilisait une mémoire à tubes cathodiques de 2 048 mots de 36 bits. Il effectuait 16 000 additions ou 2 200 multiplications par seconde. 19 machines seront installées au total.

La même année, IBM est contacté pour mettre en chantier la production des ordinateurs du réseau SAGE. Une cinquantaine de machines, portant le nom AN/FSQ7, sera produite. Chaque machine comportait 75 000 tubes, pesait 275 tonnes et consommait 750 kW.

En juillet 1953, IBM lance lIBM 650, ordinateur scientifique comme tous ceux des séries 600 (son successeur sera le 1620). Il était composé de tubes à vide et avait une mémoire à tambour de 2 000 mots de 10 digits, mais était relativement lent. Environ 2 000 unités furent produites jusquen 1962. Linstabilité des résultats déquations différentielles mise en évidence pour la première fois sur cette machine par Marion Créhange à luniversité de Nancy aurait pu faire naître dès les années 1950 les questions relatives au chaos.

En avril 1955, IBM lance lIBM 704, premier ordinateur commercial capable aussi de calculer sur des nombres à virgule flottante. Larchitecture du 704 a été significativement améliorée par rapport au 701. Il utilisait une mémoire à tores de ferrite de 32 768 mots de 36 bits, bien plus fiable et plus rapide que les tubes cathodiques et les autres systèmes utilisés jusqualors. Daprès IBM, le 704 pouvait exécuter 40 000 instructions par seconde. 123 machines seront vendues jusquen 1960.

Deuxième génération (1956-1963)

La deuxième génération dordinateurs est basée sur linvention du transistor en 1947. Cela permit de remplacer le fragile et encombrant tube électronique par un composant plus petit et fiable. Les ordinateurs composés de transistors sont considérés comme la deuxième génération et ont dominé linformatique dans la fin des années 1950 et le début des années 1960. Malgré lutilisation de transistors et de circuits imprimés, ces ordinateurs étaient encore encombrants et seulement utilisables par les universités, gouvernements et grandes sociétés. Par exemple, lIBM 650 de 1954 composé de tubes à vide pesait 900 kg et son alimentation environ 1 350 kg, chacun enfermé dans un module de près de 2,5 m³. Il coûtait 500 000 $ ou pouvait être loué 3 500 $ par mois. De plus sa mémoire nétait que de 2 000 mots de 10 digits.

En 1955, Maurice Wilkes inventa la microprogrammation, désormais universellement utilisée dans la conception des processeurs. Le jeu dinstructions du processeur est défini par ce type de programmation.

En 1956, IBM sortit son premier système de disque magnétique, RAMAC (Random Access Method of Accounting and Control). Il utilisait 50 disques de 24 pouces en métal, avec 100 pistes par face. Il pouvait enregistrer cinq mégaoctets de données et coûtait 10 000 $ par méga octet.

Le premier langage de programmation universel de haut niveau à être implémenté, le Fortran (Formula Translator), fut aussi développé par IBM à cette période. (Le Plantalkül, langage de haut niveau développé par Konrad Zuse en 1945 navait pas encore été implémenté à cette époque.)

En 1959, IBM lança lIBM 1401 (commercial), qui utilisait des cartes perforées. Il fut le plus grand succès dans lhistoire de linformatique avec 12 000 unités vendues. Il utilisait une mémoire magnétique de 4 000 caractères (étendue plus tard à 16 000 caractères).

En 1960, IBM lança lIBM 1620 (scientifique). Il écrivait à lorigine sur des rubans perforés, mais évolua rapidement pour utiliser des lecteurs de cartes perforées comme le 1442. 2 000 unités furent vendues. Il utilisait une mémoire magnétique de 60 000 caractères décimaux. Un exemplaire opérationnel fut longtemps présent au palais de la Découverte.

En 1960, lIBM 7000 est le premier ordinateur à base de transistors.

La même année, Digital Equipment Corporation (DEC) lança le PDP-1 (Programmed Data Processor). Le PDP-1 était le premier ordinateur interactif et a lancé le concept de mini-ordinateur. Il avait une vitesse dhorloge de 0,2 MHz et pouvait stocker 4 096 mots de 18 bits. Il effectuait 100 000 opérations par seconde. Vendu pour seulement 120 000 $ environ, il était le premier ordinateur accessible sur le simple budget dun (gros) service sans remonter à la direction générale.

En 1960, les Français Serel OA-1001 [1], sortaient une machine 18 bits +signe +parité, 4kmots, 100 kHz, purement binaire dédiée au contrôle de processus ou aux calculs scientifiques. Bientôt suivie par une version plus petite le Serel ODP-505 3 fois plus rapide.

Troisième génération (1963-1971)

La troisième génération dordinateurs est celle des ordinateurs à circuit intégré. Cest à cette date que lutilisation de linformatique a explosé.

En 1964 IBM annonça la série 360, première gamme dordinateurs compatibles entre eux et première gamme aussi à combiner par conception le commercial et le scientifique. Plus de 14 000 ordinateurs IBM 360 furent vendus jusquen 1970, date on les remplaça par la série 370 beaucoup moins chère à puissance égale (mémoires bipolaires à la place des ferrites).

Toujours en 1964, DEC lança le PDP-8, machine bien moins encombrante destinée aux laboratoires et à la recherche. Il avait une mémoire de 4 096 mots de 12 bits et tournait à 1 MHz. Il pouvait effectuer 100 000 opérations par seconde. Le PDP-8 se taillera rapidement une place de choix dans les laboratoires, aidé par son langage FOCAL facile à maîtriser.

En 1966, Hewlett-Packard entra dans le domaine des ordinateurs universels (par opposition aux ordinateurs spécifiques) avec son HP-2115. Celui-ci supportait de nombreux langages, dont lAlgol et le Fortran, comme les « grands ». Le BASIC y sera adjoint plus tard.

En 1967, le gouvernement français lance le Plan Calcul destiné à assurer lindépendance du pays en matière de gros ordinateurs.

En 1969, Data General vendit un total de 50 000 ordinateurs Nova à 8 000 $ lunité. Le Nova était lun des premiers mini-ordinateurs 16 bits. La version Supernova qui lui succédera en 1971 effectuait une multiplication en une microseconde, performance spectaculaire à lépoque. Le processeur principal était contenu sur un circuit imprimé de 15 pouces. Dans le même temps, grâce à une politique de mise en commun gratuite de logiciels particulièrement novatrice (et vue aujourdhui comme lancêtre de lOpen Source), lIBM 1130 se tailla la part du lion dans les écoles dingénieurs du monde entier.

Le circuit intégré a été inventé par Jack St. Clair Kilby en 1958. Le premier circuit intégré a été produit en septembre 1958 mais les ordinateurs lutilisant ne sont apparus quen 1963. Lun de leurs premiers usages était dans les systèmes embarqués, notamment par la NASA dans lordinateur de guidage dApollo et par les militaires dans le missile balistique intercontinental LGM-30. Le circuit intégré autorisa le développement dordinateurs plus compacts. On les appela les mini-ordinateurs.

À noter que Philips (marque hollandaise bien connue de produits grand public) lança une série dordinateurs du type « 360 » pour concurrencer IBM, ils étaient plus rapides et largement aussi fiables (cest-à-dire assez peu...) mais comme ils utilisaient un système dexploitation spécifique, ils disparurent rapidement du marché. Siemens, Digital Equipment, HP, tentèrent également de supplanter IBM sur ce créneau du « 360 » mais sans grand succès. Seuls Control-Data et Cray purent rivaliser avec les hauts de gammes dIBM dans les années 70-80.

« Mini-ordinateurs », à partir de 1973

Le mini-ordinateur a été une innovation des années 1970 qui devint significative vers la fin de celles-ci. Il apporta la puissance de lordinateur à des structures décentralisées, non seulement grâce à un encombrement plus commode, mais également en élargissant le nombre de constructeurs dordinateurs. DEC devint dans les années 1980 le deuxième fabricant dordinateurs derrière IBM (avec un chiffre daffaire représentant le cinquième de celui-ci) grâce à ses ordinateurs populaires PDP (surtout le PDP-11, première machine de DEC à utiliser des mémoires de 16 bits et non de 12, et machine sur laquelle et pour laquelle fut développé le langage C) et VAX, qui apportera le confort du système VMS.

Lintégration de circuits intégrés à grande échelle conduisit au développement de processeurs très petits, comme celui qui analyse les données de vol dans les avions F14A Tomcat de lUS Navy. On ignorait alors encore que lexplosion à distance dune charge nucléaire les rendrait instantanément inopérants (effet EMP).

En 1973, le TV Typewriter de Don Lancaster permit le premier dafficher des informations alphanumériques sur une télévision ordinaire. Il était composé de 120 $ de composants électroniques, incluait deux cartes mémoires et pouvait générer et stocker 512 caractères. Une cassette optionnelle fournissait une capacité de 100 pages de textes supplémentaires. Clive Sinclair se basera plus tard sur cette approche pour construire son Sinclair ZX80.

Dans les années 1970 IBM a sorti une série de mini-ordinateurs. La série 3 : 3/6, 3/8, 3/10, 3/12, 3/15. Ensuite dans les années 1980 la série 30 : 32, 34, 36, 38. Une troisième série a succédé à la série 30 : les AS/400.

Quatrième génération (1971 à nos jours)

Une définition non universellement acceptée associe le terme de quatrième génération à linvention du microprocesseur par Marcian Hoff. En pratique et à la différence des autres changements de génération, celui-ci constitua plus une évolution (presque passée inaperçue) quune révolution : les circuits sétaient miniaturisés de plus en plus depuis linvention du circuit intégré, ils continuaient simplement à le faire comme par le passé.

Cest pour cette raison que certains considèrent que les générations sont devenues des questions de type de logiciel :

  • Première génération : codage machine direct en binaire
  • Deuxième génération : langage assembleur
  • Troisième génération : langages évolués (Fortran, COBOL, Simula, APL, etc.)
  • Quatrième génération : langages évolués de deuxième génération comme Pascal et C++, dit « structurés », apparition des langages « Objets » et langages dinterrogation de très haut niveau comme SQL
  • Un projet de cinquième génération japonaise avait été lancé par le MITI au tout début des années 1980. Il devait être articulé sur les moteurs dinférence et le langage Prolog, mais en dépit de budgets importants le projet naboutit pas.

Les microprocesseurs

Le 15 novembre 1971, Intel dévoile le premier microprocesseur commercial, le 4004. Il a été développé pour Busicom, un constructeur japonais. Un microprocesseur regroupe la plupart des composants de calcul (horloge et mémoire mises à part pour des raisons techniques) sur un seul circuit. Couplé à un autre produit, la puce mémoire, le microprocesseur permet une diminution nouvelle des coûts. Le 4004 ne réalisait que 60 000 opérations par seconde, mais la puissance de ses successeurs répondit à la loi de Moore.

Les super-calculateurs

Les superordinateurs intégrèrent aussi des microprocesseurs. En 1976, le Cray-1 fut développé par Seymour Cray, qui avait quitté Control Data en 1972 pour créer sa propre compagnie. Cétait lun des premiers ordinateurs à mettre en pratique le traitement vectoriel, qui appliquait la même instruction à une série consécutive dopérandes (évitant ainsi des coûts de décodage répétés). Le Cray-1 pouvait calculer 150 millions dopérations à virgule flottante par seconde. 85 exemplaires furent vendus à cinq millions de dollars lunité. Parmi ses clients en France :

  • LÉcole polytechnique (simulations et calculs numériques)
  • Michelin (étude de résistance des pneumatiques par des méthodes déléments finis)
  • Peugeot (simulations intensives de déformations de lhabitacle dune voiture en cas de choc frontal ou latéral)

Les contrôleurs de communication

Eux aussi bénéficièrent de lusage des microprocesseurs et lon peut même dire que la généralisation des réseaux informatiques na été possible que par linvention des microprocesseurs. Les contrôleurs 3745 (IBM) utilisaient intensivement cette technologie. Dans le même temps, aux États-Unis, la compagnie AT&T se rendit compte quavec tous ses standards téléphoniques interconnectés, elle se trouvait sans lavoir cherché disposer du plus grand réseau dordinateurs des États-Unis (un standard téléphonique, depuis linvention des microprocesseurs, tient beaucoup plus de lordinateur que du dispositif câblé, et nombre dentre eux se commandent en UNIX).

Lordinateur personnel

Un ordinateur familial

Au Sicob 1973 est apparu un micro-ordinateur allemand. Le DIEHL Alphatronic. Il comprenait une unité centrale équipée dun 8008 (4 ko extensible à 16 ko), dun lecteur enregistreur de mini-cassette magnétique et dune imprimante à boule IBM. Il ne comportait pas décran. La programmation en mini-basic était visualisée sur une mini imprimante (bande papier en rouleau). Prix de vente de lensemble 4 573 €.

Au même Sicob est présenté le premier micro-ordinateur français, le Micral conçu par François Gernelle de la société R2E dirigée par André Truong Trong Thi. Il utilise lui aussi le microprocesseur Intel 8008. La machine ne survécut pas au rachat de R2E par Bull.

En janvier 1975 sort lAltair 8800. Développé par des amateurs, frustrés par la faible puissance et le peu de flexibilité des quelques ordinateurs en kit existant sur le marché à lépoque, ce fut certainement le premier ordinateur personnel en kit produit en masse. Il était le premier ordinateur à utiliser un processeur Intel 8080. LAltair inaugura le bus S-100. Ce fut un énorme succès et 10 000 unités furent vendues. Cest lAltair qui inspira le développement de logiciels à Bill Gates et Paul Allen, qui développèrent un interpréteur BASIC pour cette machine. En 1975 sortira aussi lIBM 5100, machine totalement intégrée avec son clavier et son écran, qui se contente dune prise de courant pour fonctionner.

Toujours en 1975, le fabricant de terminaux programmables TRW se rend compte que son terminal Datapoint 2200 à disquettes (de huit pouces) est un ordinateur si on léquipe dun langage évolué (BASIC) et dun système dexploitation (CP/M), et commence à le commercialiser comme tel, en inventant le premier réseau local pour micros : ARCnet. Ce système, commercialisé en France par Matra, ne sera cependant jamais proposé au grand public.

Le processeur Intel 8080 mena à la première vague dordinateurs personnels, à la fin des années 1970. La plupart dentre eux utilisait le bus S-100 et le système dexploitation CP/M-80 de Digital Research. CP/M-80 était le premier système dexploitation à être utilisé par plusieurs fabricants dordinateurs différents, et de nombreux logiciels furent développés pour lui. Le système MS-DOS de Microsoft, acheté par Microsoft à Tim Paterson de la société Seattle Computer Products (quil avait appelé QDOS pour Quick and Dirty Operating System) sen inspira fortement (en inversant lordre de certains opérandes pour ne pas encourir de procès, ce qui provoqua quelques catastrophes chez ceux qui utilisaient les deux systèmes).

De nombreux amateurs tentèrent à cette époque de créer leurs propres systèmes. Ces passionnés se rencontraient lors de réunions au Homebrew Computer Club, ils montraient leurs réalisations, comparaient leurs systèmes et échangeaient des plans ou des logiciels. Certains de ces amateurs sintéressaient à construire quelque chose de prêt à lemploi que Monsieur tout le monde puisse soffrir. En 1976, Steve Wozniak, qui fréquentait régulièrement le Homebrew Computer Club, conçut lApple I, doté dun processeur MOS Technology 6502 à 1 MHz. Il vendit avec Steve Jobs environ 200 machines à 666 $ lunité. Il est doté dun microprocesseur et dun clavier.

LApple II sortit en 1977. Malgré son prix élevé (environ 1 000 $), il prit rapidement lavantage sur les deux autres machines lancées la même année, le TRS-80 et le Commodore PET, pour devenir le symbole du phénomène de lordinateur personnel. Dune très grande qualité, lApple II avait de gros avantages techniques sur ses concurrents : il avait une architecture ouverte, un lecteur de disquettes, et utilisait des graphismes en couleur. Grâce à lApple II, Apple domina lindustrie de lordinateur personnel entre 1977 et 1983. Plus de deux millions dApple II furent vendus au total.

En 1978, devant le succès de lApple II, IBM décida de renouer avec le marché de lordinateur personnel (le marché avait trouvé le 5100 trop lent, le 5110 trop lourd physiquement, et le System 23 Datamastercréé pour faire pendant au TRW-2200navait pas bénéficié dun support marketing suffisant à lépoque). Frank Cary confia une équipe, un budget et donna carte blanche à Don Estridge. En août 1981 sortit lIBM PC (Personnal Computer). Il utilisait un processeur Intel 8088 tournant à 4,77 MHz et pouvait faire tourner trois systèmes dexploitation différents : PC-DOS, CP/M-86 et PC/IX. LUCSD p-System sera également utilisable, mais non supporté par IBM. Microsoft sest réservé, contre réduction de la facture à IBM, le droit de commercialiser sa propre version du PC-DOS pour dautres ordinateurs de marque non-IBM, et qui sera nommée le MS-DOS. Cela se révèlera une erreur monumentale pour IBM.

Lordinateur le plus vendu de tous les temps[réfnécessaire] fut sans doute le Commodore 64, dévoilé par Commodore International en septembre 1982. Il utilisait un processeur MOS Technology 6510 à 1 MHz et coûtait 595 $. Il avait un écran 16 couleurs et possédait une carte son. Entre 17 et 25 millions dunités furent vendues jusquen 1993.

Après le 64, Commodore sortit lAmiga. Ses possibilités exceptionnelles en matière de graphisme et la rapidité de son processeur permettaient de programmer des jeux, en particulier en utilisant le langage Amos.

À cette époque apparurent les premiers « clones » compatibles, comme le Franklin 1000 compatible avec lApple II ou le premier PC compatible lancé par Compaq en mars 1983. Cette concurrence sur le marché des ordinateurs personnels permit de faire baisser les prix et de rendre ces machines populaires.

En 1982, Intel lança le 80286, et IBM le PC/AT basé dessus. Cest à cette époque que le PC devint larchitecture dominante sur le marché des ordinateurs personnels. Seul le Macintosh dApple continua à défier lIBM PC et ses clones, qui devinrent rapidement le standard.

En 1983, Apple lance le Lisa, le premier ordinateur personnel doté dune interface graphique. Le Lisa utilisait un processeur Motorola 68000, un disque dur de 5 Mo, deux lecteurs de disquette et 1 Mo de RAM. Son interface graphique sinspirait de celle du Xerox Star. Malgré son caractère révolutionnaire pour lépoque, ce fut un échec commercial, principalement à cause de son prix élevé (10 000 $) et de sa relative lenteur.

Ordinateurs avec écrans plats utilisés en 2006 à lUniversité de Warwick.

Le 22 janvier 1984, Apple lance le Macintosh, le premier micro-ordinateur à succès utilisant une souris et une interface graphique. Il reprenait plusieurs caractéristiques du Lisa, comme le processeur Motorola 68000, mais pour un prix bien plus abordable : 2 500 $, grâce à labandon de quelques fonctionnalités du Lisa comme le multitasking. Il était fourni avec plusieurs applications utilisant la souris, comme MacPaint et MacWrite.

Malgré ses nombreuses innovations dans le domaine, Apple perdit peu à peu des parts de marché pour se stabiliser à environ 4 % des ventes dordinateurs dans les années 2000. Et ce, malgré le succès de liMac, premier ordinateur conçu par des designers, qui sécoula à plus de six millions dexemplaires, en en faisant le modèle dordinateur personnel le plus vendu au monde. Parallèlement, le PC Compatible simposa de plus en plus au grand public avec des assembleurs tel que Hewlett-Packard, Compaq, Dell ou NEC.

Voir aussi

Articles connexes

Commons-logo.svg

Commons-logo.svg

Liens externes

Chronologie

Essais

Musées

Collections d'articles

Bibliographie

  • Breton, Philippe (1990). Une histoire de linformatique. Paris : Éditions du Seuil (coll. Points Sciences).
  • Portail de l’informatique Portail de linformatique
Ce document provient de « Histoire de l%27informatique ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Histoire de l'informatique de Wikipédia en français (auteurs)

Игры ⚽ Нужен реферат?

Regardez d'autres dictionnaires:

  • Histoire De L'informatique — Cet article présente les avancées majeures dans l’évolution de l’informatique. Pour une chronologie détaillée, voir : Chronologie informatique. L’ENIAC Quand on parle d’informatique on pense souvent ordinateur. Pourtant, l’informatique… …   Wikipédia en Français

  • Histoire de l'informatique de gestion — L’histoire de l informatique de gestion est l histoire de l ensemble des connaissances, des technologies, et des outils en rapport avec la gestion de données[1], c est à dire la collecte, la vérification et l organisation de grandes quantités d… …   Wikipédia en Français

  • Histoire Du Logiciel Libre — L histoire du logiciel libre est intimement imbriquée avec celle de l informatique et celle du génie logiciel. Elle ne commence en tant que telle qu à partir du moment où est apparu le besoin de distinguer le logiciel libre du logiciel… …   Wikipédia en Français

  • Histoire d'internet — Le premier serveur web, actuellement au musée du CERN, étiqueté « This machine is a server. DO NOT POWER DOWN!! », ce qui signifie : « Cette machine est un serveur. NE PAS ÉTEINDRE !! » …   Wikipédia en Français

  • Histoire de l'Internet — Histoire d Internet Le premier serveur web, actuellement au musée du CERN, étiqueté « This machine is a server. DO NOT POWER DOWN!! », ce qui signifie : « Cette machine est un serveur. NE PAS ÉTEINDRE !! » …   Wikipédia en Français

  • Histoire de l'internet — Histoire d Internet Le premier serveur web, actuellement au musée du CERN, étiqueté « This machine is a server. DO NOT POWER DOWN!! », ce qui signifie : « Cette machine est un serveur. NE PAS ÉTEINDRE !! » …   Wikipédia en Français

  • INFORMATIQUE - Évolution des systèmes de traitement de l’information — Un usage maintenant bien établi associe étroitement le mot «informatique» au principe du traitement de l’information à l’aide de machines électroniques perfectionnées. Sans insister sur l’ambiguïté de l’expression «traitement de l’information» et …   Encyclopédie Universelle

  • Histoire De La Cryptologie — Cet article résume l histoire de la cryptographie de l Antiquité à aujourd hui. La cryptographie est la science du codage des messages à l aide de codes secrets ou de clés. Le codage des messages vise à en assurer la confidentialité, l… …   Wikipédia en Français

  • Histoire de la cryptologie — Cet article résume l histoire de la cryptographie de l Antiquité à aujourd hui. La cryptographie est la science du codage des messages à l aide de codes secrets ou de clés. Le codage des messages vise à en assurer la confidentialité, l… …   Wikipédia en Français

  • Histoire Des Techniques — Article de la série Histoire des sciences Chronologie Chronologie des sciences Chronologie de l astronomie …   Wikipédia en Français

Share the article and excerpts

Direct link
https://fr-academic.com/dic.nsf/frwiki/782529 Do a right-click on the link above
and select “Copy Link”