Guide

L'ascension d'un géant : Histoire de l'informatique, partie 5

Kevin Hofer
12/4/2019
Traduction: traduction automatique

À leurs débuts, les ordinateurs numériques étaient énormes. Non seulement ils suscitaient des craintes en raison de leurs dimensions, mais ils étaient également considérés comme une menace pour l'emploi. Une entreprise a joué un rôle central dans l'acceptation des ordinateurs : IBM.

Au début des années 1950, quelques entreprises se disputaient le marché encore très restreint des ordinateurs. Les ordinateurs étaient alors principalement utilisés à des fins scientifiques. La recherche en informatique a été influencée par un texte clé : "Preliminary Discussion of the Logical Design of an Electronic Computing Instrument", rédigé en 1946 sous la direction du mathématicien John von Neumann.

Ce document stipule que les ordinateurs doivent stocker les données et les programmes en code binaire dans une mémoire. Ce concept est l'invention la plus importante de l'histoire de l'informatique. En effet, cela permet à un programme de considérer un autre programme comme des données.

  • En coulisse

    Passons au numérique : histoire de l'informatique, 3e partie

    par Kevin Hofer

La plupart des ordinateurs construits dans les années qui suivirent s'inspirèrent de ce concept. Au début des années 1950, il existait quelques modèles de ce type.

Les gros ordinateurs pour les spécialistes

Ce n'est qu'à partir de 1954 qu'un marché pour les ordinateurs professionnels s'est développé. L'ordinateur décimal IBM 650 s'adressait aux universités et aux entreprises. Le IBM 650 coûtait 200 000 dollars et était donc relativement bon marché. Cela peut paraître beaucoup, mais c'est peu comparé à l'ordinateur scientifique IBM 701. Celui-ci coûtait un million de dollars. L'entreprise a produit plus de 2000 unités de l'IBM 650. Ce modèle fut le premier ordinateur produit en masse. IBM accordait des remises allant jusqu'à 60 pour cent aux universités où l'on enseignait l'informatique. C'est pourquoi l'appareil s'est surtout établi dans les universités.

Mais la grande percée s'est fait attendre. Cela s'explique d'une part par le fait que les ordinateurs de l'époque ne pouvaient être utilisés que par des spécialistes. Et le travail des spécialistes était coûteux. Les appareils étaient hautement spécialisés et ne pouvaient effectuer qu'une seule tâche de calcul à la fois. Pour économiser de l'argent, tout travail qui pouvait être fait par un scientifique était fait par un scientifique.

Les ordinateurs n'avaient pas une bonne image auprès du public. Ils alimentaient les craintes qu'ils détruisent des emplois. Cela a également été traité dans la culture populaire, comme par exemple dans le film "Une femme qui sait tout" (en anglais "Desk Set"). Lorsqu'un ordinateur est introduit dans l'entreprise, les employés ont peur de perdre leur emploi.

Les ordinateurs de l'époque ne pouvaient pas faire beaucoup plus que le Moteur analytique de Charles Babbage des années 1830, mais bien plus rapidement. Leur capacité à traiter du texte était très limitée. Par exemple, ils ne pouvaient pas afficher les lettres minuscules. Les grosses calculatrices étaient très chères et ne trouvaient que peu d'acheteurs. Pour qu'ils soient accessibles à un plus grand nombre de personnes, il fallait des programmes spécifiques, comme le traitement de texte et les bases de données. Ce type de programmes nécessite des langages de programmation pour les écrire et un système d'exploitation pour les gérer.

Traductions pour la machine

Les programmes destinés aux premiers ordinateurs devaient être écrits dans le langage de la machine concernée. Le vocabulaire et la syntaxe des langages de machine étaient très différents de ceux des mathématiques ou de notre langage. Il était évident que la traduction devait être automatisée. Ada Lovelace et Charles Babbage l'avaient déjà constaté dans les années 1830.

  • En coulisse

    Qu'ont en commun le métier à tisser et la calculatrice ? Histoire de l'informatique Partie 2

    par Kevin Hofer

Pour ce faire, un programme de traduction écrit en langage machine devait être exécuté sur l'ordinateur. Celui-ci fournit au programme cible des données en langage machine. Les premiers langages de programmation de haut niveau étaient traduits à la main pour la machine, et non par l'ordinateur. Herman Goldstine a mis cela en œuvre avec des diagrammes de flux.

Les langages de programmation de haut niveau ont été expérimentés dès le début des années 1940. Le shortcode a été le premier langage de ce type. William Schmitt l'a intégré en 1950 dans l'UNIVAC - l'un des premiers ordinateurs centraux. Shortcode fonctionnait en plusieurs étapes. Tout d'abord, il convertissait les entrées alphabétiques en code numérique, qui était à son tour converti en langage machine. Shortcode était un interpréteur. Cela signifie que le programme traduisait les entrées du langage de programmation supérieur, l'une après l'autre. Cela se faisait très lentement.

Les compilateurs ont permis de remédier à cette situation. Les entrées du langage de programmation supérieur ne sont plus traduites en premier lieu en code numérique. L'ensemble du langage de programmation supérieur est traduit en langage machine et stocké pour une utilisation ultérieure. La première traduction prend certes du temps, mais elle peut être récupérée plus rapidement ultérieurement.

Les langages de programmation

En septembre 1952, Alick Glennie, un étudiant de l'université de Manchester, a créé et mis en œuvre le premier compilateur. Au cours des années suivantes, divers langages de programmation de haut niveau ont été développés avec des compilateurs correspondants. Comme IBM voulait s'implanter dans le monde de l'informatique, la société a publié Fortran en 1957. Le langage de programmation rendait la programmation plus accessible, car il était possible de poster des commentaires dans les programmes. Ces commentaires étaient ignorés par le compilateur. Ainsi, même les non-programmeurs pouvaient les lire et comprendre les programmes.

Il convient également de mentionner Cobol. Cobol s'inspirait du langage naturel. Il était donc plus compréhensible que le Fortran, ce qui a permis une meilleure acceptation des ordinateurs dès sa sortie en 1959. Le langage de programmation était conçu pour les affaires, alors que Fortran était destiné aux scientifiques.

Pour que les ordinateurs soient réellement utiles au-delà de la science, il fallait un programme de contrôle en plus des langages de programmation de haut niveau. C'est ce que nous appelons aujourd'hui un système d'exploitation. Un système qui orchestre les autres applications, organise le stockage des fichiers et gère les périphériques. C'est à nouveau la société IBM qui a compris la nécessité d'un système d'exploitation. Avec le système d'exploitation IBM 360, l'entreprise va dominer le marché de l'informatique pendant des années.

L'ascension d'IBM

L'entreprise s'est lancée dans le business des gros ordinateurs dès le milieu des années 1950 avec l'IBM 650. L'invention du transistor a conduit IBM à passer progressivement des tubes à vide aux semi-conducteurs électroniques. Ces premiers ordinateurs à transistors ont marqué le début de la deuxième génération d'ordinateurs.

  • Guide

    Histoire de l'informatique, 4e partie : les transistors - grâce auxquels votre ordinateur fonctionne

    par Kevin Hofer

IBM avait à l'époque plusieurs séries d'ordinateurs spécifiques : pour la science/l'ingénierie, pour le traitement des données, pour la comptabilité et les superordinateurs. Au début des années 1960, les responsables d'IBM ont décidé de mettre tous leurs œufs dans le même panier et de réunir toutes ces applications dans une seule architecture. Pour un coût estimé à 5 milliards de dollars, la société a développé System/360.
.
IBM System/360 était plus une architecture qu'une machine unique. L'architecture était centrée sur le système d'exploitation, qui fonctionnait sur tous les modèles 360 et était disponible en trois variantes. Pour les installations sans disque dur, les petites installations avec disque dur et les grandes installations avec disque dur. Les premiers modèles 360 de 1965 étaient des ordinateurs hybrides composés de transistors et de circuits intégrés. Ils sont aujourd'hui considérés comme la troisième génération d'ordinateurs.

Le système d'exploitation 360 a entraîné un glissement : les ordinateurs étaient désormais évalués en fonction de leur système d'exploitation et non de leur matériel. Le risque financier lié au développement s'est avéré payant pour IBM. Jusque dans les années 1970, l'entreprise d'Armonk, New York, était le leader incontesté du marché.

C'est la fin de cette cinquième partie de l'histoire de l'informatique. Après une longue pause, je reprends la série et vous propose des aperçus brefs et concis du passé de l'informatique. Si vous ne voulez plus manquer une seule digression sur l'histoire de l'informatique, suivez moi en cliquant sur le bouton "Suivre l'auteur".

Cet article plaît à 30 personne(s)


User Avatar
User Avatar

La technologie et la société me fascinent. Combiner les deux et les regarder sous différents angles est ma passion.


Informatique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Ces articles pourraient aussi vous intéresser

  • Guide

    Douglas Engelbart : plus que l'inventeur de la souris

    par Kevin Hofer

  • Guide

    Apollo 11 : sur la Lune avec 4 Ko de RAM

    par David Lee

  • Guide

    Théorie de la complexité : la surprise du siècle ?

    par Spektrum der Wissenschaft

5 commentaires

Avatar
later