
Retroscena
Ora si fa digitale: Storia dell'informatica, parte 3
di Kevin Hofer
All'inizio i computer digitali erano enormi. Non solo alimentavano i timori per le loro dimensioni, ma erano anche visti come una minaccia per i posti di lavoro. Un'azienda è stata fondamentale per l'accettazione dei computer: IBM.
All'inizio degli anni '50, alcune aziende si contendevano il mercato dei computer, ancora molto piccolo. A quel tempo, i computer erano utilizzati principalmente per scopi scientifici. La ricerca sui computer fu influenzata da un documento chiave: "Preliminary Discussion of the Logical Design of an Electronic Computing Instrument", scritto nel 1946 sotto la direzione del matematico John von Neumann.
In questo documento si affermava che i computer avrebbero dovuto essere progettati in modo tale da non essere più in grado di funzionare.
In questo documento si affermava che i computer avrebbero dovuto memorizzare dati e programmi in codice binario su una memoria. Questo concetto è l'invenzione più importante nella storia dei computer. Infatti, consente a un programma di considerare un altro programma come un dato.
La maggior parte dei computer costruiti negli anni successivi si basava su questo concetto. All'inizio degli anni '50 esistevano alcuni modelli di questo tipo.
Non è stato fino al 1954 che si è sviluppato un mercato per i computer aziendali. Il computer decimale IBM 650 era destinato alle università e alle aziende. L'IBM 650 costava 200.000 dollari ed era quindi relativamente economico. Può sembrare molto, ma rispetto al computer scientifico IBM 701, non era molto. Costava un milione di dollari. L'azienda produsse oltre 2000 unità dell'IBM 650. Questo modello è stato il primo computer prodotto in serie. IBM concesse alle università che insegnavano informatica uno sconto fino al 60 percento. Il dispositivo si affermò quindi principalmente nelle università.
Tuttavia, il grande passo avanti è stato lungo. Uno dei motivi è che i computer dell'epoca potevano essere utilizzati solo da specialisti. E il lavoro degli specialisti era costoso. I dispositivi erano altamente specializzati e potevano eseguire solo un'attività di calcolo alla volta. Per risparmiare, ogni lavoro che poteva essere svolto da uno scienziato veniva svolto anche da uno scienziato.
I computer non avevano un'interfaccia di calcolo che potesse essere utilizzata da uno scienziato.
I computer non avevano una buona immagine pubblica. Alimentavano il timore che avrebbero distrutto posti di lavoro. Questo si rifletteva anche nella cultura popolare, ad esempio nel film "Una donna che sa tutto" ("Desk Set"). Quando viene introdotto un computer in azienda, i dipendenti temono per il loro posto di lavoro.
I computer dell'epoca non potevano fare molto di più della Macchina Analitica di Charles Babbage del 1830, ma erano molto più veloci. Potevano gestire il testo solo in misura molto limitata. Ad esempio, non potevano visualizzare le lettere minuscole. I mainframe erano molto costosi e trovavano pochi acquirenti. Per renderli accessibili a un maggior numero di persone, è stato necessario sviluppare programmi specifici, come l'elaborazione di testi e i database. Questi tipi di programmi richiedevano linguaggi di programmazione per la loro scrittura e un sistema operativo per la loro gestione.
I programmi per i primi computer dovevano essere scritti nella lingua della rispettiva macchina. Il vocabolario e la sintassi dei linguaggi macchina differivano notevolmente dal linguaggio matematico o dal nostro. Era ovvio che la traduzione dovesse essere automatizzata. Ada Lovelace e Charles Babbage se ne erano già resi conto negli anni '30 del XIX secolo.
Per fare questo, un programma di traduzione scritto in linguaggio macchina doveva essere eseguito sul computer. Questo programma fornisce i dati al programma di destinazione in linguaggio macchina. I primi linguaggi di programmazione superiori venivano tradotti a mano per la macchina, non dal computer. Herman Goldstine ha implementato questo metodo con i diagrammi di flusso.
I linguaggi di programmazione di livello superiore erano già stati sperimentati all'inizio degli anni Quaranta. Shortcode è stato il primo linguaggio di questo tipo. William Schmitt lo integrò nell'UNIVAC, uno dei primi computer mainframe, nel 1950. Lo Shortcode funzionava in più fasi. Innanzitutto, convertiva l'input alfabetico in codice numerico e questo a sua volta in linguaggio macchina. Shortcode era un interprete. Ciò significa che il programma traduceva gli input del linguaggio di programmazione superiore, uno dopo l'altro. Ciò avveniva molto lentamente.
Ecco dove i compilatori venivano in soccorso. L'input del linguaggio di programmazione di livello superiore non viene più tradotto prima in codice numerico. L'intero linguaggio di programmazione di livello superiore viene tradotto in linguaggio macchina e salvato per un uso successivo. Sebbene la traduzione iniziale richieda molto tempo, può essere richiamata più rapidamente in un momento successivo.
Nel settembre del 1952, Alick Glennie, uno studente dell'Università di Manchester, creò il primo compilatore, che fu anche implementato. Negli anni successivi furono sviluppati diversi linguaggi di programmazione superiori con i relativi compilatori. Poiché IBM voleva entrare nel settore dei computer, nel 1957 pubblicò Fortran. Questo linguaggio di programmazione rese la programmazione più accessibile perché era possibile inserire commenti nei programmi. Questi commenti venivano ignorati dal compilatore. In questo modo anche i non programmatori potevano leggerli e capire i programmi.
Degno di nota è anche Cobol. Cobol era basato sul linguaggio naturale. Questo lo rendeva più facile da capire rispetto al Fortran, il che portò a una migliore accettazione dei computer fin dal suo rilascio nel 1959. Il linguaggio di programmazione era stato progettato per le aziende, mentre Fortran era destinato agli scienziati.
Per far sì che i computer diventassero effettivamente utili al di là delle scienze, tuttavia, oltre ai linguaggi di programmazione superiori era necessario un programma di controllo. Oggi lo chiamiamo sistema operativo. Un sistema che orchestra le altre applicazioni, organizza l'archiviazione dei file e gestisce le periferiche. Ancora una volta è stata IBM a riconoscere la necessità di un sistema operativo. Con il sistema operativo IBM 360, l'azienda avrebbe dominato il mercato dei computer per gli anni a venire.
L'azienda entra nel settore dei computer mainframe a metà degli anni '50 con l'IBM 650. L'invenzione del transistor portò IBM a passare gradualmente dai tubi a vuoto ai semiconduttori elettronici. Questi primi computer a transistor inaugurarono la seconda generazione di computer.
IBM aveva diverse serie specifiche di computer in questo periodo: per la scienza/ingegneria, per l'elaborazione dei dati, per la contabilità e per i supercomputer. All'inizio degli anni '60, i dirigenti di IBM decisero di puntare tutto su un unico paniere e di combinare tutte queste applicazioni in un'unica architettura. Per una cifra stimata di 5 miliardi di dollari, l'azienda sviluppò System/360.
IBM System/360 era più un'architettura che una singola macchina. Il fulcro dell'architettura era il sistema operativo, che girava su tutti i modelli 360 ed era disponibile in tre varianti. Per installazioni senza dischi rigidi, per installazioni più piccole con dischi rigidi e per installazioni più grandi con dischi rigidi. I primi modelli di 360 del 1965 erano computer ibridi fatti di transistor e circuiti integrati. Oggi si parla di computer di terza generazione.
Il sistema operativo 360 portò a un cambiamento: i computer venivano valutati in base al sistema operativo e non all'hardware. Il rischio finanziario legato allo sviluppo è stato ripagato da IBM. Fino agli anni '70, l'azienda di Armonk, New York, è stata il leader indiscusso del mercato.
Che cosa?
Questo è tutto per la quinta parte della storia dell'informatica. Dopo una lunga pausa, riprendo la serie e ti offro una breve e nitida panoramica sul passato dell'informatica. Se non vuoi perderti altre digressioni nella storia dell'informatica, seguimi cliccando sul pulsante "Segui l'autore".
Tecnologia e società mi affascinano. Combinarle entrambe e osservarle da punti di vista differenti sono la mia passione.