Informatica significa elaborazione automatica delle informazioni. Si occupa di progettare e utilizzare macchine in grado di trattare grandi quantità di dati in tempi brevi e senza intervento umano, oltre che di trasmettere informazioni rendendo irrilevanti le distanze. Oggi parliamo di ICT (Information and Communication Technology, Tecnologie dell’Informazione e della Comunicazione): un insieme di tecnologie per reperire, elaborare, memorizzare e trasferire dati. Un sistema informatico non è più solo uno strumento per risolvere un singolo compito: è un nodo che comunica con molte altre risorse per svolgere attività di elaborazione e scambio dati.
Nel 1943 Thomas Watson (IBM) dichiarava: «Credo che il mercato mondiale possa aver bisogno al massimo di 5 computer». Nel 1977 Ken Olsen (DEC) sosteneva: «Non c’è nessun motivo per cui una persona debba avere un computer a casa». A dispetto di quelle previsioni, l’evoluzione del calcolo ha radici antiche e ha portato ai computer personali e alla rete globale che usiamo ogni giorno.
Dalle origini al calcolo meccanico
Una delle prime “macchine” da calcolo fu l’abaco, nato in Oriente e poi diffuso in varie civiltà (Egizi, Romani, Maya). Nella versione moderna, detta anche pallottoliere, è formato da palline su aste: ogni colonna rappresenta una posizione decimale (unità, decine, centinaia, …). Le palline spostate contro la barra trasversale “valgono” e permettono di rappresentare numeri ed effettuare operazioni elementari.

La macchina di Anticitera, rinvenuta nell’omonima isola greca, è il più antico calcolatore meccanico noto: un planetario a ruote dentate capace di calcolare posizioni celesti, fasi lunari ed eventi astronomici. Studiata a fondo nel Novecento, si è rivelata un sofisticato dispositivo in grado di riprodurre rapporti astronomici complessi grazie a ingranaggi e un differenziale meccanico.

Nel Seicento John Napier (Nepero) inventò i “bastoncini” per moltiplicazioni e divisioni e le tavole dei logaritmi. Poco dopo Edmund Gunter ideò il regolo calcolatore, in uso fino al XX secolo per potenze e radici. Nel 1642 Blaise Pascal progettò la Pascalina, capace di addizioni e sottrazioni con ingranaggi e riporti automatici, seguita nel 1671 dalla macchina di Gottfried Leibniz (quattro operazioni). Lo stesso Leibniz teorizzò il sistema binario (0/1), ideale per le macchine automatiche.

All’inizio dell’Ottocento Joseph-Marie Jacquard introdusse il telaio a schede perforate, un’idea che ispirò molte soluzioni successive per “programmare” macchine. Nel 1820 fu commercializzato l’aritmometro, la prima macchina da calcolo prodotta in serie.

Charles Babbage progettò prima la macchina differenziale (1822), poi la macchina analitica (1833), con lettura di istruzioni da schede perforate e uso dei risultati intermedi come operandi successivi: un’anticipazione dell’elaboratore programmabile.

Dalla logica binaria all’era delle schede
Nel 1823 Jöns J. Berzelius isolò il silicio, destinato a rivoluzionare l’elettronica. Nel 1847 George Boole formalizzò l’algebra booleana, base per la logica digitale. A fine Ottocento Herman Hollerith realizzò la tabulatrice a schede perforate (80 colonne), riducendo drasticamente i tempi del censimento USA e inaugurando la produzione industriale di macchine per il trattamento dei dati.

Calcolatori elettromeccanici
Tra anni ’30 e ’40 comparvero i calcolatori a relè. In Germania Konrad Zuse realizzò lo Z1, poi Z2 e Z3; negli USA (1944) Harvard Mark I, con oltre 3.000 relè e 800 km di cavi: somma di due numeri di 23 cifre in 0,3 s, moltiplicazione in 6 s. Era grande come una stanza, pesava 5 tonnellate e costava circa 400.000 dollari.
Prima generazione elettronica (valvole)
Nel 1946 nasce l’ENIAC (Electronic Numerical Integrator And Computer): 18.000 valvole, frequenza 100 kHz, 180 m², 13 tonnellate, circa 300 moltiplicazioni al secondo. Un salto enorme rispetto alle macchine a relè.

John von Neumann formalizzò l’architettura a programma memorizzato: l’elaboratore contiene istruzioni e dati in memoria e li esegue in sequenza con salti condizionati. Le unità principali sono l’ALU (unità logico-aritmetica), l’unità di controllo e la memoria. Le informazioni sono rappresentate da bit (0/1) e manipolate secondo l’algebra di Boole.
Memorie e supporti
Le prime memorie erano tamburi magnetici; dagli anni ’50 arrivarono le memorie a nuclei di ferrite, più veloci (pochi millisecondi). Per la massa: nastri magnetici (accesso sequenziale) e dischi (accesso diretto) per grandi quantità di dati.


Seconda generazione (transistor)
A fine anni ’50 le valvole lasciarono il posto ai transistor: macchine più piccole, veloci, affidabili. Esempi: TRADIC (Bell, 1955), Siemens 2002 (1957), IBM 1401 (1960–64, oltre 100.000 esemplari), Olivetti ELEA. Si diffusero le memorie a disco, anche rimovibili, e i terminali collegati a un elaboratore centrale.
Nascono i linguaggi e i sistemi operativi
Scrivere in linguaggio macchina era arduo: nel 1957 arrivò il FORTRAN; poi Lisp (1958), COBOL, ALGOL, PASCAL (1968). In questo periodo si afferma l’aneddoto del bug (una falena incastrata in un relè: da qui “insetto” = errore). Nascono i software applicativi e un’industria dedicata. Seguono APL, PL/I, BASIC; Unix (1969), Forth (1970), C (1974), MS-BASIC (1975). Sul fronte applicazioni: primi word processor (Apple Writer, WordStar), VisiCalc (foglio elettronico), dBASE II, ADA, Modula, poi Windows (dal prototipo 1983), OS/2, NetWare, Turbo Pascal, C++.
Terza generazione (circuiti integrati)
Con i circuiti integrati (metà anni ’60) la velocità cresce di ordini di grandezza: le IBM System/360 (oltre 30.000 unità), Honeywell G115 e Univac 9000 segnano la strada. Si affermano multiprogrammazione e time-sharing (più utenti/processi), e nascono gli sistemi operativi moderni come interfaccia tra hardware e utente. Per colmare il divario tra CPU e dischi si introducono buffer e cache più rapide. Arriva la memoria virtuale (es. IBM System/370): il programma è “paginato” e la porzione necessaria è caricata in RAM. L’input si sposta da schede a tastiere e dischi; I/O e capacità di memorizzazione crescono rapidamente.
Quarta generazione (microprocessori) e l’era personale
Con LSI e VLSI si miniaturizza tutto su chip: nel 1971 nasce l’Intel 4004 (4 bit), poi 8008 (8 bit), 8085, 8048, quindi 8088/8086 (16 bit). Parallelamente i videogiochi aprono al grande pubblico l’interazione con la macchina.
I videogiochi (sezione ripristinata)
Nel 1972 appare Pong, semplice ma rivoluzionario; seguono Space Invaders (1978) e Pac-Man (1980): l’interazione in tempo reale, la grafica e il suono spingono hardware e programmazione verso nuove frontiere e abituano milioni di persone all’idea di “giocare” con un calcolatore.

Dalla “scatola di montaggio” al PC
Nel 1973 IBM presenta il primo hard disk e poi il Winchester (70 MB). Nel 1976 Steve Jobs e Steve Wozniak realizzano Apple I; nel 1977 arriva Apple II, con tastiera, video su TV e floppy disk da 5¼″: il PC diventa alla portata di molti. Nel 1978 la Hayes lancia il primo modem commerciale; nel 1979 appare la stampante laser. Nel 1981 IBM introduce il PC 5150 (CPU 8088, bus 16 bit), mentre altri produttori propongono modelli economici (Sinclair Spectrum, Commodore VIC-20 e 64).

Nel 1983 lo studente Fred Cohen dimostra il primo virus informatico, capace di diffondersi via modem o floppy e danneggiare file. Sul fronte sistemi operativi: dal CP/M (1974) si passa a MS-DOS (dal 1981). Microsoft, fondata da Paul Allen, Steve Ballmer e Bill Gates, guida lo sviluppo software per il PC IBM-compatibile.
Chip sempre più complessi, sistemi sempre più evoluti
Cresce esponenzialmente il numero di transistor: 80286 (1982) ~134.000, 80386 (1985) ~275.000, 80486 (1989) ~1,2 milioni, Pentium (1993) ~3,2 milioni. Si affacciano AMD e Cyrix. Le frequenze superano i 2 GHz e arrivano le architetture 64 bit. In parallelo l’evoluzione dei sistemi operativi: da Windows 1.0 (1986) a Windows 3.x (1990–92), Windows 95 (1995), Windows 98 (1998), Windows 2000/ME (2000), Windows XP (2001), Windows Vista (2007), Windows 7 (2009), Windows 8 (2012), Windows 8.1 (2013), Windows 10 (2015) e l’attuale Windows 11 (dal 2021, con release 22H2/23H2).

Concetti chiave riemersi dal percorso
- Rappresentazione binaria (0/1) e algebra di Boole come fondamento della logica dei calcolatori.
- Architettura di von Neumann: programma e dati in memoria, unità di controllo e ALU.
- Memorie: dalla ferrite alla RAM su chip, con cache e memoria virtuale per colmare i divari di velocità.
- Supporti di massa: nastri (sequenziali) e dischi (diretti), poi dischi ottici e SSD.
- Software: dai linguaggi simbolici e Unix ai sistemi operativi e alle suite applicative.
- PC e reti: dal modem ai primi collegamenti remoti fino a Internet e all’ICT diffusa.