I personal computer, chiamati brevemente PC, hanno cambiato nel giro di pochi anni il modo di lavorare, di studiare, persino il modo di pensare di centinaia di milioni di persone. Poche volte, nel corso della storia, si è verificato un cambiamento di tale portata, paragonabile solo all’invenzione della ruota o della stampa, oppure all’uso dell’elettricità a fini civili o industriali.

Le origini del computer sono legate ad esigenze di tipo militare, come è spesso avvenuto nella storia della tecnologia.

Storicamente la data di nascita dei computer digitali si può far risalire al 1943, quando due scienziati americani J. Mauchly e J. Eckert, per risolvere problemi bellici legati al calcolo delle curve dei proiettili, costruirono a Filadelfia l’ENIAC (Electronic Numerical Integrator and Calculator).

Gli scienziati avevano pensato di sfruttare, al posto dei relè, la valvola termoionica, che era nata nel 1906 per amplificare le onde radio, e di trasformarla in un velocissimo interruttore di circuiti.

L’ENIAC divenne così il primo strumento di calcolo a non avere parti meccaniche in movimento, ma solo circuiti elettronici. Conteneva 18.000 valvole termoioniche, collegate da 500.000 contatti saldati a mano, pesava 30 tonnellate e occupava una superficie di 180 m2.

Ovviamente aveva qualche limite! Innanzitutto consumava 150 kW di potenza. Basti pensare che quando venne messo in funzione la prima volta, si spensero tutte le luci in mezza Filadelfia!

Inoltre il sistema operativo era cablato nei circuiti, il che imponeva che la programmazione venisse effettuata mediante interventi di tipo hardware e non software, con un lavoro anche di molte ore.

Il giorno della presentazione al mondo, fu chiesto all’ENIAC (col solito sistema della scheda perforata) di moltiplicare il numero 97.367 per se stesso 5.000 volte.

La macchina compì l’operazione in meno di un secondo. Con l’ENIAC, che funzionò dal 1946 al 1955, nasce l’era informatica vera e propria. Non a caso in quei giorni nasce anche il termine bit.

Il modello successivo di elaboratore elettronico, realizzato in base agli studi del matematico John Neumann, fu dotato di una memoria a parte per i programmi. Il fatto che le istruzioni venissero registrate in un’apposita memoria liberava il computer dalle limitazioni di velocità dovute alla lettura del nastro perforato durante l’esecuzione dei programmi e permetteva di ottenere l’esecuzione di compiti diversi senza alcun intervento sui collegamenti.

L’uso dei transistor al silicio nei computer, negli ultimi anni Cinquanta, permise la realizzazione di elaboratori più evoluti, compatti, veloci ed economici: i computer di seconda generazione.

I primi circuiti integrati (IC) comparvero verso la fine degli anni Sessanta. Contenevano molti transistor all’interno di un unico cristallino di silicio. Il loro impiego nei computer produsse ulteriori riduzioni del prezzo e delle dimensioni delle macchine e un significativo incremento della loro funzionalità. Il microprocessore fece la sua comparsa alla metà degli anni Settanta, quando furono prodotti circuiti a grande scala di integrazione (Large Scale Integration, LSI) e poi a grandissima scala di integrazione (Very Large Scale Integration, VLSI), contenenti milioni di transistor interconnessi, realizzati su un’unica piastrina di silicio.

I primi elaboratori occupavano intere stanze ed erano più spesso guasti che funzionanti ma, quando funzionavano, permettevano di ridurre di giorni il lavoro degli scienziati. Gli elaboratori di quel periodo pesavano diverse tonnellate, assorbivano l’energia di una centrale elettrica di piccole dimensioni, costavano cifre stellari ed erano adoperabili solo da esperti di altissimo livello. Tuttavia erano in grado di fare in un’ora quello che oggi, un PC del peso di pochi chili e del costo di 500 euro può fare in pochi secondi a casa di chiunque.

Oggi il computer, da puro strumento di calcolo è divenuto macchina da scrivere, banca dati, sistema di gestione aziendale, strumento di disegno per tecnici ed artisti. Si tratta sempre di applicazioni pratiche di calcolo, ma non occorre più essere esperti per usarlo. Quando accendiamo il computer, non solo non abbiamo bisogno di conoscere i principi che lo fanno funzionare ma non sentiamo neppure la necessità di chiederci perché, se premiamo sulla tastiera una lettera, la lettera stessa appare sul monitor. Ci aspettiamo solo che avvenga, allo stesso modo in cui ci aspettiamo che la lampadina si accenda quando premiamo l’interruttore. Quindi, non più semplicemente uno strumento per i calcoli, ma molto di più.

Un computer è un dispositivo che ha lo scopo di gestire le informazioni

Una lavatrice ha lo scopo di gestire il lavaggio del bucato, un forno gestisce la cottura dei cibi, un telefono gestisce il traffico delle comunicazioni via cavo o via etere (se è un cellulare), un computer gestisce informazioni. Semplice, no?

  Click to listen highlighted text! I personal computer, chiamati brevemente PC, hanno cambiato nel giro di pochi anni il modo di lavorare, di studiare, persino il modo di pensare di centinaia di milioni di persone. Poche volte, nel corso della storia, si è verificato un cambiamento di tale portata, paragonabile solo all’invenzione della ruota o della stampa, oppure all’uso dell’elettricità a fini civili o industriali. Le origini del computer sono legate ad esigenze di tipo militare, come è spesso avvenuto nella storia della tecnologia. Storicamente la data di nascita dei computer digitali si può far risalire al 1943, quando due scienziati americani J. Mauchly e J. Eckert, per risolvere problemi bellici legati al calcolo delle curve dei proiettili, costruirono a Filadelfia l’ENIAC (Electronic Numerical Integrator and Calculator). Gli scienziati avevano pensato di sfruttare, al posto dei relè, la valvola termoionica, che era nata nel 1906 per amplificare le onde radio, e di trasformarla in un velocissimo interruttore di circuiti. L’ENIAC divenne così il primo strumento di calcolo a non avere parti meccaniche in movimento, ma solo circuiti elettronici. Conteneva 18.000 valvole termoioniche, collegate da 500.000 contatti saldati a mano, pesava 30 tonnellate e occupava una superficie di 180 m2. Ovviamente aveva qualche limite! Innanzitutto consumava 150 kW di potenza. Basti pensare che quando venne messo in funzione la prima volta, si spensero tutte le luci in mezza Filadelfia! Inoltre il sistema operativo era cablato nei circuiti, il che imponeva che la programmazione venisse effettuata mediante interventi di tipo hardware e non software, con un lavoro anche di molte ore. Il giorno della presentazione al mondo, fu chiesto all’ENIAC (col solito sistema della scheda perforata) di moltiplicare il numero 97.367 per se stesso 5.000 volte. La macchina compì l’operazione in meno di un secondo. Con l’ENIAC, che funzionò dal 1946 al 1955, nasce l’era informatica vera e propria. Non a caso in quei giorni nasce anche il termine bit. Il modello successivo di elaboratore elettronico, realizzato in base agli studi del matematico John Neumann, fu dotato di una memoria a parte per i programmi. Il fatto che le istruzioni venissero registrate in un’apposita memoria liberava il computer dalle limitazioni di velocità dovute alla lettura del nastro perforato durante l’esecuzione dei programmi e permetteva di ottenere l’esecuzione di compiti diversi senza alcun intervento sui collegamenti. L’uso dei transistor al silicio nei computer, negli ultimi anni Cinquanta, permise la realizzazione di elaboratori più evoluti, compatti, veloci ed economici: i computer di seconda generazione. I primi circuiti integrati (IC) comparvero verso la fine degli anni Sessanta. Contenevano molti transistor all’interno di un unico cristallino di silicio. Il loro impiego nei computer produsse ulteriori riduzioni del prezzo e delle dimensioni delle macchine e un significativo incremento della loro funzionalità. Il microprocessore fece la sua comparsa alla metà degli anni Settanta, quando furono prodotti circuiti a grande scala di integrazione (Large Scale Integration, LSI) e poi a grandissima scala di integrazione (Very Large Scale Integration, VLSI), contenenti milioni di transistor interconnessi, realizzati su un’unica piastrina di silicio. I primi elaboratori occupavano intere stanze ed erano più spesso guasti che funzionanti ma, quando funzionavano, permettevano di ridurre di giorni il lavoro degli scienziati. Gli elaboratori di quel periodo pesavano diverse tonnellate, assorbivano l’energia di una centrale elettrica di piccole dimensioni, costavano cifre stellari ed erano adoperabili solo da esperti di altissimo livello. Tuttavia erano in grado di fare in un’ora quello che oggi, un PC del peso di pochi chili e del costo di 500 euro può fare in pochi secondi a casa di chiunque. Oggi il computer, da puro strumento di calcolo è divenuto macchina da scrivere, banca dati, sistema di gestione aziendale, strumento di disegno per tecnici ed artisti. Si tratta sempre di applicazioni pratiche di calcolo, ma non occorre più essere esperti per usarlo. Quando accendiamo il computer, non solo non abbiamo bisogno di conoscere i principi che lo fanno funzionare ma non sentiamo neppure la necessità di chiederci perché, se premiamo sulla tastiera una lettera, la lettera stessa appare sul monitor. Ci aspettiamo solo che avvenga, allo stesso modo in cui ci aspettiamo che la lampadina si accenda quando premiamo l’interruttore. Quindi, non più semplicemente uno strumento per i calcoli, ma molto di più. Un computer è un dispositivo che ha lo scopo di gestire le informazioni Una lavatrice ha lo scopo di gestire il lavaggio del bucato, un forno gestisce la cottura dei cibi, un telefono gestisce il traffico delle comunicazioni via cavo o via etere (se è un cellulare), un computer gestisce informazioni. Semplice, no? Powered By GSpeech