prof. Nunzio Brugaletta |
atapSO |
EnneBi –
Computer Science
Avanti – Indietro – Inizio
Anche se “in ogni storia non vi è mai un punto iniziale prima del quale non sia accaduto alcun fatto di rilievo e dopo il quale esso invece si sia verificato”, si può considerare la macchina analitica del matematico inglese Charles Babbage (1792-1871) il capostipite dei calcolatori . Anche se Babbage spese la sua vita e i suoi averi nel tentativo di costruzione della sua macchina, in realtà questa non vide mai la luce. La tecnologia del tempo non era in condizioni di costruire ruote ed ingranaggi con quella precisione richiesta. Accanto al nome di Babbage va ricordato anche quello di Lady Ada Augusta Byron Contessa di Lovelace che comprese le enormi capacità della macchina analitica e propose alcuni programmi: è considerata la prima programmatrice della storia.
La prima generazione (valvole e piastre 1945-1955). Intorno alla metà del 1940 vennero costruite le prime macchine calcolatrici. In diverse parti del mondo gli scienziati, spinti anche da esigenze di utilizzi bellici, furono in grado di far diventare realtà gli studi di Babbage. Alcuni nomi sono ricordati ancora oggi: John von Neumann a Princeton, Presper Eckert all'Università della Pennsylvania, Konrad Zuse in Germania. Le macchine di cui si parla, ovviamente, erano molto diverse da come li conosciamo oggi. La tecnologia costruttiva principale prevedeva l'uso di valvole e le macchine che le usavano erano enormi, riempivano intere stanze e nonostante le vertiginose velocità riferite ai tempi, erano molto più lente del più piccolo dei calcolatori odierni. Non esistevano linguaggi di programmazione o sistemi operativi e la programmazione veniva fatta direttamente in linguaggio macchina o, più spesso, effettuando collegamenti su schede e controllando le funzioni della macchina. Un passo avanti si ebbe all'inizio del 1950 con l'introduzione delle schede perforate che permettevano di scrivere i programmi su schede che il calcolatore poteva leggere.
La seconda generazione (transistor e sistemi batch 1955-1965). A metà degli anni '50 furono introdotti i transistor e i calcolatori divennero più affidabili. Solo poche grosse industrie o università erano in grado di affrontare il costo delle macchine del tempo. I job (lavori) erano eseguiti uno di seguito all'altro: un operatore si occupava di caricare in macchina le schede con perforate le istruzioni da eseguire, ritirare il risultato dalla stampante e procedere con il prossimo lavoro. Ci si rese conto che si sprecava molto tempo macchina in attesa che l'operatore provvedesse al carico e scarico dei lavori e, poiché il tempo macchina era una risorsa estremamente costosa, bisognava cercare una soluzione diversa. La soluzione trovata fu il sistema batch. In pratica si collezionavano una serie di job, venivano caricati su un nastro magnetico usando un piccolo calcolatore poco costoso adatto per caricare schede, ma poco per i calcoli numerici. Raccolti i job, l'operatore caricava in macchina un programma (l'antenato del sistema operativo) che leggeva dal nastro e mandava in esecuzione i programmi uno di seguito all'altro. I risultati venivano scaricati su un nastro che veniva portato sul calcolatore piccolo per la stampa off-line (scollegata dal calcolatore principale).
La terza generazione (circuiti integrati e multiprogrammazione 1965-1980). Un ulteriore passo avanti nelle prestazioni e nella miniaturizzazione dei calcolatori si ebbe con l'introduzione dei circuiti integrati: i calcolatori si diffondono e i sistemi operativi cominciano ad avere il ruolo e la diffusione fra gli utenti che oggi conosciamo, utilizzando soluzioni tecniche anche sconosciute nella generazione precedente. È in questo periodo che si afferma la multiprogrammazione. In precedenza se un job si fermava in attesa di operazioni di I/O, la CPU restava inattiva. Se vengono effettuate elaborazioni commerciali che richiedono molte operazioni di I/O, l'inattività della CPU può anche essere quantificabile con percentuali del tipo 80%, 90% sul totale del tempo macchina. La soluzione adottata richiede il partizionamento della memoria in modo da contenere più job in contemporanea. La CPU divide il suo tempo, a turno, fra i vari job: si tratta dei sistemi a suddivisione di tempo (time-sharing). Avere molti job contemporaneamente in memoria richiede inoltre la presenza di hardware speciale per la protezione dalle intromissioni e dai danni da parte di altri job.
La quarta generazione (circuiti a larga scala di integrazione e personal computer 1980-oggi). Con l'introduzione della larga scala di integrazione che permetteva di stipare in un chip di un centimetro quadro migliaia di transistor, le dimensioni dei calcolatori diminuiscono ulteriormente, l'introduzione del microprocessore permette inoltre di concentrare in un unico circuito le funzioni della CPU. I costi dell'hardware diminuiscono in maniera notevole e così anche un singolo individuo può avere il proprio calcolatore personale ed usufruire delle potenze di calcolo di un sistema di elaborazione. Comincia a diffondersi il concetto di software user-friendly, software orientato agli utenti che non sanno niente di computer, che non hanno alcuna intenzione di imparare qualcosa, ma vogliono solo utilizzare la macchina per far crescere la propria produttività. Le moderne linee direttive vanno verso la direzione di sistemi con caratteristiche sempre più multimediali e sistemi operativi di rete e distribuiti. In un sistema di rete un utente con la propria macchina e il proprio sistema operativo può connettersi ad una macchina remota per condividere risorse. In un sistema distribuito tutto appare come se fosse presente in un unica macchina quando in realtà si utilizzano, in maniera trasparente (l'utente non ha percezione di ciò), risorse distribuite in macchine diverse: un programma può girare in una macchina, i file risiedere in un altra macchina.
Una tecnologia che tende a utilizzare queste ultime caratteristiche descritte è il cosiddetto cloud computing:
|
In informatica con il termine inglese cloud computing (in italiano nuvola informatica) si indica un insieme di tecnologie che permettono, tipicamente sotto forma di un servizio offerto da un provider al cliente, di memorizzare/archiviare e/o elaborare dati (tramite CPU o software) grazie all'utilizzo di risorse hardware/ software distribuite e virtualizzate in Rete. … È noto come, utilizzando varie tipologie di unità di elaborazione (CPU), memorie di massa fisse o mobili come ram, dischi rigidi interni o esterni, Cd/DVD, chiavi USB, eccetera, un computer sia in grado di elaborare, archiviare, recuperare programmi e dati. Nel caso di computer collegati in rete locale (lan) o geografica (wan) la possibilità di elaborazione/ archiviazione/recupero può essere estesa ad altri computer e dispositivi remoti dislocati sulla rete stessa. Sfruttando la tecnologia del cloud computing gli utenti collegati ad un cloud provider possono svolgere tutte queste mansioni, anche tramite un semplice internet browser. Possono, ad esempio, utilizzare software remoti non direttamente installati sul proprio computer e salvare dati su memorie di massa on-line predisposte dal provider stesso (sfruttando sia reti via cavo che senza fili). (testo e grafico da Wikipedia) |
Queste linee evolutive sono molto controverse e provocano diverse riserve a causa di notevoli rischi cui possono essere esposti gli utenti che le utilizzano: da problemi di sicurezza e privacy (i dati personali anche sensibili, risiedono in posti poco controllabili dall'utente e possibile preda di accessi non autorizzati e spionaggio industriale nel caso di dati aziendali), a problemi politici (dati residenti in paesi diversi da quello in cui risiede l'utente possono non essere sempre disponibili) per finire a problematiche tipicamente informatiche (non accessibilità dei dati in conseguenza a non continuità o disfunzioni del servizio, difficoltà di migrazione dei dati da un provider ad un altro).
http://ennebi.solira.org |
ennebi@solira.org |