Come configurare smartphone e PC. Portale informativo
  • casa
  • Ferro
  • La storia della creazione dei computer di diverse generazioni. Generazioni di computer: la storia dello sviluppo della tecnologia informatica

La storia della creazione dei computer di diverse generazioni. Generazioni di computer: la storia dello sviluppo della tecnologia informatica

1. La prima generazione di computer
La prima generazione di computer vide la luce nel 1942, quando fu creato il primo computer elettronico digitale. Questa invenzione appartiene al fisico americano Atanasov.

Nel 1943, l'inglese Alan Turing sviluppa il Colossus, un computer segreto progettato per decifrare i messaggi intercettati dalle truppe tedesche. Questi computer funzionavano con lampade e avevano le dimensioni di una stanza.

Nel 1945, il matematico John von Neumann dimostrò che un computer poteva eseguire in modo efficiente qualsiasi calcolo con un controllo software appropriato senza modificare l'hardware. Questo principio è diventato la regola di base per le future generazioni di computer digitali ad alta velocità.

2. La seconda generazione di computer
Nel 1947, gli ingegneri John Bardeen e Walter Bratain inventarono il transistor. Hanno rapidamente messo radici nell'ingegneria radio e hanno sostituito il tubo a vuoto scomodo e grande. Negli anni '60. 20 ° secolo i transistor sono diventati la base elementare per i computer di seconda generazione. L'efficienza delle macchine iniziò a raggiungere centinaia di migliaia di operazioni al secondo e la quantità di memoria interna aumentò centinaia di volte rispetto ai computer di prima generazione. I linguaggi di programmazione di alto livello hanno iniziato a svilupparsi attivamente: Fortran, Algol, Cobol.
3. La terza generazione di computer
Il passaggio alla terza generazione è associato a cambiamenti significativi nell'architettura dei computer. Le macchine funzionavano già su circuiti integrati. Un computer può eseguire più programmi. La velocità di molte macchine ha raggiunto diversi milioni di operazioni al secondo. Cominciarono ad apparire i dischi magnetici, i dispositivi di input-output furono ampiamente utilizzati.
4. La quarta generazione di computer.
Un altro evento rivoluzionario nell'elettronica si è verificato nel 1971, quando l'azienda americana Intel ha annunciato la creazione di un microprocessore. Collegando microprocessori con dispositivi di input-output, memoria esterna, è stato ottenuto un nuovo tipo di computer: un microcomputer, la 4a generazione di computer. Questi computer erano piccoli, economici, utilizzavano un display grafico a colori, manipolatori, tastiera.

Nel 1976 nasce il primo personal computer, l'Apple II. Il primo personal computer domestico - Agat (1985). Dal 1980, l'azienda americana IBM è diventata un trendsetter nel mercato dei computer. Nel 1981 ha rilasciato il suo primo personal computer PC e ha formato un'altra linea nello sviluppo dei computer di quarta generazione: i supercomputer. Dalle macchine domestiche, i computer "Elbrus" appartenevano ai supercomputer.

I computer di quinta generazione sono macchine del prossimo futuro. La loro qualità principale dovrebbe essere un alto livello intellettuale. Nelle macchine di quinta generazione sarà possibile l'input vocale, la comunicazione vocale, la "visione" e il "tocco" della macchina. Molto è già stato fatto in questa direzione.

Oggi è semplicemente impossibile immaginare la vita moderna senza un computer. Solo circa 10-12 anni fa, non tutti potevano permettersi il "miracolo" dell'elettronica moderna. Tracceremo lo sviluppo evolutivo dei personal computer, oltre a identificare le fasi chiave del passaggio del PC dalla categoria di "a chi i mezzi lo consentono" alla categoria di "disponibile pubblicamente". Nello sviluppo storico della tecnologia informatica si notano solo otto nomi di persone che hanno dato il maggior contributo alle principali fasi evolutive della produzione di PC. Per diversi decenni, l'elettronica non solo ha superato, ma ha anche ampiamente sostituito la meccanica. Non solo furono compiuti passi evolutivi, ma anche rivoluzionari per garantire che in meno di un secolo la società fosse così "dipendente" dai computer.

Invece di una prefazione

Forse oggi è semplicemente impossibile immaginare la vita moderna senza un computer. E solo una dozzina di anni fa, non tutti potevano permettersi il "miracolo" dell'elettronica moderna. Ricordo come dovevo sedermi in biblioteca sui libri, copiando gli appunti necessari in un riassunto. E quei raccapriccianti saggi scritti a mano, il callo sul dito medio della mano destra...

A differenza del computer tedesco, dove i relè erano la base, in ENIAC la maggior parte degli elementi erano tubi a vuoto. Era un vero mostro, del valore di quasi 500mila dollari, che occupava un'intera stanza. Il dispositivo pesava 27 tonnellate, il numero totale di componenti: circa 17,5 mila lampade di vario tipo, 7,2 mila diodi al silicio, 1,5 mila relè, 70 mila resistori e 10 mila condensatori. La macchina richiedeva un'alimentazione di 174 kW. Potenza di calcolo: 357 operazioni di moltiplicazione o 5mila operazioni di addizione al secondo. Nozioni di base di calcolo - sistema decimale. Il computer funzionava facilmente con numeri lunghi fino a 20 cifre.

Nonostante la sua superiorità computazionale, ENIAC aveva molte carenze. Ad esempio, se almeno una lampada si bruciava, l'intero computer si guastava completamente. Anche il processo di programmazione di un computer è stato lungo: ci sono voluti diversi minuti per risolvere un problema, mentre l'inserimento dei dati poteva richiedere diversi giorni.

ENIAC non è mai stato ampiamente utilizzato, il dispositivo è stato prodotto in un'unica copia e non è stato utilizzato da nessuna parte in futuro. Ma alcuni dei principi che erano basati sulla progettazione di ENIAC hanno successivamente trovato il loro riflesso in modelli più avanzati di computer elettronici.

"Made in URSS"

Nel 1951 fu creata una piccola macchina calcolatrice elettronica, MESM, sul territorio della SSR ucraina. Conteneva 6.000 tubi elettronici e si adattava a malapena all'ala sinistra dell'edificio dell'ostello nell'ex villaggio monastico di Feofaniya (10 km da Kiev). MESM è stato creato nel laboratorio di tecnologia informatica dell'Istituto di ingegneria elettrica dell'Accademia delle scienze della SSR ucraina sotto la guida dell'accademico S.A. Lebedev.

I pensieri di Lebedev sulla creazione di un computer con superpoteri apparvero negli anni '30, quando il giovane scienziato era impegnato nella ricerca sulla stabilità dei sistemi energetici. Ma le guerre scoppiate negli anni '40 costrinsero per un po' ad abbandonare tutte le imprese.

Nel 1948, Lebedev, insieme a un gruppo di ingegneri, si trasferì a Feofaniya (uno dei dipartimenti dell'Istituto di economia dell'Accademia delle scienze della SSR ucraina) e iniziò un lavoro triennale sull'attuazione di un progetto segreto per creare il primo computer domestico.

«L'auto occupava una stanza di 60 mq. MESM funzionava a una velocità senza precedenti per quei tempi - 3mila operazioni al minuto (i moderni computer eseguono milioni di operazioni al secondo) e poteva eseguire operazioni di sottrazione, addizione, moltiplicazione, divisione, spostamenti, confronto con segno, confronto in valore assoluto, trasferimento di controllo, trasferire numeri da un tamburo magnetico, aggiungere comandi. La potenza totale delle lampade elettroniche è di 25 kW.

Dopo una serie di prove, S.A. Lebedev ha dimostrato che la sua macchina è "più intelligente di un uomo". Seguì una serie di manifestazioni pubbliche e la conclusione della commissione di esperti sull'introduzione del MESM in funzione (dicembre 1951).

Il MESM era praticamente l'unico computer nel paese che risolveva vari problemi scientifici e tecnici nel campo dei processi termonucleari, dei voli spaziali e della tecnologia missilistica, delle linee elettriche a lunga distanza, della meccanica e del controllo statistico della qualità. Uno dei problemi più importanti risolti al MESM è stato il calcolo della stabilità del funzionamento in parallelo delle unità della centrale idroelettrica di Kuibyshev, determinata da un sistema di equazioni differenziali non lineari del secondo ordine. È stato necessario determinare le condizioni in cui la massima potenza possibile può essere trasmessa a Mosca senza violare la stabilità del sistema. In connessione con il rapido sviluppo della tecnologia dei jet e dei razzi, la macchina è stata incaricata di calcolare la balistica esterna di varia complessità, che va da calcoli multivariati relativamente semplici di traiettorie che passano all'interno dell'atmosfera terrestre con una leggera differenza di altezza a quelli molto complessi associati al volo di oggetti al di fuori dell'atmosfera terrestre.

Il MESM è stato utilizzato in molti progetti di ricerca fino al 1957, dopodiché l'auto è stata smontata e smontata. L'attrezzatura è stata consegnata al Politecnico di Kiev per il lavoro di laboratorio.

I primi computer con capacità di archiviazione dati

Come accennato in precedenza, alcuni dei primi sistemi informatici elettronici divennero prototipi per la creazione di dispositivi computerizzati più avanzati. Il compito principale degli sviluppatori di nuovi computer era quello di dare alle macchine la capacità di memorizzare i dati elaborati e ricevuti nella memoria elettronica.

Una di queste auto si chiama The Manchester Baby. Nel 1948, presso l'Università di Manchester (Gran Bretagna), fu sviluppato un dispositivo di calcolo elettronico in grado di memorizzare dati nella RAM interna e un anno dopo messo in funzione. Il Manchester "Mark 1" era una versione migliorata del computer Neumann.

Il dispositivo non solo poteva leggere le informazioni dai nastri perforati, ma aveva anche la capacità di inserire/uscire dati da un tamburo magnetico proprio mentre il programma era in esecuzione. Il sistema di "memoria" era una catena di tubi catodici Williams (sviluppo del brevetto nel 1946).

Il "bambino di Manchester" aveva dimensioni completamente "non infantili": 17 m di lunghezza. Il sistema era rappresentato da 75mila tubi a vuoto, 3mila relè meccanici, 4 tubi Williams (memoria del computer 96 parole a 40 bit), un tamburo magnetico (1024-4096 parole a 40 bit), un processore per 30 istruzioni e un sistema a batteria . Per le operazioni matematiche più semplici, la macchina impiegava dai 3 ai 12 secondi.

Nel 1951, il "Bambino" fu eliminato e al suo posto "venne" un vero e proprio computer commerciale Ferranti Mark 1.

Più o meno nello stesso periodo a Cambridge (Regno Unito), un gruppo di ingegneri guidato da Maurice Wilks crea un computer con un programma memorizzato - EDSAC (Electronic Delay Storage Automatic Computer). Questo dispositivo diventa il primo dispositivo di elaborazione elettronica ampiamente utilizzato con capacità di memoria interna.

Nel computer sono state utilizzate quasi 3.000 valvole a vuoto. La memoria principale del computer è costituita da 1024 celle di memoria: 32 linee di ritardo a ultrasuoni di mercurio (RULZ), ciascuna delle quali memorizzava 32 parole di 17 bit, incluso il bit del segno. È stato possibile includere linee di ritardo aggiuntive, che hanno permesso di lavorare con parole di 35 bit. I calcoli sono stati effettuati nel sistema binario a una velocità compresa tra 100 e 15 mila operazioni al secondo. Consumo energetico - 12 kW, superficie occupata - 20 mq.

Nel 1953, sotto la guida di Wilkes e Renwick, iniziò il lavoro sul secondo modello di computer, l'EDSAC-2. Gli elementi sui nuclei di ferrite sono già stati utilizzati come RAM (random access memory), con una capacità totale di 1024 parole. La ROM (Read Only Memory) è apparsa nella nuova macchina, prima su un diodo e poi su una matrice di ferrite. Ma l'innovazione principale era l'uso del controllo del microprogramma: alcuni dei comandi potevano essere composti da un insieme di microoperazioni; i microprogrammi sono stati scritti nella memoria permanente. Questo computer è stato utilizzato fino al 1965.

Storia del "transistor".

L'inizio dell'era dei computer "per la vita" è associato alla stessa IBM. Dopo il cambio di leadership nel 1956, l'azienda cambia anche vettore produttivo. Nel 1957, IBM introduce il linguaggio FORTRAN ("FORmula TRANslation"), che è stato utilizzato per il calcolo scientifico. Nel 1959 apparvero i primi computer IBM su transistor, raggiungendo un livello di affidabilità e velocità tale che iniziarono ad essere utilizzati dai militari nei sistemi di allerta precoce della difesa aerea. Nel 1964 fu introdotta l'intera famiglia IBM System/360. Divennero: la prima famiglia di computer progettata, i primi computer mainframe, i primi computer con memoria indirizzata a byte (l'enumerazione del primato non finisce qui). I computer IBM System z compatibili con System/360 sono ancora in produzione, questo è un record di compatibilità assoluta.

Lo sviluppo evolutivo della tecnologia informatica includeva: una riduzione delle dimensioni, un passaggio a componenti più avanzati, un aumento della potenza di calcolo, un aumento della quantità di RAM e un dispositivo di archiviazione permanente, la possibilità di un uso diffuso in vari settori, nonché come la possibilità di personalizzare un computer.

Negli anni '50 e '60 del 20° secolo, i computer a transistor arrivarono a sostituire i computer con lampade. I diodi semiconduttori e i transistor sono utilizzati come elemento principale, i nuclei magnetici e i tamburi magnetici (lontani antenati dei moderni dischi rigidi) sono utilizzati come dispositivi di memoria. La seconda differenza tra questi computer: la possibilità di programmare in linguaggi algoritmici. Sono stati sviluppati i primi linguaggi di alto livello (Fortran, Algol, Cobol). Questi due importanti miglioramenti hanno notevolmente semplificato e accelerato la scrittura di programmi per computer. La programmazione, pur rimanendo una scienza, sta diventando sempre più applicata. Tutto ciò comportò una riduzione delle dimensioni e una sensibile riduzione del costo dei computer, che poi iniziarono a essere costruiti per la vendita.

La capacità di produzione di questi computer è fino a 30.000 operazioni al secondo. La quantità di RAM è di 32 Kb. I grandi vantaggi sono dimensioni ridotte e ridotti consumi energetici. La programmazione di computer a transistor diventa la base per l'emergere dei cosiddetti "sistemi operativi". Diventa più facile lavorare con il dispositivo, cosa possibile non solo per gli scienziati, ma anche per gli utenti meno "avanzati". Le apparecchiature informatiche appaiono nelle fabbriche, negli uffici (principalmente nella contabilità).

Tra i dispositivi di elaborazione elettronica a transistor di questo periodo, i più famosi sono:

Primi anni '50. Il computer più potente d'Europa è l'M-20 sovietico con una velocità media di 20mila istruzioni a 3 indirizzi al secondo su numeri in virgola mobile a 45 bit; la sua RAM era implementata su nuclei di ferrite e aveva un volume di 4096 parole.

1954-1957. La ditta NCR (USA) produce il primo computer a transistor - NCR-304;

1955 Il computer transistorizzato dei Bell Telephone Laboratories, TRADIS, contiene 800 singoli elementi a transistor;

1958 NEC Corporation sviluppa i primi computer giapponesi NEC-1101 e 1102;

Si noti che questi non sono gli unici rappresentanti della storia del "transistor" nell'evoluzione dei computer. Durante questo periodo, gli sviluppi sono stati effettuati presso il Massachusetts Institute of Technology (USA), in molti laboratori scientifici e tecnici in tutta l'Unione Sovietica e nelle principali scuole superiori tecnologiche e di ricerca europee.

Microchip e produzione di massa

Ci sono voluti solo pochi anni perché gli sviluppatori producessero un computer con nuovi componenti. Proprio come i transistor hanno sostituito le valvole a vuoto (e hanno sostituito i relè meccanici), così i microcircuiti hanno preso la loro cellula evolutiva. La fine degli anni '60 del XX secolo porta ai computer le seguenti metamorfosi: vengono sviluppati i circuiti integrati, costituiti da una catena di transistor uniti sotto un semiconduttore; appare la memoria a semiconduttore, che diventa l'elemento principale della RAM del computer; padroneggiato il metodo di programmazione simultanea di più attività (il principio di una modalità interattiva); il processore centrale può lavorare in parallelo e controllare vari dispositivi periferici; apre la possibilità di accesso remoto ai dati del computer.

Fu durante questo periodo che apparve la "famosa" famiglia di computer IBM. La produzione di apparecchiature informatiche elettroniche sta diventando un nastro trasportatore, viene avviata la produzione in serie di apparecchiature informatiche.

Naturalmente, c'è altro da dire sull'IBM System/360 (S/360). Nel 1964 l'azienda produce una serie di computer di diverse dimensioni e funzionalità. A seconda delle esigenze, nella produzione possono essere utilizzate allo stesso modo sia macchine piccole con bassa produttività che macchine grandi con ritmi di produzione più elevati. Tutte le macchine eseguono un software simile, quindi se devi sostituire un dispositivo a bassa potenza con uno più avanzato, non è necessario riscrivere il programma principale. Per garantire la compatibilità, IBM è la prima ad utilizzare la tecnologia del microcodice, che viene utilizzata in tutti i modelli della serie, ad eccezione di quelli più anziani. Questa serie di computer diventa la prima derivata quando viene fatta una chiara distinzione tra l'architettura e l'implementazione di un computer.

L'S/360 è costato all'azienda 5 miliardi di dollari (una cifra enorme per gli standard del 1964). Ma questo sistema non diventa ancora la produzione più costosa, il campionato rimane con il progetto R&D. Il modello 360 è sostituito da 370, 390 e System z, ma l'architettura del computer viene mantenuta in essi. Sulla base di S / 360, altre aziende producono le proprie serie di modelli, ad esempio la famiglia Amdahl 470, i mainframe Hitachi, l'UNIVAC 9200/9300/940, le macchine sovietiche della serie di computer ES, ecc.

Grazie all'uso diffuso dell'IBM/360, i caratteri a 8 bit inventati per esso e il byte a 8 bit come cella di memoria minima indirizzabile sono diventati lo standard per tutta la tecnologia informatica. L'IBM/360 è stato anche il primo sistema informatico a 32 bit. I modelli precedenti della famiglia IBM/360 e la successiva famiglia IBM/370 furono tra i primi computer con memoria virtuale e i primi computer prodotti in serie a supportare l'implementazione di macchine virtuali. La famiglia IBM/360 è stata la prima a utilizzare il microcodice per implementare le istruzioni del singolo processore.

Ma alcuni sistemi a microprocessore presentavano uno svantaggio: la bassa qualità dei componenti. Ciò era particolarmente pronunciato nei computer elettronici sovietici. Hanno continuato ad avere dimensioni significative e sono rimasti indietro rispetto agli sviluppi occidentali in termini di funzionalità. Per eliminare questo, i progettisti domestici hanno dovuto progettare processori speciali per svolgere compiti privati ​​(che escludevano la possibilità di multiprogrammazione).

In questo periodo compaiono anche i primi minicomputer (prototipi dei moderni computer). La cosa più importante accaduta al PC tra la fine degli anni '60 e l'inizio degli anni '70 è stato il passaggio da un gran numero di elementi all'uso di un unico pezzo che combinasse tutti i componenti necessari. I microprocessori sono il cuore di ogni computer. La società deve il suo aspetto a Intel. È lei che possiede il primo microchip, che è diventato un vero e proprio salto rivoluzionario ed evolutivo per la tecnologia informatica.

Insieme al rapido miglioramento delle apparecchiature tecniche, i sistemi informatici elettronici stanno iniziando a essere combinati in reti informatiche locali e globali (il prototipo di Internet). Il linguaggio di programmazione viene migliorato, vengono scritti sistemi operativi più avanzati.

Supercomputer ed elettronica portatile personale

Gli anni Settanta e Ottanta diventano il periodo principale della produzione in serie di computer per il consumo generale. Non ci sono state innovazioni significative durante questo periodo. La tecnologia informatica elettronica è divisa in due campi: supermacchine con incredibili capacità di calcolo e sistemi più personalizzati. L'elemento base di questi sistemi sono i grandi circuiti integrati (LSI), in cui più di mille elementi sono collocati in un cristallo. La potenza di tali computer è di decine di milioni di operazioni al secondo, la quantità di RAM aumenta a diverse centinaia di megabyte.

I sistemi informatici utilizzati nella produzione rimangono complessi, ma la leadership di massa si sta spostando sui personal computer. Fu durante questo periodo che il termine "computer elettronico" fu sostituito dal termine "computer" familiare alle nostre orecchie.

L'era dei personal computer inizia con Apple, IBM-PC (XT, AT, PS / 2), Iskra, Electronics, EU-1840, EU-1841 e altri. Questi sistemi hanno funzionalità inferiori ai supercomputer, ma a causa dello scopo del consumatore, il PC è saldamente radicato nel mercato: il dispositivo diventa disponibile pubblicamente, appaiono una serie di innovazioni che semplificano il lavoro con il dispositivo (interfaccia utente grafica, nuove periferiche , reti globali).

Dopo il rilascio dei microprocessori Intel 4004 e Intel 8008, la tecnologia è stata ripresa da altre società: sono stati prodotti MP sia sulla base del progetto Intel che sulle proprie modifiche.

È qui che la giovane Apple Computer Company di Steve Jobs e Steve Wozniak entra nell'arena con il loro primo prodotto personale: il computer Apple-1. Non molte persone erano interessate allo sviluppo di imprenditori ambiziosi. C'era un solo ordine per un lotto di computer Apple-1: Paul Terrell, proprietario del negozio di computer Byte, ordina una spedizione di 50 unità. Ma le condizioni sono le seguenti: queste non dovrebbero essere solo schede per computer, ma macchine assolutamente complete. Superando le difficoltà con il finanziamento della produzione, Apple Computer riesce comunque a adempiere ai propri obblighi in tempo e Apple-1 appare sugli scaffali del negozio di Terrell. È vero, senza "munizioni", ma solo sotto forma di compenso, ma Terrell accetta la fornitura e paga i $ 500 promessi per unità di merce.

Si noti che la maggior parte dei PC di quel tempo erano forniti come componenti separati, che venivano assemblati da distributori o clienti finali.

Quindi, nel 1976, l'Apple-1 sarà in vendita per $ 666,66 ciascuno. L'Apple I è stato completamente assemblato su un circuito stampato contenente circa 30 chip, che è considerato da molti il ​​primo PC a tutti gli effetti. Ma per ottenere un computer funzionante, gli utenti dovevano aggiungere una custodia, un alimentatore, una tastiera e un monitor. Una scheda aggiuntiva, successivamente rilasciata per $ 75, forniva la comunicazione con un registratore a cassette per l'archiviazione dei dati.

Molti esperti non considerano il computer Apple il primo dispositivo elettronico personale, ma piuttosto il microcomputer Altair 8800, creato da Ed Robers e distribuito attraverso cataloghi nel 1974-1975. Ma in realtà, questo dispositivo non soddisfaceva tutti i requisiti degli utenti.

L'azienda continua la produzione e il modello aggiornato di Apple II viene messo in vendita. Questa serie di PC era dotata di un processore MOS Technology 6502 da 1 MHz, 4 KB di RAM (espandibile a 48 KB), 4 KB di ROM, un monitor e interprete Integer BASIC e un'interfaccia per il collegamento di un registratore a cassette. Apple II diventa il dispositivo più venduto sul mercato elettrico (negli anni di produzione sono state vendute oltre 5 milioni di unità di questo prodotto). L'Apple II sembrava più uno strumento da ufficio che un'apparecchiatura elettronica. Era un computer a tutti gli effetti adatto per un ambiente domestico, la scrivania di un manager o un'aula scolastica.

Un'uscita video composita in formato NTSC è stata utilizzata per collegare un monitor (o TV). I computer venduti in Europa utilizzavano un encoder PAL opzionale situato su una scheda di espansione. Il suono era fornito da un altoparlante controllato tramite un registro in memoria (1 bit utilizzato). Il computer disponeva di 8 connettori di espansione, 1 dei quali permetteva di collegare RAM aggiuntiva, mentre i restanti servivano per fornire I/O (porte seriali e parallele, controller di dispositivi esterni). Il prezzo di vendita iniziale del computer era di 1298-2638 dollari per una modifica del modello.

Apple II acquisisce una famiglia e fino ai primi anni '90 mantiene la sua leadership nel mercato delle apparecchiature informatiche.

Standard PC generale

Alla fine del 1980, IBM decide di produrre un proprio PC. La fornitura di microprocessori per i futuri modelli di PC IBM è affidata a Intel e il progetto "drop-out" di Harvard Bill Gates è accettato per il sistema operativo principale: il sistema operativo PC-DOS.

L'azienda non solo stabilisce il ritmo di produzione, ma stabilisce anche i propri standard per la produzione di computer. Ogni produttore di PC potrebbe acquistare una licenza da IBM e assemblare computer simili e i produttori di microprocessori potrebbero produrre elementi per loro (in effetti, solo Apple è riuscita a salvare la propria architettura). Quindi esiste un modello di IBM PC XT con un disco rigido. Dietro di lui c'è l'IBM PC AT, costruito sulla base dell'MP 80286.

Il 1985 ha segnato il rilascio di PC ad alte prestazioni, Intel e Motorola producono congiuntamente i microprocessori 80386 e M68020. Di anno in anno, le modifiche ai computer vengono migliorate, i nomi di IBM e Intel sono costantemente ascoltati. I nuovi microprocessori raggiungono un'incredibile potenza di elaborazione: fino a 50 milioni di operazioni al secondo. Nel 1993, Intel rilascia il Pentium P5 MP con un'architettura a 64 bit, seguito dai modelli 2, 3. Il Pentium 4 è già dotato della tecnologia HT, che consente l'elaborazione delle informazioni su 2 flussi paralleli.

I computer stanno migliorando in tutto: diminuiscono i consumi energetici, diminuiscono le dimensioni, ma aumenta enormemente la potenza di calcolo, aumenta la quantità di RAM (fino a 4 gigabyte), i volumi degli hard disk sono calcolati in terabyte.

Quasi tutti i computer prodotti nel mondo stanno passando al nuovo sistema operativo "finestra" MicroSoft "Windows" e alle applicazioni per ufficio MS-Office. Così vengono definiti gli standard informatici del personal computer: l'architettura del PC IBM e il sistema operativo Windows.

Per quanto riguarda le dimensioni del PC, oltre ai computer fissi, vengono prodotti l'elettronica portatile portatile: laptop, netbook, poi tablet e smartphone (telefono-computer).

Invece di una postfazione

Per diversi decenni, i personal computer sono passati dalle "macchine calcolatrici" elettroniche alla categoria delle apparecchiature di uso quotidiano. Ora il PC non è solo un dispositivo informatico elettronico. Questa è un'intera industria della conoscenza, dell'intrattenimento, del lavoro, dell'istruzione e di altre opportunità per i consumatori.

Mikhail Polyukovich

Nella società moderna, è difficile immaginare la vita senza una cosa unica come un computer. Modelli e tipi di computer moderni ci sorprendono per le loro capacità, dimensioni compatte, design ... Ma primi computer non erano affatto così.

I PC moderni, grazie a determinati programmi, possono fare miracoli in qualsiasi ambito della società. Immagini grafiche, editing di testo, file audio e video, modellazione 3D, traduzione di immagini e molte altre funzioni sembrano ormai essere all'ordine del giorno per il funzionamento di una macchina. Tuttavia, questo non è stato sempre il caso. Per presentare un quadro completo, proponiamo di considerare i fatti più noti della storia dei computer elettronici.

Foto: www-mynet-com-demo.sitemod.io

L'esecuzione di vari calcoli ha svolto a lungo un ruolo cruciale. Per questi scopi sono stati utilizzati vari dispositivi. Tuttavia, il primo rappresentante dei dispositivi informatici fu l'abaco, apparso per la prima volta nel Celeste Impero. In altri stati antichi furono usati analoghi dell'invenzione cinese.

L'abaco greco antico è una tavola lavorata con scanalature per pietre. Nell'antica Roma iniziarono a utilizzare un infisso in marmo. In Russia serviva a questo scopo l'abaco, che è ancora conservato nelle case di alcune nonne. Forse questo è solo un omaggio alla memoria o all'abitudine.

Molti secoli dopo, apparvero i primi prerequisiti per il miglioramento della tecnologia e l'emergere di nuovi dispositivi informatici. Così, nel 1642, il matematico francese B. Pascal divenne l'iniziatore. Grazie al suo lavoro fu realizzata la prima macchina aritmetica. Il principio del suo funzionamento si basa su ruote dentate. Il dispositivo ha permesso di aggiungere anche numeri decimali, che è stata sicuramente una svolta in questo settore. L'inventore era orgoglioso della sua idea e sosteneva che le manipolazioni eseguite dalla macchina sono più vicine al pensiero rispetto, ad esempio, alle azioni degli animali.


Foto: znaimo.com.ua

Le menti dell'intero Vecchio e Nuovo Mondo erano concentrate sulla questione della creazione di dispositivi informatici. Nel 1673 fu introdotta in Germania un'altra novità dell'epoca. Il matematico tedesco Leibniz ha creato una macchina con un algoritmo di azioni più complesso. La sua idea era già in grado di eseguire calcoli matematici di base.

Il 1823 fu segnato dall'emergere di un nuovo progetto. È associato al nome di Charles Babbage, che ha avanzato l'idea di creare una macchina calcolatrice universale, che sarebbe basata su un chiaro algoritmo automatizzato: un programma. Forse, grazie all'Inghilterra, iniziò un nuovo periodo nello sviluppo della tecnologia informatica. Tuttavia, nonostante tutti gli sforzi per raggiungere l'obiettivo, l'idea non era destinata a diventare realtà.

Per creare un tale dispositivo, è stato sviluppato uno speciale linguaggio di programmazione. Il suo autore è Ada Lovelace, da cui prende il nome. Per la produzione del dispositivo erano necessari componenti speciali, che in quel momento non potevano essere acquistati. Tuttavia, nel 1940, riuscirono ancora a creare un computer simile funzionante su un relè elettromeccanico e sul principio della logica matematica.


Foto: dost.baria-vungtau.gov.vn

Gli anni '40 del XX secolo furono segnati da un rapido salto nella storia Ingegneria Informatica. Parallelamente al rilascio di dispositivi software per l'informatica, è apparso il primo computer elettronico al mondo, il cui lavoro era basato su tubi radio.

Negli Stati Uniti, John Mauchly e J. Presper Eckert l'anno successivo, dopo la fine della seconda guerra mondiale, presentarono una nuova invenzione chiamata Eniac, alla cui creazione partecipò John von Neumann. Grazie ai suoi meriti sono stati adottati i componenti principali del computer. Continuano a costituire la base dei computer moderni.

Inizialmente, il computer è stato creato per le esigenze dell'esercito. Doveva essere a disposizione delle forze armate per calcolare la traiettoria balistica dei proiettili e creare nuove tavole balistiche. Tutti i tipi di risorse e dipartimenti sono stati coinvolti nello sviluppo del progetto per accelerare il processo. Tuttavia, è stato approvato solo nel 1943. A questo proposito, il modello uscì già nel dopoguerra. Ma nonostante ciò, il computer si è dimostrato efficace in molte industrie civili.


Foto: vilne.org.ua

Il lavoro sulla creazione di computer è stato svolto anche in altri paesi. Così, in Inghilterra, nel 1949 apparve un prototipo di computer. L'URSS ha presentato contemporaneamente due versioni del miracolo della tecnologia: nel 50 ° anno del 20 ° secolo è apparso un piccolo computer elettronico e due anni dopo la sua variazione più grande.

I primi computer richiedevano molti sforzi per funzionare: un gran numero di lavoratori serviva solo una macchina. Inoltre, la manutenzione di tali apparecchiature comportava elevati costi finanziari a causa del frequente guasto dei tubi a vuoto, che non erano economici e si trovavano su dispositivi in ​​gran numero. Inoltre, le dimensioni dei primi computer erano così grandi da occupare un'intera stanza. Pertanto, sono diventati disponibili solo per poche organizzazioni.

Nel 1948 fu trovata una soluzione per sostituire i tubi a vuoto con transistor più compatti e circuiti di memoria funzionanti su nuclei magnetici. Questa innovazione ha ridotto notevolmente le dimensioni della macchina. Già negli anni '60 fu introdotta una versione più compatta della tecnologia PDP-8. È stato prodotto da DigitalEquipment.


Foto: encontrreaquinoreca.com

Un altro innovatore è stato un dipendente di Texas Instruments. Sul posto di lavoro, ha avuto l'idea di creare un circuito integrato da semiconduttori. Jack Kilby ha deciso di mettere tutti gli elementi del circuito su una scheda. Dopo aver presentato la sua proposta alle autorità, ha ricevuto l'approvazione.

Il primo prototipo sembrava anonimo ed era un prodotto sottile in germanio con elementi incorporati di un circuito elettrico che serviva a convertire la corrente continua in corrente alternata. I collegamenti delle parti sono stati realizzati utilizzando cavi aerei, per la cui fabbricazione è stato utilizzato il metallo. Questo modello è stato realizzato manualmente dall'inventore, ma ha impressionato e, dopo alcune modifiche, è stata pianificata la produzione in serie.

La società non aveva fretta di brevettare l'invenzione. Solo il 6 febbraio 1959 fu completata la registrazione del brevetto. Stranamente, c'erano molte voci sullo sviluppo della tecnologia informatica: a causa della grande concorrenza, tutti avevano fretta di annunciare prima le loro invenzioni. Per Texas Instruments, quel concorrente era RCA.

Tuttavia, anche Robert Noyce dalla California, essendo un rappresentante di Fairchild Semiconductor, propose un'idea simile e nella primavera di quell'anno si affrettò a brevettare la sua invenzione. Qui, a differenza di Kilby, il collegamento dei componenti del sistema nel circuito è stato pensato in modo più dettagliato. Nonostante le numerose controversie, o forse per evitarle, nel 1966 entrambi gli inventori riconobbero l'uguaglianza nell'uso del diritto d'autore.


Foto: deluxebattery.com

I circuiti integrati sono il passo più importante verso la personalizzazione dei computer. Per attuare questo piano, restava da risolvere il problema della riduzione delle dimensioni del processore. Basandosi sullo stesso chip, l'inventore Hoff ha creato una copia in miniatura del cervello di un grande computer. Tuttavia, a differenza del suo predecessore, le capacità del microprocessore erano molto modeste.

Il processo di miglioramento è iniziato. I processori per i nuovi computer sono stati prodotti da Intel. Dal 1970, l'invenzione ha subito una serie di modifiche. Nel più breve tempo possibile, l'Intel-4004, che elabora solo 4 bit di informazioni, è stato sostituito da Intel-8008 e Intel-8080 - 8-bit.

Nel 1974, diverse aziende decisero di inventare un nuovo mini-computer utilizzando il moderno processore Intel-8008. Affermavano che questa macchina avrebbe fatto ciò di cui era capace il mainframe. Il 1975 fu segnato dalla comparsa del primo nuovo PC Altair-8800, funzionante "sotto la guida" del microprocessore Intel-8080.


Foto: csef.ru

Vale la pena notare un fatto importante: cronologicamente, Altair non è stato il primo dispositivo tra i rappresentanti della tecnologia informatica. Già nel 1974 furono rilasciati due modelli di computer Scelbi-8H e Mark-8. Tuttavia, a causa dell'ingiustizia storica e della mancanza di sostegno finanziario, questi modelli sono rimasti in stato sperimentale e non sono stati messi sulla linea di produzione.

La società MITS, che ha rilasciato IBM Altair-8800, ha fornito nuove macchine per posta sotto forma di componenti, ovvero per ulteriori operazioni è stato necessario saldare in modo indipendente tutti i componenti del dispositivo. Una volta assemblata, la macchina era un blocco con interruttori a levetta e spie luminose. Per lavorarci, è stato necessario studiare il sistema di codifica binaria sotto forma di combinazioni di uno e zero. Inoltre, la quantità di RAM era di soli 256 byte.

L'inventore di un tale miracolo fu Ed Roberts. Tuttavia, non poteva nemmeno immaginare che la sua invenzione sarebbe stata molto richiesta dalla popolazione. Roberts prevedeva di fornire al mercato fino a 200 unità di apparecchiature all'anno, ma questa cifra era già stata superata il primo giorno degli ordini.


Foto: preobr.vaonews.ru

Nell'invenzione originale mancavano molti dispositivi, ad esempio un'unità disco. Tuttavia, ciò non ha impedito all'invenzione di essere molto richiesta. Successivamente, i proprietari di IBM iniziarono a fornire autonomamente al computer componenti aggiuntivi, come un monitor. Paul Aplen e Bill Gates hanno composto "Basic" nel 1975. Questo interprete ha permesso di facilitare notevolmente la comunicazione dell'utente con il computer.

Nel tempo, i computer iniziarono ad essere prodotti già completi di dispositivi di input/output. L'uso dei linguaggi di programmazione ha anche permesso di creare programmi specializzati che svolgono compiti specifici. Ad esempio, nel 1978 è stato rilasciato il noto editor di testo WordStar.
È stato notato che in molte aree di attività, le nuove macchine svolgevano un ottimo lavoro con le attività svolte dai mainframe. La domanda per l'Altair migliorato è cresciuta in modo significativo. Insieme a questo, i computer di grandi dimensioni, così come le loro versioni mini, iniziarono a essere meno necessari. Questo fatto preoccupava il principale produttore e fornitore di computer dell'epoca, International Business Machines Corporation.


Foto: rcp.ijs.si

A titolo sperimentale, l'azienda decide di produrre personal computer. Dato che c'era poco tempo per sviluppare qualcosa di completamente nuovo e che sarebbe costato un sacco di soldi, si è deciso di utilizzare blocchi e componenti già pronti.

Nell'agosto 1981 fu introdotto l'IBMPC. C'erano preoccupazioni per la presenza della domanda, ma nonostante ciò, l'azienda semplicemente non aveva il tempo di produrre i primi computer che erano già simili a quelli moderni.

L'ultimo microprocessore Intel-8088 a 16 bit è stato utilizzato come componente principale del computer. Grazie a ciò, la quantità di RAM è stata aumentata a 1 MB. Un'altra innovazione è stata l'uso del software di Microsoft.

Le moderne tecnologie non si fermano. Ogni giorno compaiono sul mercato sempre più nuovi modelli. I primi computer ora raccolgono polvere nei musei. Tuttavia, tutta la superiorità della tecnologia informatica ora disponibile è merito di molti anni di lavoro ed esperienza.

È tutto quello che abbiamo . Siamo molto felici che tu abbia visitato il nostro sito e trascorso del tempo ad arricchirti di nuove conoscenze.

Unisciti al nostro

Il personal computer (PC) ha ampiamente cambiato l'atteggiamento dell'umanità nei confronti delle risorse informatiche. Con ogni nuovo modello di PC, le persone spostavano sempre più funzioni sulle spalle della macchina, dai semplici calcoli alla contabilità o alla progettazione. Ecco perché malfunzionamenti, guasti e tempi di fermo delle apparecchiature informatiche sono diventati non solo malintesi indesiderati, ma un vero disastro che può portare a perdite economiche dirette e altre conseguenze inaccettabili.

Le prime pietre miliari nello sviluppo dei personal computer


Nella seconda metà del 20° secolo, solo le grandi aziende disponevano di computer, e non solo per l'alto prezzo della tecnologia, ma anche per le sue dimensioni impressionanti. Pertanto, le imprese impegnate nello sviluppo e nella produzione di apparecchiature informatiche hanno cercato di miniaturizzare e ridurre il costo dei loro prodotti. Di conseguenza, la microminiaturizzazione, così come lo sviluppo diffuso di microcircuiti, ha portato al fatto che i computer potevano stare su una scrivania e Xerox ha introdotto il primo personal computer Alto già nel 1973. Era la prima volta che programmi e file venivano visualizzati sotto forma di "finestre".

Nel 1975 fu rilasciato il primo PC commerciale Altair-8800, costruito sulla base del microprocessore Intel 8080. La RAM era di 256 byte. Il PC era controllato da uno speciale pannello di commutazione. Per l'input e l'output dei dati, è stata installata un'unità floppy da 8 pollici, acquistata separatamente. La prima versione del microprocessore i8080 è stata prodotta in un pacchetto planare a 48 pin, la frequenza di clock massima era di 2 MHz. Tuttavia, il processore presentava un grave difetto che causava un "blocco". Solo il segnale di “reset” ha consentito il ripristino del sistema. La versione corretta e migliorata del processore - 8080A è stata rilasciata sei mesi dopo. È stato prodotto in un pacchetto DIP-40 e la frequenza di clock massima è aumentata a 2,5 MHz.

L'inizio del percorso di Apple e Intel


Nel 1976, a Palo Alto, Steve Jobs e Steve Wozniak assemblarono una scheda per computer funzionante chiamata Apple I. Era alloggiata in una custodia di legno e non aveva tastiera o schermo. La scheda era assemblata con processore, 8 KB di RAM e prevedeva la possibilità di visualizzare le informazioni sullo schermo.

Nel 1977, Wozniak e Jobs svilupparono il primo PC completo, l'Apple II, in una custodia di plastica con una tastiera integrata e un televisore come display. Nello stesso anno, Commodore ha introdotto un PC chiamato PET.

Nel giugno 1978 Intel creò il primo microprocessore a 16 bit, l'i8086. Grazie all'organizzazione della memoria segmentata, potrebbe indirizzare fino a 1024 KB di RAM. L'i8086 utilizzava un set di istruzioni utilizzato anche nei moderni processori. Con l'avvento del processore i8086, l'architettura x86 è diventata famosa. La frequenza di clock del processore variava da 4 a 10 MHz. Va notato che il processore 8086 ha guadagnato popolarità principalmente grazie al computer Compaq DeskPro.

Nel 1980 Osborne Computer lanciò i primi PC portatili, che avevano le dimensioni di una valigia e pesavano 11 kg.

I primi passi di IBM


Nel 1981, IBM ha rilasciato il PC IBM, un microcomputer ad architettura aperta basato sul microprocessore 8088 a 16 bit di Intel. Il processore i8088 a 16 bit con un bus dati a 8 bit aveva una frequenza di clock compresa tra 5 e 10 MHz. Il PC era dotato di un display di testo monocromatico, due floppy disk da 5 pollici da 160 Kbyte e 64 Kbyte di RAM.

Nel 1983 apparve il computer IBM PC XT (tecnologia estesa), che aveva 256 KB di RAM e un disco rigido da 10 MB. La frequenza di clock del processore era di 5 MHz.

L'IBM PC AT (Advanced Technology) è stato introdotto nel 1984. Il computer funzionava con un microprocessore Intel 80286 e un'architettura ISA e veniva fornito con un disco rigido da 20 MB. L'utilizzo del microprocessore Intel 80286 (prodotto dal 1 febbraio 1986) ha permesso di passare al bus AT: bus dati a 16 bit, bus indirizzi a 24 bit. È diventato possibile indirizzare RAM fino a 16 MB (rispetto ai 640 KB del modello di PC IBM originale). La scheda madre prevedeva una batteria di alimentazione del microcircuito, il tempo era archiviato in memoria (capacità - 50 byte). Velocità di clock del processore: 80286 - 6 - 6 MHz, 80286 - 8 - 8 MHz, 80286-10 - 10 MHz, 80286 - 12 - 12,5 MHz.

Nell'ottobre 1985 Intel creò il primo microprocessore a 32 bit, l'i80386, che comprendeva circa 275.000 transistor. Il primo PC a utilizzare questo microprocessore è stato il Compaq DeskPro 386. Un'alternativa più economica al processore i80386 a 32 bit, che in seguito ha ricevuto il finale DX, non è apparsa fino al giugno 1988. È stato il 386° processore a fornire un notevole aumento della frequenza di clock dei personal computer. Diversi modelli di 386 processori funzionavano con frequenze di clock: 16,20, 25, 33,40 MHz.

La colossale svolta di Intel


Nel 1989, Intel ha rilasciato il microprocessore 486DX. Aveva 1,2 milioni di transistor su un singolo chip ed era completamente compatibile con i processori x86. Questo microchip è stato il primo a combinare un'unità di elaborazione centrale, un coprocessore matematico e una memoria cache. Le frequenze di clock di varie modifiche dei processori 486 variavano da 16 a 150 MHz. I computer basati sul processore 486 hanno raggiunto una frequenza di 133 MHz (il cosiddetto DX4). I processori 486 DX2 avevano un moltiplicatore di 2 (con una frequenza del bus di sistema di 50 MHz, la frequenza del processore era di 100 MHz). Successivamente furono prodotti processori con l'indice DX4. Il loro moltiplicatore non era 4, ma 3. Dopo aver lasciato il mercato per 486 processori prodotti da Intel, AMD ha rilasciato i processori 486DX4-120 e 486DX4-133. Come risultato dell'introduzione dei moltiplicatori, per la prima volta è emersa una cosa come l'overclock: un aumento delle prestazioni aumentando la frequenza di clock del bus o del moltiplicatore. C'erano sistemi in vendita in cui i processori i486 erano overcloccati a 160 MHz.

Nel marzo 1993, Intel iniziò a distribuire versioni a 66 e 60 MHz del processore Pentium. I PC Pentium sono completamente compatibili con i computer che utilizzano i microprocessori i8088, i80286, i80386, i486. Il nuovo processore conteneva circa 3,1 milioni di transistor e aveva un indirizzo a 32 bit e un bus dati esterno a 64 bit.

Nel maggio 1997, Intel ha introdotto il processore Pentium II basato sul Pentium Pro. L'unità di elaborazione delle istruzioni MMX è stata aggiunta al core P6. La memoria cache di secondo livello è stata rimossa dal pacchetto del processore e ciò ha contribuito alla distribuzione di massa del Pentium II. Le velocità di clock dei processori Pentium II sono aumentate notevolmente. Per diversi modelli erano: 233, 266.300, 333.350, 400, 433.450.466, 500, 533 MHz.

Il microprocessore Intel Pentium III a 32 bit di sesta generazione è stato rilasciato da Intel nel febbraio 1999. Praticamente copiava il Pentium II, ma includeva nuove funzionalità: 70 istruzioni SSE reali (Streaming SIMD Extensions, dette anche MMX2), incentrate sul supporto multimediale; migliorato il controller della cache L1. Le velocità di clock dei processori Pentium III (Katmai) erano 450.500.533, 550.600 MHz. Basato su Coppermine - da 533 a 1133 MHz. Per processori Pentium III su core Tualatin - da 1000 a 1400 MHz.

L'era dei processori multi-core


Alla fine di novembre 2000, Intel ha introdotto i processori Pentium 4 con una velocità di clock superiore a 1 GHz, basati sull'architettura NetBurst e che utilizzano una memoria Rambus veloce con una frequenza effettiva del bus di sistema di 400 MHz. I processori contenevano 144 istruzioni SSE2 aggiuntive. Le velocità di clock dei primi processori Pentium 4 variavano da 1,4 a 2,0 GHz. Nelle modifiche successive, la frequenza di clock è aumentata da 2,2 a 3,8 GHz.

Nel luglio 2006, Intel ha creato processori dual-core: Core 2, i primi processori di questa linea sono stati Intel Core 2 Duo e Intel Core 2 Extreme. I processori sono stati sviluppati sulla base della nuova architettura Intel Core, che l'azienda definisce la fase più significativa nello sviluppo dei suoi microprocessori dall'introduzione del marchio Intel Pentium nel 1993. Utilizzando la tecnologia EM64T, i processori Intel Core 2 possono funzionare sia in modalità a 32 bit che a 64 bit. Le principali differenze tra i nuovi processori e la famiglia Pentium 4 sono la bassa dissipazione del calore e il consumo energetico, oltre alle grandi capacità di overclocking. La frequenza dei processori Core 2 Duo va da 1,5 a 3,5 GHz.

All'inizio del 2007 è stato introdotto il Core 2 Quad, un processore quad-core. Frequenze di clock: da 2,33 a 3,2 GHz.

Nel gennaio 2010 sono comparsi i processori Intel Core i3. Ad essi si aggiungono i cosiddetti processori "grafici", che eseguono calcoli in modalità "grafica". Una funzione incorporata che fornisce "ragionevolezza" nel funzionamento, accelerazione automatica. A carichi medi e bassi, funziona alla capacità nominale e consente di risparmiare energia. L'aumento del carico provoca un aumento automatico delle prestazioni del processore. La dimensione della cache (RAM interna del processore) è stata aumentata, è distribuita dinamicamente tra i core - dipende dal carico. I nuovi processori si scaldano di più, specialmente durante l'overclocking automatico. Di conseguenza, è necessario un sistema di raffreddamento più efficiente. Le velocità di clock dei processori i-Series (i3, i5, i7) vanno da 2,66 a 3,6 GHz.

Questo articolo descrive le fasi principali dello sviluppo dei computer. Vengono descritte le principali direzioni di sviluppo delle tecnologie informatiche e le ragioni del loro sviluppo.

Le fasi principali dello sviluppo dei computer

Durante l'evoluzione della tecnologia informatica, sono stati sviluppati centinaia di computer diversi. Molti di loro sono stati a lungo dimenticati, mentre altri hanno avuto un'influenza significativa sulle idee moderne. In questo articolo, daremo una breve panoramica di alcuni dei momenti storici chiave per capire meglio come gli sviluppatori sono arrivati ​​al concetto di computer moderni. Considereremo solo i principali punti di sviluppo, tralasciando molti dettagli tra parentesi. I computer che prenderemo in considerazione sono presentati nella tabella seguente.

Le fasi principali nella storia dello sviluppo dei computer:

Anno di emissione Nome del computer Creatore Appunti
1834 Motore analitico babbuino Primo tentativo di costruire un computer digitale
1936 Z1 Zus Primo computer a staffetta
1943 COLOSSO governo britannico Primo computer elettronico
1944 Marco I Aiken Primo computer multiuso americano
1946 ENIAC I Eckert/Moshley La storia dei computer moderni inizia con questa macchina
1949 EDSAC Wilks Primo computer con programmi archiviati in memoria
1951 Turbina I MIT Primo computer in tempo reale
1952 Ias von Neumann Questo design è utilizzato nella maggior parte dei computer moderni
1960 PDP-1 DIC Primo mini computer (50 unità vendute)
1961 1401 IBM Piccolo computer molto popolare
1962 7094 IBM Piccolo computer molto popolare
1963 B5000 Burroughs La prima macchina progettata per un linguaggio di alto livello
1964 360 IBM Prima famiglia di computer
1964 6600 Centro per la prevenzione e il controllo delle malattie Il primo supercomputer per calcoli scientifici
1965 PDP-8 DIC Primo minicomputer prodotto in serie (50.000 venduti)
1970 PDP-11 DIC Questi minicomputer hanno dominato il mercato dei computer negli anni '70
1974 8080 Intel Primo computer a 8 bit per uso generico su un chip
1974 CRAY-1 pastello Primo supercomputer vettoriale
1978 VAX DIC Il primo superminicomputer a 32 bit
1981 PC IBM IBM L'era dei moderni personal computer è iniziata
1981 Osbomo-1 Osborne Primo computer portatile
1983 Lisa Mela Primo PC con interfaccia utente grafica
1985 386 Intel Primo predecessore a 32 bit della linea Pentium
1985 MIPS MIPS Primo computer RISC
1987 SPARC sole Prima workstation RISC basata sul processore SPARC
1990 RS6000 IBM Primo computer superscalare
1992 Alfa DIC Primo PC a 64 bit
1993 newton Mela Primo computer palmare

In totale, si possono distinguere dalla storia 6 fasi nello sviluppo dei computer: la generazione di computer meccanici, computer a valvole (come ENIAC), computer a transistor (IBM 7094), i primi computer su circuiti integrati (IBM 360), personal computer computer (linee con CPU Intel) e cosiddetti computer invisibili.

Generazione Zero - computer meccanici (1642-1945)

La prima persona a creare una macchina calcolatrice fu lo scienziato francese Blaise Pascal (1623-1662), da cui prende il nome uno dei linguaggi di programmazione. Pascal progettò questa macchina nel 1642, quando aveva solo 19 anni, per suo padre, un esattore delle tasse. Era un progetto meccanico con ingranaggi e azionamento manuale. La macchina calcolatrice di Pascal poteva eseguire solo addizioni e sottrazioni.

Trent'anni dopo, il grande matematico tedesco Gottfried Wilhelm Leibniz (1646-1716) costruì un'altra macchina meccanica in grado di eseguire moltiplicazioni e divisioni oltre ad addizioni e sottrazioni. Infatti, Leibniz tre secoli fa ha creato una specie di calcolatrice tascabile con quattro funzioni.

Altri 150 anni dopo, professore di matematica all'Università di Cambridge, Charles Babbage (1792-1871), inventore del tachimetro, sviluppò e progettò motore di differenza. Questa macchina meccanica, che, come la macchina di Pascal, poteva solo sommare e sottrarre, calcolava tabelle di numeri per la navigazione marittima. Nella macchina è stato inserito un solo algoritmo: il metodo delle differenze finite utilizzando i polinomi. Questa macchina aveva un modo piuttosto interessante di emettere informazioni: i risultati venivano spremuti con un timbro d'acciaio su una lastra di rame, che anticipava i successivi supporti di input-output: schede perforate e CD.

Sebbene il suo dispositivo funzionasse abbastanza bene, Babbage si stancò presto di una macchina che eseguiva un solo algoritmo. Ha trascorso molto tempo, la maggior parte della sua fortuna di famiglia e altre £ 17.000 dal governo, sviluppando il motore analitico. Il motore analitico aveva 4 componenti: un dispositivo di archiviazione (memoria), un dispositivo informatico, un dispositivo di input (per la lettura di schede perforate), un dispositivo di output (un perforatore e una stampante). La memoria era composta da 1000 parole di 50 cifre decimali; ciascuna delle parole conteneva variabili e risultati. Il dispositivo di elaborazione ha ricevuto gli operandi dalla memoria, quindi ha eseguito operazioni di addizione, sottrazione, moltiplicazione o divisione e ha restituito il risultato in memoria. Come il Difference Engine, questo dispositivo era meccanico.

Il vantaggio del motore analitico era che poteva svolgere diversi compiti. Ha letto i comandi dalle schede perforate e li ha eseguiti. Alcune istruzioni dicevano alla macchina di prendere 2 numeri dalla memoria, trasferirli su un dispositivo informatico, eseguire un'operazione su di essi (ad esempio aggiungere) e inviare il risultato al dispositivo di archiviazione. Altre squadre hanno testato il numero e talvolta hanno eseguito un'operazione di filiale a seconda che fosse positivo o negativo. Se nel lettore sono state inserite schede perforate con un programma diverso, la macchina ha eseguito un diverso insieme di operazioni. Cioè, a differenza di un motore analitico differenziale, potrebbe eseguire diversi algoritmi.

Poiché il motore analitico era programmato in assemblatore elementare, aveva bisogno di un software. Per creare questo software, Babbage ha assunto una giovane donna, Ada Augusta Lovelace, figlia del famoso poeta britannico Byron. Ada Lovelace è stata la prima programmatrice al mondo. Un moderno linguaggio di programmazione, Ada, prende il nome da lei.

Sfortunatamente, come molti ingegneri moderni, Babbage non ha mai eseguito il debug di un computer. Aveva bisogno di migliaia e migliaia di ingranaggi, realizzati con una precisione che non era disponibile nel XIX secolo. Ma le idee di Babbage erano in anticipo sui tempi e anche oggi la maggior parte dei computer moderni ha un design simile al motore analitico. Pertanto, è giusto dire che Babbage era il nonno del moderno computer digitale.

Alla fine degli anni '30, il tedesco Konrad Zuse progettò diverse macchine calcolatrici automatiche che utilizzavano relè elettromagnetici. Non riuscì a ottenere fondi dal governo per i suoi sviluppi, perché iniziò la guerra. Soos non sapeva nulla del lavoro di Babbage, le sue macchine furono distrutte durante i bombardamenti di Berlino nel 1944, quindi il suo lavoro non influì sullo sviluppo futuro della tecnologia informatica. Tuttavia, è stato uno dei pionieri in questo campo.

Poco dopo, in America furono progettate macchine calcolatrici. La macchina di John Atanasoff era estremamente avanzata per l'epoca. Utilizzava capacità aritmetiche e informative binarie, che venivano periodicamente aggiornate per evitare la distruzione dei dati. La moderna memoria dinamica (RAM) funziona esattamente secondo lo stesso principio. Sfortunatamente, questa macchina non è mai diventata operativa. In un certo senso, Atanasoff era come Babbage, un sognatore a cui non piaceva la tecnologia del suo tempo.

Il computer di George Stibbitz funzionava davvero, sebbene fosse più primitivo della macchina di Atanasoff. Stibits dimostrò la sua macchina in una conferenza al Dartmouth College nel 1940. A questa conferenza ha partecipato John Mauchley, allora un insignificante professore di fisica all'Università della Pennsylvania. In seguito divenne molto famoso nel campo dello sviluppo informatico.

Mentre Soos, Stibits e Atanasoff stavano sviluppando macchine addizionatrici automatiche, un giovane Howard Aiken ad Harvard lavorava sodo per progettare macchine addizionatrici manuali come parte della sua tesi di dottorato. Dopo aver terminato la sua ricerca, Aiken si rese conto dell'importanza dei calcoli automatici. Andò in biblioteca, lesse del lavoro di Babbage e decise di costruire lo stesso tipo di computer con i relè che Babbage non era riuscito a realizzare con gli ingranaggi.

Il primo computer di Aiken, il Mark I, fu completato nel 1944. Il computer aveva 72 parole di 23 cifre decimali ciascuna e poteva eseguire qualsiasi comando in 6 secondi. I dispositivi di input-output utilizzavano nastro perforato. Quando Aiken completò il computer Mark II, i computer a relè erano obsoleti. L'era dell'elettronica è iniziata.

Prima generazione - tubi a vuoto (1945-1955)

L'impulso per la creazione di un computer elettronico fu la seconda guerra mondiale. All'inizio della guerra, i sottomarini tedeschi distrussero le navi britanniche. Gli ammiragli tedeschi inviavano comandi radio ai sottomarini e, sebbene gli inglesi potessero intercettare questi comandi, il problema era che i messaggi radio venivano codificati utilizzando un dispositivo chiamato ENIGMA, il cui predecessore è stato progettato dall'inventore dilettante ed ex presidente degli Stati Uniti Thomas Jefferson.

All'inizio della guerra, gli inglesi riuscirono ad acquisire ENIGMA dai polacchi, che a loro volta lo rubarono ai tedeschi. Tuttavia, per decifrare il messaggio codificato, era necessaria un'enorme quantità di calcoli, che dovevano essere eseguiti immediatamente dopo l'intercettazione del radiogramma. Pertanto, il governo britannico ha istituito un laboratorio segreto per creare un computer elettronico chiamato COLOSSUS. Il famoso matematico britannico Alan Turing ha preso parte alla creazione di questa macchina. COLOSSUS era già operativo nel 1943, ma poiché il governo britannico aveva il pieno controllo del progetto e lo trattava come un segreto militare per 30 anni, COLOSSUS non è diventato la base per l'ulteriore sviluppo dei computer. Ne abbiamo parlato solo perché è stato il primo computer digitale elettronico al mondo.

La seconda guerra mondiale ha influenzato lo sviluppo della tecnologia informatica negli Stati Uniti. L'esercito aveva bisogno di tabelle da usare quando prendeva di mira l'artiglieria pesante. Centinaia di donne furono assunte per calcolare su sommatrici manuali e compilare i campi di queste tabelle (si credeva che le donne fossero più accurate nei calcoli rispetto agli uomini). Tuttavia, il processo richiedeva molto tempo e spesso si verificavano errori.

John Moushley, che conosceva il lavoro di Atanasoff e Stibblits, capì che l'esercito era interessato alle macchine calcolatrici. Ha chiesto all'esercito di finanziare la creazione di un computer elettronico. Il requisito fu soddisfatto nel 1943 e Mowshley e il suo studente J. Presper Eckert iniziarono a progettare un computer elettronico, che chiamarono ENIAC (Electronic Numerical Integrator and Computer - electronic digital integrator and calculator). ENIAC consisteva di 18.000 tubi a vuoto e 1.500 relè, pesava 30 tonnellate e consumava 140 kilowatt di elettricità. La macchina aveva 20 registri, ognuno dei quali poteva contenere un numero decimale di 10 bit. (Il registro decimale è una memoria molto piccola che può contenere un numero fino a un certo numero massimo di cifre, una specie di contachilometri che ricorda il chilometraggio percorso da un'auto.) L'ENIAC aveva 6.000 interruttori multicanale installati e c'erano molti cavi che vanno ai connettori.

I lavori sulla macchina furono completati nel 1946, quando non erano più necessari, almeno per raggiungere gli obiettivi originali.

Dalla fine della guerra, a Moshley ed Eckert fu permesso di fondare una scuola dove parlavano del loro lavoro con altri scienziati. Fu in questa scuola che nacque l'interesse per la costruzione di grandi computer digitali.

Dopo l'apparizione della scuola, altri ricercatori hanno iniziato a progettare computer elettronici. Il primo computer funzionante fu EDSAC (1949). Questa macchina è stata progettata da Maurice Wilkes presso l'Università di Cambridge. Il prossimo è JOHNIAC presso la Rand Corporation, ILLIAC presso l'Università dell'Illinois, MANIAC presso il Los Alamos Lab e WEIZAC presso il Weizmann Institute in Israele.

Eckert e Moushley iniziarono presto a lavorare sulla macchina. EDVAC(Computer elettronico discreto variabile - macchina elettronica discreta parametrica). Sfortunatamente, questo progetto terminò quando lasciarono l'università per fondare una società di computer a Filadelfia (allora non c'era la Silicon Valley). Dopo una serie di fusioni, questa società è diventata Unisys Corporation.

Eckert e Mosley volevano ottenere un brevetto per l'invenzione di un computer digitale. Dopo diversi anni di contenzioso, è stato deciso che il brevetto non era valido, poiché Atanasov ha inventato il computer digitale, sebbene non lo abbia brevettato.

Mentre Eckert e Moushley stavano lavorando alla macchina EDVAC, uno dei membri del progetto ENIAC, John Von Neumann, è andato all'Institute for Advanced Study di Princeton per costruire la sua versione dell'EDVAC chiamata Ias(Memoria indirizzo immediato - memoria con indirizzamento diretto). Von Neumann era un genio negli stessi campi di Leonardo da Vinci. Conosceva molte lingue, era uno specialista in fisica e matematica, aveva una memoria fenomenale: ricordava tutto ciò che aveva sentito, visto o letto. Poteva citare testualmente a memoria il testo di libri che aveva letto diversi anni prima. Quando von Neumann si interessò ai computer, era già il matematico più famoso del mondo.

Von Neumann si rese presto conto che costruire computer con molti interruttori e cavi richiedeva molto tempo e molto noioso. Ha avuto l'idea che il programma dovesse essere rappresentato nella memoria del computer in forma digitale, insieme ai dati. Ha anche notato che l'aritmetica decimale utilizzata nella macchina ENIAC, dove ogni cifra era rappresentata da dieci tubi a vuoto A acceso e 9 spento) dovrebbe essere sostituita dall'aritmetica binaria parallela. A proposito, Atanasov è giunto a una conclusione simile solo pochi anni dopo.

Il progetto di base che von Neumann descrisse all'inizio è ora noto come computer von Neumann. È stato utilizzato nell'EDSAC, la prima macchina con un programma in memoria, e ancora oggi, più di mezzo secolo dopo, è la base della maggior parte dei moderni computer digitali. L'idea stessa e la macchina IAS hanno avuto una grande influenza sull'ulteriore sviluppo della tecnologia informatica, quindi vale la pena descrivere brevemente il progetto von Neumann. Va tenuto presente che sebbene il progetto sia associato al nome di von Neumann, altri scienziati hanno preso parte attiva al suo sviluppo, in particolare Goldstein. L'architettura di questa macchina è illustrata dalla figura seguente:

La macchina von Neumann era composta da cinque parti principali: memoria, unità aritmetico-logica, unità di controllo e dispositivi di input-output. La memoria includeva 4096 parole di 40 bit ciascuna, un bit è 0 o 1. Ogni parola conteneva 2 istruzioni di 20 bit ciascuna o un intero con segno di 40 bit. 8 bit indicavano il tipo di istruzione e i restanti 12 bit definivano una delle 4096 parole. L'unità aritmetica e l'unità di controllo costituivano il "think tank" del computer. Nelle macchine moderne, questi blocchi sono combinati in un microcircuito, chiamato centrale processore (CPU).

All'interno dell'unità logica aritmetica c'era uno speciale registro interno di 40 bit, il cosiddetto accumulatore. Un'istruzione tipica aggiungeva una parola dalla memoria all'accumulatore o memorizzava il contenuto dell'accumulatore. Questa macchina non eseguiva l'aritmetica in virgola mobile, perché von Neumann credeva che qualsiasi matematico competente potesse mantenere la virgola mobile nella sua testa.

Più o meno nello stesso periodo in cui von Neumann stava lavorando alla macchina IAS, i ricercatori del MIT stavano sviluppando il loro computer Whirlwind I. funzionava in tempo reale. Questo progetto ha portato all'invenzione di Jay Forrester della memoria a nucleo magnetico e in seguito al primo minicomputer prodotto in serie.

A quel tempo, IBM era una piccola azienda che produceva schede perforate e macchine meccaniche per lo smistamento delle schede perforate. Sebbene IBM abbia finanziato parzialmente il progetto di Aiken, non era interessata ai computer e non ha costruito il computer 701 fino al 1953, molti anni dopo che il computer UNIVAC di Eckert e Mowshley è diventato il numero uno nel mercato dei computer.

Il 701 aveva 2048 parole di 36 bit, ciascuna parola contenente due istruzioni. 701 è diventato il primo computer a guidare il mercato per dieci anni. Tre anni dopo, apparve il computer 704, che aveva 4 KB di memoria magnetica, istruzioni a 36 bit e un processore a virgola mobile. Nel 1958, IBM iniziò a lavorare sull'ultimo computer a valvole, il 709, che era essenzialmente una versione sofisticata del 704.

Seconda generazione - transistor (1955-1965)

Il transistor è stato inventato dai Bell Laboratories John Bardeen Oohn Bardeen, Walter Brattain e William Shockley, per il quale hanno ricevuto il Premio Nobel per la Fisica nel 1956. Nel giro di dieci anni, i transistor rivoluzionarono la produzione di computer e alla fine degli anni '50 i computer a valvole erano già irrimediabilmente superati. Il primo computer transistorizzato è stato costruito nel laboratorio del MIT (Massachusetts Institute of Technology). Conteneva parole a 16 bit, come Whirlwind I. Si chiamava il computer TX-0(Computer sperimentale transistorizzato 0 - computer sperimentale a transistor 0) ed era inteso solo per testare la futura macchina TX-2.

La macchina TX-2 non era di grande importanza, ma uno degli ingegneri di questo laboratorio, Kenneth Olsen (Kenneth Olsen), nel 1957 fondò la società DEC (Digital Equipment Corporation - digital equipment corporation) per produrre una macchina seriale simile alla TX- 0. Questa macchina, la PDP-1, apparve solo quattro anni dopo, principalmente perché coloro che finanziarono la DEC consideravano la produzione di computer non redditizia. Pertanto, DEC vendeva principalmente piccole schede elettroniche.

Il computer PDP-1 non è apparso fino al 1961. Aveva 4096 parole di 18 bit e una velocità di 200.000 istruzioni al secondo. Questo parametro era la metà di quello del 7090, l'equivalente a transistor del 709. Il PDP-1 era il computer più veloce del mondo all'epoca. Il PDP-1 costa $ 120.000 mentre il 7090 costa milioni. La DEC vendette dozzine di computer PDP-1 e nacque l'industria dei computer.

Una delle prime macchine, la PDP-1, è stata donata al MIT, dove ha subito catturato l'attenzione di alcuni giovani promettenti ricercatori. Una delle innovazioni del PDP-1 era un display da 512 x 512 pixel su cui potevano essere disegnati dei punti. Presto, gli studenti del MIT hanno scritto un programma speciale per il PDP-1 per giocare a "War of the Worlds", il primo gioco per computer al mondo.

Alcuni anni dopo, DEC ha sviluppato il PDP-8, un computer a 12 bit. Il PDP-8 costa molto meno del PDP-1 A6.000 dollari). La principale innovazione è il bus unico (omnibus) mostrato in fig. 1.5. Pneumaticoè un insieme di fili collegati in parallelo per collegare i componenti del computer. Questa innovazione ha distinto radicalmente il PDP-8 dallo IAS. Da allora questa struttura è stata utilizzata in tutti i computer. DEC ha venduto 50.000 computer PDP-8 ed è diventato il leader nel mercato dei minicomputer.

Come già notato, con l'invenzione dei transistor, IBM costruì una versione transistorizzata del 709 - 7090 e successivamente del 7094. Questa versione aveva un tempo di ciclo di 2 microsecondi e la memoria consisteva di 32.536 parole di 36 bit. Il 7090 e il 7094 furono gli ultimi computer ENIAC, ma furono ampiamente utilizzati per i calcoli scientifici negli anni '60 del secolo scorso.

IBM ha anche prodotto i computer 1401 per le transazioni commerciali. Questa macchina potrebbe leggere e scrivere nastri magnetici e schede perforate e stampare alla stessa velocità della 7094, ma a un costo inferiore. Non era adatto per calcoli scientifici, ma era molto comodo per tenere registri aziendali.

Il 1401 non aveva registri e nessuna lunghezza di parola fissa. La memoria conteneva 4.000 byte di 8 bit (nei modelli successivi, il volume aumentò fino a un impensabile a quel tempo 16.000 byte). Ogni byte conteneva un carattere a 6 bit, un bit amministrativo e un bit di fine parola. L'istruzione MOVE, ad esempio, ha un indirizzo di origine e un indirizzo di destinazione. Questa istruzione sposta i byte dal primo indirizzo al secondo finché il bit di fine parola non viene impostato su 1.

Nel 1964, CDC (Control Data Corporation) pubblicò il 6600, che era quasi un ordine di grandezza più veloce del 7094. Questo computer per calcoli complessi era molto popolare e CDC andò "in salita". Il segreto di una velocità così elevata era che all'interno della CPU (unità di elaborazione centrale) c'era una macchina con un alto grado di parallelismo. Aveva diverse unità funzionali per addizione, moltiplicazione e divisione, che potevano funzionare tutte contemporaneamente. Affinché la macchina funzionasse velocemente, era necessario scrivere un buon programma e, con un certo sforzo, era possibile far eseguire alla macchina 10 istruzioni contemporaneamente.

Nella macchina 6600 sono stati integrati diversi piccoli computer. Il processore centrale, quindi, contava solo i numeri e il resto delle funzioni (controllo del funzionamento della macchina, nonché input e output di informazioni) erano eseguite da piccoli computer. Alcuni dei principi di funzionamento del 6600 sono ancora utilizzati nei computer di oggi.

Il progettista del computer 6600, Seymour Cray, era una figura leggendaria, come lo era von Neumann. Ha dedicato tutta la sua vita alla costruzione di computer molto potenti, che ora vengono chiamati supercomputer. Tra questi ci sono 6600, 7600 e Crau-1. Seymour Cray è anche l'autore del famoso "algoritmo di acquisto di auto": vai nel negozio più vicino a casa tua, indichi l'auto più vicina alla porta e dici: "Prendo questa". Questo algoritmo ti permette di dedicare un minimo di tempo a cose non molto importanti (acquisto di auto) e ti permette di dedicare la maggior parte del tuo tempo a cose importanti (sviluppo di supercomputer).

Un altro computer degno di nota è il Burroughs B5000. Gli sviluppatori delle macchine PDP-1, 7094 e 6600 si sono concentrati solo sull'hardware, cercando di ridurne il costo (DEC) o farlo funzionare più velocemente (IBM e CDC). Il software non è cambiato. I produttori del B5000 sono andati dall'altra parte. Hanno progettato la macchina con l'intenzione di programmarla in Algol 60 (il precursore di C e Java), progettando l'hardware per rendere più facile il lavoro del compilatore. Così, l'idea è nata che
la progettazione del computer deve anche considerare il software. Ma questa idea fu presto dimenticata.

Terza generazione - circuiti integrati (1965-1980)

L'invenzione del circuito integrato al silicio nel 1958 da parte di Robert Noyce significava che dozzine di transistor potevano essere posizionati su un piccolo chip. I computer a circuito integrato erano più piccoli, più veloci e più economici dei loro predecessori a transistor.

Nel 1964 IBM era leader nel mercato dei computer, ma c'era un grosso problema: i computer 7094 e 1401 che produceva erano incompatibili tra loro. Uno di questi era destinato a calcoli complessi, utilizzava l'aritmetica binaria su registri di 36 bit, il secondo utilizzava il sistema numerico decimale e parole di diversa lunghezza. Molti acquirenti avevano entrambi questi computer e non apprezzavano il fatto che fossero completamente incompatibili.

Quando è arrivato il momento di sostituire queste due serie di computer, IBM ha fatto il grande passo. Ha rilasciato la linea System/360 di computer transistor progettati sia per l'informatica scientifica che commerciale. La linea System/360 presentava molte innovazioni. Era un'intera famiglia di computer per lavorare con una lingua (assembler). Ogni nuovo modello aveva una portata maggiore rispetto al precedente. L'azienda riuscì a sostituire il 1401 con il 360 (Modello 30) e il 7094 con il 360 (Modello 75). Il Modello 75 era più grande, più veloce e più costoso, ma i programmi scritti per uno potevano essere usati sull'altro. In pratica, i programmi scritti per un modello piccolo venivano eseguiti da un modello grande senza troppe difficoltà. Ma nel caso di trasferimento di software da una macchina grande a una piccola, la memoria potrebbe non essere sufficiente. Eppure la creazione di una tale linea di computer è stato un grande risultato. L'idea di creare famiglie di computer divenne presto molto popolare e nel giro di pochi anni la maggior parte delle aziende di computer produsse serie di macchine simili con costi e caratteristiche diverse. In tavola. Di seguito sono riportati alcuni dei parametri dei primi modelli della famiglia 360. Parleremo in seguito di altri modelli di questa famiglia.

I primi modelli della serie IBM 360:

Parametri Modello 30 Modello 40 Modello 50 Modello 65
Prestazioni relative 1 3,5 10 21
Tempo ciclo (ns) 1000 625 500 250
Memoria massima (byte) 65536 262144 262144 524288
Numero di byte richiamati dalla memoria in 1 ciclo 1 2 4 16
Numero massimo di canali dati 3 3 4 6

Un'altra innovazione nel 360 - multiprogrammazione. Nella memoria del computer potevano trovarsi più programmi contemporaneamente e mentre un programma era in attesa del completamento del processo di I/O, l'altro veniva eseguito. Di conseguenza, le risorse del processore sono state spese in modo più razionale.

Il computer 360 è stata la prima macchina in grado di emulare completamente il funzionamento di altri computer. I modelli più piccoli potrebbero emulare il 1401 e quelli più grandi potrebbero emulare il 7094, quindi i programmatori potrebbero lasciare intatti i loro vecchi programmi e utilizzarli con il 360. Alcuni modelli 360 eseguivano programmi scritti per il 1401 molto più velocemente del 1401 stesso, rendendo riprogrammazione inutile.

I computer della serie 360 ​​potevano emulare altri computer perché costruiti utilizzando la microprogrammazione. Dovevano essere scritti solo tre microprogrammi: uno per il set di istruzioni 360, un altro per il set di istruzioni 1401 e un terzo per il set di istruzioni 7094. La necessità di flessibilità era uno dei motivi principali della microprogrammazione.

Il computer 360 è riuscito a risolvere il dilemma tra numeri binari e decimali: questo computer aveva 16 registri da 32 bit per l'aritmetica binaria, ma la memoria era costituita da byte, come il 1401. Il 360 utilizzava le stesse istruzioni per spostare i record di dimensioni diverse da una parte all'altra della memoria, come nel 1401.

La capacità di memoria del 360 era di 224 byte (16 MB). A quei tempi, questa quantità di memoria sembrava enorme. La linea 360 è stata successivamente sostituita dalla linea 370, poi la 4300, 3080, 3090. Tutti questi computer avevano un'architettura simile. Entro la metà degli anni '80, 16 MB di memoria non erano sufficienti e IBM dovette abbandonare in parte la compatibilità per passare all'indirizzamento a 32 bit richiesto per 232 byte di memoria.

Si potrebbe presumere che, poiché le macchine avevano parole e registri a 32 bit, potrebbero anche avere indirizzi a 32 bit. Ma a quel tempo nessuno poteva nemmeno immaginare un computer con 16 MB di memoria. Incolpare IBM per mancanza di lungimiranza è come incolpare i produttori di personal computer di oggi per avere solo indirizzi a 32 bit. Forse tra qualche anno la capacità di memoria dei computer sarà molto più di 4 GB, e quindi gli indirizzi a 32 bit non saranno sufficienti.

Il mondo dei minicomputer ha fatto un grande passo avanti nella terza generazione con la produzione della linea di computer PDP-11, successori del PDP-8 con parole a 16 bit. Per molti versi, il computer PDP-11 era il fratello minore del 360 e il PDP-1 era il fratello minore del 7094. Sia il 360 che il PDP-11 avevano registri, parole, memoria con byte e in entrambe le linee i computer avevano costi e funzioni diverse. Il PDP-1 è stato ampiamente utilizzato, soprattutto nelle università, e DEC ha continuato a guidare l'industria dei minicomputer.

Quarta generazione - circuiti integrati molto grandi (1980-?)

Aspetto esteriore circuiti integrati molto grandi (VLSI) negli anni '80 consentiva di posizionare decine di migliaia, poi centinaia di migliaia e infine milioni di transistor su una singola scheda. Ciò ha portato a computer più piccoli e veloci. Prima dell'avvento del PDP-1, i computer erano così grandi e costosi che le aziende e le università dovevano avere dipartimenti dedicati ( centri informatici). Negli anni '80, i prezzi erano scesi così tanto che la possibilità di acquistare computer era disponibile non solo per le organizzazioni, ma anche per gli individui. L'era dei personal computer è iniziata.

I personal computer erano necessari per scopi completamente diversi rispetto ai loro predecessori. Sono stati utilizzati per elaborare parole, fogli di calcolo e per eseguire applicazioni altamente interattive (come giochi) che i computer di grandi dimensioni non potevano gestire.

I primi personal computer furono venduti come kit. Ogni kit conteneva un circuito stampato, una serie di circuiti integrati, che di solito includevano un circuito Intel 8080, diversi cavi, un alimentatore e talvolta un'unità floppy da 8 pollici. L'acquirente ha dovuto piegare lui stesso il computer da queste parti. Il software non era incluso con il computer. L'acquirente doveva scrivere lui stesso il software. Successivamente è arrivato il sistema operativo CP/M, scritto da Gary Kildall per l'Intel 8080. Questo sistema operativo operativo è stato posto su un floppy disk, includeva un sistema di gestione dei file e un interprete per l'esecuzione dei comandi dell'utente che venivano digitati dalla tastiera.

Un altro personal computer, l'Apple (e successivamente l'Apple II), è stato sviluppato da Steve Jobs e Steve Wozniak. Questo computer è diventato estremamente popolare tra gli utenti domestici e le scuole, il che ha reso Apple in pochissimo tempo un attore serio sul mercato.

Osservando quello che stavano facendo le altre aziende, anche IBM, allora leader nel mercato dei computer, decise di entrare nella produzione di personal computer. Ma invece di costruire da zero un computer partendo da singoli componenti IBM, cosa che avrebbe richiesto troppo tempo, l'azienda ha dato a uno dei suoi dipendenti, Philip Estridge, una grossa somma di denaro, gli ha ordinato di andare da qualche parte lontano dall'ingerenza di tutti i burocrati presso la sede dell'azienda ad Armonk, New York, e non tornare fino a quando non viene costruito un personal computer funzionante. Estridge ha avviato un'impresa abbastanza lontana dalla sede dell'azienda (in Florida), ha preso l'Intel 8088 come unità di elaborazione centrale e ha costruito un personal computer con componenti dissimili. Questo computer (IBM PC) è apparso nel 1981 ed è diventato il computer più acquistato della storia.

Tuttavia, IBM ha fatto una cosa di cui in seguito si sono pentiti. Invece di mantenere segreto il design della macchina (o almeno proteggersi con brevetti) come faceva di solito, l'azienda ha pubblicato i progetti completi, compresi tutti i circuiti elettronici, in un libro da $ 49. Questo libro è stato pubblicato in modo che altre aziende potessero produrre schede sostitutive per il PC IBM, il che aumenterebbe la compatibilità e la popolarità di questo computer. Sfortunatamente per IBM, non appena il progetto IBM PC è diventato ampiamente noto, molte aziende hanno iniziato a produrre cloni PC e spesso li vendeva a molto meno di IBM (perché tutti i componenti di un computer potevano essere facilmente acquistati). Inizia così la rapida produzione di personal computer.

Sebbene alcune aziende (come Commodore, Apple e Atari) abbiano costruito personal computer utilizzando i loro processori anziché processori Intel, il potenziale per la produzione di PC IBM era così grande che altre aziende hanno faticato a sfondare. Solo in pochi sono riusciti a sopravvivere, e poi solo perché si sono specializzati in ambiti ristretti, ad esempio, nella produzione di workstation o supercomputer.

La prima versione del PC IBM era dotata del sistema operativo MS-DOS, rilasciato dall'allora minuscola Microsoft Corporation. IBM e Microsoft hanno sviluppato congiuntamente il sistema operativo OS/2 che ha seguito MS-DOS, caratterizzato da Interfaccia grafica utente(Graphical User Interface, GUI), simile all'interfaccia Apple Macintosh. Nel frattempo, Microsoft ha anche sviluppato il proprio sistema operativo Windows che girava su MS-DOS, nel caso in cui OS/2 non prendesse piede. OS/2 non era molto richiesto e Microsoft ha continuato con successo a rilasciare il sistema operativo Windows, che ha causato un'enorme contesa tra IBM e Microsoft. La leggenda di come la piccola Intel e persino più piccola di Intel Microsoft sia riuscita a rovesciare IBM, una delle più grandi, ricche e potenti società della storia del mondo, è raccontata nelle business school di tutto il mondo.

Il successo iniziale del processore 8088 ha incoraggiato Intel a migliorarlo ulteriormente. Particolarmente degno di nota è il 386, uscito nel 1985, primo rappresentante della linea Pentium. I moderni processori Pentium sono molto più veloci del 386, ma dal punto di vista architettonico sono semplicemente versioni più potenti di esso.

A metà degli anni '80, il CISC (Complex Instruction Set Computer) è stato sostituito dal RISC (Reduced Instruction Set Computer). Le istruzioni RISC erano più semplici e molto più veloci. Negli anni '90 sono comparsi processori superscalari in grado di eseguire molte istruzioni contemporaneamente, spesso non nell'ordine in cui si trovano nel programma.

Fino al 1992, i personal computer erano a 8, 16 e 32 bit. Poi è arrivato il rivoluzionario Alpha a 64 bit di DEC, il più vero computer RISC di sempre, superando di gran lunga tutti gli altri PC. Tuttavia, il successo commerciale di questo modello si è rivelato molto modesto: solo un decennio dopo le macchine a 64 bit hanno guadagnato popolarità e anche allora solo come server professionali.

Quinta generazione: computer invisibili

Nel 1981, il governo giapponese annunciò l'intenzione di fornire alle società nazionali 500 milioni di dollari per sviluppare computer di quinta generazione basati su tecnologie di intelligenza artificiale, che avrebbero dovuto soppiantare le macchine "strette sulla testa" di quarta generazione. Guardando le aziende giapponesi conquistare rapidamente posizioni di mercato in settori che vanno dalle fotocamere agli stereo ai televisori, i produttori americani ed europei si sono fatti prendere dal panico e si sono affrettati a chiedere sussidi simili e altro sostegno dai loro governi. Tuttavia, nonostante il grande rumore, il progetto giapponese per lo sviluppo di computer di quinta generazione alla fine si è rivelato insostenibile ed è stato accuratamente "rifiutato". In un certo senso, questa situazione si è rivelata vicina a quella che Babbage doveva affrontare: l'idea era così in anticipo sui tempi che non c'era una base tecnologica adeguata per la sua attuazione.

Tuttavia, quella che può essere definita la quinta generazione di computer si è materializzata, ma in una forma molto inaspettata: i computer hanno iniziato a diminuire rapidamente. L'Apple Newton, introdotto nel 1993, ha dimostrato che un computer può stare in una custodia delle dimensioni di un lettore di cassette. La scrittura a mano, implementata in Newton, sembrava complicare le cose, ma successivamente l'interfaccia utente di tali macchine, che ora vengono chiamate segretari elettronici personali(Assistenti digitali personali, PDA), o semplicemente computer palmari, è stato migliorato e ha guadagnato un'ampia popolarità. Molti PDA oggi sono potenti quanto i normali PC di due o tre anni fa.

Ma anche i computer tascabili non sono diventati uno sviluppo veramente rivoluzionario. Molta più importanza è attribuita ai cosiddetti computer "invisibili", quelli che sono integrati in elettrodomestici, orologi, carte bancarie e un numero enorme di altri dispositivi. Processori di questo tipo forniscono funzionalità elevate e una gamma altrettanto ampia di applicazioni a un prezzo molto ragionevole. La domanda se sia possibile ridurre questi microcircuiti in una generazione a tutti gli effetti (e ci sono
sono degli anni '70) rimane discutibile. Il fatto è che espandono le capacità dei dispositivi domestici e di altri dispositivi di un ordine di grandezza. Anche ora, l'influenza dei computer invisibili sullo sviluppo dell'industria mondiale è molto grande e nel corso degli anni aumenterà. Una delle caratteristiche di tali computer è che il loro hardware e software sono spesso progettati utilizzando il metodo co-sviluppo.

Conclusione

Quindi, i computer a valvole (come ENIAC), alle seconde macchine a transistor ( IBM 7094), al terzo - i primi computer su circuiti integrati ( IBM 360), al quarto - personal computer (linee CPU Intel). Per quanto riguarda la quinta generazione, è più associata non a un'architettura specifica, ma a un cambio di paradigma. I computer del futuro saranno integrati in tutti i dispositivi concepibili e impensabili e per questo diventeranno davvero invisibili. Loro sono
si affermeranno saldamente nella vita di tutti i giorni: apriranno porte, accenderanno lampade, distribuiranno denaro e svolgeranno migliaia di altri compiti. Questo modello, sviluppato da Mark Weiser nei suoi ultimi anni, era originariamente chiamato informatizzazione diffusa, ma il termine " informatizzazione pervasiva". Questo fenomeno promette di cambiare il mondo non meno radicalmente della rivoluzione industriale.

Basato sul libro di E. Tannenbaum "Computer Architecture", 5a edizione.

Articoli correlati in alto