Come configurare smartphone e PC. Portale informativo
  • casa
  • Programmi
  • Miti degli Stati Uniti. L'arretratezza della tecnologia informatica sovietica

Miti degli Stati Uniti. L'arretratezza della tecnologia informatica sovietica

La parola “computer” è da tempo saldamente radicata nel cervello anche dei segmenti più “oscuri” della popolazione. Oggi anche i Papuasi della Nuova Guinea, per non parlare degli abitanti della nostra vasta patria, capiscono di cosa si tratta, almeno in termini generali. Tuttavia, le frasi “processore russo” o “computer sovietico”, purtroppo, evocano una serie di associazioni specifiche. I dispositivi antidiluviani, ingombranti, deboli, scomodi e, in generale, la tecnologia domestica sono sempre motivo di sarcasmo e ironia. Sfortunatamente, poche persone sanno che l'URSS in certi momenti della storia informatica era "davanti agli altri". E troverai ancora meno informazioni sul moderno sviluppi interni in quest 'area.

"Non c'è nessun profeta nella sua patria"

L’Unione Sovietica è definita un paese che aveva una delle scuole scientifiche più potenti del mondo, non solo dai patrioti “lievitati”. Questo è un dato oggettivo basato su un'analisi approfondita del sistema educativo da parte degli esperti della British Association of Teachers. Storicamente, in URSS, è stata posta particolare enfasi sulla formazione di specialisti nel campo delle scienze naturali, ingegneri e matematici. A metà del XX secolo nel paese dei sovietici esistevano diverse scuole per lo sviluppo della tecnologia informatica e per loro non mancava personale qualificato. Decine di scienziati e ingegneri di talento hanno partecipato alla creazione vari sistemi macchine calcolatrici elettroniche.

Gli sviluppi sono stati effettuati in diverse direzioni contemporaneamente, dalla tecnologia informatica ad alte prestazioni all'introduzione di nuovi metodi di archiviazione dei dati. Qui possiamo anche notare il lavoro dell'eccezionale scienziato V.M. Glushkov, che per primo avanzò l'idea di creare un pianeta globale infrastruttura informativa, e la progettazione di computer altamente specializzati da parte di N.Ya. Matyukhin e M.A. Kartsev, e la creazione di architetture informatiche non tradizionali, incluso l'esclusivo computer "Setun" basato su logica ternaria, sviluppato sotto la guida di N.P. Brusnetsov.

Sergei Alekseevich Lebedev (1902-1974) è giustamente chiamato il fondatore dello sviluppo della tecnologia informatica nell'Unione Sovietica: sotto la sua guida furono sviluppati 15 tipi di computer, dai più semplici computer a tubi ai supercomputer su circuiti integrati.

L'alba di una nuova era

I primi esemplari di computer elettronici furono creati più o meno nello stesso periodo negli Stati Uniti e in Gran Bretagna. Poco dopo, i computer apparvero in URSS. Naturalmente, gli scienziati sovietici sapevano che tale tecnologia esisteva già in Occidente, ma, come ogni altra informazione trapelata in Russia durante il periodo guerra fredda, questi dati erano molto scarsi e poco chiari. La maggior parte delle informazioni proveniva da ufficiali dell’intelligence, ma a quei tempi la loro priorità era lo spionaggio militare e la ricerca nel campo delle armi nucleari. Erano interessati solo ai computer perché erano sotto il controllo del complesso militare-industriale americano ed erano rigorosamente classificati. Pertanto, dire che la tecnologia informatica sovietica è stata copiata dai modelli occidentali non è altro che un'insinuazione. E di che tipo di "campioni" possiamo parlare se i modelli computerizzati esistenti a quel tempo occupassero due o tre piani e solo una cerchia molto ristretta di persone vi avesse accesso? Il massimo da cui le spie domestiche potevano ottenere erano informazioni frammentarie documentazione tecnica e trascrizioni di convegni scientifici.

Alla fine degli anni '40 nell'URSS si formarono le principali scuole scientifiche, creando computer di prima e seconda generazione, apparvero i primi progetti e la loro attuazione pratica. Questo è il Penza Research Institute of Mathematical Machines, sotto la guida di B.I. Rameev, impegnato nello sviluppo della tecnologia informatica universale scopo generale. Questa è la scuola di I.S. Brook, sotto la cui guida furono creati computer piccoli e di controllo. E, naturalmente, la squadra dell'eccezionale scienziato accademico S.A. Lebedev, che è il fondatore dei computer centrali nel nostro paese.

Fu sotto la guida di Lebedev che fu creata una macchina calcolatrice elettronica universale, la prima in Europa.

MESM E BESM

In URSS, si sapeva della creazione da parte degli americani nel 1946 della macchina ENIAC, il primo computer al mondo con tubi elettronici come base dell'elemento e automatico controllato dal programma. Alla fine del 1948 Lebedev iniziò a lavorare sulla sua macchina. Un anno dopo, l'architettura è stata sviluppata (quasi da zero, senza alcun prestito), così come schemi elettrici blocchi separati. Nel 1950 il computer fu installato in tempi record con soli 12 ricercatori e 15 tecnici.

Lebedev chiamò la sua idea "Piccola macchina informatica elettronica", o MESM. Il “bambino”, composto da seimila tubi a vuoto, occupava un’intera ala di un edificio a due piani. In realtà, questo fu solo il primo pallone di prova nella creazione di computer sovietici, si potrebbe dire un modello (a proposito, la lettera "M" nell'abbreviazione "MESM" originariamente significava "modello"). Tuttavia, la potenza di calcolo di questa macchina si è rivelata immediatamente richiesta: intere code di matematici si sono messe in fila con vari problemi, la cui soluzione richiedeva un computer ad alta velocità.

Durante la creazione del MESM sono stati utilizzati tutti i principi fondamentali della creazione di computer, come la presenza di dispositivi di input e output, la codifica e la memorizzazione dei programmi in memoria, esecuzione automatica calcoli basati su un programma memorizzato in memoria, ecc. Infine, era un computer basato sulla logica binaria, utilizzata ancora oggi nell'informatica (l'ENIAC utilizzava il sistema decimale).

La piccola calcolatrice elettronica è stata seguita da una grande: BESM-1. Lo sviluppo fu completato nell'autunno del 1952, dopo di che Lebedev divenne membro a pieno titolo dell'Accademia delle scienze dell'URSS.

La nuova macchina ha tenuto conto dell'esperienza nella creazione del MESM e ha utilizzato una base di elementi migliorata. Il computer aveva una velocità di 8-10mila operazioni al secondo (contro solo 50 operazioni al secondo del MESM), i dispositivi di memorizzazione esterni erano realizzati sulla base di nastri magnetici e tamburi magnetici. Un po' più tardi, gli scienziati sperimentarono dispositivi di memorizzazione utilizzando tubi di mercurio, potenzialioscopi e nuclei di ferrite.

Se in URSS si sapeva poco dei computer occidentali, in Europa e negli Stati Uniti circa Computer sovietici non sapeva praticamente nulla. Pertanto, il rapporto di Lebedev su convegno scientifico a Darmstadt divenne una vera sensazione: si è scoperto che BESM-1, assemblato in Unione Sovietica, è il massimo computer produttivo in Europa e uno dei più potenti al mondo.

I primi computer dell'Unione funzionavano senza sosta. Matematici, progettisti, scienziati termonucleari e moltissimi altri specialisti richiedevano calcoli ultraveloci.

Il risultato ulteriori lavori Il team sotto la guida di Lebedev ha iniziato lo sviluppo e il miglioramento del BESM-1. È stato creato un modello seriale del supercomputer M-20, che ha eseguito fino a 20mila operazioni al secondo. Inoltre, sono stati sviluppati diversi modelli di computer con prestazioni più elevate appositamente per le esigenze dei militari, anche per il Centro di controllo spaziale.

L’anno 1958 fu un’altra pietra miliare importante, anche se poco conosciuta, nello sviluppo della tecnologia informatica. Sotto la guida di V.S. Burtsev, uno studente di Lebedev, il complesso, che consisteva di diversi veicoli M-40 e M-50 (profonda modernizzazione dell'M-20), compresi quelli situati su una piattaforma mobile, fu unito tra loro in rete senza fili, operando a distanze fino a 200 km. Allo stesso tempo, è ufficialmente considerato il primo al mondo rete di computer Cominciò a funzionare solo nel 1965, quando furono collegati i computer TX-2 del Massachusetts Institute of Technology e i computer Q-32 della SDC Corporation di Santa Monica.

Seconda generazione

Entro la fine degli anni '50 (con un grave ritardo rispetto agli Stati Uniti), nell'URSS fu stabilita la produzione in serie di transistor, che divenne la base di una nuova base di elementi per computer invece di lampade ingombranti e inaffidabili. Le prime macchine a semiconduttore furono BESM-3M e BESM-4. È vero, hanno copiato quasi completamente l'architettura dell'M-20, l'unica differenza era nell'uso dei transistor invece delle lampade.

Il primo veicolo a tutti gli effetti della seconda generazione fu il BESM-6. Questa macchina aveva una velocità record per quel tempo: circa un milione di operazioni al secondo. Molti principi della sua architettura e organizzazione strutturale divennero una vera rivoluzione nella tecnologia informatica di quel periodo e, di fatto, erano già un passo verso la terza generazione di computer.

BESM-6 ha implementato la stratificazione memoria ad accesso casuale in blocchi che consentono il recupero simultaneo di informazioni, il che ha permesso di aumentare notevolmente la velocità di accesso al sistema di memoria. Per la prima volta è stato introdotto il metodo del buffering delle richieste, è stato creato il prototipo di una moderna memoria cache e sistema efficiente multitasking e accesso a dispositivi esterni e tante altre innovazioni, alcune delle quali utilizzate ancora oggi. Il BESM-6 si è rivelato un tale successo che è stato prodotto in serie per 20 anni e ha funzionato efficacemente in varie agenzie e istituzioni governative.

Conquista dell'Elbrus

La fase successiva fu il lavoro sulla creazione di supercomputer, la cui famiglia si chiamava "Elbrus". Questo progetto è stato avviato da Lebedev e dopo la sua morte è stato diretto da Burtsev.

Primo multiprocessore complesso informatico Elbrus-1 è stato lanciato nel 1979. Comprendeva 10 processori e aveva una velocità di circa 15 milioni di operazioni al secondo. Questa macchina era diversi anni avanti rispetto ai principali modelli di computer occidentali. Elbrus-1 è stato il primo al mondo a implementare il cosiddetto sistema multiprocessore simmetrico memoria condivisa, il cui principio è utilizzato ancora oggi nei moderni supercomputer.

"Elbrus" ha generalmente introdotto una serie di innovazioni rivoluzionarie nella teoria dei computer. Si tratta della superscalarità (elaborazione di più istruzioni in un ciclo di clock), dell'implementazione della programmazione sicura con tipi di dati hardware, del pipelining (elaborazione parallela di più istruzioni), ecc. Tutte queste funzionalità sono apparse per la prima volta nei computer sovietici. Un'altra differenza principale tra il sistema Elbrus e quelli simili prodotti nell'Unione in precedenza è la sua attenzione ai linguaggi di programmazione alto livello. Linguaggio di base("Autocode Elbrus El-76") è stato creato da V. M. Pentkovsky, che in seguito divenne il capo architetto dei processori Pentium.

Nuovi tempi, nuove realtà

Da tutto quanto sopra, si può avere l'impressione che la storia della tecnologia informatica sovietica sia una serie di vittorie e conquiste epocali. Tuttavia non lo è. Gli ingegneri, gli scienziati e i progettisti che hanno creato i computer nell'URSS, ovviamente, sono stati fatalmente sottovalutati sia dalla storia in generale che dal loro stato natale in particolare. Il principale cliente del computer era il complesso militare-industriale con i suoi compiti specifici, che ha dato vita a molte soluzioni tecniche ingegnose ed esempi davvero eccezionali di tecnologia informatica. Ma, sfortunatamente, si trattava spesso di macchine altamente specializzate e i requisiti imposti dallo Stato ai computer erano di natura dichiarativa.

La transizione del Paese verso una nuova era si è completamente trasformata in un terribile incubo per istituti di ricerca e scienziati. Il lavoro dei team coinvolti nello sviluppo della tecnologia informatica si è effettivamente interrotto per diversi anni. Molti scienziati andarono all'estero, dove i loro talenti servirono a svilupparsi informatica altri paesi.

Secondo Keith Diffendorf, redattore della newsletter Microprocessor Report, Pentkovsky ha portato con sé un patrimonio di esperienza e tecnologie avanzate sviluppate in Unione Sovietica, compresi i principi fondamentali architetture moderne, come le architetture SMP (multiprocessing simmetrico), superscalare ed EPIC (Explicitly Parallel Instruction Code). Sulla base di questi principi, nell’Unione venivano già prodotti i computer, mentre negli Stati Uniti queste tecnologie erano solo “aleggianti nella mente degli scienziati”.

Ma la storia non tollera il congiuntivo, quindi è successo come è successo, e oggi il mondo usa i Pentium anziché l'Elbrus.

Tuttavia, non tutto è perduto. Gli sviluppi sono ancora in corso in Russia apparecchiature informatiche. Le informazioni su di loro sono frammentarie e contraddittorie. Pertanto, molte copie sono già state rotte attorno a Elbrus, che continua la sua storia.

Ha entusiasmato il pubblico l'articolo dello stesso Keith Diffendorf, pubblicato nel 1999, “The Russians Are Coming”, in cui elogiava lo sviluppo della società russa MCST (Moscow Center for SPARC Technologies), creata sulla base di rami di l'Istituto di meccanica di precisione e tecnologia informatica intitolato a S. A. Lebedev. Riguarda sul microprocessore Elbrus-2000.

La principale caratteristica distintiva di questo prodotto è la più profonda parallelizzazione delle risorse fino ad oggi per l'esecuzione simultanea delle istruzioni. In generale, ci sono molte ambiguità e contraddizioni in questo sviluppo. Versione ufficiale afferma che MCST non disponeva di fondi sufficienti per realizzare il progetto. Allo stesso tempo, le caratteristiche intriganti del processore non realizzato hanno entusiasmato le menti del consiglio di amministrazione. Intel. Così, nel 2002, Boris Babayan (il capo del team di sviluppo) in un'intervista con ExtremeTech affermò che "con standard tecnologici di 0,1 micron, il processore avrà una frequenza di clock di 3 GHz e fornirà prestazioni di circa 500 SPECint95 e 1200 SPECfp95." D'accordo, nel 2002 la frequenza di clock di 3 GHz non poteva fare a meno di attirare l'attenzione. E gli indicatori di prestazione dichiarati sono sorprendenti. Non è noto quanto siano accurate queste informazioni, ma presto Intel Corporation stipulò un accordo con la società Elbrus MCST e annunciò l'iscrizione dei propri dipendenti al proprio staff.

Tuttavia, la storia di Elbrus non è finita qui. È apparso il 27 ottobre 2007 informazioni ufficiali che il microprocessore russo Elbrus E3M ha superato i test di stato. La parte più intrigante è la seguente: “Secondo architettura, logica e soluzioni software Il complesso informatico Elbrus-3M1 è al livello del mondo moderno e in una serie di soluzioni lo supera." Si afferma che in termini di prestazioni assolute nuovo processore L'EZM è in media simile ad un Pentium 4 con una frequenza di 2 GHz. Per quanto riguarda la performance architettonica, poi nuovo sviluppo supera di 2,5 volte il famoso Itanium e di 6,5 volte Pentium 4 e Xeon.

Come al solito, il tempo dirà quale sarà il destino futuro di Elbrus.

seleziona un modello che ti consenta di combinare correttamente tutti i file i cui nomi terminano con la combinazione di lettere "f" e hanno un'estensione di due caratteri in uno solo

gruppo?
A)*ugh*.??
B) *ugh.??
B) cazzo*.??
G)f*ff.*????

Un documento da 8 MB può essere trasferito da un computer all'altro

due strade:
A) comprimere con un archiviatore, trasmettere l'archivio tramite un canale di comunicazione, decomprimere;
B) trasmettere su un canale di comunicazione senza utilizzare un archiviatore.
Quale metodo è più veloce e in che misura se:
la velocità di trasferimento dei dati sul canale di comunicazione è di 221 bit/s;
il volume del documento compresso dall'archiviatore è pari al 50% dell'originale;
il tempo necessario per comprimere un documento è di 10 secondi, per decomprimerlo sì
3 secondi?
Nella tua risposta scrivi la lettera A se il metodo A è più veloce, o B se è più veloce.
metodo B. Subito dopo la lettera scrivi un numero che indica quanto
secondi in un modo è più veloce dell'altro.
Quindi, ad esempio, se il metodo B modo più veloce E a 23 secondi, nella risposta
devi scrivere B23.
Non è necessario aggiungere al risultato le unità di misura “secondi”, “sec.”, “s”.

Aiutami a decidere urgentemente in C++ o Pascale

Un timer è un orologio che può alimentare segnale sonoro dopo un certo periodo di tempo. Scrivere un programma che determini quando deve suonare un segnale acustico Input Sulla prima riga file di input INPUT.TXT scritto ora attuale nel formato HH:MM:SS (con zeri iniziali). Allo stesso tempo, soddisfa le seguenti restrizioni: HH - da 00 a 23, MM e SS - da 00 a 60. La seconda riga contiene l'intervallo di tempo che deve essere misurato. L'intervallo è scritto nel formato H:M:S (dove H, M e S vanno da 0 a 109, senza zeri iniziali). Inoltre, se H=0 (o H=0 e M=0), possono essere omessi. Ad esempio, 100:60 significa in realtà 100 minuti e 60 secondi, che equivale a 101:0 o 1:41:0. E 42 significa 42 secondi. 100:100:100 - 100 ore, 100 minuti, 100 secondi, che è uguale a 101:41:40.

PER FAVORE! URGENTEMENTE!

Tolya ha accesso a Internet tramite un canale radio unidirezionale ad alta velocità, fornendo informazioni a una velocità di 220 bit al secondo. Misha non dispone di accesso a Internet ad alta velocità, ma è possibile ricevere informazioni da Tolya tramite un canale telefonico a bassa velocità con una velocità media di 213 bit al secondo. Misha ha concordato con Tolya che avrebbe scaricato per lui 10 MB di dati su un canale ad alta velocità e li avrebbe trasmessi a Misha su un canale a bassa velocità. Il computer di Tolya può iniziare a trasmettere i dati non prima di aver ricevuto i primi 1024 KB di questi dati. Qual è il periodo di tempo minimo possibile (in secondi) dal momento in cui Tolya inizia a scaricare i dati fino a quando Misha li riceve completamente? Si prega di indicare nella risposta non è necessario aggiungere solo il numero, la parola “secondi” o la lettera “s”.

2
Un documento da 10 MB può essere trasferito da un computer a un altro in 2 modi: a-comprimere con un archiviatore tramite un canale di comunicazione e decomprimere
b-trasmettere su un canale di comunicazione senza utilizzare un archiviatore
quale metodo è più veloce se
-la velocità media di trasferimento dati è 2^18 bit al secondo
-il volume del documento compresso dall'archiviatore è pari al 30% dell'originale
- il tempo necessario per comprimere un documento è di 7 secondi, per decomprimerlo 1 secondo?
Nella tua risposta, indica la soluzione e quanto maggiore sarà la loro differenza in secondi.

Non appena una persona ha scoperto il concetto di "quantità", ha immediatamente iniziato a selezionare strumenti che ottimizzassero e facilitassero il conteggio. I computer superpotenti di oggi si basano su questi principi calcoli matematici, elaborare, archiviare e trasmettere informazioni: la risorsa più importante e il motore del progresso umano. Non è difficile farsi un'idea di come sia avvenuto lo sviluppo della tecnologia informatica considerando brevemente le fasi principali di questo processo.

Le fasi principali dello sviluppo della tecnologia informatica

La classificazione più popolare propone di evidenziare le fasi principali dello sviluppo della tecnologia informatica su base cronologica:

  • Fase manuale. Cominciò agli albori dell'era umana e continuò fino alla metà del XVII secolo. Durante questo periodo emersero le basi del conteggio. Successivamente, con la formazione dei sistemi numerici posizionali, apparvero dispositivi (abaco, abaco e successivamente un regolo calcolatore) che rendevano possibili i calcoli tramite cifre.
  • Stadio meccanico. Cominciò a metà del XVII secolo e durò quasi fino alla fine del XIX secolo. Il livello di sviluppo della scienza durante questo periodo è stato raggiunto possibile creazione dispositivi meccanici che eseguono operazioni aritmetiche di base e memorizzano automaticamente le cifre più significative.
  • La fase elettromeccanica è la più breve di tutte quelle che uniscono la storia dello sviluppo della tecnologia informatica. Durò solo circa 60 anni. Questo è il periodo che va dall'invenzione del primo tabulatore nel 1887 fino al 1946, quando apparve il primo computer (ENIAC). Nuove macchine, il cui funzionamento si basava su un azionamento elettrico e un relè elettrico, consentivano di eseguire calcoli con una velocità e una precisione molto maggiori, ma il processo di conteggio doveva ancora essere controllato da una persona.
  • La fase elettronica è iniziata nella seconda metà del secolo scorso e continua ancora oggi. Questa è la storia di sei generazioni di computer elettronici, dalle primissime unità giganti su cui si basavano tubi a vuoto e ai supercomputer moderni ultrapotenti con un numero enorme di processori funzionanti in parallelo in grado di eseguire simultaneamente molti comandi.

Le fasi di sviluppo della tecnologia informatica sono suddivise secondo un principio cronologico piuttosto arbitrario. Nel momento in cui erano in uso alcuni tipi di computer, si stavano creando attivamente i prerequisiti per l'emergere di quanto segue.

I primi dispositivi di conteggio

Il primo strumento di conteggio conosciuto nella storia dello sviluppo della tecnologia informatica sono le dieci dita delle mani umane. I risultati del conteggio venivano inizialmente registrati utilizzando le dita, tacche su legno e pietra, bastoncini speciali e nodi.

Con l’avvento della scrittura, vari modi furono inventati i record numerici sistemi di posizionamento numerazione (decimale - in India, sessagesimale - a Babilonia).

Intorno al IV secolo a.C. gli antichi greci iniziarono a contare utilizzando l'abaco. Inizialmente si trattava di una tavoletta piatta di argilla con strisce applicate su di essa con un oggetto appuntito. Il conteggio veniva effettuato posizionando piccole pietre o altri piccoli oggetti su queste strisce in un certo ordine.

In Cina, nel IV secolo d.C., apparve un abaco a sette punte: suanpan (suanpan). Fili o funi, nove o più, venivano tesi su un telaio di legno rettangolare. Un altro filo (fune), teso perpendicolarmente agli altri, divideva il suanpan in due parti disuguali. Nel compartimento più grande, chiamato “terra”, c’erano cinque ossa legate a fili, nel compartimento più piccolo, chiamato “cielo”, ce n’erano due. Ciascuno dei fili corrispondeva a una cifra decimale.

Il tradizionale abaco sorobano è diventato popolare in Giappone a partire dal XVI secolo, essendo arrivato lì dalla Cina. Allo stesso tempo, l'abaco è apparso in Russia.

Nel XVII secolo, sulla base dei logaritmi scoperti dal matematico scozzese John Napier, l'inglese Edmond Gunter inventò il regolo calcolatore. Questo dispositivo è stato costantemente migliorato ed è sopravvissuto fino ad oggi. Permette di moltiplicare e dividere numeri, elevare a potenze, determinare logaritmi e funzioni trigonometriche.

Il regolo calcolatore divenne un dispositivo che completò lo sviluppo della tecnologia informatica nella fase manuale (pre-meccanica).

I primi calcolatori meccanici

Nel 1623, lo scienziato tedesco Wilhelm Schickard creò la prima "calcolatrice" meccanica, che chiamò orologio di conteggio. Il meccanismo di questo dispositivo somigliava a un normale orologio, costituito da ingranaggi e ruote dentate. Tuttavia, questa invenzione divenne nota solo a metà del secolo scorso.

Un salto di qualità nel campo della tecnologia informatica fu l'invenzione della macchina addizionatrice Pascalina nel 1642. Il suo creatore, il matematico francese Blaise Pascal, iniziò a lavorare su questo dispositivo quando non aveva nemmeno 20 anni. "Pascalina" era un dispositivo meccanico a forma di scatola con grande quantità ingranaggi interconnessi. I numeri da aggiungere venivano inseriti nella macchina girando apposite ruote.

Nel 1673, il matematico e filosofo sassone Gottfried von Leibniz inventò una macchina che eseguiva le quattro operazioni matematiche fondamentali e poteva estrarre la radice quadrata. Il principio del suo funzionamento era basato sul sistema di numeri binari, inventato appositamente dallo scienziato.

Nel 1818, il francese Charles (Karl) Xavier Thomas de Colmar, prendendo come base le idee di Leibniz, inventò una macchina addizionatrice in grado di moltiplicarsi e dividersi. E due anni dopo, l'inglese Charles Babbage iniziò a costruire una macchina in grado di eseguire calcoli con una precisione di 20 cifre decimali. Questo progetto rimase incompiuto, ma nel 1830 il suo autore ne sviluppò un altro: una macchina analitica per eseguire precise ricerche scientifiche e calcoli tecnici. Si supponeva che la macchina fosse controllata da un software e che per inserire e produrre informazioni si dovessero utilizzare schede perforate con diverse posizioni dei fori. Il progetto di Babbage prevedeva lo sviluppo della tecnologia informatica elettronica e i problemi che avrebbero potuto essere risolti con il suo aiuto.

È interessante notare che la fama del primo programmatore al mondo appartiene a una donna: Lady Ada Lovelace (nata Byron). È stata lei a creare i primi programmi per il computer di Babbage. Successivamente uno dei linguaggi informatici prese il suo nome.

Sviluppo dei primi analoghi informatici

Nel 1887 arrivò la storia dello sviluppo della tecnologia informatica nuova fase. L'ingegnere americano Herman Hollerith (Hollerith) è riuscito a progettare il primo computer elettromeccanico: il tabulatore. Il suo meccanismo aveva un relè, oltre a contatori e una speciale scatola di smistamento. Il dispositivo leggeva e ordinava i record statistici effettuati su schede perforate. Successivamente, l'azienda fondata da Hollerith divenne la spina dorsale del gigante informatico IBM, famoso in tutto il mondo.

Nel 1930, l'americano Vannovar Bush creò un analizzatore differenziale. Era alimentato dall'elettricità e i tubi a vuoto venivano utilizzati per memorizzare i dati. Questa macchina era in grado di trovare rapidamente soluzioni a problemi matematici complessi.

Sei anni dopo, lo scienziato inglese Alan Turing sviluppò il concetto di macchina, che divenne la base teorica per i computer moderni. Aveva tutte le proprietà principali mezzi moderni tecnologia informatica: poteva eseguire passo dopo passo le operazioni programmate nella memoria interna.

Un anno dopo, George Stibitz, uno scienziato statunitense, inventò il primo dispositivo elettromeccanico del paese in grado di eseguire addizioni binarie. Le sue azioni erano basate su Algebra booleana- logica matematica, creata a metà del XIX secolo da George Boole: uso operatori logici E, O e NON. Successivamente il sommatore binario diventerà parte integrante del computer digitale.

Nel 1938, Claude Shannon, un dipendente dell'Università del Massachusetts, delineò i principi della progettazione logica di un computer utilizzando circuiti elettrici per risolvere problemi di algebra booleana.

L'inizio dell'era informatica

I governi dei paesi coinvolti nella Seconda Guerra Mondiale erano consapevoli del ruolo strategico dell’informatica nella conduzione delle operazioni militari. Questo è stato l'impulso per lo sviluppo e la parallela affermazione della prima generazione di computer in questi paesi.

Un pioniere nel campo dell'ingegneria informatica fu Konrad Zuse, un ingegnere tedesco. Nel 1941 creò il primo computer controllato da un programma. La macchina, chiamata Z3, era costruita su relè telefonici e i suoi programmi erano codificati su nastro perforato. Questo dispositivo potrebbe funzionare sistema binario e funzionano anche con numeri in virgola mobile.

Il modello successivo della macchina di Zuse, lo Z4, è ufficialmente riconosciuto come il primo computer programmabile veramente funzionante. Passò alla storia anche come creatore del primo linguaggio di alto livello programmazione, chiamata "Plankalkül".

Nel 1942, i ricercatori americani John Atanasoff (Atanasoff) e Clifford Berry crearono un dispositivo informatico che funzionava su tubi a vuoto. La macchina utilizzava anche un codice binario e poteva eseguire una serie di operazioni logiche.

Nel 1943, in un laboratorio governativo inglese, in un'atmosfera di segretezza, fu costruito il primo computer, chiamato “Colossus”. Invece di relè elettromeccanici, utilizzava 2mila tubi elettronici per archiviare ed elaborare le informazioni. Lo scopo era quello di decifrare e decifrare il codice dei messaggi segreti trasmessi dalla macchina di crittografia tedesca Enigma, ampiamente utilizzata dalla Wehrmacht. L'esistenza di questo dispositivo è ancora per molto tempoè stato mantenuto con la massima riservatezza. Dopo la fine della guerra, l'ordine di distruzione fu firmato personalmente da Winston Churchill.

Sviluppo dell'architettura

Nel 1945 il matematico americano di origine ungherese-tedesca John (Janos Lajos) von Neumann creò il prototipo dell'architettura computer moderni. Propose di scrivere un programma sotto forma di codice direttamente nella memoria della macchina, il che implica la memorizzazione congiunta di programmi e dati nella memoria del computer.

L'architettura di von Neumann costituì la base del primo universale calcolatore elettronico-ENIAC. Questo gigante pesava circa 30 tonnellate e si trovava su 170 metri quadrati di superficie. Nel funzionamento della macchina sono state utilizzate 18mila lampade. Questo computer potrebbe eseguire 300 operazioni di moltiplicazione o 5mila addizioni in un secondo.

Il primo computer programmabile universale d'Europa fu creato nel 1950 nell'Unione Sovietica (Ucraina). Un gruppo di scienziati di Kiev, guidati da Sergei Alekseevich Lebedev, ha progettato una piccola macchina calcolatrice elettronica (MESM). La sua velocità era di 50 operazioni al secondo, conteneva circa 6mila tubi a vuoto.

Nel 1952, la tecnologia informatica domestica fu reintegrata con BESM, un grande dispositivo elettronico macchina per contare, sviluppato anche sotto la guida di Lebedev. Questo computer, che eseguiva fino a 10mila operazioni al secondo, era a quel tempo il più veloce d'Europa. Le informazioni venivano immesse nella memoria della macchina utilizzando nastro di carta perforata e i dati venivano stampati tramite stampa fotografica.

Nello stesso periodo, nell'URSS fu prodotta una serie di computer di grandi dimensioni con il nome generale "Strela" (l'autore dello sviluppo era Yuri Yakovlevich Bazilevsky). Dal 1954, a Penza iniziò la produzione in serie del computer universale "Ural" sotto la guida di Bashir Rameev. Ultimi modelli Se hardware e software fossero compatibili tra loro, esisteva un'ampia scelta di dispositivi periferici, che consentivano di assemblare macchine di varie configurazioni.

Transistor. Rilascio dei primi computer seriali

Tuttavia, le lampade si guastavano molto rapidamente, rendendo molto difficile il lavoro con la macchina. Il transistor, inventato nel 1947, riuscì a risolvere questo problema. Sfruttando le proprietà elettriche dei semiconduttori, svolgeva gli stessi compiti dei tubi a vuoto, ma occupava molto meno spazio e non consumava tanta energia. Insieme all'avvento dei nuclei di ferrite per l'organizzazione della memoria del computer, l'uso dei transistor ha permesso di ridurre significativamente le dimensioni delle macchine, rendendole ancora più affidabili e veloci.

Nel 1954, la società americana Texas Instruments iniziò la produzione di massa di transistor e due anni dopo apparve in Massachusetts il primo computer di seconda generazione costruito su transistor, il TX-O.

A metà del secolo scorso, una parte significativa organizzazioni governative E grandi aziende computer usati per scopi scientifici, finanziari, calcoli ingegneristici, lavorando con grandi quantità di dati. A poco a poco, i computer hanno acquisito caratteristiche a noi familiari oggi. Durante questo periodo apparvero plotter, stampanti e supporti di memorizzazione. dischi magnetici e nastro.

L'uso attivo della tecnologia informatica ha portato ad un'espansione delle aree della sua applicazione e ha richiesto la creazione di nuove tecnologie software. Sono comparsi linguaggi di programmazione di alto livello che consentono di trasferire programmi da una macchina all'altra e semplificare il processo di scrittura del codice (Fortran, Cobol e altri). Sono comparsi programmi di traduzione speciali che convertono il codice di questi linguaggi in comandi che possono essere percepiti direttamente dalla macchina.

La nascita dei circuiti integrati

Nel 1958-1960, grazie agli ingegneri statunitensi Robert Noyce e Jack Kilby, il mondo venne a conoscenza dell'esistenza dei circuiti integrati. Transistor in miniatura e altri componenti, a volte fino a centinaia o migliaia, erano montati su una base di cristallo di silicio o germanio. I chip, grandi poco più di un centimetro, erano molto più veloci dei transistor e consumavano molta meno energia. La storia dello sviluppo della tecnologia informatica collega il loro aspetto con l'emergere della terza generazione di computer.

Nel 1964, IBM pubblicò il primo computer della famiglia SYSTEM 360, basato su circuiti integrati. Da questo momento in poi si può contare la produzione di massa di computer. In totale sono state prodotte più di 20mila copie di questo computer.

Nel 1972, l’URSS sviluppò il computer ES (serie unificata). Si trattava di complessi standardizzati per il funzionamento di centri informatici che avevano un sistema di comando comune. Come base è stato preso il sistema americano IBM 360.

L'anno successivo, la DEC pubblicò il minicomputer PDP-8, il primo progetto commerciale in quest'area. Relativamente basso costo i mini-computer hanno permesso alle piccole organizzazioni di utilizzarli.

Nello stesso periodo si è verificato un miglioramento costante Software. I sistemi operativi sono stati sviluppati per supportare importo massimo dispositivi esterni, sono comparsi nuovi programmi. Nel 1964 svilupparono BASIC, un linguaggio progettato specificamente per la formazione dei programmatori alle prime armi. Cinque anni dopo apparve Pascal, che si rivelò molto conveniente per risolvere molti problemi applicativi.

Computer personale

Dopo il 1970 iniziò la produzione della quarta generazione di computer. Lo sviluppo della tecnologia informatica in questo momento è caratterizzato dall'introduzione di grandi circuiti integrati nella produzione di computer. Tali macchine potevano ora eseguire migliaia di milioni di operazioni di calcolo in un secondo e la loro capacità RAM era aumentata a 500 milioni di bit. Una significativa riduzione del costo dei microcomputer ha portato al fatto che l'opportunità di acquistarli è diventata gradualmente disponibile per la persona media.

Apple è stata uno dei primi produttori di personal computer. Coloro che lo hanno creato Steve Jobs e Steve Wozniak progettò il primo modello di PC nel 1976, chiamandolo Apple I. Costava solo $ 500. Un anno dopo fu presentato il modello successivo di questa azienda: Apple II.

Il computer di questo tempo per la prima volta divenne simile a elettrodomestico: Oltre alle dimensioni compatte, aveva un design elegante e un'interfaccia intuitiva. La proliferazione dei personal computer alla fine degli anni '70 fece sì che la domanda di computer mainframe diminuisse notevolmente. Questo fatto preoccupò seriamente il loro produttore, IBM, che nel 1979 lanciò sul mercato il suo primo PC.

Due anni dopo apparve il primo microcomputer dell'azienda con un'architettura aperta, basato sul microprocessore 8088 a 16 bit prodotto da Intel. Il computer è stato completato visualizzazione monocromatica, due unità per floppy disk da cinque pollici, 64 kilobyte di RAM. Per conto dell'azienda creatrice, Microsoft ha sviluppato un sistema operativo appositamente per questa macchina. Sul mercato apparvero numerosi cloni di PC IBM, che stimolarono la crescita della produzione industriale di personal computer.

Nel 1984, Apple sviluppò e pubblicò un nuovo computer: il Macintosh. Il suo sistema operativo era estremamente facile da usare: presentava i comandi nel formato immagini grafiche e ha permesso di inserirli utilizzando un manipolatore: un mouse. Ciò ha reso il computer ancora più accessibile, poiché ora non erano richieste competenze speciali da parte dell'utente.

Alcune fonti datano i computer della quinta generazione di tecnologia informatica al periodo 1992-2013. In breve, il loro concetto principale è formulato come segue: si tratta di computer creati sulla base di microprocessori altamente complessi, aventi una struttura a vettori paralleli, che consente di eseguire contemporaneamente dozzine di comandi sequenziali incorporati nel programma. Macchine con diverse centinaia di processori che lavorano in parallelo consentono di elaborare i dati in modo ancora più preciso e veloce e di creare reti efficienti.

Lo sviluppo della moderna tecnologia informatica ci consente già di parlare di computer di sesta generazione. Si tratta di computer elettronici e optoelettronici che funzionano su decine di migliaia di microprocessori, caratterizzati da un massiccio parallelismo e che modellano l'architettura dei sistemi biologici neurali, che consente loro di riconoscere con successo immagini complesse.

Dopo aver esaminato costantemente tutte le fasi dello sviluppo della tecnologia informatica, va notato un fatto interessante: le invenzioni che si sono dimostrate efficaci in ciascuna di esse sono sopravvissute fino ad oggi e continuano ad essere utilizzate con successo.

Lezioni di informatica

Esistere varie opzioni classificazioni informatiche.

Quindi, in base al loro scopo, i computer sono divisi:

  • a quelli universali - quelli che sono in grado di risolvere un'ampia varietà di problemi matematici, economici, ingegneristici, tecnici, scientifici e di altro tipo;
  • orientato ai problemi - risoluzione dei problemi una direzione più ristretta, solitamente associata alla gestione di determinati processi (registrazione di dati, accumulo ed elaborazione di piccole quantità di informazioni, esecuzione di calcoli secondo semplici algoritmi). Hanno risorse software e hardware più limitate rispetto al primo gruppo di computer;
  • i computer specializzati di solito risolvono rigorosamente determinati compiti. Hanno una struttura altamente specializzata e, con una complessità relativamente bassa del dispositivo e del controllo, sono abbastanza affidabili e produttivi nel loro campo. Si tratta, ad esempio, di controller o adattatori che controllano una serie di dispositivi, nonché di microprocessori programmabili.

In base alle dimensioni e alla capacità produttiva, le moderne apparecchiature informatiche elettroniche si dividono in:

  • agli ultra-grandi (supercomputer);
  • computer di grandi dimensioni;
  • piccoli computer;
  • ultra-piccoli (microcomputer).

Così, abbiamo visto che i dispositivi, inventati dall'uomo prima, tengono conto delle risorse e dei valori, e poi si realizzano in modo rapido e preciso calcoli complessi e operazioni informatiche, costantemente sviluppate e migliorate.

| 7 ° grado | Lezioni di pianificazione per l'anno accademico (FSES) | Componenti base del computer e loro funzioni

Lezione 10
Componenti base del computer e loro funzioni

2.1.1. Computer





Parole chiave:

processore del computer memoria dispositivi di input dispositivi di output delle informazioni

Uno degli oggetti importanti studiati nelle lezioni di informatica è un computer, che prende il nome dalla sua funzione principale: eseguire calcoli (eng. computer - calcolatrice).

Il primo computer fu creato nel 1945 negli Stati Uniti. Puoi conoscere la storia dei computer facendo un tour virtuale dei musei dei computer. Tanto informazione interessante Puoi conoscere i computer visitando. Si tenga presente che la sigla COMPUTER (electronic Calcolatrice).

Un computer moderno è un dispositivo elettronico universale controllato da programmi per lavorare con le informazioni.

Dispositivo universale si chiama computer perché può essere utilizzato per molti scopi: elaborare, archiviare e trasmettere un'ampia varietà di informazioni ed essere utilizzato da una persona in diversi tipi di attività.

I computer moderni possono processi tipi diversi informazione: numeri, testo, immagini, suoni. Informazione di qualsiasi tipo è rappresentato sul computer in modulo codice binario - sequenze di zeri e uno. Alcuni metodi di codifica binaria sono presentati in Fig. 2.1.

Le informazioni destinate all'elaborazione su un computer e presentate sotto forma di codice binario sono solitamente chiamate dati binari o semplicemente dati. Uno dei principali vantaggi dei dati binari è che vengono copiati, archiviati e trasmessi utilizzando gli stessi metodi universali, indipendentemente dal tipo di informazione della fonte.

Metodi per la codifica binaria di testi, suoni (voce, musica), immagini (foto, illustrazioni), sequenze di immagini (cinema e video), nonché oggetti tridimensionali sono stati inventati negli anni '80 del secolo scorso. Successivamente esamineremo in modo più dettagliato le modalità di codifica binaria delle informazioni numeriche, testuali, grafiche e audio. Ora la cosa principale è sapere a cosa corrispondono le sequenze 1 e 0 nella rappresentazione del computer segnali elettrici- "acceso e spento". Viene chiamato il computer dispositivo elettronico , perché è composto da molti componenti elettronici, elaborando questi segnali.

Il computer elabora i dati in conformità con programma- una sequenza di comandi che devono essere eseguiti sui dati per risolvere il compito. Come i dati, i programmi sono rappresentati in un computer come codice binario. Controllato dal software Un computer è chiamato dispositivo perché il suo funzionamento viene effettuato sotto il controllo dei programmi installati su di esso. Questo principio del programma funzionamento del computer.

I computer moderni sono disponibili in una varietà di varietà: da potenti sistemi informatici, occupando intere stanze e garantendo il lavoro simultaneo di molti utenti, a mini-computer che stanno nel palmo di una mano (Fig. 2.2).

Oggi, il tipo più comune di computer è il personal computer (PC), un computer progettato per essere utilizzato da una sola persona.

IN La macchina MEPhI utilizzava un sistema esadecimale con codice binario per rappresentare i numeri con un punto decimale mobile. Questa rappresentazione ha ridotto significativamente il tempo di esecuzione delle operazioni di allineamento degli ordini e di normalizzazione della mantissa durante l'esecuzione di operazioni aritmetiche.
R La griglia di bit del numero era composta da 42 cifre: una cifra è il segno dell'ordine, tre cifre sono il codice dell'ordine, una cifra è il segno del numero, le restanti 37 cifre sono la mantissa del numero. Per rappresentare gli ordini negativi (di stoccaggio), viene adottato codice aggiuntivo, e gli ordini positivi e le mantisse, indipendentemente dal segno, sono diretti. Quest'ultimo è stato fatto per semplificare le operazioni di moltiplicazione e divisione.
UN Il dispositivo rimetico (AU) della macchina, secondo il principio dell'esecuzione delle operazioni, era seriale-parallelo. La ricezione dei dati iniziali e l'output del risultato sono stati effettuati in sequenza, l'esecuzione dell'operazione stessa è stata eseguita in parallelo. Questa scelta fu determinata dal fatto che la prima versione della RAM era un tamburo magnetico. L'AC comprendeva tre registri e un sommatore.
CON Il sistema di comando conteneva 66 comandi. Sono stati utilizzati due tipi di indirizzamento: indirizzamento a tre indirizzi con possibilità di modifica e indirizzamento unicast. Il sistema unicast ha permesso di lavorare in modalità con un sommatore di accumulo e un AC, nonché di eseguire comandi in modalità di gruppo (ripetere i comandi un certo numero di volte).
R anche la griglia di bit del comando conteneva 42 bit. Tra questi: 3 bit di segno (per il cambio automatico dell'indirizzo utilizzando un modificatore), 6 bit del codice operativo, 11 bit per indirizzo in un comando a tre indirizzi o 13 bit per indirizzo in un comando unicast. In quest'ultimo caso, in una parola sono stati inseriti 2 comandi unicast.
UN Operazioni ritmiche e logiche eseguite in centrale (nei comandi unicast e a tre indirizzi):
aggiunta,
sottrazione,
sottrazione di moduli,
moltiplicazione,
divisione,
aggiunta logica,
moltiplicazione logica,
confronto,
addizione sull'intera griglia di bit,
sottrazione sull'intera griglia di bit,
assegnare un segno numerico a un dato,
selezionando una parte intera
aggiunta di ordini,
sottrazione di ordini,
spostamento logico.

IN Il set di comandi del computer MEPhI includeva anche 6 comandi di salto condizionali e incondizionati, comandi di input, comandi di output, scrittura su RAM, arresto e operazioni con un modificatore di indirizzo.
IN Il computer MEPhI ha adottato un principio di controllo semisincrono. Il dispositivo di controllo è miscelato con un ciclo flottante. La combinazione dei dispositivi di controllo delle operazioni centrali e locali era dovuta al fatto che il tempo di esecuzione di una serie di microoperazioni (normalizzazione, allineamento degli ordini, ecc.) dipendeva dai codici dei numeri originali. Quelle micro-operazioni il cui tempo non è fisso erano controllate da un dispositivo di controllo locale. Questo ci ha permesso di ridurre i tempi medi di completamento delle operazioni. Il ciclo del dispositivo centrale variava da 1 a 15 cicli a seconda dell'operazione e dei numeri iniziali. Per eseguire calcoli simili con un gruppo numeri diversi Il dispositivo di controllo aveva una modalità per la modifica automatica degli indirizzi, per la quale veniva utilizzato uno speciale registro (modificatore) di modifica degli indirizzi a 13 bit.
E La VM MEPhI non aveva un sistema operativo comprensione moderna. Il controllo della macchina durante la sua configurazione, il monitoraggio del corretto funzionamento e il debug del programma sono stati effettuati tramite il pannello di controllo. Sul pannello della console è montato uno schema mnemonico della macchina e viene visualizzata l'indicazione dei registri AC e dei vari componenti dei dispositivi di controllo. È stato possibile operare nelle seguenti modalità:
- modalità impulso singolo;
- modalità di funzionamento in cicli (serie di operazioni elementari associate ad un dispositivo separato);
- modalità operativa per le operazioni;
- modalità automatica lavoro.
B Era possibile controllare un arresto tramite un numero o un indirizzo di comando. Le routine standard venivano memorizzate su nastri perforati separati.
N Nella prima fase della creazione e del funzionamento della macchina, come RAM è stato utilizzato un tamburo magnetico. Utilizzando 6 blocchi di testine di lettura-scrittura, il tempo necessario per accedere al tamburo è stato notevolmente ridotto. Quando si lavora con un tamburo magnetico, il computer MEPhI esegue fino a 300 comandi a tre indirizzi al secondo.
IN Come supporto informazioni per il computer MEPhI è stato utilizzato il nastro di carta perforata a 5 tracce, utilizzato nelle macchine telegrafiche Teletype. Sul nastro perforato i numeri venivano scritti nel sistema decimale binario. Per preparare i dati è stata utilizzata l'attrezzatura telegrafica standard:
- 2 dispositivi di input primari - dispositivi telegrafici STA, costituiti da un dispositivo STA-35, dotato di accessori di automazione di tipo STAP, tra cui un perforatore e un trasmettitore;
- riproforatore per la duplicazione di nastri perforati;
- ispettore della correttezza della perforazione dei nastri perforati.
CON Gli effettivi dispositivi di input/output della macchina includevano:
- due dispositivi di input-output ad alta velocità, realizzati sotto forma di meccanismi autonomi contenenti lettura fotoelettrica da nastro perforato e una macchina BP-20 per la stampa ad alta velocità (velocità di stampa - 20 numeri / s). Il meccanismo di lettura e la macchina BP-20 sono stati sviluppati e prodotti presso EPM MEPhI. Il metodo di input fotoelettrico è avvenuto ad una velocità di 5040 parole/min;
- quadro ingressi elettromeccanici con installato il dispositivo STA. Velocità di ingresso: 28 parole/min;
- Rack I/O su cui è montato il dispositivo di controllo degli ingressi.
E Il MEPhI VM conteneva 1160 tubi elettronici della serie ottale (6N8S, 6P9, n5S, ecc.) e diverse migliaia di diodi al germanio. L'area occupata era di 100 mq.

I migliori articoli sull'argomento