Come configurare smartphone e PC. Portale informativo
  • casa
  • Ferro
  • Sistemi stazionari lineari a parametri concentrati. Trasferimento di informazioni

Sistemi stazionari lineari a parametri concentrati. Trasferimento di informazioni

Il trasferimento delle informazioni avviene dalla fonte al destinatario (destinatario) delle informazioni. Fonte l'informazione può essere qualsiasi cosa: qualsiasi oggetto o fenomeno di natura animata o inanimata. Il processo di trasferimento delle informazioni avviene in un certo ambiente materiale che separa la fonte e il destinatario delle informazioni, che è chiamato canale trasmissione di informazioni. Le informazioni vengono trasmesse attraverso il canale sotto forma di una sequenza di segnali, simboli, segni, che vengono chiamati Messaggio. Destinatario l'informazione è un oggetto che riceve un messaggio, a seguito del quale si verificano determinati cambiamenti nel suo stato. Tutto quanto sopra è mostrato schematicamente nella figura.

Trasferimento di informazioni

Una persona riceve informazioni da tutto ciò che lo circonda attraverso i sensi: udito, vista, olfatto, tatto, gusto. Una persona riceve la maggior quantità di informazioni attraverso l'udito e la vista. Percepito a orecchio messaggi audio- segnali acustici in un mezzo continuo (il più delle volte nell'aria). La vista percepisce segnali luminosi trasferire l'immagine degli oggetti.

Non tutti i messaggi sono informativi per una persona. Ad esempio, sebbene un messaggio in una lingua incomprensibile venga trasmesso a una persona, non contiene informazioni per lui e non può causare cambiamenti adeguati nel suo stato.

Il canale di informazione può essere naturale (aria atmosferica, attraverso la quale vengono trasportate le onde sonore, luce solare riflessa dagli oggetti osservati), o essere creato artificialmente. V quest'ultimo caso viene sui mezzi tecnici di comunicazione.

Sistemi di trasmissione di informazioni tecniche

Il primo mezzo tecnico per trasmettere informazioni a distanza fu il telegrafo, inventato nel 1837 dall'americano Samuel Morse. Nel 1876, l'americano A. Bell inventa il telefono. Basato sulla scoperta del fisico tedesco Heinrich Hertz onde elettromagnetiche(1886), A.S. Popov in Russia nel 1895 e quasi contemporaneamente a lui nel 1896 da G. Marconi in Italia, fu inventata la radio. La televisione e Internet sono apparsi nel XX secolo.

Tutti elencati modi tecnici comunicazione informativa si basano sulla trasmissione di un segnale fisico (elettrico o elettromagnetico) a distanza e obbediscono ad alcuni leggi generali... Lo studio di queste leggi è impegnato in teoria della comunicazione, sorto negli anni '20. L'apparato matematico della teoria della comunicazione - teoria della comunicazione matematica, è stato sviluppato dallo scienziato americano Claude Shannon.

Claude Elwood Shannon (1916-2001), USA

Claude Shannon ha proposto un modello del processo di trasmissione delle informazioni attraverso canali tecnici collegamento rappresentato dal diagramma.

Sistema di trasmissione delle informazioni tecniche

Per codifica si intende qui qualsiasi trasformazione di informazione proveniente da una sorgente in una forma adatta alla sua trasmissione su un canale di comunicazione. decodifica - trasformazione inversa sequenza di segnali.

Il funzionamento di un tale schema può essere spiegato usando il processo familiare di parlare al telefono. La fonte delle informazioni è uomo che parla... L'encoder è un microfono a cornetta telefonica, con l'aiuto del quale le onde sonore (discorso) vengono convertite in segnali elettrici. Il canale di comunicazione è la rete telefonica (fili, centralini telefonici attraverso i quali passa il segnale). Il dispositivo di decodifica è un ricevitore telefonico (auricolare) della persona che ascolta - il ricevitore di informazioni. qui vieni segnale elettrico si trasforma in suono.

Moderno sistemi informatici trasmissione di informazioni - le reti di computer funzionano secondo lo stesso principio. Esiste un processo di codifica che converte il binario codice del computer v segnale fisico del tipo che viene trasmesso sul canale di comunicazione. La decodifica consiste nel riconvertire il segnale trasmesso in codice informatico. Ad esempio, quando si utilizza linee telefoniche v reti di computer le funzioni di codifica-decodifica sono svolte da un dispositivo chiamato modem.

Larghezza di banda del canale e velocità di trasferimento delle informazioni

Per gli sviluppatori sistemi tecnici trasmissione di informazioni deve risolvere due compiti interconnessi: come garantire massima velocità trasmissione di informazioni e come ridurre la perdita di informazioni durante la trasmissione. Claude Shannon è stato il primo scienziato ad affrontare questi problemi e creare una nuova scienza per quel tempo - teoria dell'informazione.

K. Shannon ha definito un metodo per misurare la quantità di informazioni trasmesse attraverso i canali di comunicazione. Ha introdotto il concetto Canale di banda,come la massima velocità possibile di trasferimento delle informazioni. Questa velocità viene misurata in bit al secondo (oltre a kilobit al secondo, megabit al secondo).

La larghezza di banda di un canale di comunicazione dipende dalla sua implementazione tecnica. Ad esempio, nelle reti informatiche vengono utilizzati i seguenti mezzi di comunicazione:

linee telefoniche,

Comunicazione via cavo elettrico,

Comunicazione via cavo in fibra ottica,

Comunicazione radiofonica.

Il throughput delle linee telefoniche è di decine, centinaia di Kbit/s; portata le linee in fibra ottica e le linee di comunicazione radio sono misurate in decine e centinaia di Mbps.

Rumore, protezione dal rumore

Il termine "rumore" si riferisce a diversi tipi interferenza distorcente segnale trasmesso e portando alla perdita di informazioni. Tale interferenza è principalmente dovuta a ragioni tecniche: scarsa qualità linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. A volte, parlando al telefono, sentiamo rumore, crepitio, interferire con la comprensione dell'interlocutore o la conversazione di persone completamente diverse si sovrappone alla nostra conversazione.

Il rumore porta alla perdita informazioni trasmesse... In tali casi, è necessaria la protezione dal rumore.

Innanzitutto vengono utilizzati metodi tecnici per proteggere i canali di comunicazione dagli effetti del rumore. Ad esempio, utilizzando cavo schermato anziché filo nudo; l'uso di filtri di vario genere che separano il segnale utile dal rumore, ecc.

Claude Shannon è stato progettato teoria dei codici fornire metodi per affrontare il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione dovrebbe essere ridondante... A causa di ciò, la perdita di parte delle informazioni durante la trasmissione può essere compensata. Ad esempio, se hai difficoltà a sentire mentre parli al telefono, ripetendo ogni parola due volte, hai maggiori possibilità che l'altra persona ti capisca correttamente.

Tuttavia, non è possibile rendere la ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione. La teoria dei codici ti consente di ottenere un codice ottimale. In questo caso, la ridondanza delle informazioni trasmesse sarà la minima possibile e l'affidabilità delle informazioni ricevute sarà massima.

V sistemi moderni comunicazione digitale Per combattere la perdita di informazioni durante la trasmissione, viene spesso utilizzata la seguente tecnica. L'intero messaggio è diviso in blocchi - pacchi... Per ogni pacchetto, calcola controllare la somma(somma cifre binarie) inviato insieme a questo pacchetto. Il checksum viene ricalcolato al punto di ricezione pacchetto accettato e se non corrisponde all'importo originale, il trasferimento questo pacchetto si ripete. Questo continuerà fino all'inizio e alla fine checksum non corrisponderà.

Considerata la trasmissione delle informazioni in ambito propedeutico e corsi base informatica, prima di tutto, questo argomento dovrebbe essere discusso dal punto di vista di una persona come destinatario di informazioni. La capacità di ricevere informazioni dal mondo esterno - condizione essenziale esistenza umana. I sensi umani sono i canali di informazione del corpo umano che collegano una persona con ambiente esterno... Su questa base le informazioni vengono suddivise in visive, sonore, olfattive, tattili, gustative. La logica del fatto che gusto, olfatto e tatto trasmettono informazioni a una persona è la seguente: ricordiamo gli odori di oggetti familiari, il sapore del cibo familiare e riconosciamo gli oggetti familiari al tatto. E i contenuti della nostra memoria sono informazioni memorizzate.

Agli studenti dovrebbe essere detto che nel mondo animale ruolo informativo gli organi di senso sono diversi dall'umano. Un importante funzione di informazione per gli animali esegue il senso dell'olfatto. Viene utilizzato l'acuto senso dell'olfatto dei cani guida forze dell'ordine per la ricerca di criminali, il rilevamento di droghe, ecc. La percezione visiva e sonora degli animali è diversa da quella umana. Ad esempio, è noto che i pipistrelli sentono gli ultrasuoni, mentre i gatti vedono al buio (dal punto di vista umano).

Nell'ambito di questo argomento, gli studenti dovrebbero essere in grado di condurre esempi specifici processo di trasmissione delle informazioni, per determinare per questi esempi la fonte, il destinatario delle informazioni, i canali utilizzati per la trasmissione delle informazioni.

Quando studiano informatica al liceo, gli studenti dovrebbero essere introdotti alle disposizioni di base della teoria della comunicazione tecnica: i concetti di codifica, decodifica, velocità di trasferimento delle informazioni, larghezza di banda del canale, rumore, protezione dal rumore. Queste domande possono essere considerate nell'ambito dell'argomento "Mezzi tecnici delle reti di computer".

Lezione numero 4 Comunicazione delle informazioni

Schema di trasferimento delle informazioni. Canale di trasmissione delle informazioni. Velocità di trasferimento delle informazioni.

Ci sono tre tipi processi informativi: conservazione, trasferimento, elaborazione.

Archivio dati:

· Portatori di informazioni.

· Tipi di memoria.

· Archiviazione delle informazioni.

· Proprietà di base degli archivi di informazioni.

I seguenti concetti sono associati alla memorizzazione delle informazioni: supporto di informazioni (memoria), memoria interna, memoria esterna, memorizzazione delle informazioni.

Il vettore di informazioni è ambiente fisico memorizzare direttamente le informazioni. La memoria umana può essere chiamata RAM... La conoscenza appresa viene riprodotta da una persona istantaneamente. propria memoria possiamo ancora chiamare memoria interna perché il suo portatore - il cervello - è dentro di noi.

Tutti gli altri tipi di supporti di informazioni possono essere chiamati esterni (in relazione a una persona): legno, papiro, carta, ecc. L'archiviazione delle informazioni è un'informazione organizzata in un certo modo su media esterni progettato per la conservazione a lungo termine e uso permanente(ad esempio archivi documentali, biblioteche, schedari). Di base unità di informazione un repository è un documento fisico specifico: un questionario, un libro, ecc. L'organizzazione di un repository è intesa come la presenza di una certa struttura, ad es. ordine, classificazione dei documenti archiviati per la comodità di lavorare con essi. Le principali proprietà dell'archiviazione delle informazioni: la quantità di informazioni archiviate, l'affidabilità dell'archiviazione, il tempo di accesso (ovvero il tempo per cercare le informazioni richieste), la disponibilità della protezione delle informazioni.

Informazioni memorizzate sui dispositivi memoria del computer, è consuetudine chiamare data. Archiviazione organizzata dei dati sui dispositivi memoria esterna i computer sono generalmente chiamati database e banche dati.

Elaborazione dati:

· Schema generale processo di elaborazione delle informazioni.

· Dichiarazione dell'attività di trattamento.

· Esecutore del trattamento.

· Algoritmo di elaborazione.

· Compiti tipici elaborazione delle informazioni.

Schema di elaborazione delle informazioni:

Informazioni iniziali - esecutore del trattamento - informazioni di sintesi.

Nel processo di elaborazione delle informazioni, alcuni compito di informazione, che può essere fornito in precedenza in una forma tradizionale: viene fornito un certo insieme di dati iniziali e vengono richiesti alcuni risultati. Il processo stesso di passare dai dati iniziali al risultato è il processo di elaborazione. L'oggetto o il soggetto che effettua il trattamento è denominato esecutore del trattamento.

Per la corretta esecuzione dell'elaborazione delle informazioni, l'esecutore (persona o dispositivo) deve conoscere l'algoritmo di elaborazione, ad es. sequenza di azioni che devono essere eseguite per ottenere il risultato desiderato.

Esistono due tipi di elaborazione delle informazioni. Primo tipo di elaborazione: elaborazione in ricezione nuova informazione, nuovo contenuto della conoscenza (soluzione problemi di matematica, analisi della situazione, ecc.). Il secondo tipo di elaborazione: elaborazione associata alla modifica della forma, ma non alla modifica del contenuto (ad esempio, traduzione del testo da una lingua all'altra).

Una vista importante l'elaborazione delle informazioni è la codifica: la trasformazione delle informazioni in una forma simbolica, conveniente per la loro memorizzazione, trasmissione, elaborazione. La codifica viene utilizzata attivamente nei mezzi tecnici per lavorare con le informazioni (telegrafo, radio, computer). Un altro tipo di elaborazione delle informazioni è la strutturazione dei dati (introduzione di un certo ordine nella memorizzazione delle informazioni, nella classificazione, nella catalogazione dei dati).

Un altro tipo di elaborazione delle informazioni è la ricerca in un determinato archivio di informazioni per i dati necessari che soddisfano determinate condizioni di ricerca (query). L'algoritmo di ricerca dipende dal modo in cui le informazioni sono organizzate.

Trasferimento di informazioni:

· Fonte e destinatario delle informazioni.

· Canali informativi.

· Il ruolo degli organi di senso nel processo di percezione umana delle informazioni.

· La struttura dei sistemi tecnici di comunicazione.

· Che cos'è la codifica e la decodifica.

· Il concetto di rumore; tecniche di protezione dal rumore.

· Velocità di trasferimento delle informazioni e capacità del canale.

Schema di trasferimento delle informazioni:

Fonte di informazioni - canale di informazioni - ricevitore di informazioni.

Le informazioni vengono presentate e trasmesse sotto forma di una sequenza di segnali, simboli. Dalla sorgente al destinatario, un messaggio viene trasmesso attraverso un mezzo materiale. Se il processo di trasferimento utilizza mezzi tecnici comunicazione, sono chiamati canali di trasmissione delle informazioni (canali informativi). Questi includono telefono, radio, TV. I sensi umani svolgono il ruolo di biologico canali di informazione.

Il processo di trasferimento delle informazioni attraverso i canali di comunicazione tecnica viene eseguito secondo il seguente schema (secondo Shannon):

Il termine "rumore" si riferisce a tutti i tipi di interferenza che distorcono il segnale trasmesso e portano alla perdita di informazioni. Tale interferenza, innanzitutto, nasce per ragioni tecniche: scarsa qualità delle linee di comunicazione, insicurezza reciproca dei vari flussi di informazioni trasmessi sugli stessi canali. Per proteggersi dal rumore, utilizzare diversi modi, ad esempio, l'utilizzo di filtri di vario genere che separano il segnale utile dal rumore.

Claude Shannon ha sviluppato una teoria di codifica speciale che fornisce metodi per affrontare il rumore. Una delle idee importanti di questa teoria è che il codice trasmesso sulla linea di comunicazione deve essere ridondante. A causa di ciò, la perdita di parte delle informazioni durante la trasmissione può essere compensata. Tuttavia, non è possibile rendere la ridondanza troppo grande. Ciò comporterà ritardi e maggiori costi di comunicazione.

Quando si discute il tema della misurazione della velocità di trasmissione delle informazioni, si può attingere alla ricezione di un'analogia. Analogico: il processo di pompaggio dell'acqua attraverso i tubi dell'acqua. Qui, i tubi sono il canale per il trasferimento dell'acqua. L'intensità (velocità) di questo processo è caratterizzata dal consumo di acqua, ad es. il numero di litri pompati per unità di tempo. Nel processo di trasmissione delle informazioni, i canali sono linee tecniche comunicazione. Per analogia con il sistema di approvvigionamento idrico, possiamo parlare del flusso di informazioni trasmesso attraverso i canali. La velocità di trasferimento delle informazioni è il volume di informazioni di un messaggio trasmesso per unità di tempo. Pertanto, le unità di misura della velocità di flusso delle informazioni: bit/s, byte/s, ecc. canale di trasmissione delle informazioni di processo

Un altro concetto - la capacità dei canali di informazione - può essere spiegato anche con l'aiuto di un'analogia del "tubo dell'acqua". È possibile aumentare il flusso d'acqua attraverso i tubi aumentando la pressione. Ma questo percorso non è infinito. Se la pressione è troppo alta, il tubo potrebbe scoppiare. Così flusso limitante acqua, che può essere chiamata la portata della rete idrica. Le linee di comunicazione dati tecnici hanno un limite simile di velocità di trasmissione dati. Le ragioni di questo sono anche fisiche.



1. Classificazione e caratteristiche del canale di comunicazione
Collegamento È un insieme di mezzi per trasmettere segnali (messaggi).
Per analizzare i processi informativi in ​​un canale di comunicazione, è possibile utilizzare il suo diagramma generalizzato mostrato in Fig. uno.

AI
LS
P
PI
P

Nella fig. 1 sono adottate le seguenti designazioni: X, Y, Z, W- segnali, messaggi ; F- ostacolo; LS- linea di comunicazione; AI, PI- fonte e destinatario delle informazioni; P- convertitori (codifica, modulazione, decodifica, demodulazione).
esiste tipi diversi canali che possono essere classificati secondo vari criteri:
1. Per tipo di linee di comunicazione: cablata; cavo; fibra ottica;
linee elettriche; canali radio, ecc.
2... Dalla natura dei segnali: continuo; discreto; discreto-continuo (i segnali all'ingresso del sistema sono discreti e all'uscita sono continui e viceversa).
3... Per l'immunità al rumore: canali senza interferenze; con interferenza.
I canali di comunicazione sono caratterizzati da:
1. Capacità del canale definito come il prodotto del tempo di utilizzo del canale T a, larghezza di banda delle frequenze passate dal canale F a e gamma dinamicaD a... , che caratterizza la capacità del canale di trasmettere diversi livelli di segnale

V a = T a F a D a.(1)
Condizione per abbinare il segnale al canale:
V c £ V k ; T c £ T k ; F c £ F k ; V c £ V k ; D c £ D k.
2.Velocità di trasferimento delle informazioni - la quantità media di informazioni trasmesse per unità di tempo.
3.
4. Ridondanza - garantisce l'affidabilità delle informazioni trasmesse ( R= 0¸1).
Uno dei compiti della teoria dell'informazione è determinare la dipendenza della velocità di trasferimento delle informazioni e della capacità del canale di comunicazione dai parametri del canale e dalle caratteristiche dei segnali e delle interferenze.
Il canale di comunicazione può essere paragonato in senso figurato alle strade. Strade strette: larghezza di banda ridotta ma a buon mercato. Strade larghe - buon traffico ma costoso. La larghezza di banda è determinata dal "collo di bottiglia".
La velocità di trasferimento dei dati dipende in gran parte dal mezzo di trasmissione nei canali di comunicazione, che sono vari tipi di linee di comunicazione.
Cablata:
1. Cablatadoppino(che sopprime parzialmente radiazioni elettromagnetiche altre fonti). Velocità di trasferimento fino a 1 Mbps. Usato in reti telefoniche e per la trasmissione dei dati.
2. Cavo coassiale. Velocità di trasferimento 10-100 Mbps - utilizzata in reti locali, tv via cavo eccetera.
3... Fibra ottica. La velocità di trasmissione è di 1 Gbps.
Negli ambienti 1-3, l'attenuazione in dB è lineare con la distanza, ad es. la potenza cala in modo esponenziale. Pertanto, dopo una certa distanza, è necessario installare rigeneratori (amplificatori).
Linee radio:
1. Canale radiofonico. La velocità di trasmissione è di 100-400 Kbps. Utilizza frequenze radio fino a 1000 MHz. Fino a 30 MHz, a causa della riflessione dalla ionosfera, le onde elettromagnetiche possono propagarsi oltre la linea di vista. Ma questa gamma è molto rumorosa (ad esempio, radioamatore). Da 30 a 1000 MHz: la ionosfera è trasparente ed è necessaria una linea di vista. Le antenne sono installate in altezza (a volte sono installati rigeneratori). Utilizzato in radio e televisione.
2. Linee a microonde. Velocità di trasferimento fino a 1 Gbps. Utilizzare frequenze radio superiori a 1000 MHz. Ciò richiede una linea di vista e un'elevata direzionalità antenne paraboliche... La distanza tra i rigeneratori è di 10-200 km. Usato per collegamento telefonico, televisione e trasmissione dati.
3. Collegamento satellitare ... Sono utilizzati frequenze microonde, e il satellite funge da rigeneratore (e per molte stazioni). Le caratteristiche sono le stesse delle linee a microonde.
2. Larghezza di banda di un canale di comunicazione discreto
Un canale discreto è un insieme di mezzi progettati per trasmettere segnali discreti.
Larghezza di banda del canale di comunicazione - la massima velocità di trasferimento delle informazioni teoricamente ottenibile, a condizione che l'errore non superi un determinato valore. Velocità di trasferimento delle informazioni - la quantità media di informazioni trasmesse per unità di tempo. Definiamo le espressioni per calcolare la velocità di trasferimento delle informazioni e la larghezza di banda del canale di comunicazione discreto.
Quando ogni simbolo viene trasmesso, in media, la quantità di informazioni passa attraverso il canale di comunicazione, determinata dalla formula
I (Y, X) = I (X, Y) = H (X) - H (X / Y) = H (Y) - H (Y / X), (2)
dove: io (Y, X) - informazioni reciproche, ovvero la quantità di informazioni contenute in relativamente X;H (X)- entropia della sorgente del messaggio; H (X / Y)- entropia condizionale, che determina la perdita di informazione per simbolo associata alla presenza di rumore e distorsione.
Quando si invia un messaggio X T durata T, composto da n simboli elementari, la quantità media di informazioni trasmesse, tenendo conto della simmetria della reciproca quantità di informazioni, è pari a:
io (Y T, X T) = H (X T) - H (X T / Y T) = H (Y T) - H (Y T / X T) = n. (4)
La velocità di trasferimento delle informazioni dipende dalle proprietà statistiche della sorgente, dal metodo di codifica e dalle proprietà del canale.
Larghezza di banda del canale di comunicazione discreta
. (5)
Il valore massimo possibile, ad es. si cerca il massimo del funzionale sull'intero insieme di funzioni di distribuzione di probabilità p (X).
La larghezza di banda dipende da caratteristiche tecniche canale (velocità dell'apparecchiatura, tipo di modulazione, livello di interferenza e distorsione, ecc.). Le unità di misura della portata del canale sono:,,,.
2.1 Canale di comunicazione discreto senza interferenze
Se non ci sono interferenze nel canale di comunicazione, i segnali di ingresso e di uscita del canale sono collegati in modo univoco, dipendenza funzionale.
In questo caso, l'entropia condizionale è uguale a zero e le entropie incondizionate della sorgente e del ricevitore sono uguali, ad es. la quantità media di informazioni nel simbolo ricevuto rispetto a quello trasmesso è
I (X, Y) = H (X) = H (Y); H (X / Y) = 0.
Se X T- il numero di caratteri per l'ora T, allora la velocità di trasferimento delle informazioni per un canale di comunicazione discreto senza interferenze è
(6)
dove V = 1 /- il bit rate medio di un simbolo.
Larghezza di banda per un canale di comunicazione discreto senza interferenze
(7)
Perché corrispondenze di entropia massima per simboli equiprobabili, quindi larghezza di banda per distribuzione uniforme e indipendenza statistica caratteri trasmessiè uguale a:
. (8)
Teorema del primo canale di Shannon: Se il flusso di informazioni generato dalla sorgente è sufficientemente vicino alla larghezza di banda del canale di comunicazione, ad es.
, dove è una quantità arbitrariamente piccola,
quindi puoi sempre trovare un tale metodo di codifica che assicurerà la trasmissione di tutti i messaggi dalla fonte e la velocità di trasferimento delle informazioni sarà molto vicina alla capacità del canale.
Il teorema non risponde alla domanda su come eseguire la codifica.
Esempio 1. La sorgente genera 3 messaggi con probabilità:
p1 = 0,1; p2 = 0,2 e p3 = 0,7.
I messaggi sono indipendenti e trasmessi in modo uniforme codice binario (m = 2) con una durata del simbolo di 1 ms. Determinare la velocità di trasmissione delle informazioni sul canale di comunicazione senza interferenze.
Soluzione: L'entropia della sorgente è

[bit/s].
Per trasmettere 3 messaggi con un codice uniforme sono necessari due bit, mentre la durata della combinazione di codice è 2t.
Velocità media del segnale
V = 1/2 T = 500 .
Velocità di trasferimento delle informazioni
C = vH = 500 x 1,16 = 580 [bit/s].
2.2 Canale di comunicazione discreto con interferenze
considereremo canali discreti comunicazione senza memoria.
Canale senza memoria Viene chiamato un canale in cui ogni simbolo di segnale trasmesso è affetto da interferenza, indipendentemente da quali segnali sono stati trasmessi in precedenza. Cioè, l'interferenza non crea correlazioni aggiuntive tra i simboli. Il nome "senza memoria" significa che durante la trasmissione successiva, il canale sembra non ricordare i risultati delle trasmissioni precedenti.
In presenza di interferenza, la quantità media di informazioni nel simbolo del messaggio ricevuto - Sì, relativo al trasmesso - X equivale:
.
Per il simbolo del messaggio X T durata T, consiste in n simboli elementari la quantità media di informazioni nel messaggio ricevuto simbolo - Y T rispetto al trasmesso - X T equivale:
I (Y T, X T) = H (X T) - H (X T / Y T) = H (Y T / X T) - H (Y T / X T) = n = 2320 bps
Larghezza di banda canale continuo con interferenza è determinato dalla formula

=2322 bps.
Dimostriamo che la capacità informativa di un canale continuo senza memoria con rumore gaussiano additivo sotto la limitazione sulla potenza di picco non è maggiore della capacità informativa dello stesso canale a parità di valore della limitazione sulla potenza media.
Il valore atteso per una distribuzione simmetrica uniforme

Quadrato medio per distribuzione simmetrica uniforme

Varianza per distribuzione uniforme simmetrica

Inoltre, per un processo uniformemente distribuito.
Entropia differenziale di un segnale con distribuzione uniforme
.
La differenza tra le entropie differenziali di un processo normale e uniformemente distribuito non dipende dal valore della varianza
= 0,3 bit/campione
Pertanto, il throughput e la capacità del canale di comunicazione per un processo con una distribuzione normale è maggiore rispetto a uno uniforme.
Determinare la capacità (volume) del canale di comunicazione
V k = T k C k = 10 × 60 × 2322 = 1,3932 Mbit.
Determiniamo la quantità di informazioni che possono essere trasmesse in 10 minuti di funzionamento del canale
10× 60× 2322= 1,3932 Mbps.
Compiti

Nella precedente abbiamo esaminato le problematiche relative alla codifica e trasmissione di informazioni su un canale di comunicazione nel caso ideale, quando il processo di trasmissione delle informazioni viene eseguito senza errori. In realtà, questo processo è inevitabilmente accompagnato da errori (distorsioni). Il canale di trasmissione in cui è possibile la distorsione è chiamato canale rumoroso (o rumoroso). In un caso speciale, si verificano errori durante la codifica stessa e quindi l'encoder può essere considerato un canale rumoroso.

È abbastanza ovvio che la presenza di interferenze porta alla perdita di informazioni. Per ricevere la quantità di informazioni richiesta dal ricevitore in presenza di interferenze, devono essere prese misure speciali. Una di queste misure è l'introduzione della cosiddetta “ridondanza” nei messaggi trasmessi; in questo caso la fonte di informazione emette ovviamente più caratteri di quanti sarebbero necessari in assenza di interferenza. Una forma per introdurre la ridondanza è semplicemente ripetere un messaggio. Questa tecnica viene utilizzata, ad esempio, quando scarsa udibilità per telefono, ripetendo ogni messaggio due volte. Un altro modo ben noto per migliorare l'affidabilità della trasmissione è scrivere la parola - quando invece di ogni lettera viene trasmessa una parola nota (nome), che inizia con questa lettera.

Nota che tutte le lingue viventi hanno naturalmente una certa ridondanza. Questa ridondanza spesso aiuta a ripristinare testo corretto"Nel senso" del messaggio. Ecco perché le distorsioni delle singole lettere del telegramma, che spesso si incontrano, raramente portano a una vera perdita di informazioni: di solito è possibile correggere una parola distorta utilizzando solo le proprietà della lingua. Questo non sarebbe il caso in assenza di ridondanza. Una misura della ridondanza di una lingua è la quantità

dove è l'entropia media effettiva per un carattere trasmesso (lettera), calcolata per passaggi di testo sufficientemente lunghi, tenendo conto della dipendenza tra i caratteri, è il numero di caratteri (lettere) utilizzati, è l'entropia massima possibile per un carattere trasmesso, come sarebbe se tutti i simboli fossero ugualmente probabili e indipendenti.

Calcoli effettuati sul materiale delle più comuni lingue europee mostrano che la loro ridondanza raggiunge il 50% o più (cioè, grosso modo, il 50% dei caratteri trasmessi sono ridondanti e non avrebbero potuto essere trasmessi se non fosse per il pericolo di distorsione).

Tuttavia, per la trasmissione di informazioni senza errori, la ridondanza naturale della lingua può risultare eccessiva o insufficiente: tutto dipende da quanto è grande il pericolo di distorsione ("livello di rumore") nel canale di comunicazione.

Utilizzando i metodi della teoria dell'informazione, è possibile per ogni livello di interferenza trovare il grado richiesto di ridondanza della fonte di informazione. Gli stessi metodi aiutano a sviluppare speciali codici di correzione degli errori (in particolare, i cosiddetti codici "autocorrettivi"). Per risolvere questi problemi, è necessario poter tenere conto della perdita di informazioni nel canale associata alla presenza di interferenze.

Si consideri un sistema complesso costituito da una fonte di informazione, un canale di comunicazione e un ricevitore (Fig. 18.9.1).

La fonte delle informazioni è sistema fisico che ha stati possibili

con probabilità

Considereremo questi stati come simboli elementari che una sorgente può trasmettere attraverso un canale a un ricevitore. La quantità di informazioni per carattere data dalla sorgente sarà pari all'entropia per carattere:

.

Se la trasmissione dei messaggi non fosse accompagnata da errori, allora la quantità di informazioni contenute nel sistema sarebbe relativamente uguale all'entropia del sistema stesso. Se ci sono errori, sarà inferiore:

È naturale considerare l'entropia condizionale come la perdita di informazione per simbolo elementare associata alla presenza di rumore.

Sapendo determinare la perdita di informazione nel canale per un simbolo elementare trasmesso dalla sorgente di informazione, è possibile determinare la larghezza di banda del canale rumoroso, ad es. importo massimo informazioni che il canale è in grado di trasmettere per unità di tempo.

Supponiamo che il canale possa trasmettere simboli elementari per unità di tempo. In assenza di interferenza, la capacità del canale sarebbe pari a

poiché la quantità massima di informazioni che un carattere può contenere è uguale, e la quantità massima di informazioni che possono contenere i caratteri è uguale, e si ottiene quando i caratteri appaiono indipendentemente l'uno dall'altro.

Ora diamo un'occhiata a un canale rumoroso. Il suo rendimento sarà determinato come

, (18.9.3)

dove è la massima informazione per simbolo che un canale può trasmettere in presenza di interferenza.

Determinazione di questa informazione massima in caso generale- la questione è piuttosto complicata, poiché dipende da come e con quali probabilità i simboli vengono distorti; se sono confusi, o semplicemente la perdita di alcuni simboli; se le distorsioni del carattere si verificano indipendentemente l'una dall'altra, ecc.

Tuttavia, per i casi più semplici, la capacità del canale può essere calcolata in modo relativamente semplice.

Consideriamo, ad esempio, un problema come questo. Il canale di comunicazione trasmette dalla sorgente di informazione al ricevitore i simboli elementari 0 e 1 nel numero di simboli per unità di tempo. Nel processo di trasmissione, ogni simbolo, indipendentemente dagli altri, rischia di essere distorto (cioè sostituito dal contrario). È necessario per trovare la larghezza di banda del canale.

Per prima cosa determiniamo le informazioni massime per simbolo che il canale può trasmettere. Lascia che la sorgente produca i simboli 0 e 1 con probabilità e.

Allora l'entropia della sorgente sarà

Definiamo le informazioni per un simbolo elementare:

.

Per trovare l'entropia condizionale totale, troviamo prima le entropie condizionali parziali: (entropia del sistema, a condizione che il sistema abbia accettato uno stato) e (entropia del sistema, a condizione che il sistema abbia accettato uno stato). Calcoliamo, per questo assumiamo che venga trasmesso il simbolo elementare 0. Troviamo le probabilità condizionate che il sistema sia nello stato e nello stato. Il primo di essi è uguale alla probabilità che il segnale non venga confuso:

;

la seconda sono le probabilità che il segnale sia incasinato:

L'entropia condizionata sarà:

Troviamo ora l'entropia condizionale del sistema, a patto che (il segnale sia uno):

; ,

In questo modo,

L'entropia condizionale totale si ottiene facendo la media dell'entropia condizionale e tenendo conto delle probabilità e dei valori. Poiché le entropie condizionali parziali sono uguali, allora

Abbiamo ottenuto la seguente conclusione: l'entropia condizionata non dipende affatto dalle probabilità con cui si incontrano i simboli 0; 1 nel messaggio trasmesso, ma dipende solo dalla probabilità di errore.

Calcoliamo l'informazione completa trasmessa da un simbolo:

dove è la probabilità che in uscita appaia il simbolo 0. Ovviamente, per le proprietà del canale date, l'informazione per simbolo raggiunge un massimo quando è massimo. Sappiamo che tale funzione raggiunge un massimo in, cioè quando entrambi i segnali sono ugualmente probabili al ricevitore. È facile vedere che ciò si ottiene quando la sorgente trasmette entrambi i simboli con uguale probabilità. Allo stesso valore, l'informazione per simbolo raggiunge il suo massimo. Valore massimo equivale

Le informazioni vengono perse per carattere 0,0808 (due unità). La larghezza di banda del canale è

unità binarie per unità di tempo.

Utilizzando calcoli simili, la capacità del canale può essere determinata nei casi più complessi: quando il numero di simboli elementari è superiore a due e quando le distorsioni dei singoli simboli dipendono. Conoscendo la larghezza di banda del canale, è possibile determinare il limite superiore della velocità di trasferimento delle informazioni sul canale rumoroso. Formuliamo (senza dimostrazione) il secondo teorema di Shannon relativo a questo caso.

2° Teorema di Shannon

Lascia che ci sia una fonte di informazioni, la cui entropia per unità di tempo è uguale, e un canale con un throughput. allora se

quindi con qualsiasi codifica, la trasmissione di messaggi senza ritardi e distorsioni è impossibile. Se

allora è sempre possibile codificare un messaggio sufficientemente lungo in modo che venga trasmesso senza ritardi e distorsioni con una probabilità arbitrariamente prossima a uno.

Esempio 2. Esiste una fonte di informazioni con entropia per unità di tempo (due unità) e due canali di comunicazione; ciascuno di essi può trasmettere 70 caratteri binari (0 o 1) per unità di tempo; ogni segno binario viene sostituito con l'opposto con probabilità. È necessario sapere: la larghezza di banda di questi canali è sufficiente per trasmettere le informazioni fornite dalla fonte?

Soluzione. Determinare la perdita di informazioni per carattere:

La quantità massima di informazioni trasmesse su un canale per unità di tempo:

La quantità massima di informazioni che possono essere trasmesse tramite due canali per unità di tempo:

che non è sufficiente per garantire il trasferimento delle informazioni dalla fonte.

Come nel caso di una catena, utilizzando una catena è possibile effettuare trasformazioni di segnale corrispondenti ad una differenziazione e integrazione approssimata. La Figura 3.6a, b mostra due schemi circuitali . Nel primo tensione di uscita viene rimosso dall'induttanza e, nel secondo, dalla resistenza attiva.

Il coefficiente di trasmissione della prima catena (Figura 3.6a) ha l'espressione

,

dove è la costante di tempo del circuito. L'espressione per il coefficiente di trasmissione di questo circuito è ridotta alla forma dell'espressione (3.10).Quindi, il coefficiente di trasmissione di tale circuito è lo stesso nelle sue proprietà con il coefficiente di trasmissione del circuito, se in quest'ultimo la tensione di uscita viene rimosso dalla resistenza attiva. Di conseguenza, le trasformazioni dell'impulso nel circuito in esame saranno le stesse del circuito citato, in particolare verrà effettuata una differenziazione approssimativa se la condizione è soddisfatta.

Per il secondo circuito (Figura 3.6b), il coefficiente di trasmissione ha l'espressione

,

che si riduce alla forma corrispondente all'espressione (3.15). Pertanto, in un tale circuito, è possibile effettuare una conversione del segnale simile a quella considerata per il circuito , se in quest'ultimo la tensione di uscita viene rimossa dal contenitore. In particolare, il circuito in esame può essere approssimativamente chiamato integrante se esiste una disuguaglianza tra la costante di tempo del circuito e la durata dell'impulso in ingresso.

La durata del fronte è determinata allo stesso modo del capitolo 1, è stato determinato il tempo di instaurazione del processo transitorio nei circuiti. La durata del fronte, dove, dove sono i tempi in cui l'impulso di uscita raggiunge rispettivamente il 10% e il 90% del valore di ampiezza . Poiché l'aumento del fronte dell'impulso avviene all'uscita del circuito integratore secondo la legge esponenziale (il primo termine dell'espressione 3.18), possiamo scrivere le uguaglianze

da cui si determina il tempo di salita.

      1. Condizioni per una trasmissione del segnale non distorta

In vari dispositivi di ingegneria radio, diventa necessario garantire la trasmissione attraverso alcuni catena lineare impulsi o altri segnali complessi senza distorcerne la forma. Cioè, se un impulso agisce all'ingresso del circuito, allora all'uscita è desiderabile ottenere un impulso di tensione che abbia la stessa forma, ma, forse, un'ampiezza diversa.

Sulla base della composizione spettrale della tensione non armonica, è possibile stabilire le condizioni per la sua trasmissione non distorta da parte di un bersaglio lineare. Per questo è necessario che il rapporto tra le ampiezze e le fasi delle componenti armoniche della tensione di uscita sia uguale a quello della tensione di ingresso. Ciò significa che sia le variazioni di ampiezza che il ritardo temporale di tutte le componenti armoniche non dovrebbero essere dipendenti dalla frequenza.

Ne segue che il coefficiente di trasmissione di un tale circuito deve soddisfare le condizioni

Ecco il tempo di ritardo di fase (ritardo di fase). Quando le condizioni (3.20) sono soddisfatte, puoi scrivere:

La Figura 3.7 mostra le caratteristiche di frequenza e fase di un circuito che soddisfa la condizione (3.20). Un tale circuito dovrebbe avere una larghezza di banda infinitamente ampia e una risposta di fase che varia linearmente, la cui pendenza è uguale al tempo di ritardo. Spieghiamolo con l'aiuto della Figura 3.8, che mostra i grafici della tensione di ingresso e della tensione di uscita.

Qui, le fasi iniziali di entrambe le componenti armoniche del segnale di ingresso sono uguali a zero e. Se il modulo del coefficiente di trasmissione, le ampiezze delle componenti armoniche all'ingresso e all'uscita del circuito sono rispettivamente uguali. Inoltre, se la caratteristica di fase è lineare, quindi, assumendo uguale lo sfasamento della componente armonica della frequenza all'uscita del circuito, troviamo lo sfasamento per la componente armonica della frequenza all'uscita del circuito:

Pertanto, la tensione all'uscita ha la stessa forma della tensione all'ingresso del circuito, ma "ritarda" nel tempo della quantità. È facile capire che qualsiasi segnale reale verrà trasmesso da un tale circuito senza distorcerne la forma.

La validità della condizione (3.20) può anche essere mostrata analiticamente usando la trasformata di Fourier. Si applichi all'ingresso del circuito una tensione con funzione spettrale. Esprimiamo questo stress usando l'integrale di Fourier:

,

oppure, utilizzando la notazione dell'integrale di Fourier in forma trigonometrica, si ottiene:

.

All'uscita di un circuito avente un rapporto di trasmissione

otteniamo la tensione determinata dall'espressione

Usando la notazione trigonometrica, otteniamo:

In effetti, la tensione all'uscita ha la stessa forma dell'ingresso, ma cambia in grandezza di un fattore ed è ritardata rispetto alla tensione di ingresso per un tempo.

Qualsiasi circuito reale non soddisfa le condizioni (3.20), la sua larghezza di banda è solitamente limitata a una certa frequenza, dove il modulo del guadagno inizia a diminuire con l'aumentare della frequenza.

Per chiarire alcune delle proprietà di un circuito a larghezza di banda limitata, si consideri il cosiddetto filtro passa-basso ideale. Le caratteristiche di frequenza e fase di un tale filtro sono mostrate in Fig. 3.9a, b. Contrariamente a quello ideale, in un vero filtro passa-basso, la risposta in frequenza alla frequenza di taglio non ha un netto decadimento e la risposta di fase differisce da lineare.

Per un filtro ideale nella sua banda passante, mettiamo, dove e qui viene scelto arbitrariamente. Lascia che la caduta di tensione della grandezza sia applicata al filtro in questo momento , per cui, secondo la (2.14), possiamo scrivere l'espressione

.

Quindi la tensione all'uscita del filtro è determinata dall'espressione

dove è il seno integrale, i cui valori per significati diversi gli argomenti sono nelle tabelle.

La Figura 3.10 mostra un grafico di una funzione. L'oscillazione qui osservata, che si estende a, è una conseguenza dell'idealizzazione della risposta in frequenza del filtro. La frequenza di oscillazione coincide con la frequenza di taglio del filtro. In un circuito reale, alla sua uscita, il segnale non può precedere il momento in cui il segnale viene applicato al suo ingresso. Tuttavia, la sostituzione della risposta in frequenza reale del filtro con quella ideale consente di stabilire una semplice relazione tra la larghezza di banda del filtro e la pendenza della tensione di uscita.

Quando si analizza il passaggio di segnali attraverso circuiti lineari, è possibile utilizzare i metodi noti dal corso "Fondamenti di teoria dei circuiti".

La scelta del metodo di analisi più conveniente dipende dalla struttura del circuito, dal tipo di segnale agente su di esso, nonché dalla forma (frequenza o tempo) del segnale di uscita.

Ad esempio, un'analisi del passaggio rispetto a semplici segnali(impulsi di commutazione, vibrazioni armoniche ecc.) attraverso catene descritte da equazioni differenziali lineari non superiori al secondo ordine, è abbastanza semplice che metodo classico equazioni differenziali... Nei casi in cui la soluzione delle equazioni differenziali è difficile (l'impatto segnali complessi su una catena con una struttura complessa), è consigliabile utilizzare metodi come spettrale (operatore) o metodo dell'integrale sovrapposto basata sul principio di sovrapposizione.

Quando si analizza il passaggio dei segnali attraverso sistemi a banda stretta, oltre ai metodi di analisi elencati, che danno una soluzione esatta, vengono utilizzati metodi approssimativi che consentono di ottenere soluzioni sufficientemente vicine a quelle esatte per una serie di problemi. La figura seguente mostra una classificazione schematica dei metodi di analisi discussi in questo capitolo. Verranno considerati metodi approssimativi di analisi (metodi di inviluppo, frequenza "istantanea", metodo spettrale approssimativo) ed esempi del loro utilizzo.

Metodi per la risoluzione di problemi in sistemi stazionari lineari con parametri concentrati

Metodi esatti per risolvere problemi in sistemi stazionari lineari con parametri concentrati

Metodo spettrale

Lascia che un segnale arbitrario x (t) con una densità spettrale agisca all'ingresso di una rete lineare a quattro porte con una data funzione di trasferimento:

Secondo il metodo di analisi spettrale, la densità spettrale del segnale y (t) all'uscita della rete a quattro porte è uguale al prodotto della densità spettrale del segnale di ingresso per la funzione di trasferimento del circuito, ad es.

Applicando la trasformata di Fourier inversa, definiamo il segnale di uscita in funzione del tempo

Metodo spettrale

Il confronto di (5.16) con (5.14) implica che il segnale all'uscita di una rete lineare a due porte può essere ottenuto sommando componenti spettrali elementari del segnale di ingresso

con ampiezze complesse moltiplicate per una funzione.

La funzione di trasferimento della catena che determina il contributo relativo

componenti dello spettro del segnale di ingresso nel segnale y (t), ha senso

funzione peso.

Il segnale passa attraverso il circuito lineare senza distorsioni se la sua forma non cambia, ma si verifica solo un cambiamento di scala e uno spostamento nel tempo.

Quando il segnale x (t) passa attraverso una rete lineare a quattro porte, la densità spettrale del segnale di uscita y (t) è uguale a

Le distorsioni causate dalla dipendenza dalla frequenza della funzione di trasferimento di una rete lineare a quattro porte sono chiamate lineari (o frequenza)

distorsioni. La natura e l'entità di queste distorsioni possono essere giudicate dalle caratteristiche di ampiezza e frequenza di fase del circuito, ovvero dal modulo e dall'argomento della funzione.

Quando il segnale x (t) passa attraverso una rete a due porte non distorcente, la reazione (t) può essere scritta nella forma

dove = const è il coefficiente di proporzionalità, t 3 è il tempo di ritardo.

Condizioni per la trasmissione del segnale non distorta mediante quadripolari lineari

Tenendo conto della proprietà della linearità e del time shift, la densità spettrale della reazione a catena può essere scritta come

Pertanto, una rete a due porte non distorcente deve avere una funzione di trasferimento della forma

creato da un tale circuito è determinato dalla pendenza della sua caratteristica di fase

Le caratteristiche di frequenza delle reti a quattro porte reali possono avvicinarsi alle caratteristiche di una rete a quattro porte senza distorsioni solo in un intervallo di frequenza limitato.

Principali articoli correlati