Come configurare smartphone e PC. Portale informativo
  • casa
  • Ferro da stiro
  • Throughput del canale di comunicazione. Throughput dei sistemi di trasmissione delle informazioni

Throughput del canale di comunicazione. Throughput dei sistemi di trasmissione delle informazioni

Throughput dei sistemi di trasmissione delle informazioni

Una delle caratteristiche principali di qualsiasi sistema di trasmissione delle informazioni, oltre a quelle sopra elencate, è la sua larghezza di banda.

Larghezza di banda - la quantità massima possibile di informazioni utili trasmesse per unità di tempo:

c = max(Imax) / TC ,

c = [bps].

A volte la velocità di trasferimento delle informazioni è definita come la quantità massima di informazioni utili in un segnale elementare:

s = max(Imax) / n,

s = [bit/elemento].

Le caratteristiche considerate dipendono solo dal canale di comunicazione e dalle sue caratteristiche e non dipendono dalla fonte.

Larghezza di banda di un canale di comunicazione discreto senza interferenze. In un canale di comunicazione senza interferenze, le informazioni possono essere trasmesse da un segnale non ridondante. In questo caso, il numero n = m, e l'entropia del segnale elementare HCmax = logK.

max(IC) = nHCmax= mHCmax .

La durata del segnale elementare, dove è la durata del segnale elementare.

dove FC è lo spettro del segnale.

Throughput del canale di comunicazione senza interferenze

Introduciamo il concetto di velocità di generazione di un segnale elementare da parte di una fonte di informazione:

Quindi, utilizzando il nuovo concetto, possiamo trasformare la formula per la velocità di trasferimento delle informazioni:

La formula risultante determina la massima velocità di trasferimento delle informazioni possibile in un canale di comunicazione discreto senza interferenze. Ciò deriva dal presupposto che l'entropia del segnale sia massima.

Se HC< HCmax, то c = BHC и не является максимально возможной для данного канала связи.

Larghezza di banda di un canale di comunicazione discreto con rumore. In un canale di comunicazione discreto con interferenza, la situazione mostrata in Fig. 6.

Tenendo conto della proprietà dell'additività, nonché delle formule di Shannon per determinare la quantità di informazioni discussa sopra, possiamo scrivere

IC = registro TC FC (AK PC),

IPOM \u003d Registro TP FP (APP).

Per il ricevitore, la fonte di informazioni utili e la fonte di interferenza sono equivalenti, quindi è impossibile sul lato ricevente isolare la componente di interferenza nel segnale con le informazioni risultanti

IRES = TC FC log(AK (PP + PC)), se TC = TP, FC = FP.

Il ricevitore potrebbe essere a banda stretta e l'interferenza potrebbe trovarsi in altri intervalli di frequenza. In questo caso, non influenzerà il segnale.

Determinare il segnale risultante per il caso più "sgradevole", quando i parametri del segnale e del rumore sono vicini o coincidono. Le informazioni utili sono definite dall'espressione

Questa formula è stata ottenuta da Shannon. Determina la velocità di trasferimento delle informazioni su un canale di comunicazione se il segnale ha alimentazione PC e l'interferenza ha alimentazione PP. Tutti i messaggi a questa velocità verranno trasmessi con assoluta certezza. La formula non contiene una risposta alla domanda su come ottenere tale velocità, ma fornisce il massimo valore possibile di c in un canale di comunicazione rumoroso, ovvero un tale valore della velocità di trasmissione alla quale le informazioni ricevute saranno assolutamente affidabile. In pratica, è più economico consentire una certa quantità di errore nel messaggio, sebbene la velocità di trasmissione aumenterà.

Consideriamo il caso PC >> PP. Se introduciamo il concetto di rapporto segnale/rumore

PC >> PP significa che . Quindi

La formula risultante riflette la velocità massima di un segnale potente in un canale di comunicazione. Se PC<< PП, то с стремится к нулю. То есть сигнал принимается на фоне помех. В таком канале в единицу времени сигнал получить не удается. В реальных ситуациях полностью помеху отфильтровать нельзя. Поэтому приемник получает полезную информацию с некоторым набором ошибочных символов. Канал связи для такой ситуации можно представить в виде, изображенном на рис. 7, приняв источник информации за множество передаваемых символов {X}, а приемник – за множество получаемых символов {Y}.

Fig.7 Grafico delle probabilità di transizione del canale di comunicazione K-ary

Tra c'è una certa corrispondenza uno a uno. Se non c'è interferenza, la probabilità di una corrispondenza uno a uno è uguale a uno, altrimenti è inferiore a uno.

Se qi è la probabilità di confondere yi con xi e pij = p(yi / xi) è la probabilità di errore, allora

.

Il grafico delle probabilità di transizione riflette il risultato finale dell'influenza del rumore sul segnale. Di norma, si ottiene sperimentalmente.

Informazioni utili possono essere stimate come IPOL = nH(X Y), dove n è il numero di simboli elementari nel segnale; H(X Y) è l'entropia reciproca della sorgente X e della sorgente Y.

In questo caso, la sorgente di X è la sorgente del carico utile e la sorgente di Y è il ricevitore. La relazione che definisce le informazioni utili può essere derivata dal significato di entropia reciproca: la sezione ombreggiata del diagramma definisce i messaggi trasmessi dalla sorgente X e ricevuti dal ricevitore Y; le aree non ombreggiate rappresentano segnali sorgente X che non hanno raggiunto il ricevitore e ricevuti dal ricevitore segnali estranei non trasmessi dalla sorgente.

B è la velocità di generazione dei simboli elementari all'uscita della sorgente.

Per ottenere il massimo, è necessario aumentare H(Y) se possibile e diminuire H(Y/X). Graficamente, questa situazione può essere rappresentata combinando i cerchi nel diagramma (Fig. 2d).

Se i cerchi non si intersecano affatto, X e Y esistono indipendentemente l'uno dall'altro. Di seguito, verrà mostrato come l'espressione generale per la velocità di trasmissione massima può essere utilizzata durante l'analisi di canali di comunicazione specifici.

Quando si caratterizza un canale discreto, vengono utilizzati due concetti di velocità: tecnico e informativo.

La velocità di trasmissione tecnica RT, detta anche keying rate, si riferisce al numero di simboli (chip) trasmessi sul canale per unità di tempo. Dipende dalle proprietà della linea di comunicazione e dalla velocità dell'apparecchiatura del canale.

Tenendo conto delle differenze nella durata dei simboli, la velocità tecnica è definita come

dove è la durata media dei caratteri.

L'unità di misura è "baud" - questa è la velocità con cui un carattere viene trasmesso in un secondo.

La velocità di informazione o velocità di informazione è determinata dalla quantità media di informazioni che viene trasmessa sul canale per unità di tempo. Dipende sia dalle caratteristiche di un determinato canale (come la dimensione dell'alfabeto dei simboli utilizzati, la velocità tecnica della loro trasmissione, le proprietà statistiche di interferenza nella linea), sia dalle probabilità che i simboli arrivino al input e la loro relazione statistica.

Con una velocità di manipolazione nota, la velocità di trasmissione delle informazioni sul canale è data dalla relazione:

,

dove è la quantità media di informazioni trasportate da un personaggio.



Per la pratica, è importante scoprire fino a che punto e in che modo è possibile aumentare la velocità di trasmissione delle informazioni su un canale specifico. Le possibilità limitanti di un canale per la trasmissione di informazioni sono caratterizzate dalla sua capacità.

La capacità del canale con date probabilità di transizione è uguale alla massima informazione trasmessa su tutte le distribuzioni dei simboli della sorgente di input X:

Da un punto di vista matematico, la ricerca della larghezza di banda di un canale discreto privo di memoria si riduce alla ricerca della distribuzione di probabilità dei simboli di ingresso della sorgente X, che fornisce la massima informazione trasmessa. Allo stesso tempo, alle probabilità dei simboli di input viene imposta la seguente restrizione: , .

Nel caso generale, la determinazione del massimo sotto determinati vincoli è possibile utilizzando il metodo moltiplicativo di Lagrange. Tuttavia, una tale soluzione è proibitivamente costosa.

In un caso particolare, per canali simmetrici discreti privi di memoria, il throughput (massimo , si ottiene con una distribuzione uniforme dei simboli di ingresso della sorgente X.

Quindi, per un DSC senza memoria, assumendo che sia data la probabilità di errore ε e per simboli di input equiprobabili = = = =1/2, possiamo ottenere la capacità di tale canale usando la ben nota espressione per:

dove = è l'entropia di un canale simmetrico binario per una data probabilità di errore ε.

Di interesse sono i casi limite:

1. Trasmissione di informazioni su un canale silenzioso (nessuna interferenza):

, [bit/carattere].

Con le principali caratteristiche tecniche del canale (es. larghezza di banda, potenza media e picco del trasmettitore) fisse, che determinano il valore della velocità tecnica, il throughput del canale senza interferenze sarà pari a [bps].

In qualsiasi sistema di comunicazione, le informazioni vengono trasmesse attraverso un canale. Il suo bit rate è stato definito nel § 4.2. Come si può vedere dalla (4.25), questa velocità dipende non solo dal canale stesso, ma anche dalle proprietà del segnale applicato al suo ingresso, e quindi non può caratterizzare il canale come mezzo di trasmissione di informazioni. Proviamo a trovare un modo per valutare la capacità del canale di trasmettere informazioni. Consideriamo prima un canale discreto attraverso il quale v simboli di un alfabeto di volume m vengono trasmessi per unità di tempo. Durante la trasmissione di ogni personaggio, in media, la quantità di informazioni passa attraverso il canale

I(A, B) = H(A) - H(A|B) = H(B) - H(B|A), (4.35)

dove A e B sono caratteri casuali all'ingresso e all'uscita del canale. Delle quattro entropie H(A) che appaiono qui, l'informazione inerente al simbolo trasmesso è determinata dalla sorgente del segnale discreto * e non dipende dalle proprietà del canale. Le restanti tre entropie dipendono generalmente sia dalla sorgente del segnale che dal canale.

* (La sorgente di un segnale discreto in un sistema di comunicazione (vedi Fig. 1.5) è la combinazione di una sorgente di messaggio e di un codificatore.)

Immaginiamo che all'input del canale possano essere alimentati simboli di diversa provenienza, caratterizzati da differenti distribuzioni di probabilità P(A) (ma, ovviamente, con gli stessi valori di m e v). Per ciascuna di queste sorgenti, la quantità di informazioni trasmessa sul canale assume un proprio valore. La quantità massima di informazione trasmessa, prelevata da tutte le possibili sorgenti del segnale in ingresso, caratterizza il canale stesso ed è chiamata capacità del canale per simbolo

dove * è massimizzato su tutte le distribuzioni di probabilità multivariate P(A). È inoltre possibile definire il throughput del canale C per unità di tempo (ad esempio un secondo):

* (Se tale massimo non esiste (che può essere con un numero infinito di possibili sorgenti), allora il throughput è definito come il minimo limite superiore sup I (A, B), cioè un tale valore a cui I (A, B) può arbitrariamente avvicinarsi, ma non può superarlo.)

L'uguaglianza (4.37) segue dall'additività dell'entropia. In futuro, laddove non sia specificato in modo specifico, comprenderemo il throughput al secondo come il throughput.

Ad esempio, calcoliamo la capacità di un canale simmetrico senza memoria per il quale sono fornite le probabilità di transizione (3.36). Secondo (4.36)

Valore


in questo caso è facile calcolarla, poiché la probabilità condizionata (transitoria) P(b j |a i) assume solo due valori: p/(m-1) se b j ≠a i e 1-p se b j = a i . Il primo di questi valori si verifica con probabilità p e il secondo con probabilità 1-p. Inoltre, poiché viene considerato un canale senza memoria, i risultati di ricezione dei singoli simboli sono indipendenti l'uno dall'altro. Ecco perchè

Di conseguenza, H(B|A) non dipende dalla distribuzione di probabilità nell'insieme A, ma è determinato solo dalle probabilità di transizione del canale. Questa proprietà è conservata per tutti i modelli di canale con rumore additivo.

Sostituendo (4.38) in (4.37), otteniamo

Poiché solo il termine H(B) a destra dipende dalla distribuzione di probabilità P(A), è necessario massimizzarla. Il valore massimo di H (B) secondo la (4.6) è uguale a log me si realizza quando tutti i simboli ricevuti b j sono ugualmente probabili e indipendenti l'uno dall'altro. È facile verificare che questa condizione è soddisfatta se i simboli di input sono ugualmente probabili e indipendenti, poiché in questo caso

In questo caso, H(B) = log m e

Da qui il throughput per unità di tempo

Per un canale simmetrico binario (m = 2) il throughput in unità binarie per unità di tempo

C = v (4.42)

La dipendenza di C/v da p secondo (4.42) è mostrata in fig. 4.3.

Per p = 1/2, la capacità del canale binario è C = 0, poiché con tale probabilità di errore è possibile ottenere la sequenza di simboli binari in uscita senza trasmettere segnali sul canale, ma scegliendoli a caso (per esempio, in base ai risultati del lancio di una moneta), cioè quando p=1/2 sequenze all'uscita e all'ingresso del canale sono indipendenti. Il caso C = 0 è chiamato interruzione di canale. Il fatto che il throughput a p = 1 in un canale binario sia lo stesso di p = 0 (un canale senza rumore) è spiegato dal fatto che a p = 1 è sufficiente invertire tutti i simboli di output (cioè sostituire 0 con 1 e da 1 a 0) per ripristinare correttamente il segnale in ingresso.

Il throughput di un canale continuo viene calcolato in modo simile. Ad esempio, il canale ha una larghezza di banda limitata di larghezza F. Quindi i segnali U(t) e Z(t), rispettivamente, all'ingresso e all'uscita del canale, secondo il teorema di Kotelnikov, sono determinati dai loro campioni presa attraverso l'intervallo 1/(2F), e quindi l'informazione che transita sul canale per un certo tempo T, è uguale alla somma della quantità di informazione trasmessa per ciascuno di tali campioni * . Capacità del canale per uno di questi campioni

Qui U e Z sono variabili casuali - sezioni dei processi U(t) e Z(t) rispettivamente all'ingresso e all'uscita del canale, e il massimo viene preso su tutti i segnali di ingresso ammissibili, cioè su tutte le distribuzioni U.

* (Invece della serie di Kotelnikov, si può utilizzare la scomposizione dei segnali su qualsiasi base ortogonale e considerare la quantità di informazioni trasmesse per ciascun membro della serie.)

Il throughput C è definito come la somma dei valori di Ss, presi su tutti i campioni al secondo. In questo caso, ovviamente, le entropie differenziali in (4.43) devono essere calcolate tenendo conto delle relazioni probabilistiche tra le letture.

Calcoliamo, ad esempio, il throughput di un canale continuo senza memoria con rumore gaussiano bianco additivo avente larghezza di banda F se la potenza media del segnale (varianza U) non supera un dato valore P s. La potenza (dispersione) del rumore nella banda F sarà indicata con Р w. I campioni dei segnali di ingresso e di uscita, così come il rumore N, sono correlati dall'uguaglianza

Z = U + N. (4.44)

Poiché N ha una distribuzione normale con aspettativa matematica zero, allora anche la densità di probabilità condizionata w(z|u) a u fissa sarà normale - con l'aspettativa matematica u e la varianza Рw.

Troviamo la larghezza di banda per campione (4.43):

Secondo la (4.34), l'entropia differenziale h(Z|U) della distribuzione normale w(Z|U) non dipende dall'aspettativa ed è uguale a


Pertanto, per trovare il conteggio C, si dovrebbe trovare una tale densità di distribuzione w(U) alla quale h(Z) è massimizzato. Da (4.44), dato che U e N sono variabili casuali indipendenti, abbiamo per le varianze:

D(Z) \u003d D (U) + D (N) \u003d P c + P w. (4.45)

Pertanto, la varianza di Z è fissa, poiché sono dati P c e P w. Come notato (vedi p. 114), con una varianza fissa, la massima entropia differenziale è fornita dalla distribuzione normale. Si può vedere dalla (4.44) che con una normale distribuzione unidimensionale U, anche la distribuzione Z sarà normale e, quindi, è assicurato il massimo dell'entropia differenziale (4.34):

Passando al throughput C al secondo, notiamo che l'informazione trasmessa su più campioni è massima quando i campioni di segnale sono indipendenti. Ciò può essere ottenuto se il segnale U(t) è scelto in modo che la sua densità spettrale sia uniforme nella banda F. Come mostrato nel § 2.2 [vedi (2.48)], i campioni separati da intervalli multipli di 1/(2F) non sono correlati tra loro e, per le grandezze gaussiane, non correlazione significa indipendenza.

Pertanto, il throughput C (al secondo) può essere trovato aggiungendo i throughput (4.46) per campioni indipendenti 2F:

C \u003d Conteggio 2FC \u003d F log (1 + P s / P w). (4.47)

Ci si rende conto se U(t) è un processo gaussiano con una densità spettrale uniforme nella banda di frequenza F (quasi-rumore bianco).

Dalla (4.47) si può vedere che se la potenza del segnale P c non fosse limitata, il throughput sarebbe arbitrariamente grande. Il throughput è zero se il rapporto segnale/rumore P c /P w nel canale è zero. Con un aumento di questo rapporto, il throughput aumenta indefinitamente, ma lentamente, a causa della dipendenza logaritmica.

La relazione (4.47) è spesso chiamata formula di Shannon. Questa formula è importante nella teoria dell'informazione, poiché determina la dipendenza del throughput del canale continuo considerato dalle sue caratteristiche tecniche come la larghezza di banda e il rapporto segnale-rumore. La formula di Shannon indica la possibilità di scambiare la larghezza di banda con la potenza del segnale e viceversa. Tuttavia, poiché C dipende linearmente da F, e da P c / P w - secondo una legge logaritmica, di solito non è vantaggioso compensare una possibile riduzione della larghezza di banda aumentando la potenza del segnale. Più efficiente è lo scambio inverso della potenza del segnale per la larghezza di banda.

Si noti che quando Р c /P w >>1, l'espressione (4.50) coincide con la caratteristica (1.2), chiamata nel § 1.2 la capacità (volume) del canale.

Va sottolineato che la formula di Shannon (4.47) è valida solo per un canale con parametri costanti e rumore gaussiano bianco (o quasi-bianco) additivo. Se la distribuzione dell'interferenza additiva non è normale o se il suo spettro non è uniforme nella larghezza di banda del canale, la sua larghezza di banda è maggiore di quella calcolata dalla formula (4.47). L'interferenza moltiplicativa (sbiadimento del segnale) di solito riduce la capacità del canale.

Sulla fig. 4.5 mostra le dipendenze di C / F dal rapporto medio P c / P w per un canale con parametri costanti (1) e un canale con fading di Rayleigh (2). Dall'analisi delle curve risulta che il lento fading di Rayleigh riduce la capacità del canale di non più del 17%.

5.1. Velocità di trasferimento delle informazioni in un sistema di comunicazione discreto

In un sistema di comunicazione discreto, in assenza di interferenze, l'informazione all'uscita del canale di comunicazione (canale PI) coincide completamente con l'informazione al suo ingresso, quindi la velocità di trasferimento dell'informazione è numericamente uguale alla performance della sorgente del messaggio:

In presenza di interferenza, parte delle informazioni della sorgente viene persa e la velocità di trasferimento delle informazioni è inferiore alle prestazioni della sorgente. Allo stesso tempo, le informazioni sull'interferenza vengono aggiunte al messaggio sull'uscita del canale (Fig. 12).

Pertanto, in presenza di interferenza, è necessario tenere conto all'uscita del canale non di tutte le informazioni fornite dalla sorgente, ma solo di informazioni reciproche:

bps (5.2)

Sulla base della formula (5.1), abbiamo

dove H(X) prestazioni della sorgente ;

H(X/ y)   inaffidabilità del canale (perdite) per unità di tempo;

H(y)  entropia del messaggio in uscita per unità di tempo;

H(y/ X) =H’(n) è l'entropia dell'interferenza (rumore) per unità di tempo.

Larghezza di banda del canale di comunicazione(canale di trasmissione delle informazioni) Cè la velocità massima possibile di trasferimento delle informazioni sul canale


.
(5.4)

Per ottenere il massimo, vengono prese in considerazione tutte le possibili sorgenti di output e tutti i possibili metodi di codifica.

Pertanto, il throughput del canale di comunicazione è uguale alla prestazione massima della sorgente all'ingresso del canale, pienamente coerente con le caratteristiche di questo canale, meno la perdita di informazioni nel canale dovuta all'interferenza.

In un canale senza interferenze C= max H(X) , perché H(X/ y)=0 . Quando si utilizza un codice uniforme con una base K, consiste in n elementi con una durata ehm, in un canale senza interferenze


,

a K=2
bit/s. (5.5)

Per un uso efficiente della larghezza di banda del canale, deve essere coordinata con la fonte di informazioni in ingresso. Tale coordinamento è possibile sia per i canali di comunicazione senza interferenza che per i canali con interferenza sulla base di due teoremi dimostrati da K. Shannon.

1° teorema (per un canale di comunicazione senza interferenze):

Se l'origine del messaggio ha entropiaH(bit per simbolo) e il canale di comunicazione - throughputC(bit per secondo), quindi i messaggi possono essere codificati in modo tale da trasmettere informazioni sul canale a una velocità media arbitrariamente vicina al valoreCma non superarlo.

K. Shannon ha anche proposto un metodo di tale codifica, che è stato chiamato codifica statistica o ottimale. Successivamente, l'idea di tale codifica è stata sviluppata nelle opere di Fano e Huffman ed è ora ampiamente utilizzata nella pratica per la "compressione dei messaggi".

5.2. Larghezza di banda di un canale di comunicazione simmetrico omogeneo

In un canale di comunicazione omogeneo, probabilità condizionali (transizionali). p(y 1 / X 1 ) non dipendono dal tempo. Il grafico degli stati e delle transizioni di un canale di comunicazione binario omogeneo è mostrato in fig. 13.

In questa immagine X 1 e X 2 - segnali all'ingresso del canale di comunicazione, y 1 e y 2 - segnali di uscita. Se è stato trasmesso un segnale X 1 e segnale ricevuto y 1 , ciò significa che il primo segnale (indice 1) non è distorto. Se è stato trasmesso il primo segnale ( X 1) e viene ricevuto il secondo segnale ( y 2), il che significa che il primo segnale è stato distorto. Le probabilità di transizione sono mostrate in fig. 13. Se il canale è simmetrico, le probabilità di transizione sono pari a coppie.

Denota: p(y 2 / X 1 )= p(y 1 / X 2 )= p ehm sono le probabilità di distorsione dell'elemento segnale, p(y 1 / X 1 )= p(y 2 / X 2 )=1- p ehm – probabilità di corretta ricezione dell'elemento segnale.

Secondo le formule (5.1) e (5.3)


.

Se i segnali X 1 e X 2 hanno la stessa durata ehm, poi
. Quindi la capacità del canale sarà uguale a

. (5.7)

In questa formula max H(y)= tronco d'albero K. Per un canale binario ( k= 2) max H(y)= 1 e la formula (5.4) assume la forma


. (5.8)

Resta da determinare l'entropia condizionata H(y/ X) . Per una fonte binaria abbiamo


Sostituendo questo valore dell'entropia condizionata nella (5.8), otteniamo infine

. (5.9)

Per un canale di comunicazione con K>2


bit/s.

Sulla fig. 14 è un grafico della capacità del canale binario rispetto alla probabilità di errore.

Per un canale di comunicazione con K>2 il throughput è determinato da una formula quasi simile:

Infine, diamo un'occhiata a un esempio. Lascia che ci sia una fonte binaria con prestazioni
bit/s.

Se la probabilità di distorsione p ehm = 0.01, ne consegue che su 1000 elementi di segnale trasmessi in un secondo, verranno ricevuti in media 990 elementi senza distorsione e solo 10 elementi saranno distorti. Sembrerebbe che il throughput in questo caso sarà di 990 bit al secondo. Tuttavia, il calcolo con la formula (5.9) ci dà un valore molto più piccolo ( C= 919 bps). Qual è il problema qui? Il fatto è che otterremmo C= 990 bps, se sapessimo esattamente quali elementi del messaggio sono stati distorti. L'ignoranza di questo fatto (ed è praticamente impossibile da sapere) porta al fatto che 10 elementi distorti riducono il valore del messaggio ricevuto così tanto che il throughput diminuisce drasticamente.

Un altro esempio. Se una p ehm = 0,5, quindi su 1000 elementi trasmessi, 500 non verranno distorti. Tuttavia, ora la larghezza di banda non sarà di 500 bps, come ci si potrebbe aspettare, e la formula (5.9) ci darà il valore C= 0. Valido per p ehm = 0,5 il segnale non passa effettivamente attraverso il canale di comunicazione e il canale di comunicazione è semplicemente equivalente a un generatore di rumore.

In p ehm 1 throughput si sta avvicinando al valore massimo. In questo caso, tuttavia, i segnali all'uscita del sistema di comunicazione devono essere invertiti.

Un canale di trasmissione continua di informazioni contiene un insieme di mezzi per trasmettere segnali continui, mentre invece di dispositivi di codifica e decodifica vengono utilizzati vari tipi di convertitori (modulazione, ecc.). I segnali di ingresso e di uscita in un canale di comunicazione continuo rappresentano insiemi di funzioni continue con le corrispondenti densità di distribuzioni di probabilità.
Se viene ricevuto un segnale continuo all'ingresso di un canale di comunicazione continua X(t) durata T, quindi per interferenza f(t) segnale di uscita S(t) sarà diverso dall'input. Allo stesso tempo, la quantità di informazioni nel segnale S(t) sul segnale X(t)è uguale a:
. (13)
Un segnale continuo può essere considerato discreto a . Può essere rappresentato come una funzione reticolare, mentre sul lato ricevente, per singoli campioni prelevati a intervalli Dt il segnale continuo originale può essere ripristinato.
Fase di quantizzazione Dt = T/n, dove nè il numero di punti di riferimento. Secondo il teorema di Kotelnikov Dt = 1/2 fc, dove fc - frequenza di taglio a n = 2Tf cè la base del segnale.
In questo caso, nell'espressione (13) per l'informazione reciproca, invece della differenza di entropia, si possono scrivere le differenze delle corrispondenti entropie differenziali delle singole letture
.

Larghezza di banda di un canale di comunicazione continuo
(14)
Per un canale di comunicazione discreto, il valore massimo della velocità di trasmissione corrisponde a simboli equiprobabili dell'alfabeto. Per un canale di comunicazione continuo, quando data è la potenza media del segnale, la velocità massima viene fornita utilizzando normali segnali casuali centrati.
Se il segnale è centrato ( m x = 0) cioè. senza una componente costante, in questo caso, la potenza a riposo è zero ( P0 = 0). La condizione di centraggio garantisce la massima dispersione per una data potenza media del segnale
Se il segnale ha una distribuzione normale, l'entropia differenziale a priori di ciascun campione è massima.
Pertanto, quando si calcola il throughput di un canale continuo, assumiamo che un segnale continuo con una potenza media limitata venga trasmesso sul canale - pz e rumore additivo ( y=x+f) anche con potenza media limitata – P n tipo di rumore bianco (gaussiano). Poiché il rumore è additivo, la varianza del segnale di uscita lo è
.
Affinché l'entropia sia massima per un segnale a potenza limitata, deve essere gaussiana, mentre
.
Affinché l'interferenza sia massima, deve anche essere gaussiana.
.
In questo caso, il throughput di un canale continuo dovrebbe essere uguale al throughput del segnale
. (15)
Pertanto, la velocità di trasmissione delle informazioni con una potenza media limitata è massima se sia il segnale che il rumore sono processi casuali gaussiani.
La larghezza di banda del canale può essere modificata modificando l'ampiezza dello spettro del segnale - fc il suo potere – Pc. Ma aumentando la larghezza dello spettro aumenta la potenza di interferenza – P n, quindi il rapporto tra la larghezza di banda del canale e il livello di rumore viene scelto in modo compromesso.
Se la distribuzione f(x) la fonte dei messaggi continui è diversa da quella normale, quindi lo è la velocità di trasferimento delle informazioni DA sarà meno. Utilizzando un convertitore funzionale, puoi ottenere un segnale con una normale legge di distribuzione.
Di solito p c / p p >>1, mentre il throughput di un canale continuo è uguale a C n \u003d Da F a D a. La relazione tra la capacità e il throughput del canale di comunicazione ha la forma V k \u003d da T a F a D a \u003d da T a C p.
Teorema di Shannon per un canale continuo con rumore. Se l'entropia della fonte di messaggi continui è arbitrariamente vicina alla capacità del canale, allora esiste un metodo di trasmissione in cui tutti i messaggi dalla fonte verranno trasmessi con una fedeltà di riproduzione arbitrariamente alta.


Esempio. Attraverso un canale di comunicazione continuo con una larghezza di banda F k = 1 kHz, viene trasmesso un segnale utile X(t), che è un normale processo casuale con aspettativa matematica zero e varianza = 4 mV. Il rumore gaussiano indipendente dal segnale agisce nel canale F(t) con aspettativa matematica zero e varianza = 1 mV.
Definire:
è l'entropia differenziale del segnale di ingresso;
è l'entropia differenziale del segnale di uscita;
– entropia differenziale condizionale;
- la quantità di informazioni in una lettura continua del processo S(t) per quanto riguarda il riferimento X(t);
– velocità di trasferimento delle informazioni su un canale continuo a tempo discreto;
– larghezza di banda di un canale di comunicazione continuo;
– determinare la capacità del canale di comunicazione, se il tempo del suo funzionamento T = 10 m;
– determinare la quantità di informazioni che possono essere trasmesse in 10 minuti di funzionamento del canale;
– per dimostrare che la capacità di informazione di un canale continuo senza memoria con rumore gaussiano additivo con un vincolo di potenza di picco non è maggiore della capacità di informazione dello stesso canale con lo stesso vincolo di potenza media. Soluzione:
Entropia differenziale del segnale di ingresso

= 3,05 bit/campione.
Entropia differenziale del segnale di uscita
=3,21 bit/campione.
Entropia differenziale condizionale
= 2,05 bit/campione.
Quantità di informazioni in una lettura continua del processo S(t) per quanto riguarda il riferimento X(t)è determinato dalla formula
I (X, Y) = h(x) - h (x/y) = h(y) - h (y/x) = 3,21 - 2,05 = 1,16 bit/campione.
La velocità di trasferimento delle informazioni su un canale continuo con tempo discreto è determinata dalla formula
=
= 2×10 3×=2320 bps
La capacità di un canale continuo con rumore è determinata dalla formula

=2322 punti base.
Dimostriamo che la capacità di informazione di un canale continuo senza memoria con rumore gaussiano additivo con un vincolo di potenza di picco non è maggiore della capacità di informazione dello stesso canale con lo stesso vincolo di potenza media.
Aspettativa matematica per una distribuzione uniforme simmetrica

Quadrato medio per distribuzione uniforme simmetrica

Varianza per distribuzione uniforme simmetrica

Allo stesso tempo, per un processo uniformemente distribuito.
Entropia differenziale di un segnale a distribuzione uniforme
.
La differenza tra le entropie differenziali di un processo normale e un processo uniformemente distribuito non dipende dal valore della dispersione
= 0,3 bit/conteggio
Pertanto, il throughput e la capacità del canale di comunicazione per un processo con una distribuzione normale è maggiore rispetto a uno uniforme.
Determinare la capacità (volume) del canale di comunicazione
V k = T k C k = 10×60×2322 = 1,3932 Mbit.
Determina la quantità di informazioni che possono essere trasmesse in 10 minuti del canale
10× 60× 2322=1,3932 Mbit.

Compiti

1. I messaggi composti dall'alfabeto vengono trasmessi al canale di comunicazione x 1, x 2 e x 3 con probabilità p(x1)=0,2; p(x 2) \u003d 0,3 e p(x3)=0,5.
La matrice dei canali ha la forma:
in cui .
Calcolare:
1. Entropia della fonte dell'informazione H(X) e ricevitore H(Y).
2. Entropia generale e condizionata H(Y/X).
3. Perdita di informazioni nel canale durante la trasmissione a personaggi ( k = 100).
4. La quantità di informazioni ricevute durante la trasmissione a personaggi.
5. Velocità di trasferimento delle informazioni, se il tempo di trasmissione di un carattere t = 0,01 ms.
2. I caratteri alfabetici vengono trasmessi sul canale di comunicazione x 1, x2, x 3 e x4 con probabilità. Determinare la quantità di informazioni ricevute durante la trasmissione di 300 simboli, se l'effetto dell'interferenza è descritto dalla matrice del canale:
.
3. Determinare la perdita di informazioni nel canale di comunicazione durante la trasmissione di simboli equiprobabili dell'alfabeto, se la matrice del canale ha la forma

.
t = 0,001 sec.
4. Determinare la perdita di informazioni durante la trasmissione di 1000 caratteri dell'alfabeto di origine x 1, x2 e x 3 con probabilità p=0,2; p=0,1 e p()=0,7, se l'effetto dell'interferenza nel canale è descritto dalla matrice del canale:
.
5. Determinare la quantità di informazioni ricevute durante la trasmissione di 600 simboli, se la probabilità che si verifichino simboli all'uscita della sorgente X sono uguali: e l'effetto dell'interferenza durante la trasmissione è descritto dalla matrice del canale:
.
6. I messaggi composti da caratteri alfabetici sono trasmessi al canale di comunicazione, mentre le probabilità di occorrenza di caratteri alfabetici sono uguali:
Il canale di comunicazione è descritto dalla seguente matrice di canali:

.
Determinare la velocità di trasferimento delle informazioni se il tempo di trasmissione di un carattere SM.
7. I segnali vengono trasmessi attraverso il canale di comunicazione x 1, x2 e x 3 con probabilità p=0,2; p=0,1 e p()=0,7. L'influenza dell'interferenza nel canale è descritta dalla matrice del canale:
.
Determina l'entropia condizionale totale e la percentuale di perdita di informazioni che ricade sul segnale x 1(entropia condizionale privata).
8. I caratteri alfabetici vengono trasmessi sul canale di comunicazione x 1, x2, x 3 e x4 con probabilità.
Il rumore nel canale è dato dalla matrice del canale
.
Determinare la larghezza di banda del canale di comunicazione se il tempo di trasmissione di un carattere t = 0,01 sec.
Determinare la quantità di informazioni ricevute durante la trasmissione di 500 simboli, se le probabilità che si verifichino simboli all'ingresso del ricevitore Y sono uguali a: , e l'effetto dell'interferenza durante la trasmissione è descritto dalla matrice del canale:

Bibliografia
1 Grinchenko A.G. Teoria dell'informazione e codifica: libro di testo. indennità. - Kharkov: HPU, 2000.
2 Kupriyanov MS, Matyushkin BD – Elaborazione digitale del segnale: processori, algoritmi, strumenti di progettazione. - San Pietroburgo: Politecnico, 1999.
3 Orlo R.W. Filtri digitali: Per. dall'inglese. / Ed. SONO. Trakhtman. – M.: Sov. radiofonico, 1980.
4 Sibert UM Catene, segnali, sistemi: In 2 ore / Per. dall'inglese. – M.: Mir, 1988.
5 Sklyar B. Comunicazioni digitali. Fondamenti teorici e applicazione pratica: Per. dall'inglese. – M.: Williams Publishing House, 2003. – 1104 p.
6 Kalinin, VI Microonde e tecnologia delle telecomunicazioni, 2007. CriMiCo 2007. 17a conferenza internazionale sulla CrimeaVolume, Issue, 10–14 Sept. 2007 Pagina(e):233 – 234
7 Feer K. Comunicazione digitale senza fili. Metodi di modulazione e spettro diffuso. Per. dall'inglese. - M.: Radio e comunicazione, 2000.
8 Ignatov V.A. Teoria dell'informazione e della trasmissione del segnale: libro di testo per le scuole superiori. - 2a ed., riveduta. e aggiuntivo - M.: Radio e comunicazione, 1991;

Argomento 2.5. Larghezza di banda del canale di comunicazione

In qualsiasi sistema di comunicazione, le informazioni vengono trasmesse attraverso un canale. La sua velocità di trasmissione dipende non solo dal canale stesso, ma anche dalle proprietà del segnale applicato al suo ingresso e quindi non può caratterizzare il canale come mezzo di trasmissione di informazioni. Troviamo un modo per valutare la capacità del canale di trasmettere informazioni. Per ciascuna sorgente, la quantità di informazioni trasmessa sul canale assume un proprio valore.

La quantità massima di informazione trasmessa, prelevata da tutte le possibili sorgenti del segnale di ingresso, caratterizza il canale stesso ed è chiamata larghezza di banda del canale per simbolo:

Bit/carattere.

(dove la massimizzazione viene eseguita su tutte le distribuzioni di probabilità multivariate P(A))

È anche possibile determinare la larghezza di banda C del canale per unità di tempo.

Calcola il throughput di un canale simmetrico senza memoria

(2.26)

Valore in questo caso il calcolo è facile, poiché la probabilità condizionale (transitoria) assume solo due valori: , se e (1-P), se .

Il primo di questi valori si verifica con probabilità P e il secondo con probabilità (1-P). Inoltre, poiché viene considerato un canale senza memoria, i risultati della ricezione di singoli simboli sono indipendenti l'uno dall'altro.

(2.27)

Pertanto, H(B/A) non dipende dalla distribuzione di probabilità nell'insieme A, ma è determinato solo dalle probabilità di transizione del canale. Questa proprietà è conservata per tutti i modelli con rumore additivo.

Sostituendo (2.27) in (2.26) otteniamo:

Poiché solo il termine H(B) sul lato destro dipende dalla distribuzione di probabilità P(A), è questo termine che deve essere massimizzato.

Il valore massimo di H(B) è pari a log me si realizza quando tutti i simboli ricevuti sono ugualmente probabili e indipendenti tra loro. È facile verificare che questa condizione è soddisfatta se i simboli di input sono ugualmente probabili e indipendenti, poiché in questo caso

Allo stesso tempo e

Da qui il throughput per unità di tempo

Per un canale simmetrico binario (m=2) throughput in unità binarie per unità di tempo

Dipendenza da P secondo la formula (2.31)

A P=1/2, la capacità del canale binario è C=0, poiché con tale probabilità di errore è possibile ottenere la sequenza dei simboli binari in uscita senza trasmettere affatto segnali sul canale, ma scegliendoli a caso (per ad esempio, in base ai risultati del lancio di una moneta), cioè a P= 1/2 le sequenze all'uscita e all'ingresso del canale sono indipendenti. Il caso C=0 è chiamato interruzione di canale. Il fatto che il throughput a P=1 in un canale binario sia lo stesso di P=0 (un canale senza rumore) è spiegato dal fatto che a P=1 è sufficiente invertire tutti i simboli di uscita (ovvero sostituire 0 con 1 e 1 con 0 ) per ripristinare correttamente il segnale di ingresso.

Il throughput di un canale continuo viene calcolato in modo simile. Ad esempio, il canale ha una larghezza di banda limitata di larghezza F. Quindi i segnali U(t) e Z(t), rispettivamente, sono all'ingresso e all'uscita del canale secondo il teorema. Kotelnikov sono determinati dai loro campioni prelevati attraverso l'intervallo 1 / (2F), e quindi le informazioni che passano attraverso il canale per un certo tempo T sono uguali alla somma della quantità di informazioni trasmesse per ciascuno di questi campioni. Larghezza di banda del canale per uno di questi campioni:

Qui U e Z sono variabili casuali - sezioni dei processi U(t) e Z(t) rispettivamente all'ingresso e all'uscita del canale, e il massimo viene preso su tutti i segnali di ingresso ammissibili, cioè su tutte le distribuzioni U .

Il throughput C è definito come la somma dei valori rilevati su tutti i campioni al secondo. In questo caso, ovviamente, le entropie differenziali in (2.35) devono essere calcolate tenendo conto delle relazioni probabilistiche tra le letture.

Calcoliamo la capacità di un canale continuo senza memoria con rumore gaussiano bianco additivo avente una larghezza di banda di larghezza F se la potenza media del segnale è . La potenza del rumore (dispersione) nella banda F è indicata da . Le letture dei segnali di uscita e di ingresso, così come il rumore N, sono correlate dall'uguaglianza:

Poiché N ha una distribuzione normale con aspettativa matematica zero, anche la densità di probabilità condizionata per U fissa sarà normale, con aspettativa matematica U e varianza .

La larghezza di banda per campione è determinata dalla formula (2.32):

Secondo la (2.24), l'entropia differenziale condizionale h(Z/U) della distribuzione normale non dipende dall'aspettativa matematica ed è uguale a . Pertanto, per trovarlo, si dovrebbe trovare una tale densità di distribuzione alla quale h(Z) è massimizzato. Dalla (2.33), tenendo conto che U e N sono variabili casuali indipendenti, abbiamo per varianze

Pertanto, la varianza è fissa, poiché e sono dati. Come è noto, a varianza fissa, la massima entropia differenziale è fornita dalla distribuzione normale. Si può vedere dalla (2.33) che con una normale distribuzione unidimensionale U, anche la distribuzione Z sarà normale e, di conseguenza, è assicurato il massimo dell'entropia differenziale (2.24).

(2.34)

Passando al throughput C al secondo, notiamo che l'informazione trasmessa su più campioni è massima quando i campioni di segnale sono indipendenti. Ciò può essere ottenuto se il segnale U(t) viene scelto in modo che la sua densità spettrale sia uniforme nella banda F. I campioni separati da intervalli multipli di 1/(2F) sono reciprocamente non correlati e, per i valori gaussiani, non correlati significa indipendenti . Pertanto, il throughput C (al secondo) può essere trovato aggiungendo i throughput (2.35) per campioni indipendenti 2F:

(2.36)

Ci si rende conto se U(t) è un processo gaussiano con una densità spettrale uniforme nella banda di frequenza F (quasi-rumore bianco).

Si può vedere da (2.36) che se la potenza del segnale non fosse limitata, il throughput sarebbe arbitrariamente grande. Il throughput è zero se il rapporto segnale/rumore nel canale è zero. Con un aumento di questo rapporto, il throughput aumenta indefinitamente, ma lentamente, a causa della dipendenza logaritmica.

La relazione (2.36) è chiamata formula di Shannon. Questa formula è importante nella teoria dell'informazione, poiché determina la dipendenza del throughput del canale continuo considerato dalle sue caratteristiche tecniche come la larghezza di banda e il rapporto segnale-rumore. La formula di Shannon indica la possibilità di scambiare la larghezza di banda con la potenza del segnale e viceversa. Tuttavia, poiché C dipende linearmente da F, e da - secondo una legge logaritmica, di solito non è vantaggioso compensare una possibile riduzione della larghezza di banda aumentando la potenza del segnale. Più efficiente è lo scambio inverso della potenza del segnale per la larghezza di banda.

La quantità massima di informazioni che può essere trasmessa in media su un canale continuo nel tempo,

Per un canale gaussiano

(2.37)

Si noti che quando l'Espressione (2.37) coincide con la caratteristica chiamata capacità (volume) del canale.

Articoli correlati in alto