Come configurare smartphone e PC. Portale informativo
  • casa
  • Sicurezza
  • Metodi di elaborazione delle immagini digitali. Elaborazione di immagini a raggi X

Metodi di elaborazione delle immagini digitali. Elaborazione di immagini a raggi X

L'elaborazione delle immagini viene utilizzata attivamente nella fotografia, nella modellistica, nella stampa e nella pubblicazione di articoli su Internet. Esistono molte opzioni, metodi, strumenti e metodi per eseguire questo processo. Alcuni di essi saranno discussi in questo articolo.

Elaborazione digitale delle immagini: a cosa serve e dove viene utilizzata

Il compito dell'elaborazione delle immagini è quello di dare loro una forma in cui rifletteranno la realtà nel modo più chiaro e chiaro o, al contrario, distorcerla. Ad esempio, preparare le fotografie di un matrimonio consente di rimuovere elementi non necessari e ravvivare l'aspetto degli invitati, degli sposi. È particolarmente importante durante l'elaborazione per eliminare l'effetto “occhi rossi” e rassodare la figura.

Anche la creazione di collage non è completa senza la post-elaborazione e la pre-elaborazione. Con il loro aiuto, puoi disegnare immagini che non potrebbero accadere nella realtà.

La correzione del contenuto grafico riceve fonti da entrambi fotocamere digitali e da dispositivi di elaborazione delle immagini, come scanner o webcam.

Esistono diversi metodi universali per preparare le immagini per progetti futuri. I principali includono quanto segue:

  • bilanciamento del bianco;
  • correzione dell'esposizione;
  • elaborazione del rumore;
  • eliminazione delle distorsioni;
  • dettagli;
  • elaborazione del contrasto;
  • composizione;
  • ritoccare;
  • misurare;
  • nitidezza dell'uscita.

Il bilanciamento del bianco ideale è la chiave per ottenere immagini di alta qualità

La resa cromatica ha Grande importanza percepire l'immagine. L'elaborazione delle immagini per il bilanciamento del bianco conferisce loro colori reali e realtà.

Molto spesso, le fotocamere digitali riproducono per impostazione predefinita il colore della foto in modo errato o distorto. Il bilanciamento del bianco può essere regolato utilizzando i cursori del calore. Alcuni programmi di elaborazione delle immagini dispongono addirittura di una modalità separata appositamente progettata.

Esposizione non solo nella fotocamera, ma anche nell'elaborazione

Le impostazioni di varie fotocamere digitali consentono di impostare l'esposizione ideale durante le fasi di scatto. Tuttavia, questo non è sempre possibile. Pertanto, deve essere corretto mediante la successiva elaborazione dell'immagine.

In particolare, modificando il contrasto e il tono, è possibile conferire all'immagine un colore naturale e una luce incidente. Articoli richiesti dovrebbero essere adeguatamente ombreggiate, e quelle esposte ai raggi di luce dovrebbero essere illuminate in modo naturale, senza eccessi.

Elaborazione del rumore: eliminazione di elementi inutili

Un'elevata sensibilità alla luce può causare rumore nell'immagine. Di solito sono espressi come una piccola “eruzione cutanea” di artefatti. Possono essere eliminati in fase di lavorazione immagini grafiche. La riduzione del rumore deve essere utilizzata con saggezza, poiché una quantità troppo ridotta renderà l'immagine innaturale.

Distorsioni

Gli obiettivi grandangolari e i teleobiettivi possono produrre piccoli cambiamenti nella geometria dell'immagine. La loro correzione potrebbe essere necessaria durante l'allineamento del layout o la stampa. Per un panorama paesaggistico, ad esempio, la distorsione non causa grandi perdite.

I dettagli ti permetteranno di vedere tutto

Questo metodo si basa sulla regolazione della nitidezza. Cioè, l'elaborazione delle immagini in modo tale da migliorare la visibilità degli oggetti nell'immagine. La nitidezza, a sua volta, è determinata da due fattori: risoluzione e chiarezza. Il primo parametro descrive il numero di elementi situati ad una distanza minima. Il secondo esprime il grado di sfocatura dei confini tra gli oggetti. Più sono nitidi, più dettagliata appare la foto o l'immagine.

Contrasto: evidenzia caratteristiche e dettagli chiave

Il contrasto esprime la differenza tra colori differenti vari oggetti nella foto. Se è alto, sono molto chiaramente visibili alla vista e sembrano più impressionanti. D'altro canto, un contrasto eccessivo può rendere l'immagine innaturale. Perfettamente bilanciato, dona ricchezza all'immagine, lasciandola vita.

Composizione

Una composizione può includere diverse tecniche di elaborazione delle immagini. Uno di questi è l'inquadratura. Si caratterizza per l'evidenziazione delle aree più importanti dell'immagine e l'enfatizzazione dell'orizzonte e dei punti focali su di esse. Ciò è rilevante quando si fotografano paesaggi, quando è necessario rimuovere una sezione extra di cielo o terra.

Ritocco - metodo generale

Il ritocco è un insieme di misure volte a eliminare i difetti della fotocamera e vari artefatti dalle immagini. La base di questo metodo è solitamente la correzione selettiva. Si esprime nella rimozione manuale delle particelle di polvere dall'obiettivo, nella correzione del rumore zonale e metodi simili.

Misurare

Questo metodo può dare a un'immagine più o meno significato. Quando si aumenta, di norma viene utilizzata l'interpolazione, ovvero la sostituzione dei punti più vicini con punti approssimativamente simili. Ciò può essere utile quando si stampano striscioni o poster.

La riduzione senza elaborazione può conferire all'immagine un effetto moiré innaturale. Pertanto, è necessario applicare il ridimensionamento dopo il lavoro di elaborazione dell'immagine.

Programmi per l'elaborazione delle immagini

Esistono molti sistemi software per l'elaborazione delle immagini. Differiscono tutti per funzionalità, supporto caratteristiche aggiuntive e prezzo.

GIMP: gratuito e potente

Uno di questi può essere scaricato gratuitamente dal sito Web degli sviluppatori. Sebbene questo prodotto non sia commerciale, lo è enormi opportunità. Trattamento grafica vettoriale, lavorando con i livelli, collegando un gran numero di plugin, utilizzando il formato RAW.

Oltre a tutto questo, GIMP ha una vasta comunità di lingua russa dove puoi imparare molte informazioni e trucchi utili. Il programma ha anche la lingua russa.

Adobe Photoshop è un vero processore grafico

Il nome di questo prodotto è da tempo un nome familiare. Pronunciando la frase "Photoshop", una persona chiarisce che ha bisogno di elaborare l'immagine. E non importa se ciò accada davvero Adobe Photoshop o altro programma di elaborazione grafica.

Con l'aiuto di questo strumento potente molti maestri creano capolavori così vividi e naturali che è molto difficile distinguerli da una buona fotografia.

Tuttavia imparare Photoshop- questo non è un compito facile e richiede una notevole quantità di tempo. L'interfaccia del programma ha un numero enorme di impostazioni, funzioni, tecniche e strumenti. È molto difficile capirlo subito.

PhotoScape

Poche persone hanno sentito parlare di questo prodotto, tranne progettisti professionisti e fotografi. Forse il suo utilizzo è ostacolato dalla mancanza di uno strumento così conveniente come i livelli, che consentono di copiare e sovrapporre rapidamente le immagini una sull'altra.

Tra i vantaggi del programma ci sono la distribuzione gratuita, la localizzazione russa, la connessione di plugin e il supporto RAW.

Picasa

Questo prodotto è stato sviluppato da Google Corporation. Il programma è facile da imparare e ha un'interfaccia semplice. Perfetto per l'elaborazione iniziale delle immagini a casa. I professionisti vedranno in questo programma un gran numero di gli strumenti che gli mancano.

L'app è gratuita, ma Google ha smesso di supportarla nel 2016. In cui ultime versioni può essere utilizzata.

Paint.NET

Una sorta di reincarnazione del caporedattore della sala operatoria Sistemi Windows- Colore. Può funzionare con i livelli e dispone di una serie di plug-in. Molti strumenti e funzionalità interessanti.

Perfetto per un'introduzione al mondo.

Corel Draw

Prodotto a pagamento. Dato che il suo focus principale sono le immagini vettoriali, viene utilizzato quasi ovunque. Questi includono una varietà di layout per la stampa, la modellazione, la progettazione di edifici e disegni ordinari. Grazie alla sua ampia distribuzione, dispone di un numero significativo di plugin già pronti. Il programma è russificato.

Elaborazione in linea

IN Ultimamente L'elaborazione delle immagini online sta guadagnando popolarità. Questo metodo presenta numerosi vantaggi:

  • Velocità di elaborazione. Tutti i calcoli vengono eseguiti lato server, che di solito è molto più potente di un computer di casa.
  • Semplicità. Tutto quello che devi fare è caricare un'immagine o fornire un collegamento e sei a posto. Per questo esiste un ampio set di strumenti già pronti, che non sono molto inferiori a molti editor offline.
  • Disponibilità. Ovunque sia una persona, non importa quanto sia debole il computer, gli editor online sono sempre disponibili su Internet.
  • Supporta molti formati e li converte al volo.

Conclusione

Parlare di metodi migliori, utilizzato per l'elaborazione delle immagini, è un po' retorico. Dopotutto, ogni professionista che lavora in questo campo determina il proprio set di strumenti. A seconda che lavori con la fotografia, i collage, i layout di stampa o la modellistica, ci sono sempre i prodotti che trova più convenienti e semplici.

Può essere utile per gli editor alle prime armi prodotti gratuiti, la tecnica di elaborazione delle immagini in cui è al livello più primitivo. Ciò significa che puoi capire come funzionano prima di diventare professionista.

Gli squali della grafica preferiscono soluzioni potenti a pagamento che richiedono grandi risorse risorse di sistema e investimenti. Ma, di regola, una persona che ha talento per questo lavoro recupera molto rapidamente tutti i suoi costi.

In generale, l'elaborazione delle immagini digitali è un'intera arte in cui è estremamente importante vedere la via d'oro, essere in grado di prestare attenzione ai piccoli dettagli e adottare un approccio creativo alla realizzazione di una possibile idea.

Metodi di frequenza- si basano sulla modifica del segnale, “lavorano” direttamente con la funzione di luminositàpunti.

    metodi di elaborazione delle immagini elemento per elemento -

graduale, (ad esempio negativo), logaritmico, trasformazioni di potenza, lineare a tratti, istogramma, ecc. - il risultato dell'elaborazione in qualsiasi punto dipende solo dal valore del valore originale nello stesso punto;

    metodi di lavorazione delle finestre scorrevoli –

filtraggio, contouring, ecc. – il risultato dipende dall'area circostante.

    trasformate di Fourier, Hadamard, ecc.

Metodi spaziali– approcci basati sulla manipolazione diretta dei pixel dell'immagine e delle loro caratteristiche (rotazione, allungamento (compressione), riflessione, traslazione - le cosiddette trasformazioni affini).

Elaborazione delle immagini elemento per elemento.

L'essenza dell'elaborazione delle immagini elemento per elemento si riduce a quanto segue. Permettere ,
– valori di luminosità dell'immagine originale e quello ottenuto dopo l'elaborazione dell'immagine, rispettivamente, in un punto del fotogramma che ha coordinate cartesiane (numero di riga) e (numero di colonna). L'elaborazione elemento per elemento significa che esiste una relazione funzionale uno a uno tra queste luminosità

, (1.1)

consentendo di determinare il valore del segnale di uscita dal valore del segnale sorgente. IN caso generale, come preso in considerazione in questa espressione, il tipo o i parametri della funzione
, che descrivono la lavorazione, dipendono dalle coordinate attuali. In questo caso, l'elaborazione è eterogeneo. Tuttavia, la maggior parte delle procedure utilizzate nella pratica utilizzano omogeneo elaborazione elemento per elemento. In questo caso, gli indici e J nell'espressione (1.1) può essere assente. In questo caso il rapporto tra la luminosità delle immagini originali e quelle elaborate è descritto dalla funzione:

(1.2)

lo stesso per tutti i punti del fotogramma.

Contrasto dell'immagine lineare. Se viene allocato 1 byte (8 bit) di memoria per la rappresentazione digitale di ciascun campione di immagine, i segnali di ingresso o di uscita possono assumere uno dei 256 valori. Tipicamente il range di lavoro è 0...255; in questo caso il valore 0 corrisponde al livello del nero durante la visualizzazione, mentre il valore 255 corrisponde al livello del bianco. Supponiamo che la luminosità minima e massima dell'immagine originale siano uguali X min E X massimo rispettivamente. Se questi parametri o uno di essi differiscono in modo significativo dai valori limite dell'intervallo di luminosità, l'immagine visualizzata appare insatura, scomoda e stancante da osservare. Un esempio di tale rappresentazione fallita è mostrato in Fig. 1.1a, dove l'intervallo di luminosità ha dei limiti X min = 180,X massimo = 240.

Per il contrasto lineare, viene utilizzata una trasformazione lineare della forma in termini di elementi

, (1.3)

i cui parametri sono determinati dai valori desiderati del minimo min e massimo e massimo luminosità in uscita. Aver risolto il sistema di equazioni

rispetto ai parametri di trasformazione e , è facile ridurre la (1.3) alla forma:

.

Il risultato del contrasto lineare dell'immagine originale mostrato in Fig. 1.1a, mostrato in Fig. 1.1b a min= 0 e massimo= 255. Il confronto delle due immagini indica una qualità visiva significativamente migliore dell'immagine elaborata. Il miglioramento è dovuto all'utilizzo dell'intera gamma dinamica dello schermo dopo il contrasto, che manca nell'immagine originale.

Conversione dell'istogramma, equalizzazione. Tutte le trasformazioni delle immagini elemento per elemento possono essere considerate dal punto di vista dei cambiamenti nella densità di probabilità della distribuzione della luminosità delle immagini originali e risultanti. Ovviamente con nessuno di essi la densità di probabilità del prodotto in output coinciderà con la densità di probabilità dell’immagine originale (ad eccezione della trasformazione
).

Determinare le caratteristiche probabilistiche delle immagini che hanno subito un'elaborazione non lineare lo è Dritto compito di analisi. Quando si risolvono problemi pratici di elaborazione delle immagini, si può porre problema inverso: Di famoso forma della densità di probabilità
E desiderato mente
definire necessario trasformazione
, a cui deve essere sottoposta l'immagine originale. Nella pratica dell'elaborazione digitale delle immagini, trasformare un'immagine in una distribuzione equiprobabile spesso produce risultati utili. In questo caso

(1.4)

Dove min E massimo– valori di luminosità minima e massima dell’immagine convertita.

Determiniamo le caratteristiche del convertitore che decide questo compito. Permettere X E sono correlati dalla funzione (1.2), e
E
leggi integrali della distribuzione quantità in ingresso e in uscita. Tenendo conto della (1.4), troviamo:

Sostituendo questa espressione nella condizione di equivalenza probabilistica

=
,

Dopo trasformazioni semplici otteniamo la relazione

che rappresenta la caratteristica (1.2) del problema da risolvere. Secondo (1.5), l'immagine originale subisce una trasformazione non lineare, la cui caratteristica è
è determinata dalla legge di distribuzione integrale dell'immagine originale stessa. Successivamente, il risultato viene portato all'intervallo dinamico specificato utilizzando un'operazione di contrasto lineare.

Pertanto, la trasformazione della densità di probabilità presuppone la conoscenza della distribuzione cumulativa dell'immagine originale. Di norma, non ci sono informazioni affidabili al riguardo. Anche l'uso di approssimazioni analitiche per gli scopi in esame è di scarsa utilità, perché le loro piccole deviazioni dalle distribuzioni reali possono portare a differenze significative nei risultati rispetto a quelli richiesti. Pertanto, nella pratica dell'elaborazione delle immagini, la trasformazione delle distribuzioni viene eseguita in due fasi.

Nella prima fase viene misurato grafico a barre immagine originale. Per un'immagine digitale la cui scala di grigi, ad esempio, appartiene all'intervallo intero 0...255, l'istogramma è una tabella di 256 numeri. Ciascuno di essi mostra il numero di punti nell'inquadratura che hanno una determinata luminosità. Dividendo tutti i numeri in questa tabella per la dimensione totale del campione pari al numero di punti immagine utilizzati, otteniamo valutazione distribuzioni di probabilità della luminosità dell'immagine. Indichiamo questa stima
0  J 255. Allora la stima della distribuzione integrale si ottiene dalla formula:

.

Nella seconda fase, viene eseguita la trasformazione non lineare stessa (1.2), fornendo le proprietà necessarie dell'immagine di output. Inoltre, invece di sconosciuto Per la vera distribuzione cumulativa, viene utilizzata la sua stima basata sull'istogramma. Tenendo conto di ciò, vengono chiamati tutti i metodi di trasformazione dell'immagine elemento per elemento, il cui scopo è modificare le leggi di distribuzione metodi dell'istogramma. In particolare viene chiamata una trasformazione in cui l'immagine in uscita ha una distribuzione uniforme equalizzazione (livellamento) degli istogrammi.

Si noti che le procedure di conversione dell'istogramma possono essere applicate sia all'immagine nel suo insieme che ai suoi singoli frammenti. Quest'ultimo può essere utile durante l'elaborazione non stazionario immagini, il cui contenuto varia in modo significativo nelle loro caratteristiche in diverse aree. In questo caso effetto migliore può essere ottenuto applicando l'elaborazione dell'istogramma a singole regioni.

L'uso delle relazioni (1.4), (1.5), valide per immagini con distribuzione continua della luminosità, non è del tutto corretto per le immagini digitali. Va tenuto presente che a seguito dell'elaborazione non è possibile ottenere una distribuzione di probabilità ideale dell'immagine in uscita, pertanto è utile controllarne l'istogramma.

Nella fig. 1.2 mostra un esempio di equalizzazione eseguita secondo la metodologia descritta. Una caratteristica di molte immagini ottenute nei sistemi di imaging reali è una percentuale significativa di aree scure e un numero relativamente piccolo di aree con elevata luminosità.

L'equalizzazione è progettata per correggere l'immagine livellando le aree integrali delle aree con luminosità diverse. Un confronto tra le immagini originali (Fig. 1.2a) e quelle elaborate (Fig. 1.2b) mostra che la ridistribuzione della luminosità che avviene durante l'elaborazione porta ad un miglioramento della percezione visiva.

Per effettuare analisi immagini digitali ed eliminando da essi vari difetti tecnici emersi durante le riprese, ad esempio a causa di impostazione errata dispositivi di acquisizione o difetti (graffi, granelli di polvere, ecc.) dell'obiettivo di una videocamera o di una fotocamera, spesso è necessaria l'elaborazione delle immagini per aumentare il contenuto informativo e la qualità delle immagini risultanti.

Operazioni quali rimozione/soppressione del rumore, regolazione della luminosità, del contrasto, della nitidezza delle foto, della correzione del colore, dell'arrotondamento, della compensazione della distorsione e molte altre consentono di modificare un'immagine e prepararla per la stampa o la pubblicazione. Esistono anche operazioni speciali per lavorare con le immagini: ottenere un negativo, binarizzazione (convertire un'immagine in colori bianco e nero), converti in grigio, ecc.

L'elaborazione digitale delle immagini comprende anche la creazione di immagini ottenute combinando più fotogrammi.

Programma di elaborazione immagini

Per inserire immagini digitali da un dispositivo di acquisizione (videocamera, web o fotocamera) in un computer e quindi modificarle, è necessario sistema specifico per l'elaborazione delle immagini. IN idealmente tale sistema deve anche controllare i parametri di ripresa, come velocità dell'otturatore ed esposizione, impostazioni dell'immagine come luminosità, contrasto, gamma, saturazione, ecc.

Il programma è progettato specificamente per il controllo dei dispositivi (o), nonché per l'analisi e l'elaborazione dei frame ricevuti. Questa è un'applicazione multipiattaforma che può funzionare con vari modelli tra i più popolari sistemi operativi(ad esempio, con Canon PowerShot e Canon EOS nel sistema operativo basato su Windows, nel sistema operativo basato su Kernel Linux, nonché su Mac OS). Per elaborare i fotogrammi ricevuti, il programma dispone di numerosi filtri e operazioni che funzionano sia con la forma che con il colore dell'immagine. Tutte le azioni eseguite in questa applicazione oltre ad un'immagine statica è possibile eseguirla anche in tempo reale.

Metodi di elaborazione delle immagini

Per la modifica delle immagini digitali, sono implementati vari algoritmi di elaborazione delle immagini programmi moderni. Il loro utilizzo rende possibile l'ottenimento alta qualità immagini, oltre a eliminare la maggior parte dei difetti che si sono verificati durante lo scatto nelle fotografie.

Il programma Altami Studio ha sviluppato metodi di elaborazione delle immagini come: geometrici (ad esempio rotazione, scala, ritaglio), morfologici (dilatazione, erosione), trasformazioni di immagini a colori (negativo, gamma, livellamento), immagini in scala di grigi (trasformata di Laplace, soglia , ricerca dei confini), nonché operazioni di lavoro con le misurazioni (ricerca di contorni) e con lo sfondo (livellamento della luce, restauro, rimozione dello sfondo). Oltretutto, Software Per l'elaborazione delle immagini, Altami Studio dispone di una funzione come la ricerca automatica degli oggetti nell'immagine. Tutte le operazioni possono essere applicate in sequenza a un'immagine, consentendo di regolare l'immagine.

Elaborazione di immagini a raggi X

Per analizzare un'immagine radiografica, spesso è necessario prima modificarla. Fondamentalmente, a questo scopo, vengono regolati la luminosità e il contrasto della foto, viene utilizzata l'operazione di correzione gamma, nonché algoritmi di elaborazione delle immagini dei mezzitoni e molto altro.

Questi metodi di elaborazione delle immagini possono essere applicati nel programma Altami Studio. Inoltre, utilizzando le trasformazioni dello sfondo offerte da questo sistema, è possibile rimuovere gli artefatti dall'immagine radiografica e il filtro Ricerca automatica oggetti consente di trovare ed evidenziare aree di interesse nell'immagine. Oltre a quanto sopra, il programma Altami Studio implementa una trasformazione come Pseudo-colori, ideale per lavorare con raggi X. Usandolo, puoi "colorare" un'immagine assegnando determinati colori ai pixel come risultato della loro quantizzazione in base ai livelli di luminosità. In questo modo diventano distinguibili aree con valori di luminosità simili.

Elaborazione digitale delle immagini

(Tutorial)

1. Apparato matematico per descrivere immagini continue. 3

Presentazione di immagini continue. 3

Sistemi di conversione continua delle immagini. 4

Trasformata di Fourier bidimensionale. 6

Descrizione deterministica e probabilistica di immagini continue. 7

Domande... 9

2. Presentazione delle immagini in forma digitale. 10

Campionamento perfetto dell'immagine. 10

Campionamento dell'immagine sistemi reali. 13

Quantizzazione delle immagini. 14

Domande... 15

3. Apparato matematico della descrizione immagini discrete. 17

Rappresentazione vettoriale di immagini discrete. 17

Trasformata di Fourier bidimensionale discreta. 17

Trasformazioni lineari di immagini discrete. 18

Descrizione probabilistica di immagini discrete. 20

Domande... 22

4. Miglioramento dell'immagine. 23

Trasformazioni a livello di elementi. 23

Trasformazioni spaziali semplici. 28

Domande... 29

5. Filtraggio lineare delle immagini. 31

Recupero immagini. Filtro lineare ottimale. 31

Rilevamento oggetti. Filtro abbinato. 40

Combinazione di immagini. Previsioni lineari. 45

Domande... 51

6. Tomografia computerizzata. 52

Trasformazione del radon. Il compito della tomografia. 52

Teorema della sezione centrale. 54

Algoritmo di Fourier per la ricostruzione del tomogramma. 56

Ricostruzione di un tomogramma utilizzando il metodo della convoluzione e della retroproiezione. 57

Ricostruzione del tomogramma mediante proiezione posteriore e filtraggio bidimensionale 60

Ricostruzione di un tomogramma da proiezioni ottenute in un fan beam. 61

L'influenza del rumore nei dati di proiezione sui risultati della ricostruzione. 61

Domande.. 65

7. Restauro di superfici tridimensionali da una coppia stereo. 66

Modello di telecamera di registrazione.. 66

Connessione tra vari sistemi coordinate 68

Sistema stereoscopico. 69

Calibrazione della fotocamera... 72

Orientamento reciproco. 77

Cerca punti coniugati. 79

Domande... 84

Consideriamo un semplice sistema lineare bidimensionale che converte un'immagine di input in un'immagine di output influenzando l'immagine di input con l'operatore https://pandia.ru/text/78/315/images/image031_18.gif" width="135 " altezza="21">.

Immaginiamo l'immagine in input come (1.5c)..gif" width="532" Height="53">.

Ma poiché l'operatore agisce solo su una funzione che dipende dalle variabili https://pandia.ru/text/78/315/images/image003_66.gif" width="15" Height="17 src=">, allora

Introduciamo la notazione

Considerato come un'immagine di un oggetto punto posizionato in un punto con coordinate https://pandia.ru/text/78/315/images/image038_14.gif" width="13" Height="17 src=">.gif" larghezza=" 16 altezza=21" altezza="21">. Questa funzione è chiamata risposta all'impulso del sistema e, quando applicata ai sistemi ottici, funzione di diffusione del punto (PSF). Pertanto, l'effetto di un sistema lineare bidimensionale su un'immagine può essere rappresentato come un integrale di sovrapposizione

. (1.9)

Come segue dalla (1.8), nel caso generale, un sistema lineare ha effetti diversi su parti diverse dell'immagine di input; in particolare, oggetti puntiformi identici posizionati in parti diverse dell'immagine di input possono avere forme diverse nell'immagine di output. La forma dell'immagine di output di un oggetto puntiforme viene preservata se la risposta all'impulso del sistema dipende solo dalla differenza di coordinate. In questo caso, l'influenza del sistema lineare è rappresentata come integrale di convoluzione

, (1.10)

che in forma simbolica si scrive come

I sistemi lineari bidimensionali descritti dalla relazione (1.10) sono detti spazialmente invarianti (in ottica - isoplanatici).

Trasformata di Fourier bidimensionale

Uno di strumenti utili, utilizzato nell'analisi sistemi lineari, è la trasformata di Fourier. Come risultato della trasformata di Fourier bidimensionale, si ottiene uno spettro bidimensionale dell'immagine originale:

, . (1.11)

Perché esista lo spettro di Fourier di una funzione è sufficiente soddisfare la condizione

. (1.11a)

In generale, lo spettro lo è funzione complessa, che può essere rappresentato sia sotto forma di componenti reali che immaginarie:

oppure sotto forma di modulo e fase:

La trasformata di Fourier è invertibile:

Ricordiamo alcune proprietà della trasformata di Fourier bidimensionale.

Se, allora, dove, https://pandia.ru/text/78/315/images/image055_14.gif" width="52" Height="23 src="> – Spettri di funzioni di Fourier e https:// pandia.ru/text/78/315/images/image057_14.gif" larghezza="135 altezza=23" altezza="23">, quindi , dove https://pandia.ru/text/78/315/images/image061_13.gif" width="37" Height="23"> e .

Se poi e , cioè, lo spettro di Fourier di una funzione reale pari è una funzione reale pari (di seguito, l'apice * denota coniugazione complessa).

Se ed è lo spettro di Fourier della funzione, allora lo è lo spettro di Fourier della funzione

(teorema dello spettro di convoluzione).

Viceversa, se , allora

I moduli quadrati dell'immagine originale e il suo spettro di Fourier sono legati dalla relazione

(1.16)

(Teorema di Parseval).

Le relazioni (1.15) e (1.15a) sono ampiamente utilizzate nell'analisi dei sistemi lineari spazialmente invarianti..gif" width="51 altezza=21" altezza="21"> è descritto dall'integrale di convoluzione (1.10), quindi in coordinate di frequenza a cui si riduce moltiplicazione semplice spettro dell'immagine allo spettro di risposta all'impulso, chiamato risposta in frequenza sistemi.

Descrizione deterministica e probabilistica di immagini continue

Dal punto di vista della certezza di valori di immagine specifici​​in coordinate date e in questo momento volta ci sono due approcci principali alla sua descrizione. Il primo approccio, detto deterministico, presuppone che in ogni punto la funzione sia definita in modo univoco. A volte sembra più fruttuoso analizzare le immagini utilizzando la loro descrizione probabilistica, quando una data immagine viene considerata come una realizzazione processo casuale. Processo casuale nei punti di riferimento, https://pandia.ru/text/78/315/images/image081_12.gif" width="240" Height="24">, (1.17)

determinare la probabilità che – i valori del processo nei punti con coordinate https://pandia.ru/text/78/315/images/image079_12.gif" width="19" Height="25 src="> soddisfino le condizioni

, , https://pandia.ru/text/78/315/images/image029_16.gif" width="51 Height=21" Height="21"> è definito come

Ecco la zona valori accettabili funzioni

Il secondo momento, o funzione di autocorrelazione, è per definizione uguale a

(1.20)

Qui i pedici 1 e 2 corrispondono non a due processi diversi, ma ai valori di un processo corrispondenti a due punti diversi nello spazio. Il secondo momento centrale, la funzione di autocovarianza, è definito come

È facile dimostrarlo

In modo simile, per due processi diversi, vengono determinate le funzioni di correlazione incrociata e covarianza incrociata:

(1.20a)

Un altro momento del secondo ordine, la dispersione, lo è

Un processo casuale che genera immagini è chiamato stazionario in senso lato se la sua media e la sua varianza sono costanti e la funzione di autocorrelazione (autocovarianza) dipende solo dalle differenze, https://pandia.ru/text/78/315/images/image097_10 .gif "larghezza="93" altezza="25">, (1.19a)

È facile verificare che la funzione di autocorrelazione (autocovarianza) di un processo stazionario reale è una funzione pari, cioè

Il soddisfacimento della condizione (1.11a) per un processo casuale non è garantito, quindi non si può parlare della sua trasformata di Fourier. Tuttavia, la trasformata di Fourier può essere applicata alla funzione di covarianza di un processo stazionario, che è una funzione deterministica. Funzione

è chiamato spettro di potenza di un processo casuale stazionario. Il risultato della trasformata di Fourier della funzione di covarianza incrociata, a volte chiamata spettro di potenza incrociata, è per definizione

Consideriamo un sistema lineare spazialmente invariante, la cui azione sull'immagine di input, che è l'implementazione di un processo casuale stazionario, è rappresentata dall'espressione (1.10). Calcoliamo il valore medio dell'immagine di output:

https://pandia.ru/text/78/315/images/image104_8.gif" larghezza="493" altezza="27 src="> (1.25)

e spettro di potenza

DIV_ADBLOCK101">

Pratt W. Elaborazione digitale delle immagini, vol.1. M., “Mir”, 1982 Papulis A. Teoria dei sistemi e trasformazioni in ottica. M., “Mir”, 1971 Goodman J. Introduzione all'ottica di Fourier. M., “Mir”, 1970

2. Presentazione delle immagini in formato digitale

Ricevere un'immagine in formato digitale che rappresenta matrice bidimensionale numeri con valori discretamente variabili, da un'immagine, che è una distribuzione spaziale continua di una certa quantità fisica in grado di assumere un insieme continuo di valori (quantità analogica), si compone di due operazioni principali. La prima operazione (campionamento) consiste nel sostituire un'immagine spazialmente continua con un insieme dei suoi campioni in singoli punti, la seconda (quantizzazione) consiste nel convertire campioni analogici in campioni rappresentati da numeri con un numero finito di segni. In questo caso, sorge la domanda sull'entità degli errori che si verificano durante la successiva ricostruzione di un'immagine continua dal suo analogo discreto. Qui proveremo a valutare le distorsioni che si verificano quando si converte un'immagine continua in forma digitale.

Campionamento perfetto dell'immagine

Con il campionamento ideale si assume che l'immagine continua originale abbia dimensioni infinite, e quella discretizzata si ottiene prendendo i valori dell'originale ai nodi di un reticolo infinito. Per semplicità di presentazione, consideriamo un reticolo rettangolare orientato lungo gli assi coordinati e avente un gradino lungo l'asse e lungo l'asse.

Un'immagine campionata in coordinate continue può essere rappresentata come un insieme di funzioni delta nei nodi del reticolo moltiplicati per i valori dei corrispondenti campioni dell'immagine continua:

Poiché al di fuori dei punti , questa rappresentazione può essere riscritta come

Dove - funzione di campionamento spaziale.

Consideriamo lo spettro di Fourier di un'immagine campionata. In virtù della (1.15a)

dove https://pandia.ru/text/78/315/images/image116_6.gif" width="49" Height="21"> è lo spettro di Fourier della funzione di campionamento. Usando (1.7), possiamo dimostrarlo

Elaborazione digitale delle immagini


1. Input e presentazione delle immagini


Le questioni fondamentali nella teoria dell'elaborazione delle immagini sono questioni relative a: formazione, input, rappresentazione in un computer e visualizzazione. L'ottenimento di immagini sotto forma di immagini al microscopio elettronico utilizzando un microscopio elettronico è descritto nel lavoro. L'area di immissione delle informazioni video è un campo rettangolare definito dai limiti superiore, inferiore, sinistro e destro. La forma di una superficie può essere descritta come una funzione della distanza F(x,y) dalla superficie a un punto dell'immagine con coordinate x e y. Considerando che la luminosità di un punto dell'immagine dipende esclusivamente dalla luminosità della superficie corrispondente, possiamo supporre che l'informazione visiva rifletta con una certa precisione lo stato di luminosità o trasparenza di ciascun punto. Quindi l'immagine significa funzione limitata due variabili spaziali f(x,y), definite su un piano rettangolare limitato Oxy e aventi un certo insieme dei suoi valori. Per esempio, fotografia in bianco e nero può essere rappresentato come f(x,y)³=0, dove f (x,y) è la luminosità (a volte chiamata densità ottica o bianchezza) dell'immagine nel punto (x,y); a – larghezza del telaio, b – altezza del telaio.

Poiché la memoria digitale di un computer è in grado di memorizzare solo matrici di dati, l'immagine viene prima convertita in una forma numerica (matrice). Le immagini vengono immesse nella memoria del computer utilizzando sensori video. Il sensore video converte la distribuzione ottica della luminosità dell'immagine in segnali elettrici e successivamente in segnali elettrici codici digitali. Poiché l'immagine è una funzione di due variabili spaziali xey e il segnale elettrico è una funzione di una variabile t (tempo), per la conversione viene utilizzata una scansione. Ad esempio, quando si utilizza telecamera l'immagine viene letta riga per riga, e all'interno di ciascuna riga la dipendenza della luminosità dalla coordinata spaziale x viene convertita in una dipendenza proporzionale dell'ampiezza segnale elettrico dal tempo t. Transizione dalla fine riga precedente all'inizio di quello successivo avviene quasi istantaneamente.

L'immissione di immagini in un computer implica inevitabilmente il campionamento delle immagini lungo le coordinate spaziali xey e la quantizzazione del valore di luminosità in ciascun punto discreto. La discretizzazione si ottiene utilizzando una griglia di coordinate formata da linee parallele agli assi xey di un sistema di coordinate cartesiane. In ciascun nodo di tale reticolo viene effettuata una lettura della luminosità o trasparenza del portatore delle informazioni percepite visivamente, che viene poi quantizzato e presentato nella memoria del computer. L'elemento dell'immagine ottenuto nel processo di campionamento dell'immagine è chiamato pixel. Per una rappresentazione di alta qualità di un'immagine mezzitoni sono sufficienti 2^8 = 256 livelli di quantizzazione, ovvero 1 pixel di un'immagine è codificato con 1 byte di informazioni.

Nel complesso digitale IBAS-2000, le informazioni contenute nell'immagine sono presentate sotto forma di diversi livelli di scala di grigio per singoli punti Immagini. La quantità massima di informazioni video è limitata dal numero di pixel (512x512 o 768x512), nonché dal numero di livelli della scala di grigi - 256: 0 - nero, 255 - bianco. Allo stesso tempo, nella memoria video possono essere formate da 8 a 56 celle diverse, a seconda della dimensione dell'immagine. Il processore video ha una struttura a matrice, fornisce 10 milioni di moltiplicazioni al secondo e l'immagine in esso contenuta è presentata in forma vettoriale. Mezzitoni o immagine a colori possono essere visualizzati sul monitor o stampati.

2. Migliora il contrasto

Lo scarso contrasto è il difetto più comune nella fotografia, nella scansione e immagini televisive, a causa della gamma limitata di luminosità riprodotta. Il contrasto è solitamente inteso come la differenza tra i valori di luminosità massimo e minimo. Di elaborazione digitale Il contrasto può essere aumentato modificando la luminosità di ciascun elemento dell'immagine e aumentando la gamma di luminosità. A questo scopo sono stati sviluppati diversi metodi.

Consideriamo, ad esempio, i livelli di alcuni immagine in bianco e nero occupano l'intervallo da 6 a 158 con un valore di luminosità medio di 67 con possibile l'intervallo maggiore valori da 0 a 255. La Figura 1a mostra un istogramma della luminosità dell'immagine originale, che mostra quanti pixel N con un valore di luminosità simile f rientrano nell'intervallo da fi a f +Δfi. Questa immagine è a basso contrasto, prevale ombra scura. Metodo possibile il contrasto può essere migliorato mediante il cosiddetto allungamento lineare dell'istogramma (stretch), quando ai livelli dell'immagine originale che si trovano nell'intervallo vengono assegnati nuovi valori in modo da coprire l'intera gamma possibile di variazioni di luminosità, in in questo caso. In questo caso il contrasto aumenta notevolmente (Fig. 1b). La conversione dei livelli di luminosità viene effettuata secondo la formula:

dove fi è il vecchio valore di luminosità dell'i-esimo pixel, gi è il nuovo valore, a, b sono i coefficienti. Per la fig. 1a fmin = 6, fmax = 158. Scegliamo aeb in modo che gmin = 0, gmax = 255. Dalla (1) otteniamo: a = - 10,01; b = 1,67.


Il contrasto può essere ulteriormente migliorato utilizzando la normalizzazione dell'istogramma. In questo caso, non l'intero istogramma, che si trova nell'intervallo da fmin a fmax, viene allungato sull'intero intervallo massimo di livelli di luminosità, ma la sua sezione più intensa (fmin, fmax"), e le "code" non informative sono escluse da considerazione. Nella fig. 2b Escluso il 5% dei pixel.


Lo scopo dell'equalizzazione dell'istogramma (chiamata anche linearizzazione ed equalizzazione) è di trasformare in modo tale che, idealmente, tutti i livelli di luminosità diventino stessa frequenza, e l'istogramma della luminosità corrisponderebbe ad una legge di distribuzione uniforme (Fig. 3).


Lascia che l'immagine abbia il formato: N pixel in orizzontale e M in verticale, il numero di livelli di quantizzazione della luminosità è uguale a J. Numero totale pixel è uguale a N·M, un livello di luminosità contiene, in media, no = N ·M/J pixel. Ad esempio, N = M = 512, J = 256. In questo caso, no = 1024. La distanza Δf tra i livelli di luminosità discreti da fi a fi+1 nell'istogramma dell'immagine originale è la stessa, ma ogni livello ha un diverso numero di pixel. Quando si equalizza un istogramma, la distanza Δgi tra i livelli gi e gi+1 è diversa, ma il numero di pixel su ciascun livello è, in media, lo stesso e pari a no. L'algoritmo di equalizzazione è semplice. Lascia che un piccolo numero di pixel abbia bassi livelli di luminosità, come in Fig. 3a. Ad esempio, il livello di luminosità 0 nell'immagine originale ha 188 pixel, il livello 1 - 347


pixel, livello 2 - 544 pixel. In totale si tratta di 1079 pixel, ovvero circa n. Assegniamo a tutti questi pixel il livello 0. Lasciamo che il numero di pixel nell'immagine originale con livelli di luminosità 3 e 4 in totale sia approssimativamente uguale a n. A questi pixel viene assegnato il livello 1. D'altra parte, supponiamo che il numero di pixel con livello 45 nell'immagine originale sia 3012, cioè circa 3 n. A tutti questi pixel viene assegnato un livello gi identico, non necessariamente uguale a 45, e i due livelli adiacenti vengono lasciati vuoti. Le procedure discusse vengono eseguite per tutti i livelli di luminosità. Il risultato dell’equalizzazione è visibile in Fig. 4b. In ogni caso specifico, scegli la procedura di conversione dell’istogramma che porta al miglior risultato, dal punto di vista dell’utente.

3. Filtraggio delle immagini

Immagini reali insieme a informazioni utili contenere varie interferenze. Le fonti di interferenza sono il rumore intrinseco dei fotorilevatori, la granulosità dei materiali fotografici e il rumore dei canali di comunicazione. Infine, sono possibili distorsioni geometriche e l'immagine potrebbe risultare sfocata. Sia f (x,y) un'immagine, x, y sono le coordinate. Un'immagine raster reale ha dimensioni finite: A ≤ x ≤ B, C ≤ y ≤ D ed è costituita da singoli pixel posizionati con un certo passo nei nodi di una griglia rettangolare. La trasformazione lineare di un'immagine può essere descritta dall'espressione

L'espressione (2), in cui l'integrazione viene effettuata sull'intero dominio di definizione di xey, caratterizza la trasformazione dell'intera immagine - filtraggio globale. Il nucleo di trasformazione h1 (x,y,x",y") in ottica è chiamato funzione di diffusione dei punti (PSF). Questa è l'immagine di una sorgente puntiforme in uscita sistema ottico, che non è più un punto, ma un punto. Secondo (2), tutti i punti dell'immagine f (x",y") si trasformano in punti e tutti i punti vengono sommati (integrati). Non dovete pensare che questa procedura porti necessariamente alla sfocatura dell'immagine; al contrario, potete selezionare una PSF che vi permetterà di mettere a fuoco l'immagine sfocata.

Nella fig. La Figura 5 mostra una delle possibili PSF. In generale, la PSF è definita a (- ?

In pratica, il filtraggio globale viene utilizzato raramente. Il filtraggio locale viene utilizzato più spesso quando l'integrazione e la media vengono eseguite non sull'intera area di definizione di xey, ma su un quartiere relativamente piccolo di ciascun punto dell'immagine. La funzione di diffusione dei punti ha dimensioni limitate. Il vantaggio di questo approccio è la buona prestazione. La trasformazione lineare assume la forma:

Durante la lavorazione immagini raster, che sono costituiti da singoli pixel, l'integrazione viene sostituita dalla somma. Il modo più semplice per implementare una PSF di dimensioni finite è sotto forma di una matrice rettangolare in formato N?N. N può essere 3, 5, 7, ecc. Ad esempio, quando N = 3

La somma si effettua sull'intorno D del punto (i, j); akl - Valori PSF in queste vicinanze. La luminosità dei pixel f in questo punto e nelle sue vicinanze viene moltiplicata per i coefficienti akl, la luminosità convertita del pixel (i,j)-esimo è la somma di questi prodotti. Gli elementi della matrice soddisfano la condizione di invarianza spaziale, quindi a11= a13 =a31= a33, a12 = a21= a23 = a32. Solo tre elementi di una matrice 3x3 sono indipendenti, in questo caso la matrice è invariante per rotazioni multiple di 90º. L'esperienza nell'elaborazione delle immagini mostra che la mancanza di una simmetria assiale più rigorosa della PSF ha scarso effetto sui risultati. A volte vengono utilizzate matrici ottagonali invarianti rispetto alle rotazioni di 45ª.

Il filtraggio secondo (3) si effettua spostando la maschera da sinistra a destra (o dall'alto in basso) di un pixel. Ad ogni posizione di apertura vengono eseguite le operazioni sopra indicate, ovvero la moltiplicazione dei fattori di peso akl per i corrispondenti valori di luminosità dell'immagine originale e la somma dei prodotti. Il valore risultante viene assegnato al (i,j)esimo pixel centrale. Tipicamente questo valore viene diviso per un numero predeterminato K (fattore di normalizzazione). La maschera contiene un numero dispari di righe e colonne N in modo che l'elemento centrale sia identificato in modo univoco.

Diamo un'occhiata ad alcuni filtri che attenuano il rumore. Lascia che una maschera 3x3 assomigli a questa:

Quindi la luminosità dell'(i,j)-esimo pixel dopo il filtraggio verrà determinata come

Sebbene i coefficienti akl possano essere selezionati dalla radice quadrata o da altra condizione di prossimità dell'immagine non distorta dal rumore si,j e dell'immagine trasformata gi,j, essi sono solitamente impostati euristicamente. Ecco alcune altre matrici di filtri per la riduzione del rumore:

Per i filtri H1 - H4 i fattori di normalizzazione K sono selezionati in modo tale che non vi sia alcuna variazione nella luminosità media dell'immagine elaborata. Insieme alle maschere 3x3, vengono utilizzate maschere di dimensioni maggiori, ad esempio 5x5, 7x7, ecc. A differenza del filtro H2, i filtri H1, H3, H4 hanno coefficienti di peso all'intersezione delle diagonali principali della matrice rispetto ai coefficienti situati alla periferia. I filtri H1, H3, H4 forniscono una variazione più uniforme della luminosità nell'immagine rispetto a H2.

Lascia che il conteggio delle immagini utili fk,m vari leggermente all'interno della maschera. All'immagine viene sovrapposto del rumore additivo: fk,m + nk,m , i campioni di rumore nk,m sono casuali e indipendenti (o debolmente dipendenti) da un punto di vista statistico. In questo caso, il meccanismo per la soppressione del rumore utilizzando i filtri di cui sopra è che, una volta aggiunti, i rumori si annullano a vicenda. Questa compensazione avrà tanto più successo numero maggiore membri in totale, cioè maggiore è la dimensione (apertura) della maschera. Supponiamo ad esempio di utilizzare una maschera N?N, entro i suoi limiti l'immagine utile ha una luminosità costante f, rumore con valori indipendenti dei campioni nk,m, un valore medio? = 0 e dispersione?² all'interno della maschera (questo rumore è chiamato rumore bianco). Il rapporto tra il quadrato della luminosità dell'(i,j)esimo pixel e la varianza del rumore, ad es. il rapporto segnale/rumore è pari a f²/?².

Consideriamo ad esempio una maschera di tipo H2:

Il quadrato medio della luminosità è f², il quadrato medio dell'intensità del rumore

La doppia somma corrisponde a k= p, m = q, questa somma è pari a?²/N². La somma quadruplice è uguale a zero, poiché i campioni di rumore per k ≠ p, m ≠ q sono indipendenti: = 0. Come risultato del filtraggio, il rapporto segnale-rumore diventa uguale a N²f²/?², cioè aumenta in proporzione all'area della maschera. Il rapporto tra la luminosità dell'(i,j)esimo pixel dell'immagine utile e la deviazione standard del rumore aumenta in proporzione a N. Utilizzando una maschera 3x3, in media, si aumenta il rapporto segnale/rumore di 9 volte.

Con l'interferenza pulsata, il meccanismo di soppressione consiste nel fatto che l'impulso "si espande" e diventa appena percettibile sullo sfondo generale.

Tuttavia, spesso all'interno dell'apertura i valori dell'immagine utile cambiano ancora in modo evidente. Ciò accade in particolare quando i contorni rientrano nella maschera. Da un punto di vista fisico, tutti gli H1 - H4 sono filtri passa-basso (filtri medi) che sopprimono le armoniche ad alta frequenza sia del rumore che dell'immagine utile. Ciò porta non solo alla riduzione del rumore, ma anche alla sfocatura dei contorni dell'immagine. Nella fig. La Figura 6a mostra l'immagine rumorosa originale, il risultato dell'applicazione del filtro H2 è mostrato in Fig. 6b (maschera 5x5).


Il filtraggio sopra discusso era caratterizzato dal fatto che i valori di uscita del filtro g erano determinati solo attraverso i valori di ingresso del filtro f. Tali filtri sono detti non ricorsivi. I filtri in cui i valori di output g sono determinati non solo attraverso i valori di input f ma anche attraverso i corrispondenti valori di output sono detti ricorsivi.

Nel filtraggio ricorsivo è possibile salvare gli stessi valori dei fattori di ponderazione indicati sopra; esistono filtri ricorsivi con moltiplicatori appositamente selezionati. Gli elementi dell'immagine di input all'interno della finestra cambieranno e assumeranno la forma:

I fattori di ponderazione e normalizzazione del filtro ricorsivo dipendono dalla posizione della maschera; un filtro locale ricorsivo consente di tenere conto di tutti i valori di input dell'immagine filtrata, ad es. si avvicina nella sua azione ad un filtro globale.

Per eliminare l'effetto della sfocatura dei contorni durante la soppressione del rumore, è necessario passare all'elaborazione non lineare. Un esempio di filtro non lineare per la riduzione del rumore è il filtro mediano. A filtraggio mediano Al (i, j)esimo pixel viene assegnato il valore di luminosità mediano, ovvero tale valore la cui frequenza è 0,5. Consideriamo ad esempio una maschera 3?3, all'interno della quale, insieme ad uno sfondo più o meno uniforme, si verificava un picco di rumore; questo picco cadeva sull'elemento centrale della maschera:

È in costruzione una serie di varianti. La serie di variazioni V1,..., Vn del campione f1,..., fn è una sequenza non decrescente di elementi del campione, cioè V1 = min(f1,..., fn), Vn= max (f1,..., fn), ecc. Nel nostro caso, la serie di variazioni è simile a: 63, 66, 68, 71, 74, 79, 83, 89, 212. Qui il valore mediano è il quinto (sottolineato), poiché ci sono 9 numeri in totale. , il valore è 212 , distorto dal picco di rumore, viene sostituito da 74, il picco nell'immagine viene completamente soppresso. Risultato dell'applicazione filtro mediano mostrato in Fig. VI secolo

La funzione di diffusione dei punti per il filtro mediano è zero. Con dimensioni della finestra (2k+1)·(2k+1), si verifica una soppressione completa del rumore costituito da non più di 2(k² + k) pixel, nonché quelli che si intersecano con non più di k righe o k colonne , Quando Ciò non modifica la luminosità nei punti dello sfondo. Naturalmente, con il filtraggio medio, può verificarsi una distorsione dell'oggetto nell'immagine, ma solo al bordo o vicino ad esso, se la dimensione dell'oggetto è maggiore della dimensione della maschera. Il filtro è altamente efficace nella soppressione rumore impulsivo Tuttavia, questa qualità si ottiene selezionando le dimensioni della maschera quando si conoscono le dimensioni minime degli oggetti e le dimensioni massime delle aree locali distorte dalle interferenze.

4. Delineare

Filtri lineari può essere progettato non per sopprimere il rumore, ma per enfatizzare le differenze di luminosità e contorni. Le differenze verticali vengono identificate differenziandole per righe e le differenze orizzontali per colonne. La differenziazione viene eseguita in forma digitale:

Qui Δx=1 è l'incremento lungo la riga, pari a 1 pixel, Δy=1 è l'incremento lungo la colonna, anch'esso pari a 1 pixel. La selezione delle differenze lungo la diagonale può essere ottenuta calcolando le differenze nei livelli delle coppie diagonali di elementi.

Per isolare le differenze, vengono utilizzati i seguenti gruppi di fattori di ponderazione per implementare la differenziazione bidimensionale:

nord nord-est est sud-est

sud sud-ovest ovest nord-ovest

I nomi delle direzioni geografiche indicano la direzione della pendenza del gradiente che provoca la massima risposta del filtro. La somma dei fattori di ponderazione delle maschere è zero, quindi nelle aree dell'immagine con luminosità costante questi filtri danno una risposta zero.

La selezione della differenza orizzontale può essere effettuata anche calcolando l'incremento della differenza di luminosità dei pixel lungo la linea, che equivale a calcolare la derivata seconda rispetto alla direzione (operatore Lapplace):

Ciò corrisponde alla maschera unidimensionale H = | -1 2 -1|, la somma dei fattori di ponderazione è zero. Allo stesso modo, puoi cercare le differenze verticalmente e diagonalmente. Per identificare le differenze senza tener conto del loro orientamento, vengono utilizzati gli operatori di Laplace bidimensionali:

Anche qui la somma dei fattori di ponderazione è zero. Nella fig. La Figura 7 mostra l'immagine originale e il risultato dell'applicazione dell'operatore di Laplace H13.

Gli operatori di Laplace rispondono ai cambiamenti di luminosità sotto forma di un cambiamento a gradino e di un cambiamento “a forma di tetto”. Evidenziano anche punti isolati, linee sottili, le loro estremità e angoli acuti degli oggetti. La linea viene enfatizzata 2 volte più luminosa rispetto al cambio di passo, la fine della linea è 3 volte più luminosa e il punto è 4 volte più luminoso. L'operatore di Laplace non è invariante all'orientamento delle differenze: ad esempio, la risposta dell'operatore a una differenza inclinata nella direzione diagonale è quasi due volte più grande rispetto alle direzioni orizzontale e verticale.

Dal punto di vista fisico, i filtri H5 - H15 sono filtri passa-alto; evidenziano le componenti ad alta frequenza dell'immagine utile, responsabili delle variazioni di luminosità e contorni, e sopprimono la “componente costante”. Tuttavia, quando li si utilizza, il livello di rumore nell'immagine aumenta.

I filtri per evidenziare differenze e confini, come i filtri H1 - H4 per la soppressione del rumore, possono essere ricorsivi.

Un'immagine con bordi (contorni) enfatizzati viene percepita soggettivamente meglio dell'originale. Un'immagine parzialmente sfocata viene messa a fuoco. Quando si utilizza l'operatore di Laplace per questi scopi, vengono utilizzati tre tipici insiemi di fattori di peso:

H16 - H18 differiscono dai filtri H13 - H15 in quanto 1 viene aggiunto all'elemento centrale della matrice, cioè Durante il filtraggio, l'immagine originale viene sovrapposta al contorno.

I filtri non lineari possono essere utilizzati per evidenziare contorni e differenze di luminosità. Gli algoritmi non lineari utilizzano operatori di differenziazione discreta non lineare. Il filtro Roberts utilizza una maschera 2×2 che si muove attraverso l'immagine:

la differenziazione viene effettuata utilizzando una delle espressioni

  • Pratt W. Elaborazione delle immagini digitali. M.: Mir, vol.1,2. 1982.
  • Soifer V.A. Elaborazione informatica immagini, parte 1//Rivista educativa Sorovsky, n. 2, 1996, p. 118-124.
  • Soifer V.A. Elaborazione di immagini al computer Parte 2//Rivista educativa Sorovsky, no. 3, 1996, p. 110-121.
  • Corno B.K.P. Visione robotica. M.: Mir, 1989.
  • Descrizione tecnica IBAS-2000.
  • Frolov G.I., Bondarenko G.V. Preparazione e studio delle proprietà fisiche di film metallici 3D depositati in condizioni di condensazione ultraveloce // Metodo. istruzioni per un seminario speciale sul corso “Scienza dei materiali fisici”, SAA, Krasnoyarsk, 1998.
  • I migliori articoli sull'argomento