Kako podesiti pametne telefone i računare. Informativni portal

Strukturna mjera informacija. Dodatna Hartleyeva mjera


11
Kurs: "Teorija informacija i kodiranja"
Tema: "MATEMATIČKA TEORIJA INFORMACIJA"

1. KOLIČINA INFORMACIJA I NJEGOVO MJERENJE

Skup poruka odabranih iz ansambla poruka (slika 1) se dovodi od izvora informacija na ulaz sistema za prenos informacija (ITS).

Interferencija

x 1 y 1

x 2 y 2

… …

x n y n

Fig.1. Sistem za prenos informacija

Message Ensemble - skup mogućih poruka sa njihovim vjerovatnostim karakteristikama - (X, str (X) } . pri čemu: X=(x 1 , X 2 , …, X m } - skup mogućih izvornih poruka; i = 1, 2, ..., m, gdje m- volumen abecede; str (x i) - vjerovatnoća pojavljivanja poruka, i str (x i) 0 a pošto vjerovatnoće poruka predstavljaju kompletnu grupu događaja, njihova ukupna vjerovatnoća je jednaka jedan

.

Svaka poruka nosi određenu količinu informacija. Odredite količinu informacija sadržanih u poruci x i odabrano iz skupa izvornih poruka (X, str (X) } . Jedan od parametara koji karakteriše ovu poruku je verovatnoća njenog pojavljivanja - str (x i), Stoga je prirodno pretpostaviti da je količina informacija I (x i) u poruci x i je funkcija str (x i). Vjerovatnoća dvije nezavisne poruke x 1 i x 2 jednak je proizvodu vjerovatnoća str (x 1 , x 2 ) =p (x 1 ). str (x 2 ), a informacije sadržane u njima moraju imati svojstvo aditivnosti, tj.:

I (x 1 , x 2 ) = I (x 1 ) +I (x 2 ). ( 1)

Stoga se za procjenu količine informacija predlaže logaritamska mjera:

. (2)

Istovremeno, najmanje vjerovatne poruke sadrže najveću količinu informacija, a količina informacija u poruci o određenom događaju jednaka je nuli. Jer Pošto su svi logaritmi proporcionalni, izbor baze određuje jedinicu informacije:

log ax = log bx/log ba.

Ovisno o bazi logaritma, koriste se sljedeće jedinice informacija:

2 - [bit] ( binarna cifra- binarna jedinica), koristi se u analizi informacionih procesa u računarima i drugim uređajima koji rade na bazi binarnog brojevnog sistema;

e - [nit] ( prirodno digitalno- prirodna jedinica), koristi se u matematičkim metodama teorije komunikacija;

10 - [dit] ( decimalna cifra- decimalna jedinica), koristi se u analizi procesa u uređajima koji rade sa decimalnim brojevnim sistemom.

beat (binarna jedinica informacije) - je količina informacija koja otklanja neizvjesnost u vezi s pojavom jednog od dva jednako vjerovatna, nezavisna događaja.

Prosječna količina informacija za cijeli skup poruka može se dobiti u prosjeku za sve događaje:

. (3)

Količina informacija u poruci koja se sastoji od n njegovi nejednakoverovatni elementi su jednaki (ovu meru je 1948. predložio K. Shannon):

. (4)

Za slučaj nezavisnih jednako verovatnih događaja utvrđuje se količina informacija (ovu meru je 1928. predložio R. Hartli):

. ( 5)

2. SVOJSTVA KOLIČINE INFORMACIJE

1. Količina informacija u poruci obrnuto je proporcionalna vjerovatnoći da se ova poruka pojavi.

2. Svojstvo aditivnosti - ukupna količina informacija iz dva izvora jednaka je zbiru informacija iz izvora.

3. Za događaj sa jednim ishodom, količina informacija je nula.

4. Količina informacija u diskretnoj poruci raste u zavisnosti od povećanja obima abecede - m.

Pošaljite svoj dobar rad u bazu znanja je jednostavno. Koristite obrazac ispod

Studenti, postdiplomci, mladi naučnici koji koriste bazu znanja u svom studiranju i radu biće vam veoma zahvalni.

O opravdanosti logaritamske mjere informacije

Teorija informacija je sada prevazišla uski okvir komunikacionih sistema, gde je prvobitno korišćena, i počela je da se široko koristi u takvim netradicionalnim oblastima za nju, kao što su fizika, teorija sistema, teorija upravljanja, biologija i matematika. Posebno je široku primenu našao u relativno novim oblastima nauke kao što su računarstvo, teorija automata i zaštita podataka.

Stoga je potrebno dalje analizirati osnove teorije informacija kako bi se proniklo u njenu suštinu, koja je i danas u velikoj mjeri misteriozno, i identificirale nove mogućnosti njene primjene u rješavanju praktičnih problema.

Najvažnije pitanje na osnovu kojeg se gradi jedna ili druga teorija informacija je izbor mjere informacije.

U velikoj mjeri je određen onim objektima čija je analiza usmjerena na razvijenu teoriju.

Trenutno se u teoriji informacija najviše koriste Hartleyeve i Shannon mjere, au nekim slučajevima Hartleyeva mjera se predstavlja kao poseban slučaj Shanonove mjere.

Međutim, Hartleyeva mera već po svojoj nameni ima značajnu razliku od Šenonove mere, budući da je prva usmerena na proučavanje determinističkih (neverovatnih) procesa konačne dužine, a druga na analizu probabilističkih procesa bilo kog trajanja, za analiza koje se statističke metode koriste.

Prema tome, teorija informacija koja koristi jednu ili drugu od ovih mjera naziva se strukturalna ili statistička teorija informacija.

Konačnost dužina analiziranih nizova podataka dovodi, odnosno, do mogućnosti prebrojavanja njihovog broja jednostavnim nabrajanjem ili upotrebom bilo koje matematičke metode, kao i do upotrebe poznatih metoda nevjerovatnosti za analizu informacija, npr. teorija konačnih predikata ili teorija grupa. Kao rezultat toga, u teoriji strukturnih informacija danas su dobivene metode kodiranja koje se ne mogu razviti na temelju statističke teorije informacija.

Istovremeno, statistička teorija omogućava dobijanje graničnih teorema i sprovođenje informacione analize poruka na osnovu statističkog skupa podataka, umesto da analizira svaku poruku zasebno, kao što je slučaj u strukturnoj teoriji informacija.

Logaritamsku mjeru na kojoj se temelji teorija strukturalne informacije, gdje su i bilo koji pozitivni brojevi konačne dužine, koji nisu jednaki 0, ali isto tako nisu jednaki 1, koju je predložio Hartley 1928., on nije logički potkrijepio, već je uveden na osnovu intuitivnih razmatranja. Štaviše, ono što je važno, u ovom obliku može poprimiti i pozitivne, at, i negativne, at, vrijednosti.

Trenutno se opravdava svojstvom njegove aditivnosti, koje se očituje u činjenici da je ukupna informacija generirana zajedno iz dva izvora informacija i jednaka je zbroju pojedinačnih informacija i iz svakog od njih, kao što je prikazano npr. , in.

Zaista, ako svaki od dva izvora i generiše poruke, respektivno, onda njihov ukupan broj

Uzimajući logaritam izraza (1), dobijamo jednakost

što dokazuje svojstvo aditivnosti Hartleyeve informacijske mjere.

Razmotrimo još jedno opravdanje Hartleyeve mjere primijenjeno na probleme pretraživanja (kontinuirane i diskretne).

Karakteristika problema diskretnog pretraživanja je konačnost početnog skupa objekata koji predstavljaju, sa jednakom vjerovatnoćom, moguća rješenja problema diskretnog pretraživanja, među kojima se pretpostavlja da postoji jedno željeno. Njegovo pretraživanje se vrši u procesu rješavanja diskretnog problema, kao što se to događa, na primjer, u poznatom problemu trgovačkog putnika.

U ovom problemu, željeni objekat je ruta minimalne dužine izabrana iz nekog početnog konačnog broja mogućih ruta.

Rješenje ovih problema na ovaj ili onaj način je u procesu uzastopnih particija početnog skupa mogućih objekata - rješenja u klase ekvivalencije i testiranja svake od njih na prisutnost željenog objekta u njemu. U procesu testiranja eliminiše se nesigurnost o prisutnosti željenog objekta, praćena razvojem odgovarajuće količine informacija.

Poseban slučaj cijepanja bit će kada se originalni mogući objekti podijele u klase ekvivalencije tako da sadrže striktno jednak broj cjelobrojnih objekata.

Očigledno, takve particije su moguće samo ako

gdje je maksimalni broj particija prije pojave klase sa jednim objektom.

Ako uzmemo mjeru informacije u ovom slučaju, onda se ona tačno poklapa s Hartleyjevom logaritamskom mjerom, uzetom prema bazi:

Dakle, broj particija u jednako vjerovatnoj diskretnoj potrazi za objektom među mogućim je logaritamska mjera Hartleyeve informacije i, obrnuto, Hartleyeva mjera predstavlja za slučaj koji se razmatra broj uniformnih particija skupa objekata u klase ekvivalencije dok se ne pojavi jedna željena.

U opštem slučaju, kada se početni skup koji se sastoji od objekata podeli na klase ekvivalencije, svaki od njih može sadržati objekte i, shodno tome, verovatnoća pronalaženja željenog objekta u određenoj klasi jednaka je

Gde.

Šenonova formula za entropiju, koja određuje mjeru nesigurnosti pronalaženja željenog objekta u određenoj klasi ekvivalencije prije testiranja, na prvoj particiji

gdje navodi da vrijednost entropije dostiže svoj maksimum za prvu particiju

pri pronalaženju željenog objekta u klasama ekvivalencije sa jednakim vjerovatnoćama

U ovom slučaju.

U skladu s tim, maksimalna količina informacija generiranih testom u procesu uklanjanja entropije također će biti jednaka ovoj vrijednosti

Slično, na drugim particijama, ako su vjerovatnoće pronalaska željenog objekta u novim klasama ekvivalencije jednake, dobiće se maksimalna količina informacija jednaka 1.

Iz ovoga proizilazi da je za postizanje maksimuma informacija dobijenih testom potrebno u procesu cijepanja skupa objekata podijeliti ih u klase ekvivalencije sa jednakim brojem objekata u svakoj od njih.

Budući da Hartleyeva mjera u odnosu na problem koji se razmatra koristi upravo takve particije, to znači da određuje maksimalnu moguću količinu informacija dobijenih u procesu traženja diskretnog objekta, a ako je to slučaj, onda broj particija i, shodno tome, vrijeme pretrage bi u ovom slučaju trebalo biti minimalno u poređenju sa bilo kojom drugom mogućom particijom. Ovo je osnovna karakteristika Hartleyjeve mjere informacija.

Na sl. 1 prikazuje stablo sa 3 uniformne particije u 2 klase ekvivalencije originalnih objekata. Na njegovim vrhovima se upisuje broj objekata sadržanih u dobijenim klasama ekvivalencije. U ovom slučaju, svaki vrh generiše maksimalnu količinu informacija

u zbroju nad svim particijama je komponenta bita.

Slika 1 - Stablo uniformnih particija sa,

Očigledno je da je broj uniformnih particija za dati slučaj sa minimalan.

Drugo stablo particije na sl. 2 za neujednačene particije objekata u 2 klase ekvivalencije ima prosječan broj particija na svim mogućim putevima particije

što je veće od prosječnog broja particija, što je jednako onom dobivenom u prethodnom primjeru.

To je zbog činjenice da je količina informacija koja se generira tijekom svake particije u skladu sa Shanononovom formulom (6) manja od 1 bita, odnosno vrijeme pretraživanja željenog objekta nije minimalno.

U ovom slučaju mora biti ispunjeno osnovno pravilo pronalaženja informacija koje formulišemo na sledeći način.

Količina informacija potrebnih za traženje jednog cijelog objekta od interesa ne ovisi o tome kako je originalni skup objekata podijeljen u klase ekvivalencije i ostaje konstantan i jednak.

To znači da bez obzira na stablo particija originalnog skupa objekata, potrebna količina informacija za pronalaženje jednog od njih uvijek će biti ista - .

Slika 2 - Stablo neujednačenih particija za, i

Particije u klase ekvivalencije se široko koriste u praksi. Dakle, na njima se zasniva pozicijsko kodiranje riječi i brojeva, koje se javlja u procesu sukcesivnog podjele njihovih originalnih skupova u ekvivalentne klase pomoću slova i brojeva koji predstavljaju karakteristike ovih klasa. Zajedno, ova slova i brojevi čine alfabete, a broj na koji su podijeljeni originalni skupovi riječi i brojeva je kardinalnost ovih abeceda. Broj particija određuje dužinu riječi i brojeva.

Stoga, svako slovo ili cifra riječi ili broja označava klasu ekvivalentnosti kojoj pripadaju u jednoj ili drugoj particiji.

Osnovni izraz za teoriju informacija koji je predložio Shannon je

U vezi s problemom traženja navodi se da je količina informacija proizvedenih u njegovom procesu jednaka razlici između početne entropije

željeni objekt i ostatak

gdje je preostali broj objekata među kojima se nalazi traženi.

Očigledno je da se u procesu cijepanja i testiranja broj smanjuje i, na kraju, na

Poslednji izraz predstavlja važan uslov, koji je formulisan kao princip unitarnosti.

Njegova se suština svodi na činjenicu da će se potpuna informacija o objektu dobiti samo ako se u procesu pretraživanja pronađe jedan cijeli objekt.

Ako, međutim, to ukazuje da su informacije o objektu djelimično prenesene do primatelja.

Poseban slučaj će biti za koji. Jer uzima negativnu vrijednost - i shodno tome

To znači da u slučaju koji se razmatra, kada se tokom testiranja generišu dodatne informacije o detaljima objekta koji sada pripadaju novim, ranije neistraženim klasama ekvivalencije. Takav postupak detaljiranja objekta može potrajati neograničeno dugo. Na primjer, u stablu particija na sl. 1 nakon vrha (klase ekvivalencije) koji sadrži jedan objekt nakon 3. particije, mogu postojati vrhovi koji sadrže 0,5 objekata (4. particija), zatim 0,25, itd. Svaki put se vrijednost informacije o objektu povećava za 1 bit i može dostići bilo koju vrijednost.

Ovaj postupak potvrđuje dobro poznatu činjenicu u nauci da bilo koji objekt može biti beskonačno spoznatljiv, međutim, princip unitarnosti će u ovom slučaju biti narušen, jer i, respektivno, tj. analizirani objekat se ne može identifikovati kao integralni sistem.

Sva gore navedena razmatranja također se primjenjuju na probleme pretraživanja s brojem objekata, pod uvjetom da su necijeli brojevi objekata dozvoljeni u klasama ekvivalencije dobijenim u procesu particioniranja.

Iz nejednakosti slijedi da

i shodno tome

gdje je entropija na;

Entropija na.

Teorema 1. Ako -ta particija broja objekata sadrži klase ekvivalencije sa jednakim brojem objekata, tada vrijedi nejednakost

Dokaz.

Iz uslova, odnosno, proizilazi da.

Teorema je dokazana.

Posljedica 1. Entropija -te particije je ograničena nejednakošću

Teorema 2. Ako -ta particija broja objekata na sadrži klase ekvivalencije sa brojem objekata, onda je nejednakost

Dokaz. Pošto je, dakle, gdje je broj objekata postavljenih prema klasama ekvivalencije i-te particije.

Iz uslova i, respektivno, odmah slijedi da.

Teorema je dokazana.

Zaključak 1 Preostala entropija je ograničena nejednakošću

Na sl. 3, kao primjer za teoreme 1, 2, dato je stablo za tri particije sa početnim brojem objekata. Iz toga se vidi da klase druge particije sadrže po 1,5 objekata, a klase treće particije sadrže po 0,75 objekata, . Na vertikalnoj koordinatnoj osi na slici su brojevi originalnih objekata, a na horizontalnoj osi je vrijednost ukupne informacije dobivene nakon sljedeće particije 1, 2, 3 i vrijednost zaostalih informacija. Količina informacija generiranih u svakom koraku ostaje konstantna i maksimalna:

Teorema 3.

Dokaz. Odakle, odakle. Uzimajući logaritam zadnjeg izraza, dobijamo to

Teorema je dokazana.

Slika 3 - Stablo particije na.

Teorema 4

Dokaz. Odakle, odakle. Uzimajući logaritam zadnjeg izraza, dobijamo to.

Teorema je dokazana.

Zaključak 1

Budući da tokom particija brojevi u klasama dobijeni tokom -te particije sadrže više, a klase -te particije sadrže manje od 1 objekta, to znači da će količina informacija o objektu nakon -te particije

manje od potrebne količine potrebne za identifikaciju željenog objekta, pa se stoga ne može u potpunosti odrediti, a nakon i-te particije količina informacija

dolazi u suvišku, a kao rezultat toga ne određuje se samo sam objekat, već i neki njegovi detalji, što je suvišno za rješavanje problema pretraživanja.

U ovom slučaju, samo u prvom slučaju je narušen princip unitarnosti, dok je u drugom ovaj princip očuvan i čak sa većom pouzdanošću. Stoga je u praksi realno ako se analizirani skup objekata zamijeni najbližim skupom koji sadrži objekte, a potraga za željenim objektom već se vrši među objektima ovog skupa.

Dakle, možemo govoriti o diskretnoj (cjelobrojnoj) mjeri informacije, koja je neka vrsta logaritamske Hartleyeve mjere, a to je prosječan broj particija na klase ekvivalencije koje sadrže isti broj objekata sa jednakom vjerovatnoćom, sve dok se ne dobije željeni . Ova mjera se može efikasno koristiti u problemima diskretne matematike i kombinatorike, gdje su rješenja cjelobrojni objekti.

Međutim, particije se također mogu napraviti u necijeli broj klasa ekvivalencije. U ovom slučaju, princip unitarnosti se može postići za bilo koju realnu vrijednost rješavanjem jednačine

relativno.

Na primjer, kada vrijednost treba odabrati približno jednaku. Onda.

To znači da će, shodno tome, količina informacija dobijenih za 3 particije biti jednaka

U teorijskim radovima često biraju jednako, ali u praksi najčešće koriste vrijednost baze logaritma na osnovu koje se dobija tako moderna mjera informacije kao što je bit, - , odnosno početni skup objekata za ovu mjeru sastoji se od, a željeni objekt se nalazi u jednoj particiji u 2 klase ekvivalencije, od kojih svaka sadrži 1 objekt. Preostala entropija je u ovom slučaju jednaka 0 i, shodno tome, za bit se poštuje princip unitarnosti.

Gore dobivena vrijednost za cijeli broj particija za originalni skup objekata također se može dobiti na osnovu sljedećih razmatranja.

Osnova logaritma za koji

gdje je cijeli broj particija, koji se može naći iz izraza

Odnosno

Iz (25) slijedi da

Na primjer, za,

To znači da ako se originalni skup objekata podijeli u klase ekvivalencije dok se ne dobije jedan cijeli broj, tada će se željeni objekt pronaći za cjelobrojne particije koje predstavljaju njihov minimalni mogući broj. U ovom slučaju, tokom svake particije, proizvodi se maksimalna količina informacija - jedna, a za particije - jedinice.

Relaciju (25) definiramo kao početnu gustinu informacija prije prve particije:

Očigledno, gustoća informacija se mijenja kada se mijenja od 1 do unutar raspona od 0 do 1.

Dakle, početna gustina informacija

Nakon svake particije, gustina informacija će se odrediti u skladu sa izrazom

Dakle, za gore razmatrani primjer, nakon prve podjele na dvije klase ekvivalencije

a nakon drugog

Iz izraza (28) proizlazi da u slučaju nakon svake particije gustoća informacija opada i samo pri ostaje konstantna za sve particije i jednaka maksimumu - 1.

Iz (26) slijedi da

i shodno tome na

Dakle, znajući, moguće je odrediti potreban broj klasa ekvivalencije, na koje je potrebno sekvencijalno podijeliti početni broj objekata da bi se dobio cijeli broj particija. Budući da će to generirati maksimalnu moguću količinu informacija, to će biti minimalni broj particija pod ovim uvjetima.

Korolar 1 teoreme 4 pokazuje da je količina informacija generirana na posljednjoj particiji

U ovom slučaju, u skladu sa (16), nije jednako 0.

Da biste dobili potpunu informaciju o objektu, dovoljno je da. Tada izraz (31) poprima oblik

Pošto iz (17) slijedi da

tada je moguće postići jednakost (32) na osnovu izraza

što je, za dato, ispunjeno pod odgovarajućom raspodjelom vjerovatnoće.

Tako, na primjer, za

i shodno tome

Da bi se postigla posljednja jednakost, slijedi da su vjerovatnoće i jednake, respektivno, 0,15; 0,85 ili 0,85; 0.15.

To znači da se broj dobijen u 2. podjelu u veličini objekta dijeli tokom 3. podjele na dva dijela proporcionalna vjerovatnoći i (0,225 i 1,275), koji se zatim analiziraju testom za odnos jednog od njih do željenog. Vjerovatnoća njihovog pronalaženja je jednaka ili, ili ovisno o njihovoj veličini.

Kao rezultat, dobit će se potpuna informacija o jednom od objekata, međutim, osim uniformnih particija, korištene su i neujednačene particije.

U slučaju čisto logaritamske mjere informacije s brojem početnih objekata za dobivanje, vrijednost bi trebala biti informacija dobivena nepotpunim cijepanjem objekata na dva jednaka dijela tako da svaki od njih sadrži elemente dva objekta. U ovom slučaju, entropija će biti jednaka 0 jer će informacije dobijene u procesu posljednje cijele -te particije djelomično ići na eliminaciju smetnji tokom testiranja, koju stvaraju elementi drugog objekta.

Iz navedenog slijedi da se informacija mjeri brojem particija skupa mogućih objekata dok se ne dobije jedan cijeli broj. U ovom slučaju, izvor informacija je test koji ukazuje na klasu ekvivalencije u kojoj se nalazi željeni objekat. Istovremeno, informacija kao samostalna celina ne ispoljava se direktno prilikom particionisanja, ostajući van okvira postupka merenja (računajući broj particija). U testu se manifestuje navođenjem rezultata poređenja, što se manifestuje u podudarnosti ili nepodudarnosti karakteristika klasa ekvivalencije sa odgovarajućim karakteristikama koje test ima. To znači da test mora imati unaprijed informacije o karakteristikama analiziranih klasa ekvivalencije. Njegova konačna funkcija je dešifriranje karakteristika ovih klasa i razvoj kontrolnih radnji koje ukazuju na to koju klasu analiziranih treba podijeliti u podklase u sljedećem koraku razdvajanja, ili da je objekt pronađen i postupak pretraživanja treba prekinuti.

Bitno za potragu za objektom je da se on može nedvosmisleno odrediti tek nakon dobijanja svih informacija o njemu, što se dešava samo kada je rezidualna entropija. Ovo je moguće samo ako se tokom procesa cijepanja dobije klasa ekvivalencije koja sadrži jedan objekt. U ovom slučaju je zadovoljena entropija, a time i princip unitarnosti.

Takav slučaj će biti kada je originalni broj objekata. Ako će tada s uniformnom particijom posljednja -ta klasa ekvivalencije sadržavati manje od jednog objekta, a kao rezultat će se dobiti dodatne informacije koje detaljiziraju objekt i ne koriste se pri traženju.

U praksi se u problemima kodiranja široko koristi zamjena početnog broja objekata brojem, što, s jedne strane, dovodi do zadovoljenja principa unitarnosti, as druge strane, do povećanja broja objekata. količinu suvišnih informacija generiranih testom.

Slični dokumenti

    Koncept i ciljevi metode fokalnih objekata - potraga za novim idejama pridavanjem svojstava ili karakteristika nasumičnih objekata originalnom objektu. Aktivacija asocijativnog mišljenja kao jedna od metoda heurističkog istraživanja u teoriji odlučivanja.

    test, dodano 24.12.2012

    Teorijske osnove primarne obrade statističkih informacija. Osobine određivanja minimalnog broja objekata posmatranja u procjeni pokazatelja pouzdanosti. Analiza vjerovatnoće zakona normalne distribucije i Weibullove distribucije.

    seminarski rad, dodan 22.03.2010

    Osnovni koncepti i načini kodiranja informacija. Karakteristike procesa dekodiranja bar koda. Tehnologija i oprema za bar kodiranje. Upotreba automatizovane tehnologije identifikacije bar kodova u logističkim sistemima.

    seminarski rad, dodan 09.05.2013

    Koncept entropije. Entropija kao mjera stepena neizvjesnosti. Koncept informacije. Mjerenje informacija. Šenonova teorema o kodiranju u prisustvu šuma. Primjer upotrebe entropije u predviđanju i njen značaj za predviđanje.

    sažetak, dodan 14.12.2008

    Razvoj ekonomsko-matematičkog modela i rješavanje problema linearnog programiranja primjenom matematičkih metoda. Transportni problem u formulaciji matrice i njena svojstva. Izrada početnog prihvatljivog plana. Kriterijum optimalnosti.

    seminarski rad, dodan 16.01.2011

    Osnove matematičkog modeliranja determinističkih i stohastičkih objekata. Identifikacija kontrolnih objekata prolaznim odgovorom. Dobivanje modela metodom višestruke linearne regresije i provjera njegove adekvatnosti Fisherovim kriterijem.

    seminarski rad, dodan 14.10.2014

    Najjednostavniji algoritmi za usmjereno nasumično pretraživanje. Najbolji probni algoritam sa vodećim hiperkvadratom. Višekanalni statistički optimizator sa slučajnim pretraživanjem. Metoda statističkog gradijenta. Lokalna nasumična potraga za najboljim uzorkom.

    seminarski rad, dodan 08.02.2015

    Koncepti i definicije teorije genetskih algoritama. Matematičke osnove inventivne fizike. Genetski algoritam inventivnog problema. Opis operatora genetskih algoritama. Sistem mentalnog traganja i praćenja u umu pronalazača.

    seminarski rad, dodan 22.05.2012

    Izgradnja matematičkog modela dualnog problema (sistem ograničenja jedinične dobiti i objektivna funkcija ukupne cijene sirovina. Određivanje optimalnog skupa cijena sirovina koji osigurava minimum ukupne cijene sirovina. Analiza varijabli.

    test, dodano 18.05.2015

    Planiranje eksperimenata kao matematička i statistička disciplina. Potražite optimalne uslove i pravila za izvođenje eksperimenata kako biste dobili informacije o objektu uz što manje troškova rada. Teorija istraživanja korelacije, mjere korelacije.

kombinatorna mjera

Za bolje razumijevanje, pogledajmo nekoliko jednostavnih primjera.

Primjer 1. Hajde da napravimo eksperiment. Uzmimo kockice. Ima šest strana, svaka sa brojevima od jedan do šest.

Hajde da ga bacimo. Kada se kockica baci, pojavljuje se jedan od brojeva na stranama kockice. Tako dobijeni broj rezultat je našeg iskustva.

Bacanjem kockice bilo koji broj puta, možemo dobiti samo šest mogućih brojeva. Označimo ovo sa N = 6.

Ovaj primjer nam omogućava da prijeđemo na koncept kombinatorne mjere informacije i damo sljedeću definiciju:

Kombinatorna mjera informacija N je način mjerenja količine informacija procjenom broja mogućih kombinacija informacijskih elemenata.

Kako u primjeru s kockom postoji samo šest opcija za ishod eksperimenta, odnosno šest kombinacija, onda je količina informacija u skladu sa kombinatornom mjerom N = 6 kombinacija.

Razmotrite sljedeći primjer.

Primjer 2 Neka se da jedna od decimalnih znamenki, na primjer, broj 8 i jedna od heksadecimalnih, na primjer, broj 6 (možete uzeti bilo koju drugu heksadecimalnu - 8, B, F, itd.). Sada, u skladu s definicijom kombinatorne mjere, određujemo količinu informacija sadržanih u svakoj od ovih figura. Pošto je broj 8 decimalni, pa stoga predstavlja jedan znak od deset, onda je N 8 = 10 kombinacija. Slično, broj 6 predstavlja jedan od šesnaest znakova, pa prema tome N 6 = 16 kombinacija. Dakle, heksadecimalna znamenka sadrži više informacija od decimalne znamenke.

Iz razmatranog primjera možemo zaključiti da što je manje cifara u osnovi brojevnog sistema, to manje informacija nosi jedan od njegovih elemenata.

Engleski inženjer R. Hartley predložio je mjerenje količine informacija binarnom logaritamskom mjerom:

gdje je N broj različitih kombinacija informacijskih elemenata. Jedinica mjerenja informacija u ovom mjerenju je bit.

Budući da formula koju je izveo R. Hartley uzima u obzir broj mogućih kombinacija N, zanimljivo je znati koja procjena količine informacija daje binarnu logaritamsku mjeru za primjere razmatrane iznad.

Izračun daje sljedeće rezultate:

u primjeru kocke I = log 2 6 = 2,585 bita;

u decimalnom primjeru, I = log 2 10 = 3,322 bita;

u heksadecimalnom primjeru, I = log 2 16 = 4 bita;

u binarnom primjeru, I = log 2 2 = 1 bit.

Poslednja cifra označava da svaka cifra binarnog brojevnog sistema sadrži jedan bit informacije. Općenito, u tehničkim sistemima, binarni brojevni sistem se koristi za kodiranje dva moguća stanja, na primjer, 1 označava prisustvo električne struje u mreži, 0 - njeno odsustvo.



U svim gore navedenim primjerima, ishodi eksperimenata bili su podjednako vjerojatni i međusobno nezavisni. To znači da kada se kocka baci, svako od šest lica ima istu vjerovatnoću uspješnog ishoda. I takođe da rezultat sledećeg bacanja ne zavisi od rezultata prethodnog.

Jednako vjerovatni i međusobno nezavisni događaji u stvarnom životu su prilično rijetki. Ako obratite pažnju na govorne jezike, kao što je ruski, možete izvući zanimljive zaključke. Da bi se pojednostavila teorijska proučavanja informatike, općenito je prihvaćeno da se ruska abeceda sastoji od 32 znaka (e i ë, kao i ʹ i ʺ se međusobno ne razlikuju, ali se između riječi dodaje razmak). Ako pretpostavimo da se svako slovo ruskog jezika pojavljuje podjednako često u poruci i bilo koji drugi znak može biti iza svakog slova, tada možemo odrediti količinu informacija u svakom znaku ruskog jezika kao:

I = log 2 32 = 5.

Međutim, u stvari, nije sve tako. U svim govornim jezicima neka slova su češća od drugih. Istraživanja kažu da postoji sljedeći broj ponavljanja na 1000 slova:

Osim toga, vjerovatnoća pojavljivanja pojedinačnih slova ovisi o tome koja slova im prethode. Dakle, u ruskom jeziku meki znak ne može pratiti samoglasnik, četiri samoglasnika u nizu ne mogu stajati i tako dalje. Svaki govorni jezik ima svoje karakteristike i obrasce. Stoga se količina informacija u porukama konstruisana od simbola bilo kojeg govornog jezika ne može procijeniti ni kombinatornim ni binarnim logaritamskim mjerama.

1

U radu je predstavljen model za određivanje logaritamske mjere informacije. Iz strukture tehničkog sistema izdvaja se objekat i razmatraju njegova vjerovatnoća stanja otkaza i rada. Kada su stanja podjednako vjerovatna, predlaže se korištenje Hartleyeve mjere, a za nejednako vjerovatna stanja, Shanonove mjere za jedan i više objekata, ako su međusobno nezavisni. Model uzima u obzir mogućnost određivanja mjere informacije samo za jedan objekat. Sva stanja objekata podijeljena su u dvije klase. Svaka od odabranih klasa formira se na osnovu podataka o toku nejednako vjerovatnih događaja. Za svaku klasu stanja objekta određuju se ukupne i generalizovane vjerovatnoće operativnosti i kvara. Ove vjerovatnoće su korištene u dobijenim matematičkim izrazima za određivanje mjere nesigurnosti informacija. Pokazuje se da su dobijene formule identične i primenljive i kada se koristi ukupna verovatnoća i generalizovana verovatnoća.

stanje tehničkog objekta

entropija

logaritamska mjera informacije

1. Vilchinskaya O.O., Gataullin I.N., Golovinov S.O. Određivanje količine informacija u strukturi tehničkog sistema // Informacione tehnologije: prioritetni pravci razvoja. Book. 5: monografija. - Novosibirsk: CRNS - Izdavačka kuća Sibprint, 2010. - 261 str.

2. Dulesov A.S., Semenova M.Yu., Hrustalev V.I. Svojstva entropije tehničkog sistema // Fundamentalna istraživanja. - 2011. - br. 8 (3. dio). - S. 631-636.

3. Dulesov A.S., Uskova E.A. Primjena pristupa Hartleya i Shanona na probleme određivanja količine informacija u tehničkim sistemima // Pitanja moderne nauke i prakse. Univerzitet. IN AND. Vernadsky. - 2009. - br. 2 (16). - S. 46-50.

4. Dulesov A.S., Uskova E.A. Primjena Hartleyeve formule za procjenu strukturnih odnosa elemenata u problemu osiguranja pouzdanog funkcioniranja tehničkih sustava // Pitanja moderne znanosti i prakse. Univerzitet. IN AND. Vernadsky. - 2009. - br. 6 (20). - S. 37-41.

5. Kuznjecov N.A. Interakcija informacija u tehničkim i živim sistemima // Informacijski procesi. - 2001. - T. 1. - Br. 1. - S. 1-9.

Uvod. Pred složenim tehničkim sistemima nameće se niz zahtjeva, među kojima se izdvaja održavanje visokog nivoa pouzdanosti (operabilnost). Visokopouzdani sistemi, po pravilu, podliježu praćenju i dijagnostici kako bi se na vrijeme otklonili mogući problemi čija je pojava vjerovatnoće prirode. Općenito, sistematski nadzor vam omogućava da dobijete opštu sliku stanja sistema. Imajući to pri ruci, moguće je razvijati rješenja koja za cilj imaju održavanje stabilnog ponašanja sistema, održavanje nivoa pouzdanosti, a time i rješavanje problema kibernetike. Osim toga, praćenjem "kretanja" sistema u vremenu i prostoru može se suditi o njegovoj evoluciji ili starenju, ali već sa stanovišta sinergije.

Prirodan proces u tehničkim sistemima je starenje, koje je neraskidivo povezano sa konceptom kao što je "neizvesnost". Postoji mnogo metodoloških pristupa analizi procesa i održavanju sistema. Jedna od njih je zasnovana na upotrebi teorije informacija i tiče se rešavanja problema dobijanja mere informacijske nesigurnosti (entropije). Zauzvrat, vrijednost informacijske entropije služi kao mjera izbora između mogućih alternativa.

U teoriji informacija svoju praktičnu primenu našle su Hartlijeva mera koja omogućava merenje determinističkih procesa konačne dužine i Šenonova mera, procesi bilo kog trajanja, u čijoj analizi se koriste probabilističko-statističke metode. Obje mjere su uključene u strukturne i statističke smjerove teorije informacija.

U toku rada tehničkog objekta, upravljački podsistem prenosi signale ili poruke o stanju sistema iz kojih se formira skup statističkih podataka. Njihova primjena i trendovi u teoriji informacija mogu biti osnova analize informacija.

Model za određivanje mjere informacija. Tehnički sistem se može predstaviti kao blok dijagram sa prisustvom elemenata i veza između njih. Sa stanovišta procene pouzdanosti, u strukturu se uvode indikatori: trajanje obnove elementa, učestalost kvarova itd. Na osnovu njih se utvrđuje verovatnoća kvara i nesmetanog rada elementa. Većina indikatora je vjerovatnoće po prirodi, zbog prisustva neizvjesnosti u ponašanju sistema. Primena mere informacione nesigurnosti može poslužiti kao efikasan alat za procenu stanja tehničkog sistema, njegovih elemenata i strukture. Mogućnosti primjene ove mjere u tehničkim sistemima nalaze se u radovima. Promjena stanja utiče na izvođenje funkcija, od kojih je jedna vezana za prijenos energije (resursa) u sistemu. Na osnovu funkcionalnih karakteristika sistema moguće su najmanje dvije opcije za procjenu stanja (promjene u strukturi). Prvi se ne odnosi na uzimanje u obzir procesa protoka, a drugi uzima u obzir smjer tokova u strukturnom dijagramu sistema. Dalje, prilikom izrade modela, uzet ćemo u obzir prvu opciju.

Najjednostavniji model za kvantifikaciju strukturnog sadržaja sistema je Hartleyjev pristup, koji je predložio izračunavanje količine informacija sadržanih u poruci. Za naš slučaj, pretpostavićemo da sistem i svaki njegov element mogu biti u jednom od dva nezavisna diskretna stanja: operativno i neoperativno. Tada se može pretpostaviti da informacije od elemenata ulaze u sistem nadzora i upravljanja u obliku diskretnih signala: 0 - element sistema ne radi (u neoperativnom je stanju); 1 - element radi (u radnom je stanju). Ako pretpostavimo da nas ne zanima vrijeme koje je element proveo u određenom stanju, tada će ukupan broj mogućih stanja elemenata biti izražen formulom:

gdje je: k = 2 - broj mogućih stanja elementa ili sistema; n je broj elemenata u sistemu koji se razmatra.

U formuli (1), ukupan broj stanja (kombinacija) N je broj poruka formiranih od jednako vjerovatnih i nezavisnih signala koji dolaze od elemenata. Kako se broj elemenata n povećava, raste i broj kombinacija N. Stoga je vrijednost N Hartley korištena kao osnova za određivanje mjere količine informacija. Prema (1) određuje se maksimalni broj stanja sistema. U realnoj situaciji (za određeni vremenski period, na primjer, godinu dana), broj stanja će uvijek biti manji od N. Budući da nas može zanimati stanje sistema u različitim vremenskim intervalima, takva mjera količina informacija, prema (1), nije pogodna za praktičnu upotrebu. Hartley je pronašao rješenje pretpostavkom da količina informacija koju sam sadržavao u porukama mora biti funkcija N, tj. I = f(N). Pošto je broj elemenata n eksponent, logaritamska funkcija se koristi za određivanje I:

Pošto su broj stanja k i osnova logaritma jednaki 2, količina informacija pod takvim uslovima se uzima kao jedinica, koja se naziva "bit" (binarna jedinica).

Pojava faktora u sistemu dovodi do pojave jednog ili drugog njegovog stanja, koje je nezavisno od suprotnog stanja. Uslov državne nezavisnosti ukazuje da će ukupna informacija, prema (2), biti jednaka zbiru pojedinačnih informacija i . Ovdje su i broj stanja vezanih za rad i kvar elemenata sistema, respektivno. Njihov ukupan broj

Na primjer, ako uzmemo u obzir dva elementa u sistemu, od kojih svaki može biti u bilo kojem od dva stanja, onda za 3 elementa - N = 8.

Uzimajući logaritam izraza (3), dobijamo:

što dokazuje svojstvo aditivnosti Hartleyeve informacijske mjere. Ova mjera vrijedi pod uvjetom da sistem ima jednakovjerovatna stanja koja formiraju konačan skup.

Proširimo mogućnosti Hartlijeve mjere u odnosu na probleme traženja diskretnog sadržaja strukture sistema, pod uslovom da je početni skup konačan.

Pošto se razmatraju samo dva stanja sistema – operativno i neuspešno, ona čine dve klase ekvivalencije stanja (vidi izraz (4)). Nadalje pretpostavljamo da svaki od elemenata tehničkog sistema generiše stanja povezana sa samo dvije klase ekvivalencije.

Ako uzmemo u obzir broj elemenata , tada će se prema (1) rezultirajuća mjera poklopiti s logaritamskom Hartleyevom mjerom:

Iz (5) se vidi da je količina informacija u bitovima jednaka broju elemenata sistema. Prema tome, za jednakovjerovatna i međusobno nezavisna stanja elemenata, količina informacija može se izraziti kroz formulu:

Dakle, u prisustvu elemenata u sistemu iu ravnoverovatnim stanjima, izraz (6) je logaritamska mera Hartlijeve informacije.

U (6) stanja (rad i kvar) su spojena u jedno. Međutim, poželjno je razdvojiti suprotna stanja, jer se spajanjem gubi smisao procene nivoa pouzdanosti putem mere informacija. Osim toga, vjerovatnoće pronalaska elementa u svakom od stanja nisu ekvivalentne. Budući da je najvažniji zadatak održavanje visokog nivoa pouzdanosti elementa ili sistema, u praksi će vjerovatnoća zdravog stanja uvijek biti veća od suprotne vjerovatnoće. Kako bi se izbjeglo spajanje informacija (suprotno u suštini kada se ocjenjuje pouzdanost sistema), svaku klasu ekvivalencije treba razmatrati zasebno.

Neujednačenost prisutnosti stanja za element ili sistem tjera nas da koristimo Šenonovu formulu. Ovo posljednje je mjera nesigurnosti prisustva ili vjerovatnoće prisutnosti stanja elementa u određenoj klasi ekvivalencije. Razmislite o dobivanju formule u sljedećem primjeru.

Na primjer, kada se ocjenjuje pouzdanost tehničkog sistema, stanja njegovih elemenata se razmatraju u dugim vremenskim intervalima (godinu ili više). U odabranom vremenskom intervalu, stanja se izmjenjuju, slijede jedno drugo, formirajući tok događaja. U ovom toku svaki od događaja karakteriše vrsta (neuspjeh ili rad), vrijeme nastanka i završetka, kao i drugi pokazatelji. Ova stanja se evidentiraju u kontrolnom tijelu, čiji je jedan od zadataka održavanje visokog nivoa performansi sistema. Rješavajući ovaj problem (u našem slučaju, određivanjem količine informacija), postojeći tok događaja se klasifikuje upućivanjem događaja na određeni i-ti element ili na sam sistem. Dakle, za jedan od elemenata, koji ima tok događaja, moguće je odrediti vjerovatnoće pojave svakog od njih: pi i qi - vjerovatnoća da se i-ti element nađe u operativnom i neoperativnom stanju. Vjerojatnosti nastanka događaja istog tipa čine ukupnu vjerovatnoću, pi + qi = 1. Tada se količina informacija za nejednako vjerovatne i međusobno neovisne događaje sadržane u jednom elementu određuje Shanononovom formulom:

Ako smatramo da elementi sistema nezavisno funkcionišu, onda se prema Šenonovoj formuli informacija može definisati kao

(8)

Vjerovatnoće u (8) prije logaritma imaju prosjek vrijednosti samog logaritma. Ako ne odvajamo stanja po tipu, onda se ovaj izraz može prepisati kao

(9)

pod uslovom V (9) - prosječna vrijednost vjerovatnoće nastanka događaja svih n elemenata.

Međutim, (8) je od male koristi zbog prisustva odnosa između elemenata, pa će iz tog razloga stanja elemenata određivati ​​stanja samog sistema. Ako je zadatak da se utvrdi količina informacija sadržanih u sistemu, onda će biti potrebno ispunjenje određenih uslova: 1) treba imati zbirne podatke o stanjima sistema u dužem vremenskom periodu; 2) da ima podatke o svakom od elemenata. Na primjer, na osnovu drugog uslova, rješenje problema se može dobiti na osnovu rezultata prikazanih u radu. Dalje ćemo razmotriti mogućnosti određivanja mjere informacije za samo jedan element, isključujući sistem iz razmatranja.

Dalje, razmatramo mogućnosti određivanja mjere informacije samo za jedan element (objekat). U ovom slučaju, biće pošteno koristiti izraz (7) pod uslovom p + q = 1. Tada se maksimalna informacija postiže pri p = q i biće jednaka 1.

U izrazima za određivanje mjere informacije, valjanost primjene logaritma na bazu 2 objašnjava se podjelom cijelog skupa stanja elemenata u dvije klase ekvivalencije: operativna stanja i njihove vjerovatnoće pripisuju se prvoj klasi k1, neoperabilna - na druga klasa k2. Obje klase ekvivalencije uključuju cijeli broj stanja m = G + L, gdje je G broj zdravstvenih stanja, L je neoperabilnost elementa sistema. U prvoj klasi postoji skup G stanja sa ukupnom verovatnoćom , u drugoj - L sa ukupnom verovatnoćom, tako da je svaka klasa podeljena na zasebna nejednako verovatna stanja.

Nakon što smo izdvojili 2 ekvivalentne klase, pri čemu svaka od njih ima svoj skup nejednako vjerovatnih stanja, informacije prema (7) mogu se odrediti izrazom:

obezbeđeno , (11)

gdje su pg i ql vjerovatnoća g-tog operativnog i l-tog neoperabilnog stanja, respektivno, (m = G + L) je ukupan broj stanja elementa. Izrazi (7) i (10) su isti i mogu se primijeniti kada se podaci dobijaju praćenjem toka događaja ili prethodno generaliziranih statističkih podataka. Ako su vjerovatnoće stanja elementa jednake - pg = ql, (na primjer, pg = ql = 0,125 i G = L = 4) prema izrazu (10) i pod uvjetom (11), dobijamo maksimum vrijednost informacije I* = 1, dok je prema (8 ) - I = 3. Dakle, ako su vjerovatnoće jednake, prva vrijednost znači maksimalnu vrijednost informacije sadržane u jednom elementu, druga - u 3 nezavisno funkcionalna elementa . U potonjem slučaju, upotreba (8) je nezakonita.

Često se u praksi izračunavanja nivoa pouzdanosti analitičar oslanja na dostupnost statističkih podataka. Istovremeno, on može uzeti gotove generalizirane vrijednosti ili, akumulirajući operativno iskustvo, razmatra tok događaja, čime se dobija niz vjerovatnoća i, na osnovu teoreme o dodavanju vjerovatnoće, pronalazi ukupnu vrijednost i, prema tome , ukupni q. Zamjenom ovih vrijednosti u (7), može se odrediti količina informacija sadržanih u jednom elementu.

Dakle, izraz (10) je logaritamska mjera nesigurnosti informacije sadržane u jednom elementu, uzimajući u obzir podelu na operativna i neoperabilna stanja.

Primećujemo još jednu osobinu u dobijanju mere neizvesnosti. To je povezano sa činjenicom da je Šenonova formula u skladu sa Hartlijevim formulama (3)-(6) za jednako verovatne događaje. Ako uzmemo u obzir tok neravnovjerovatnih stanja (događaja), onda uzimajući u obzir (3), generalizirane vjerovatnoće svake od klasa nalaze se prema Šenonu kao

i (12)

Sa njima definicija teorema množenja vjerovatnoće radi, jer se pretpostavlja da se nivo pouzdanosti elementa može predstaviti u obliku uzastopnih nezavisnih događaja. Imajući generalizovane vjerovatnoće prema (12), možemo zaključiti da mjera informacije za svaku od klasa ekvivalencije ima svojstvo aditivnosti. Tada se mjera informacije može odrediti formulom:

U (13), vrijednosti pav i qav prosječuju vrijednost informacije.

Ako su pav i qav poznati u ovom izrazu, onda će odgovarati formuli (10). U suštini, izrazi za određivanje prosječnih vrijednosti trebaju uzeti u obzir činjenicu da događaji u svakoj ekvivalentnoj klasi nisu homogeni u pogledu prirode nastanka i sadržaja uzroka koji su ih doveli. Dakle, baza logaritma u određivanju informacija za jednu klasu događaja mora se razlikovati od već prihvaćene baze od 2.

U teoriji logaritama izraz je poznat , što u našem slučaju (na primjer, za klasu k1) izgleda

Izraz (14) implicira sljedeće:

(15)

Odnos u (15) se može smatrati gustinom informacija. Tada (na primjer, za klasu k1) možemo napisati relaciju:

gdje

Tada se (13), uzimajući u obzir prosječne vrijednosti, može zapisati kao:

(17)

Prihvatamo uslov: G = L = 4; pg = ql = 0,125. Zatim, prema izrazu (17) i pod uvjetom (11), maksimalna vrijednost mjere informacije, koja potvrđuje korespondenciju izrazu (10).

Zaključak. Iz navedenog proizilazi da je struktura tehničkog sistema, koja se sastoji od elemenata i veza između njih, predmet analize i evaluacije informacija sa stanovišta pouzdanosti. Svaki od elemenata može biti u jednom od dva stanja: rad ili neuspjeh. Broj stanja, ako su podjednako vjerovatna, određuje vrijednost Hartleyjeve mjere prema (6) i dijeli se na dvije klase ekvivalencije: klasu operativnih i klasu neoperabilnih stanja elementa sistema. Ako događaji nisu jednako vjerovatni, tada se mjera informacije za jedan element može odrediti formulom (7). Kada su elementi međusobno nezavisni, tada je prema Šenonovoj formuli (8) i (9) moguće odrediti mjeru informacija za sistem u cjelini.

Uzimajući u obzir stanja samo jednog elementa ili objekta, svaka od odabranih klasa formira se na osnovu podataka o toku nejednako vjerovatnih događaja. Za svaku od klasa ekvivalencije moguće je odrediti ukupne i generalizirane vjerovatnoće operativnosti i kvara elementa. Ovi indikatori su primenljivi za određivanje mere informacione nesigurnosti elementa prema dobijenim izrazima (10) i (17) sa podelom na klasu operativnih i neoperabilnih stanja. Pokazuje se da su (10) i (17) identične i primenljive: prvi izraz - u prisustvu ukupne verovatnoće, drugi - u prisustvu generalizovane verovatnoće.

Na osnovu upotrebe navedenih formula moguće je odrediti mjeru nesigurnosti za istu vrstu elemenata i na osnovu dobijenih vrijednosti odabrati manje pouzdanu.

Recenzenti:

Lyubov Petrovna Nagruzova, doktor tehničkih nauka, profesor građevinskog odeljenja Khakasskog tehničkog instituta - ogranka Sibirskog federalnog univerziteta, Abakan.

Bulakina Elena Nikolaevna, doktor tehničkih nauka, profesor katedre "Automobili i automobilska industrija" Khakasskog tehničkog instituta - ogranka Federalne državne autonomne obrazovne ustanove visokog stručnog obrazovanja "Sibirski federalni univerzitet", Abakan.

Bibliografska veza

Dulesov A.S., Kabaeva E.V. LOGARITAMSKA MJERA INFORMACIJE STANJA TEHNIČKOG OBJEKTA // Savremeni problemi nauke i obrazovanja. - 2013. - br. 1.;
URL: http://science-education.ru/ru/article/view?id=8210 (datum pristupa: 06.04.2019.). Predstavljamo Vam časopise koje izdaje izdavačka kuća "Academy of Natural History"

Top Related Articles