Cum se configurează smartphone-uri și PC-uri. Portal informativ

Câte informații sunt în mesaj? Motivația

Sunt revizuite elementele de bază ale informaticii și este descris hardware-ul modern. calculator personal. Sunt formulate abordări ale definirii conceptelor de bază în domeniul informaticii și se dezvăluie conținutul acestora. Este prezentată o clasificare a hardware-ului computerelor personale moderne și sunt prezentate principalele caracteristici ale acestora. Toate prevederile principale sunt ilustrate cu exemple în care, la rezolvare sarcini specifice se utilizează software-ul corespunzător.

Carte:

Secțiuni de pe această pagină:

După cum sa menționat deja, conceptul de informație poate fi luat în considerare sub diferite restricții impuse proprietăților sale, adică la diferite niveluri de considerare. Există în principal trei niveluri – sintactic, semantic și pragmatic. În consecință, la fiecare dintre ele, sunt utilizate estimări diferite pentru a determina cantitatea de informații.

Pe nivel sintactic Pentru estimarea cantității de informații se folosesc metode probabilistice, care iau în considerare doar proprietățile probabilistice ale informațiilor și nu țin cont de altele (conținut semantic, utilitate, relevanță etc.). Dezvoltat la mijlocul secolului al XX-lea. metodele matematice și, în special, probabilistice au făcut posibilă formularea unei abordări de evaluare a cantității de informații ca măsură de reducere a incertitudinii cunoașterii. Această abordare, numită și probabilistică, postulează principiul: dacă un mesaj duce la o scădere a incertitudinii cunoștințelor noastre, atunci putem spune că un astfel de mesaj conține informații. În acest caz, mesajele conțin informații despre orice evenimente care pot avea loc cu probabilități diferite. O formulă pentru determinarea cantității de informații pentru evenimente cu probabilități diferite și primite de la o sursă discretă de informații a fost propusă de omul de știință american K. Shannon în 1948. Conform acestei formule, cantitatea de informații poate fi determinată după cum urmează:


Unde eu - cantitatea de informații; N – numărul de evenimente posibile (mesaje); p i - probabilitatea evenimentelor individuale (mesaje); ? – semn matematic sume de numere.

Cantitatea de informații determinată folosind formula (1.1) ia doar o valoare pozitivă. Deoarece probabilitatea evenimentelor individuale este mai mică de unu, atunci, în consecință, expresia log^,– este o valoare negativă și pentru a obține o valoare pozitivă pentru cantitatea de informații din formula (1.1), există un semn minus înaintea sumei. semn.

Dacă probabilitatea de apariție a evenimentelor individuale este aceeași și se formează grup complet evenimente, adică


atunci formula (1.1) se transformă în formula lui R. Hartley:


În formulele (1.1) și (1.2), relația dintre cantitatea de informații și, în consecință, probabilitatea sau numărul evenimentelor individuale este exprimată folosind un logaritm. Utilizarea logaritmilor în formulele (1.1) și (1.2) poate fi explicată după cum urmează. Pentru simplitatea raționamentului, vom folosi relația (1.2). Vom atribui secvenţial argumentului N valorile selectate, de exemplu, dintr-o serie de numere: 1, 2, 4, 8, 16, 32, 64 etc. Pentru a determina ce eveniment din N au avut loc evenimente la fel de probabile, pentru fiecare număr din serie este necesară efectuarea secvenţială a operaţiilor de selecţie din două evenimente posibile. Da cand N= 1 numărul de operații va fi egal cu 0 (probabilitatea evenimentului este egală cu 1), cu N= 2, numărul operațiunilor va fi egal cu 1, când N= 4 numarul operatiilor va fi egal cu 2, cand N= 8, numărul de operații va fi egal cu 3 etc. Astfel, obținem următoarea serie de numere: 0, 1, 2, 3, 4, 5, 6 etc., care pot fi considerate corespunzătoare valorilor ​a functiei euîn relaţie (1.2). Secvența de valori numerice pe care o ia argumentul N, este o serie cunoscută în matematică ca o serie de numere care formează o progresie geometrică și succesiunea de valori numerice pe care o ia funcția eu, va fi o serie care formează o progresie aritmetică. Astfel, logaritmul din formulele (1.1) și (1.2) stabilește o relație între seria reprezentând progresii geometrice și aritmetice, lucru destul de cunoscut în matematică.

Pentru a cuantifica (evalua) orice mărime fizică, este necesar să se determine o unitate de măsură, care în teoria măsurării se numește măsură. După cum sa menționat deja, informațiile trebuie să fie codificate înainte de procesare, transmitere și stocare. Codarea se face folosind alfabete speciale (sisteme de semne). În informatică, care studiază procesele de primire, procesare, transmitere și stocare a informațiilor cu ajutorul sistemelor de calcul (calculatoare), se utilizează în principal codificarea binară, care folosește un sistem de semne format din două simboluri 0 și 1. Din acest motiv, în formulele ( 1.1) și (1.2) numărul 2 este folosit ca bază a logaritmului.

Pe baza abordării probabilistice pentru determinarea cantității de informații, aceste două simboluri ale sistemului de semne binar pot fi considerate ca două evenimente posibile diferite, prin urmare, o unitate de cantitate de informație este considerată a fi cantitatea de informație care conține un mesaj care reduce incertitudinea cunoașterii la jumătate (înainte de a primi evenimente, probabilitatea acestora este 0 ,5, după primirea – 1, incertitudinea scade în mod corespunzător: 1/0,5 = 2, adică de 2 ori). Această unitate de măsură a informațiilor se numește bit (din cuvântul englezesc Cifră binară - Cifră binară). Astfel, ca măsură de evaluare a cantității de informații la nivel sintactic, furnizate codificare binară, un bit primit.

Următoarea unitate de măsură cea mai mare a cantității de informații este un octet, care este o secvență formată din opt biți, adică

1 octet = 2 3 biți = 8 biți.

În informatică, unitățile de măsură ale cantității de informații care sunt multipli ai octetului sunt, de asemenea, utilizate pe scară largă, dar spre deosebire de sistemul metric de măsuri, unde coeficientul 10n este utilizat ca multiplicatori ai mai multor unități, unde n = 3, 6, 9 etc., în mai multe unități de măsurare a cantității de informații, se utilizează coeficientul 2n . Această alegere se explică prin faptul că computerul funcționează în principal cu numere nu în zecimală, ci în sistem binar Socoteala.

Unitățile de măsurare a cantității de informații care sunt multipli ai unui octet sunt introduse după cum urmează:

1 Kilobyte (KB) = 2 10 bytes = 1024 bytes,

1 Megaoctet (MB) = 2 10 KB = 1024 KB,

1 gigaoctet (GB) = 2 10 MB = 1024 MB,

1 Terabyte (TB) = 2 10 GB = 1024 GB,

1 petabyte (PB) = 2 10 TB = 1024 TB,

1 Exabyte (Ebyte) = 2 10 PB = 1024 PB.

Unitățile de măsură ale cantității de informații, ale căror nume conțin prefixele „kilo”, „mega”, etc., din punctul de vedere al teoriei măsurării, nu sunt corecte, deoarece aceste prefixe sunt utilizate în sistem metric măsuri, în care coeficientul 10n este utilizat ca multiplicatori de unități multiple, unde n = 3, 6, 9 etc. Pentru a elimina această incorectitudine, organizația internațională Comisia Electrotehnică Internațională, angajat în crearea de standarde pentru industria tehnologiei electronice, a aprobat o serie de noi prefixe pentru unitățile de măsură ale cantității de informații: kibi (kibi), mobila (mebi), gibi (gibi), tu (tebi), petit (peti), exbi (exbi). Cu toate acestea, vechile denumiri pentru unitățile de măsurare a cantității de informații sunt încă folosite și va dura timp până când noile denumiri vor deveni utilizate pe scară largă.

Abordare probabilistică este folosită și în determinarea cantității de informații prezentate folosind sisteme de semne. Dacă considerăm caracterele alfabetului ca un set mesaje posibile N, cantitatea de informație purtată de un semn al alfabetului poate fi determinată prin formula (1.1). Dacă fiecare caracter al alfabetului apare la fel de probabil în textul mesajului, formula (1.2) poate fi utilizată pentru a determina cantitatea de informații.

Cantitatea de informații pe care o poartă un caracter al alfabetului, cu atât este mai mare numărul de caractere incluse în acest alfabet. Numărul de caractere incluse în alfabet se numește puterea alfabetului. Cantitatea de informații (volumul de informații) conținută într-un mesaj codificat folosind un sistem de semne și care conține un anumit număr de caractere (simboluri) se determină cu ajutorul formulei:


Unde V – volumul de informații al mesajului; / = log 2 N, volumul de informații al unui simbol (semn); LA - numărul de caractere (semne) din mesaj; N – puterea alfabetului (numărul de caractere din alfabet).

Să explicăm cele de mai sus în paragraful 1.2 cu exemple.

Exemplul 1.1

Să stabilim câte informații pot fi obținute după implementarea unuia dintre cele șase evenimente. Probabilitatea primului eveniment este 0,15; secundă – 0,25; a treia – 0,2; al patrulea – 0,12; a cincea – 0,12; al șaselea – 0,1, adică P 1 = 0,15; P 2 = 0,25; R 3 = 0,2; P 4 = 0,18; P 5 = 0,12; P 6 = 0,1.

Soluţie.

Pentru a determina cantitatea de informații, aplicăm formula (1.1)


Pentru a calcula această expresie care conține logaritmi, vom folosi mai întâi un calculator de calculator și apoi procesor de masă Microsoft (MS) Excel, incluse în pachetul software integrat MS Office XP.

Pentru a calcula folosind calculator calculator Să facem următoarele:

Folosind comanda: [Button start– Programe – Standard – Calculator], lansați programul Calculator. După pornirea programului, executați comanda: [View – Engineering] (Fig. 1.3).


Orez. 1.3. Calculator de inginerie

Buton Buturuga Calculatorul calculează logaritmul zecimal (bază 10) al numărului afișat. Deoarece în cazul nostru este necesar să se calculeze logaritmi în baza 2, iar acest calculator nu permite acest lucru, trebuie să folosim formula binecunoscută:

logbN = M log a N,


În cazul nostru, relația va lua forma: log 2 N = M log 10 N,


adică log 2 N = 3,322 · log 10 N, iar expresia pentru calcularea cantității de informații va lua forma:


Când calculați pe un calculator, utilizați următoarele butoane: +/- (schimbați semnul numărului afișat), ()(paranteze de deschidere și închidere), Buturuga(logaritmul unui număr la baza 10), etc. Rezultatul calculului este prezentat în Fig. 1.3. Astfel, cantitatea de informație I = 2,52 biți.

Să folosim acum un procesor de masă MS Excel. Pentru a rula programul excela executați comanda: [Button start- Programe - MS Office XP – Microsoft Excel].În celulele A1, B1, C1, D1, E1, F1 ale ferestrei care se deschide excela Să notăm denumirile literelor probabilităților P 1, P 2, P 3, P 4, P 5, P 6 iar în celula G1 - cantitatea de informații eu, care trebuie determinat. Pentru a scrie indici pentru probabilități R 1? P 6în celulele A1, B1, C1, D1, E1, F1, executați următoarea comandă: [Format – Cells – Font – Modification (bifați caseta de lângă indicele)]. În celulele A2, B2, C2, D2, E2, F2 scriem valorile probabilității corespunzătoare.

După ce scrieți valori în celule, trebuie să setați formatul numărului în ele. Pentru a face acest lucru, trebuie să rulați următoarea comandă: [Format – Cells – Number – Numeric (setați numărul de zecimale la două)]. Setați același lucru în celula G2 format numeric. În celula G2 scriem expresia = – (A2*LOG(A2;2) + B2*LOG(B2;2) + C2*LOG(C2;2) + D2*LOG(D2;2) + E2*LOG( E2; 2) + F2*LOG(F2;2)). După apăsarea tastei de pe tastatura computerului , în celula G2 obținem rezultatul dorit – eu = 2,52 biți (Fig. 1.4).


Orez. 1.4. Rezultatul calculării cantității de informații

Exemplul 1.2

Să determinăm câți octeți și biți de informații sunt conținuti într-un mesaj dacă volumul acestuia este de 0,25 KB.

Soluţie.

Folosind un calculator, determinăm numărul de octeți și biți de informații conținute în acest mesaj:

eu = 0,25 KB · 1024 de octeți/1 KB = 256 de octeți;

eu = 256 de biți · 8 biți/1 octet = 2048 de biți.

Exemplul 1.3

Să determinăm puterea alfabetului cu care este transmis un mesaj care conține 4096 de caractere, dacă volumul de informații al mesajului este de 2 KB.

Soluţie.

Folosind un calculator, vom converti volumul de informații al unui mesaj din kiloocteți în biți:

V=2 KB 1024 de biți/1 KB = 2048 de biți 8 biți/1 octet = 16384 de biți.

Să determinăm numărul de biți pe caracter (volumul de informații al unui caracter) din alfabet:

eu= 16.384 biți/4096 = 4 biți.

Folosind formula (1.3), determinăm puterea alfabetului (numărul de caractere din alfabet):

N = 2 I = 2 4 = 16.

După cum sa menționat deja, dacă luăm în considerare doar proprietatea informațiilor asociate cu conținutul ei semantic, atunci atunci când definim conceptul de informație ne putem limita la nivelul semantic sau semantic de considerare a acestui concept.

Pe nivel semantic informația este considerată în funcție de conținutul său, reflectând starea unui obiect individual sau a sistemului în ansamblu. Acest lucru nu ține cont de utilitatea acesteia pentru destinatarul informațiilor. Pe acest nivel se studiază relaţiile dintre semne, semnificaţiile lor obiective şi semantice (vezi Fig. 1.1), ceea ce face posibilă selectarea unităţilor semantice de măsură a informaţiei. Deoarece conținutul semantic al informațiilor este transmis prin intermediul unui mesaj, adică sub forma unui set de semne (simboluri) transmise folosind semnale de la sursa de informații către receptor, o abordare bazată pe utilizarea unei măsuri de tezaur a devenit răspândită pentru măsurarea conţinutului semantic al informaţiei. În acest caz, tezaurul este înțeles ca un set de informații (informații) a priori disponibile receptorului de informații.

Această abordare presupune că, pentru a înțelege (înțelege) și a utiliza informația primită, receptorul (receptorul) trebuie să aibă informații a priori (tezaur), adică un anumit stoc de semne pline cu semnificații, cuvinte, concepte, nume de fenomene și obiecte între care se stabilesc legături la nivel semantic. Astfel, dacă acceptăm cunoștințe despre acest obiect sau un fenomen din spatele unui tezaur, atunci cantitatea de informații conținute într-un nou mesaj despre un anumit subiect poate fi evaluată prin modificarea unui tezaur individual sub influența a acestui mesaj. În funcție de relația dintre conținutul semantic al mesajului și tezaurul utilizatorului, numărul de informație semantică, în timp ce natura unei astfel de dependențe nu se pretează la o descriere matematică strictă și se reduce la luarea în considerare a trei condiții principale în care tezaurul utilizatorului:

Tind la zero, adică utilizatorul nu percepe mesajul primit;

Tind la infinit, adică utilizatorul știe totul despre un obiect sau fenomen și nu este interesat de mesajul primit;

Este în concordanță cu conținutul semantic al mesajului, adică mesajul primit este ușor de înțeles pentru utilizator și poartă informații noi.

Primele două cazuri limitative corespund unei stări în care cantitatea de informații semantice primite de utilizator este minimă. Al treilea caz este legat de primire cantitate maxima informație semantică. Astfel, cantitatea de informații semantice primite de utilizator este o valoare relativă, deoarece același mesaj poate avea conținut semantic pentru un utilizator competent și poate fi lipsit de sens pentru un utilizator incompetent.

Prin urmare, devine dificil să se obțină o evaluare obiectivă a cantității de informații la nivelul semantic al considerației sale, iar pentru a obține o astfel de evaluare se folosesc diferite unități de măsură a cantității de informații: absolute sau relative. Simbolurile, detaliile, înregistrările etc. pot fi folosite ca unități de măsură absolute, iar coeficientul de conținut, care este definit ca raportul dintre informațiile semantice și volumul acesteia, poate fi folosit ca unul relativ. De exemplu, pentru a determina la nivel semantic cantitatea de informații primite de elevi la ore, punctajul inițial (simbol) poate fi luat ca unitate de măsură, care caracterizează gradul de asimilare a lucrurilor noi de către aceștia. material educativ, pe baza cărora se poate determina indirect cantitatea de informații primite de fiecare elev. Această cantitate de informații va fi exprimată în termenii punctajului de evaluare corespunzător din gama acceptată de evaluări.

Cu o abordare semantică a evaluării cantității de informații și a alegerii unei unități de măsură, tipul de informație (mesaj) primit este esențial. Astfel, această abordare a estimarii cantității informatii economice ne permite să identificăm o unitate compozită de informație economică, constând dintr-un set de alte unități de informații legate între ele ca semnificație. O componentă elementară a unei unități de informații economice este un detaliu, i.e. set de informații, care nu poate fi împărțit în continuare în unități de informație la nivel semantic. Împărțirea detaliilor în simboluri duce la pierderea conținutului lor semantic. Fiecare atribut este caracterizat de un nume, valoare și tip. În acest caz, numele recuzitei înseamnă sa simbol, sub valoare - o cantitate care caracterizează proprietățile unui obiect sau fenomen în anumite circumstanțe, sub tip - un set de valori ale unei proprietăți, unite de anumite caracteristici și un set de transformări admisibile.

Detaliile sunt de obicei împărțite în detalii de bază și detalii de atribut.

Detaliile de bază caracterizează latura cantitativă a unui obiect, proces sau fenomen economic care poate fi obținut în urma operațiilor individuale - calcule, măsurători, numărare unități naturale etc. documente economice acestea includ, de exemplu, prețul unui produs, cantitatea, cantitatea acestuia etc. Detaliile de bază sunt cel mai adesea exprimate în numere pe care se pot efectua operații matematice.

Atributele atributelor reflectă proprietățile calitative ale unui obiect, proces sau fenomen economic. Cu ajutorul atributelor, mesajele capătă un caracter individual. În documentele economice, acestea includ, de exemplu, numărul documentului, numele expeditorului, data la care a fost întocmit documentul, tipul tranzacției etc. Detaliile atributelor permit prelucrarea logică a unităților de informații la nivel semantic: căutare, selecție, grupare, sortare etc. d.

O bază-atribut separată, împreună cu atributele-atribute aferente acesteia, formează următoarea unitate ierarhic compusă a informațiilor economice - un indicator. Indicatorul are o denumire, care include termeni care denotă obiectul măsurat: cost, cheltuieli, capacitate, profit etc. În plus, indicatorul conține o caracteristică formală și caracteristici suplimentare. Caracteristica formală include metoda de obținere a acesteia (volum, cantitate, creștere, procent, valoare medie etc.), iar caracteristicile suplimentare includ spațiotemporale (unde se află obiectul măsurat, timpul la care se referă acest indicator) și metrologice (unități). măsurători).

Astfel, folosind un set de detalii și indicatori corespunzători, este posibilă estimarea cantității de informații economice primite de la obiectul studiat (sursa de informații).

Pe lângă abordarea bazată pe utilizarea unei măsuri de tezaur, la determinarea cantității de informații la nivel semantic sunt utilizate și alte abordări. De exemplu, una dintre abordările legate de evaluarea semantică a cantității de informații este aceea că numărul de legături către aceasta în alte mesaje este luat ca principal criteriu pentru valoarea semantică a informațiilor conținute într-un mesaj. Cantitatea de informații primite este determinată pe baza procesării statistice a legăturilor din diverse eșantioane.

Pentru a rezuma ceea ce s-a spus, se poate argumenta că a existat și încă există o problemă de formare a unei abordări sistematice unificate pentru definirea informației la nivel semantic. Acest lucru este confirmat și de faptul că la un moment dat, pentru a crea o teorie științifică strictă a informației, K. Shannon a fost nevoit să renunțe la o proprietate importantă a informațiilor asociată cu conținutul ei semantic.

Pe lângă nivelurile de considerare enumerate, conceptul de informație este destul de utilizat pe scară largă nivel pragmatic. La acest nivel, informaţia este considerată din punct de vedere al utilităţii (valorii) acesteia pentru consumatorul (persoana) de informaţie pentru atingerea scopului practic stabilit. Această abordare pentru a determina utilitatea informațiilor se bazează pe calcularea creșterii probabilității de a atinge un obiectiv înainte și după primirea informațiilor. Cantitatea de informații care îi determină valoarea (utilitatea) se găsește prin formula:


Unde P 0 , P 1 – probabilitatea atingerii scopului înainte și, respectiv, după primirea informațiilor.

Ca unitate de măsură (măsură) a cantității de informații care determină valoarea acesteia, se poate lua 1 bit (cu o bază logaritmică egală cu 2), adică aceasta este cantitatea de informații primite la care raportul dintre probabilitățile de atingerea scopului este egală cu 2.

Să luăm în considerare trei cazuri când cantitatea de informație care îi determină valoarea este zero și când aceasta capătă o valoare pozitivă și negativă.

Cantitatea de informație este zero la P 0 = R 1, acestea. informaţia primită nu măreşte sau scade probabilitatea atingerii scopului.

Valoarea informaţiei este pozitivă când P 1 > P 0 , adică informaţia obţinută reduce incertitudinea iniţială şi măreşte probabilitatea atingerii scopului.

Valoarea informaţiei este negativă când P 1< P 0 , adică informaţia primită măreşte incertitudinea iniţială şi reduce probabilitatea atingerii scopului. Acest tip de informații se numește dezinformare.

Dezvoltarea ulterioară a acestei abordări se bazează pe teoria informației statistice și teoria deciziei. În acest caz, pe lângă caracteristicile probabilistice ale atingerii scopului, după primirea informațiilor se introduc funcții de pierdere și se evaluează utilitatea informațiilor ca urmare a minimizării funcției de pierdere. Valoarea maximă este acea cantitate de informații care reduce pierderile la zero la atingerea scopului.

  1. Informație. Obiecte informaționale tipuri variate. De bază procesele informaţionale: stocarea, transmiterea si prelucrarea informatiilor. Rolul informației în viața oamenilor.
  2. Percepția, memorarea și transformarea semnalelor de către organismele vii.
  3. Conceptul de cantitate de informație: abordări diferite. Unități de măsurare a cantității de informații.
  4. Lecție generală pe tema, muncă independentă.

Lecţie.

Obiective:
  • educational– dați conceptul de cantitate de informații, introduceți abordarea probabilistică și alfabetică pentru determinarea cantității de informații, introduceți unitățile de măsură a informațiilor și dezvoltați abilități practice în determinarea cantității de informații.
  • în curs de dezvoltare– continuați formarea unei viziuni științifice asupra lumii, extindeți vocabularul pe tema „Informații”
  • educational– să dezvolte interesul pentru subiect, să cultive perseverența în depășirea dificultăților din activitatea academică.

1. Etapa organizatorică (bun venit, identificarea celor absenți de la clasă)

2. Verificarea temelor, activarea cunoștințelor

pe tema „Informații” primite în cele 2 lecții anterioare. Pentru a forma vorbirea, consolidați conceptele fundamentale ale acestei teme, verificând teme pentru acasă se desfășoară sub forma unui sondaj oral frontal cu privire la următoarele întrebări:

  1. Ce intelegi prin informatie? Dă exemple. Răspunsuri sugerate: de obicei, elevii dau cu ușurință exemple de informații pe care le primesc ei înșiși în lumea din jurul lor - știri, un clopoțel de școală, cunoștințe noi la clasă, informații obținute din lectura literaturii de știință populară, experiență și emoții dobândite din lectura ficțiunii, experiențe emoționale, obținute din ascultarea muzicii, canoane estetice, informații despre costumul și viața secolului al XVIII-lea, emoții obținute din vizionarea picturilor artiștilor secolului al XVIII-lea. Este indicat ca elevii să dea exemple de informații atât în ​​sistemele tehnice, cât și în cele biologice etc. (forma cheii conține informații despre broasca, o anumită temperatură a aerului din cameră conține informații pentru sistemul de stingere a incendiilor, o celulă biologică conține informații despre obiectul biologic din care face parte sunt...)
  2. Știm că alte două entități importante ale lumii, materia și energia, au existat înaintea organismelor vii de pe Pământ. Au existat informații și procese informaționale înainte de apariția omului? Răspunsul așteptat este da, a existat. De exemplu, informațiile conținute într-o celulă vegetală despre tipul de plantă, condițiile de germinare, reproducere etc. permit plantei să crească și să se reproducă fără intervenția omului; informațiile acumulate de generații de animale prădătoare formează reflexe condiționate și necondiționate de comportament ale următoarelor generații de prădători.
  3. Materia este din ce este făcut totul, energia este cea care pune totul în mișcare. Este adevărat că informația conduce lumea? Justificati raspunsul. Răspuns: Informația conduce cu adevărat lumea. Un semnal de la Pământ forțează satelitul să-și schimbe traiectoria; dacă vedem o băltoacă pe drum, atunci informațiile despre aspectul ei, că este udă și murdară, ne obligă să ne hotărâm să ocolim băltoaica. Un gest uman caracteristic (un braț întins înainte cu o palmă verticală) ne face să ne oprim; informațiile despre cheia și forma fantei de lacăt ne permit să luăm o decizie privind alegerea unei chei dintr-un buchet; reflexe formate de generații de un anumite specii de păsări controlează procesele migratorii. Citind ficțiune, absorbim experiențele de viață ale personajelor, ceea ce influențează acceptarea anumite deciziiîn propriile noastre vieți; Ascultând o anumită muzică, ne formăm un gust corespunzător, care ne influențează comportamentul, mediul etc.
  4. Numiți tipurile de informații după forma de prezentare, dați exemple. Răspuns: numeric (prețul unui produs, numere din calendar), text (o carte scrisă în orice limbă, text manual), grafic (pictură, fotografie, semn STOP), sunet (muzică, vorbire), video (animație + sunet). ), comandă (reporniți computerul - apăsați Ctrl+Alt+Delete/Enter).
  5. Ce acțiuni pot fi efectuate cu informațiile? Răspuns: Poate fi procesat, transmis, stocat și codificat (reprezentat).
  6. Numiți modurile în care o persoană percepe informațiile. Răspuns: o persoană percepe informații folosind 5 simțuri - viziune (sub forma imagini vizuale), auz (sunete - vorbire, muzică, zgomot...), miros (miros folosind receptori nazali), gust (receptorii limbii disting acru, amar, sărat, rece), atingere (temperatura obiectelor, tipul de suprafață... )
  7. Dați exemple de sisteme de semne. Răspuns: limbaj natural, limbaj formal (sistem de numere zecimale, note, indicatoare rutiere, cod Morse), alfabet genetic, sistem de semne binar.
  8. De ce folosește un computer un sistem de semne binar pentru a codifica informațiile? Răspuns: Sistemul de semne binare este folosit în computer, de când există dispozitive tehnice poate stoca și recunoaște în mod fiabil doar două stări (semne) diferite.

3. Abordare probabilistică a măsurării cantității de informații (vezi prezentarea multimedia).

Astăzi vom vorbi despre măsurarea informațiilor, adică determinarea cantității acesteia. (Elevii notează subiectul lecției într-un caiet - „cantitatea de informații”). Ce carte crezi că conține cantitate mare informații (afișați subțire și gros)? De regulă, elevii o aleg pe cea groasă, deoarece conține mai multe cuvinte, text și litere (unii băieți întreabă ce tip de informații sunt conținute în carte - grafică sau textuală? Ar trebui clarificat că cartea conține doar informații textuale) . Care mesaj vă transmite mai multe informații: „mâine vom studia după programul obișnuit” sau „mâine în loc de literatură va fi chimie”? Elevii vor răspunde intuitiv la acestea din urmă, deoarece, în ciuda faptului că au aproape același număr de cuvinte, al doilea mesaj conține informații mai importante, noi sau relevante pentru ei. Iar primul mesaj nu transmite absolut nimic informație nouă. Ai observat că te-ai uitat la informații din punct de vedere al numărului de caractere pe care le conținea și din punct de vedere al importanței sale semantice pentru tine? Există 2 abordări pentru determinarea cantității de informații – semantică și tehnică (alfabetică). Semantica este folosită pentru a măsura informațiile utilizate de o persoană, iar tehnica (sau alfabetică) este folosită de un computer.

Pentru o persoană, obținerea de noi informații duce la o creștere a cunoștințelor sau la o scădere a incertitudinii. De exemplu, a spune că mâine este miercuri nu reduce incertitudinea, deci nu conține informații. Să luăm o monedă pe care o aruncăm pe o suprafață plană. Știm înainte de aruncare că unul din două lucruri se poate întâmpla - moneda va ajunge în una din două poziții: „capete” sau „cozi”. După aruncare, există o certitudine deplină (primim vizual informații că rezultatul este, de exemplu, „capete”). Un mesaj de informare că „capete” a scăzut ne reduce incertitudinea de 2 ori, deoarece a fost primit unul dintre cele două mesaje de informare.

În realitatea înconjurătoare, apar destul de des situații când pot apărea mai mult de 2 evenimente la fel de probabile. Deci, atunci când aruncați un zar cu șase fețe, există 6 evenimente la fel de probabile. Evenimentul de cădere a uneia dintre laturile cubului reduce incertitudinea de 6 ori. Cu cât numărul inițial de evenimente este mai mare, cu atât este mai mare incertitudinea cunoștințelor noastre, cu atât vom primi mai multe informații atunci când primim un mesaj de informare.

Cantitatea de informații poate fi considerată ca o măsură a reducerii incertitudinii cunoștințelor la primirea mesajelor informaționale.(Elevii notează ceea ce este cu caractere cursive în caietele lor.)

Există o formulă care leagă numărul de mesaje informative posibile N și cantitatea de informații pe care am purtat-o ​​de mesajul primit:

N=2eu (N – numărul de mesaje informative posibile,I – cantitatea de informații pe care o poartă mesajul primit).

Pentru a cuantifica orice cantitate, este necesar să se determine unitatea de măsură. De exemplu, pentru a măsura lungimea, se alege un anumit standard - metru, masă - kilogram.

4. Unităţi de informaţie

In spate unitatea de măsură a cantității de informații cantitatea de informații care este conținută în mesaj este acceptată, reducând incertitudinea cunoașterii de 2 ori. O astfel de unitate se numește pic.

Să revenim la primirea menționată mai sus a unui mesaj de informare care a apărut „capete” la aruncarea unei monede. Aici incertitudinea a scăzut cu un factor de 2, prin urmare acest mesaj este egal cu 1 bit. Mesajul că o anumită parte a matriței a căzut reduce incertitudinea cu un factor de 6, prin urmare acest mesaj este egal cu 6 biți.

Cea mai mică unitate pentru măsurarea cantității de informații este un bit, iar următoarea unitate ca mărime este un octet și

1 octet = 8 biți

ÎN sistem international SI folosește prefixele zecimale „Kilo” (10 3), „Mega” (10 6), „Giga” (10 9), ... Într-un computer, informațiile sunt codificate folosind sistemul de semne binar, prin urmare, în mai multe unități. de măsurare a cantității de informații se folosește un coeficient de 2 n .

1 kilobyte (KB) = 2 10 octeți = 1024 octeți
1 megaoctet (MB) = 2 10 KB = 1024 KB
1 gigaoctet (GB) = 2 10 MB = 1024 MB
1 terabyte (TB) = 2 10 GB = 1024 GB

Un terabyte este o unitate foarte mare de măsură a informației, deci este folosit extrem de rar. Toate informațiile pe care umanitatea le-a acumulat sunt estimate la zeci de terabytes.

5. Determinarea cantității de informații

Sarcina 1. Determinați cantitatea lucrări de examen, dacă mesajul vizual despre numărul unui bilet extras poartă 5 biți de informații. Numărul de bilete este numărul de mesaje informative. N=2 I = 2 5 = 32 bilete.

Sarcina 2. Câtă informație are mesajul despre evaluare Test? Puteți obține 2, 3, 4 sau 5 pentru test. Sunt 4 mesaje în total (N=4). Formula ia forma unei ecuații - 4=2 I = 2 2 , I=2.

Sarcini pentru finalizare independentă: (formula ar trebui să fie întotdeauna în fața ochilor dvs., puteți, de asemenea, să închideți o masă cu puteri de 2) (3 min.)

  1. Câte informații primim în mesajul vizual despre căderea unei piramide octogonale simetrice pe una dintre fețele sale? Răspuns: 3 biți, deoarece numărul de evenimente (mesaje) posibile N=8, 8=2 I = 2 3 , I=3.
  2. Dintr-un sac opac se scot bile cu numere si se stie ca Anunţ conține 5 biți de informații despre numărul mingii. Determinați numărul de bile din pungă. Răspuns: în pungă sunt 32 de bile, deoarece N=2 I = 2 5 = 32.
  3. Când joacă tic-tac-toe pe un teren de 4 X 4 celule, câte informații va primi al doilea jucător după prima mutare a primului jucător? Răspuns: Numărul de evenimente înainte de începerea jocului N=16, 16=2 I = 2 4 , I=4. Al doilea jucător după prima mutare a primului jucător va primi 4 biți de informații.

6. Abordare alfabetică pentru determinarea cantității de informații

Esența abordării tehnice sau alfabetice de măsurare a informațiilor este determinată de numărul de semne ale unui anumit alfabet folosit pentru a o reprezenta. De exemplu, dacă 5 caractere ale alfabetului roman sunt folosite pentru a reprezenta numărul XVIII, atunci aceasta este cantitatea de informații. Același număr, adică aceleași informații, poate fi scris sistem zecimal(18). După cum putem vedea, obținem 2 semne, adică o valoare diferită a cantității de informații. Pentru ca aceeași cantitate de informații să fie obținută la măsurarea aceleiași informații, este necesar să se convină asupra utilizării unui anumit alfabet. Din moment ce în sisteme tehnice Dacă se folosește alfabetul binar, acesta este folosit și pentru a măsura cantitatea de informații. Numărul de caractere din alfabet este N=2, N=2 I, I este cantitatea de informații pe care o poartă un caracter. 22 = 21, I=1bit. Interesant, însăși unitatea de măsură a cantității de informații „bit” și-a primit numele de la expresia engleză „ B.I. nary digi T" - "Cifră binară".

Cu cât numărul de caractere din alfabet este mai mare, cu atât este mai mare cantitatea de informații transportată de un caracter al alfabetului.

Determină-te singur cantitatea de informații pe care o poartă 1 literă a alfabetului rus.

Răspuns: o literă a alfabetului rus conține 5 biți de informații (cu o abordare alfabetică a măsurării informațiilor).

Câte informații sunt conținute într-un caracter de 8 biți? cod binar(simbol A – 11000000)? Răspuns: 8 biți sau 1 octet.

Munca practica(Înmânează - card de instrucțiuni pentru executare munca practica) pentru a determina cantitatea de informații folosind un calculator:

  1. Determinați volumul de informații al următorului mesaj în octeți (mesajul este imprimat pe un card, carduri pe fiecare birou):

Cantitatea de informații pe care o poartă un semn depinde de probabilitatea primirii acestuia. In rusa scris Frecvența de utilizare a literelor în text este diferită, astfel încât, în medie, la 1000 de caractere ale unui text semnificativ există 200 de litere „a” și de o sută de ori mai puțin număr de litere „f” (doar 2). Astfel, din punctul de vedere al teoriei informațiilor, capacitatea de informare a caracterelor alfabetului rus este diferită (litera „a” are cea mai mică, iar litera „f” are cea mai mare).

Determinați numărul de caractere (numărul de caractere dintr-o linie * numărul de linii) - 460 de caractere = 460 de octeți

Introduceți și salvați acest text pe desktop folosind Notepad. Determinați volumul de informații al acestui fișier folosind un computer (Selectați obiectul APKM à Proprietăți) Răspuns: 460 de octeți.

Puteți scrie acest text în formular fișier de sunet 1.wav și comparați cu text (Start à programe à standard à divertisment à înregistrare audio...). Determinați volumul de informații folosind un computer - 5,28 MB (5.537.254 octeți). Explicați elevilor că această diferență este cauzată de diferența de reprezentare a sunetului și informații text. Caracteristicile acestei reprezentări vor fi discutate mai târziu.

2. Stabiliți câte manuale vor încăpea pe un disc cu un volum de informații de 700 MB. Răspuns: 1. determinați numărul de caractere din manual (număr de caractere pe linie * număr de rânduri pe pagină * număr de pagini) 60 * 30 *203 = 365400 caractere = 365400 octeți = 365400/1024/1024 MB = 0,35 MB . Număr de manuale K=700/0,35= 2000 de manuale.

7. Rezumând lecția sub forma unui sondaj frontal:

  1. Ce abordări există pentru a determina cantitatea de informații? Răspuns: există 2 abordări pentru măsurarea cantității de informații - semantică și tehnică sau alfabetică.
  2. Care este diferența dintre o abordare și alta? Răspuns: cu abordarea semantică, cantitatea de informație este o măsură de reducere a incertitudinii cunoașterii la primirea unui mesaj informativ, cu abordarea alfabetică - numărul de caractere din mesaj * cantitatea de informație purtată de 1 caracter al alfabetului .
  3. Numiți unitățile de informații de la cel mai mic la cel mai mare. Răspuns: bit, octet, KB, MB, GB, TB.
  4. Care este diferența dintre un octet și un KB, un KB dintr-un MB și un MB dintr-un GB? Răspuns: 1024 (2 10).
  5. Câți biți sunt într-un octet? Raspuns: 8.
  6. Ce este un pic în abordarea semantică și alfabetică pentru a determina cantitatea de informații? Răspuns: printr-o abordare semantică, bitul reprezintă o reducere a incertitudinii cunoașterii de 2 ori la primirea unui mesaj de informare; în abordarea alfabetică, un bit este capacitatea de informare a unui caracter în codarea binară.

8. Tema pentru acasă

  1. Paragrafele 1.3.1 și 1.1.3 (N. Ugrinovich „Informatică. Curs de bază. Clasa a VIII-a") 2 întrebări la pagina 29 (1. Dați exemple de mesaje informative care duc la scăderea incertitudinii cunoștințelor. 2. Dați exemple de mesaje informative care poartă 1 bit de informație).
  2. Sarcini: 1. Câte informații conține mesajul de evaluare pentru test? 2. Calculați câte informații în biți sunt conținute în 1 KB, 1 MB? 3. Calculați câte cărți (luați orice carte de ficțiune acasă) vor încăpea pe o dischetă de 1,44 MB.

Metoda volumetrica de masurare a informatiilor

Metoda tehnica Măsurarea cantității de informații (sau, mai precis, a volumului de informații al unui mesaj) se bazează pe numărarea numărului de caractere din care este format mesajul. În acest caz, conținutul semantic al mesajului nu este luat în considerare. De exemplu, repetarea repetată a aceluiași text nu aduce informații noi, dar ca urmare ocupă mai multă memorie, necesită mai mult timp pentru transmitere etc. Prin urmare, această metodă este convenabilă în calculele tehnice.

K. măsura Shannon

Matematicianul și inginerul american K. Shannon a obținut în 1948 o formulă pentru calcularea cantității de informații conținute într-un sistem care are un set arbitrar de non-la fel de probabile (în caz general) afirmă

unde n este numărul de stări posibile ale sistemului, pi este probabilitatea stării i-a (și pi = 1)

Cu cât probabilitatea de a se produce un eveniment este mai mică, cu atât mai multe informatii acest eveniment poartă.

Să ne uităm la un exemplu:

Biblioteca are opt rafturi. Cartea poate fi plasată pe oricare dintre ele. Câte informații conține mesajul despre locul unde se află cartea?

Să folosim metoda pe jumătate. Să punem câteva întrebări care reduc incertitudinea cunoașterii la jumătate.

Pune întrebări:

Cartea este deasupra celui de-al patrulea raft?

Cartea este sub al treilea raft? -Da.

Cartea este pe al doilea raft?

Ei bine, acum totul este clar! Cartea este pe primul raft! Fiecare răspuns a redus incertitudinea la jumătate.

Au fost puse în total trei întrebări. Aceasta înseamnă că au fost introduși 3 biți de informații. Și dacă s-ar spune imediat că cartea este pe primul raft, atunci aceiași 3 biți de informații ar fi transmise prin acest mesaj.

Dacă notăm numărul posibil de evenimente sau, cu alte cuvinte, incertitudinea cunoașterii N, iar litera I este cantitatea de informații din mesaj că a avut loc unul dintre N evenimente, atunci putem scrie formula:

Cantitatea de informații conținute într-un mesaj că unul dintre N evenimente la fel de probabile a avut loc este determinată prin rezolvarea ecuației exponențiale:

Acum să ne uităm la un alt mod de a măsura informațiile. Această metodă nu pune în legătură cantitatea de informații cu conținutul mesajului și se numește abordare alfabetică.

Prin abordarea alfabetică a determinării cantității de informații, se face abstracție din conținutul informațiilor și se consideră mesajul informațional ca o secvență de semne ale unui anumit sistem de semne.

În mod tradițional, vom numi alfabet întregul set de simboluri folosite într-o limbă. De obicei, alfabetul se referă doar la litere, dar întrucât textul poate conține semne de punctuație, cifre și paranteze, le vom include și în alfabet. Alfabetul ar trebui să includă și un spațiu, de ex. spațiu între cuvinte.


Numărul total de caractere ale alfabetului este de obicei numit puterea alfabetului. Vom nota această cantitate cu litera N. De exemplu, puterea alfabetului literelor rusești și marcate caractere suplimentare este egal cu 54.

Oricare dintre N caractere poate apărea în fiecare poziție de text următoare. Apoi, conform formulei cunoscute nouă, fiecare astfel de simbol poartă I bit de informație, care poate fi determinat din rezolvarea ecuației: 2I = 54. Se obține: I = 5,755 biți.

Cam atâta informație poartă un personaj într-un text rusesc! Și acum, pentru a găsi cantitatea de informații din întregul text, trebuie să numărați numărul de caractere din acesta și să înmulțiți cu I.

Să numărăm cantitatea de informații de pe o pagină a cărții. Lăsați pagina să conțină 50 de rânduri. Fiecare rând conține 60 de caractere. Aceasta înseamnă că 50x60=3000 de caractere se potrivesc pe pagină. Atunci volumul de informații va fi egal cu: 5,755 x 3000 = 17265 biți.

În abordarea alfabetică a măsurării informațiilor, cantitatea de informații depinde nu de conținut, ci de dimensiunea textului și de puterea alfabetului.

Lasă o carte mică realizată folosind un computer să conțină 150 de pagini; fiecare pagină are 40 de rânduri, fiecare rând are 60 de caractere. Aceasta înseamnă că pagina conține 40x60=2400 de octeți de informații. Volumul tuturor informațiilor din carte: 2400 x 150 = 360.000 de octeți.

În orice sistem de unități de măsură, există unități de bază și derivate din acestea.

Pentru a măsura cantități mari de informații, se folosesc următoarele unități derivate din octet:

1 kilobyte = 1Kb = 210 bytes = 1024 bytes.

1 megaoctet = 1 MB = 210 KB = 1024 KB.

1 gigabyte = 1 GB = 210 MB = 1024 MB.

Recepția și transmiterea informațiilor pot avea loc cu la viteze diferite. Cantitatea de informații transmise pe unitatea de timp este viteza de transmitere a informațiilor sau viteza fluxului de informații.

Evident, această viteză este exprimată în unități precum biți pe secundă (bps), octeți pe secundă (octeți/s), kiloocteți pe secundă (KB/s), etc.

Întrebări de autotest

Întrebări de autotest

1. Expunerea formală și informală a problemei.

2. Definiți „modelul” și cerințele pentru modelare.

3. Caracteristicile etapelor construirii unui model informativ.

4. Clasificarea modelelor.

5. Tipuri de formulare pentru reprezentarea modelelor informaţionale.

6. Etapele dezvoltării modelelor informatice.

7. Informații, clasificarea informațiilor.

8. Metode de obținere și utilizare a informațiilor.

9. Mediu de stocare.

10. Metode de măsurare a informaţiei.

11. Abordare alfabetică la măsurarea informaţiei.

Pentru a putea compara diverse surse mesaje şi linii diferite si canalele de comunicare, este necesar sa introducem o masura cantitativa care sa ne permita sa evaluam informatiile continute in mesaj si purtate de semnal. O astfel de măsură sub forma cantității de informații a fost introdusă de K. Shannon pe baza conceptului de alegere, ceea ce i-a permis să construiască o teorie matematică a comunicării destul de generală.

Să luăm în considerare ideile principale ale acestei teorii în raport cu sursă discretă, care emite o succesiune de mesaje elementare. Să încercăm să găsim o măsură convenabilă a cantității de informații conținute într-un mesaj. Ideea principală a teoriei informațiilor este că această măsură este determinată nu de conținutul specific al unui mesaj dat, ci de faptul că sursa selectează o anumită comunicare elementară dintr-un set finit. Această idee este justificată de faptul că pe baza ei a fost posibil să se obțină o serie de rezultate de anvergură și, în același timp, non-triviale, care sunt în bun acord cu ideile intuitive despre transferul de informații. Principalele rezultate ale acestor rezultate vor fi prezentate mai jos.

Deci, dacă o sursă selectează un mesaj elementar () dintr-un set de alfabet, atunci cantitatea de informații pe care o produce nu depinde de conținutul specific al acestui element, ci de modul în care se face această selecție. Dacă elementul de mesaj selectat este predeterminat, atunci este firesc să presupunem că informația conținută în el este egală cu zero. Prin urmare, vom presupune că alegerea unei litere are loc cu o anumită probabilitate. Această probabilitate poate depinde, în general, de ce secvență a precedat litera dată. Să presupunem că cantitatea de informații conținute într-un mesaj elementar este functie continua această probabilitate și vom încerca să determinăm forma acestei funcții astfel încât să satisfacă unele dintre cele mai simple idei intuitive despre informații.

În acest scop, vom realiza o simplă transformare a mesajului, care constă în faptul că vom considera fiecare pereche de „litere” creată secvenţial de sursă ca o „scrisoare” mărită. Numim o astfel de transformare o mărire a alfabetului. Un set de „litere” mărite formează un alfabet de volum, deoarece după fiecare element al alfabetului poate fi selectat, în general, orice element. Să existe o probabilitate ca sursa să facă o selecție secvențială a elementelor și . Apoi, considerând perechea ca o literă a unui nou alfabet, se poate argumenta că această pereche conține o cantitate de informații.

Este firesc să se ceară ca cantitatea de informații conținută într-o pereche de litere să satisfacă condiția de aditivitate, adică să fie egală cu suma cantităților de informații conținute în fiecare dintre litere și alfabetul original. Informația conținută într-o scrisoare este egală cu , unde este probabilitatea de a alege o literă după toate literele care au precedat-o. Pentru a determina informațiile conținute în scrisoare, trebuie să țineți cont de probabilitatea de a alege scrisoarea după scrisoare, luând în considerare și toate literele care au precedat scrisoarea. Notăm această probabilitate condiționată cu . Apoi, cantitatea de informații dintr-o scrisoare va fi exprimată de funcție.

Pe de altă parte, probabilitatea de a alege o pereche de litere după regula înmulțirii probabilităților este egală cu

Cerința de aditivitate a cantității de informații în timpul operațiunii de extindere a alfabetului duce la egalitate

Lăsați-l să fie. Apoi pentru orice și trebuie urmată ecuația

Excludem cazuri sau din considerare, deoarece din cauza numărului finit de litere ale alfabetului, aceste egalități înseamnă că alegerea unei perechi de litere de către sursă este un eveniment imposibil.

Egalitatea (1.3) este o ecuație funcțională din care poate fi determinat tipul funcției. Să diferențiem ambele părți ale ecuației (1.3) în raport cu p:

.

Înmulțim ambele părți ale ecuației rezultate cu p și introducem notația , atunci

(1.4)

Această ecuație trebuie să fie valabilă pentru orice. Ultima restricție nu este semnificativă, deoarece ecuația (1.4) este simetrică față de și, prin urmare, trebuie îndeplinită pentru orice pereche de valori pozitive ale argumentelor care nu depășește unu. Dar acest lucru este posibil numai dacă ambele părți ale (1.4) reprezintă o valoare constantă, de unde

Integrând ecuația rezultată, găsim

, (1.5)

unde este o constantă de integrare arbitrară.

Formula (1.5) definește o clasă de funcții care exprimă cantitatea de informații atunci când se alege o literă care are o probabilitate și satisface condiția de aditivitate. Pentru a determina constanta de integrare, folosim condiția menționată mai sus, conform căreia în prealabil element predefinit mesajele, adică având o probabilitate, nu conține informații. Prin urmare, , din care rezultă imediat că . - baza logaritmilor naturali), sau, cu alte cuvinte, este egală cu informația conținută în mesaj că a avut loc un eveniment, a cărui probabilitate a fost egală cu

avand in vedere ca logaritmul este luat la orice baza, atata timp cat aceasta baza se mentine pe toata durata problemei care se rezolva.

Datorită proprietății de aditivitate a informațiilor, expresiile (1.6) fac posibilă determinarea cantității de informații nu numai în litera unui mesaj, ci și în orice mesaj de orice lungime. Trebuie doar să iei probabilitatea de a alege acest mesaj dintre toate posibilele, ținând cont de mesajele selectate anterior.

Proprietățile informațiilor

Conceptul de „informație” este folosit de multe discipline științifice și are un numar mare de diverse proprietăți, dar fiecare disciplină acordă atenție acelor proprietăți ale informațiilor care sunt cele mai importante pentru ea. În cadrul examinării noastre, cele mai importante proprietăți sunt precum dualism, completitudine, fiabilitate, adecvare, accesibilitate, relevanță. Să le aruncăm o privire mai atentă.

Dualismul informațieiîi caracterizează dualitatea. Pe de o parte, informația este obiectivă datorită obiectivității datelor, pe de altă parte, este subiectivă datorită subiectivității metodelor utilizate. De exemplu, doi oameni citesc aceeași carte și uneori devin foarte diverse informatii. Informațiile mai obiective utilizează metode cu un element mai puțin subiectiv.

Completitudinea informațiilor caracterizează gradul de suficiență al datelor pentru luarea unei decizii sau crearea de noi date pe baza datelor existente. Atât seturile de date incomplete, cât și redundante fac dificilă obținerea de informații și luarea deciziilor adecvate.

Fiabilitatea informațiilor– aceasta este o proprietate care caracterizează gradul de corespondență a informațiilor cu un obiect real cu acuratețea cerută. Când lucrați cu un set incomplet de date, fiabilitatea informațiilor poate fi caracterizată prin probabilitate, de exemplu, atunci când aruncați o monedă, stema va apărea cu o probabilitate de 50%.

Adecvarea informațiilor exprimă gradul de corespondență a imaginii create folosind informații cu un obiect, proces sau fenomen real. Chitanță informatii adecvate este îngreunată de indisponibilitatea metodelor adecvate.

Disponibilitatea informațiilor– aceasta este ocazia de a obține informații dacă este necesar. Disponibilitatea constă din două componente: disponibilitatea datelor și disponibilitatea metodei. Absența a cel puțin unuia oferă informații inadecvate.

Relevanța informațiilor. Informația există în timp, deoarece toate procesele informaționale există în timp. Informațiile care sunt relevante astăzi pot deveni complet inutile după un timp. De exemplu, programul TV din această săptămână nu va fi relevant pentru mulți telespectatori săptămâna viitoare.

Proprietăți atributive (atributul este o parte integrantă a ceva). Cele mai importante dintre ele sunt - discretie(informația constă în piese individuale, semne) și continuitate(capacitatea de a acumula informații).

Toate informațiile conțin o componentă subiectivă. Este chiar posibil să se măsoare obiectiv cantitatea de informații? Cel mai important rezultat al teoriei informaţiei este concluzia că în anumite condiţii, este posibil, neglijând trăsăturile calitative ale informaţiei, să-şi exprime cantitatea prin numărși, prin urmare, comparați cantitatea de informații conținute în diverse grupuri date.



Cantitatea de informații este o caracteristică numerică a informaţiei care reflectă gradul de incertitudine care dispare după primirea informaţiei.

Conceptele de „informație”, „incertitudine”, „alegere” sunt strâns legate. Informațiile primite reduc numărul opțiuni posibile alegere (adică incertitudine) și informatii complete nu lasa deloc optiuni.

Câte informații sunt conținute, de exemplu, în textul romanului „Război și pace”, în frescele lui Rafael sau în codul genetic uman? Este posibil să se măsoare obiectiv cantitatea de informații?

În termeni științifici, conceptul de „informație” este asociat cu probabilitatea ca un anumit eveniment să se producă.

Probabilitate– o caracteristică numerică a gradului de posibilitate a producerii unui eveniment. Probabilitatea unui eveniment de încredere (trebuie să se întâmple) este 1, un eveniment imposibil (nu se va întâmpla niciodată) este 0. Probabilitatea unui eveniment aleatoriu se află în intervalul (0, 1). De exemplu, probabilitatea de a obține capete când aruncați o monedă este 1/2, iar probabilitatea de a obține fiecare parte când jucați zaruri este 1/6.

Aleatoriu numit eveniment ceea ce se poate întâmpla sau nu. Exemple evenimente aleatorii poate fi aspectul „capetelor” atunci când aruncați o monedă sau numărul de puncte (adică, aspectul unei anumite părți) când jucați zaruri.

Inginerul american R. Hartley (1928) a considerat procesul de obținere a informațiilor ca la selectarea unui mesaj dintr-un set finit predeterminat de N mesaje la fel de probabile și cantitatea de informații eu, conținut în mesajul selectat, este definit ca logaritm binar N.

Să presupunem că trebuie să ghiciți un număr dintr-un set de numere de la unu la o sută. Conform formulei lui Hartley eu= jurnalul 2 N puteți calcula câte informații sunt necesare pentru aceasta: eu= Iog 2 l00 = 6,644 biți, adică mesajul despre un număr ghicit corect conține o cantitate de informații aproximativ egală cu 6.644 de biți.

Omul de știință american Claude Shannon a propus în 1948 o altă formulă pentru determinarea cantității de informații, ținând cont de posibila probabilitate inegală a mesajelor într-un set:

eu = - (P 1 jurnal 2 P 1 + R 2 jurnal 2 R 2 + . . . + P N jurnalul 2 P N),

Unde P i– probabilitatea ca exact i-e mesajul este selectat în setul de N mesaje.

Dacă probabilităţile P 1 , R 2 , …, P N sunt egale, atunci fiecare dintre ele este egal cu 1/ N, iar formula lui Shannon se transformă în formula lui Hartley.

Analiza formulei arată că cu cât probabilitatea unui eveniment este mai mare, cu atât mai puține informații apar după apariția acestuia și invers. Dacă probabilitatea este 1 (evenimentul este cert), cantitatea de informații este 0.

Dacă probabilitatea apariției sau eșecului oricărui eveniment este aceeași, i.e. este egal cu 1/2, atunci cantitatea de informație pe care o poartă acest eveniment este egală cu 1. Aceasta este unitatea de măsură a informațiilor care se numește pic.

Un bit poate fi definit și ca cantitatea de informații care conține o cifră a unui număr binar (de unde și numele „bit”: cifră binară). Picîn teoria informației - cantitatea de informații, necesar să se facă distincția între două mesaje la fel de probabile.

Se numește cantitatea de informații egală cu 8 biți octet. Opt biți pot conține 256 de numere întregi diferite. numere binare de la 00000000 la 11111111. Unitățile de informații derivate mai mari sunt utilizate pe scară largă:

1 Kilobyte (KB) = 1024 bytes;

1 Megaoctet (MB) = 1024 KB;

1 gigaoctet (GB) = 1024 MB.

1 Terabyte (TB) = 1024 GB;

1 petabyte (PB) = 1024 TB.

Cele mai bune articole pe această temă