Как настроить смартфоны и ПК. Информационный портал
  • Главная
  • Железо
  • Количество информации в сообщении содержащем. Урок по информатике и ИКТ "Количество информации как мера уменьшения неопределенности знаний

Количество информации в сообщении содержащем. Урок по информатике и ИКТ "Количество информации как мера уменьшения неопределенности знаний

Данные об авторе

Четвергова Ю. Н.

Место работы, должность:

МОУ "Средняя общеобразовательная школа №1 г. Порхова", учитель

Псковская область

Характеристики урока (занятия)

Уровень образования:

Среднее (полное) общее образование

Целевая аудитория:

Учитель (преподаватель)

Класс(ы):

Предмет(ы):

Информатика и ИКТ

Цель урока:

Повторение, закрепление, контроль знаний и умений

Тип урока:

Урок комплексного применения ЗУН учащихся

Учащихся в классе (аудитории):

Используемая методическая литература:

Поурочные разработки по информатике. 10 класс. О. Л. Соколова;

Используемое оборудование:

Программа "Калькулятор"

Калькулятор

Тема. Количество информации. Формулы Хартли и Шеннона

Ход занятия

Повторение материала пройденного на уроке. Дополнение.(10 минут)

Тренировочные карточки. Групповая работа (20 минут)

Решение задач. Парная работа (10 минут)

Контрольная работа. (40 минут)

Взаимопроверка. Работа над ошибками.

Основные знания, умения и компетенции

Знания:

Какие события равновероянные, какие - не равновероятные;

Как найти вероятность события;

Как найти количество информации в сообщении при разных событиях.

Умения:

Различать равновероятные и не равновероятные события;

Находить количество информации при разных событиях.

Компетенции:

Сотрудничество

Коммуникативность

Креативность и любознательность

Критическое мышление (оценочное суждение)

Повторение материала пройденного на уроке

Какие события равновероянные, какие - не равновероятные?

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

I = log 2 K ,
Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2 I .
Иногда формулу Хартли записывают так:

I = log 2 K = log 2 (1 / р) = - log 2 р,
т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

Решение.

Такое сообщение содержит I = log 2 3 = 1,585 бита информации.

Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или "правило бутерброда".

"Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня:

Не горюй, это сработал закон бутерброда.

Что еще за закон такой? - спросил я.

Закон, который гласит: "Бутерброд всегда падает маслом вниз". Впрочем, это шутка, - продолжал брат.- Никакого закона нет. Просто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

Давай-ка еще пару раз уроним бутерброд, проверим, - предложил я. - Все равно ведь его придется выкидывать.

Проверили. Из десяти раз восемь бутерброд упал маслом вниз.

И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх?

Наши опыты прервала мать…"
(Отрывок из книги "Секрет великих полководцев", В.Абчук).

В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.
Если I - количество информации,
К - количество возможных событий, р i - вероятности отдельных событий,
то количество информации для событий с различными вероятностями можно определить по формуле:

I = - Sum р i log 2 р i , где i принимает значения от 1 до К.

Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

I = - Sum 1 / К log 2 (1 / К ) = I = log 2 К .

При равновероятных событиях получаемое количество информации максимально.

Как найти вероятность события?

Если заключённые в каком-то сообщении сведения являются для человека новыми, понятными, пополняют его знания, т.е. приводят к уменьшению неопределённости знаний, то сообщение содержит информацию.

1 бит - количество информации, которое содержится в сообщении, которое уменьшает неопределённость знаний в 2 раза.

Пример

При бросании монеты возможны 2 события (случая) - монета упадёт орлом или решкой, причём оба события равновероятны (при большом количестве бросаний количество случаев падения монеты орлом и решкой одинаковы). После получения сообщения о результате падения монеты неопределённость знаний уменьшилась в 2 раза, и, поэтому, количество информации, полученное при этом равно 1 бит.

Как найти количество информации в сообщении при разных событиях?

Вычисление количества информации для равновероятных событий.

Если события равновероятны, то количество информации можно рассчитать по формуле:

N = 2 I

где N - число возможных событий,

I - количество информации в битах.

Формула была предложена американским инженером Р. Хартли в 1928 г.

Задача 1. В коробке 32 карандаша, все карандаши разного цвета. Наугад вытащили красный. Какое количество информации при этом было получено?

Решение.

Так как вытаскивание карандаша любого цвета из имеющихся в коробке 32 карандашей является равновероятным, то число возможных событий

равно 32.

N = 32, I = ?

N = 2 I , 32 = 2 5 , I = 5 бит .

Ответ: 5 бит.

Вычисление количества информации для событий с различными вероятностями.

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Рассмотрим примеры таких событий.

1. В коробке 20 карандашей, из них 15 красных и 5 чёрных. Вероятность вытащить наугад красный карандаш больше, чем чёрный.

2. При случайном падении бутерброда вероятность падения его маслом вниз (более тяжёлой стороной) больше, чем маслом вверх.

3. В пруду живут 8000 карасей, 2000 щук и 40000 пескарей. Самая большая вероятность для рыбака - поймать в этом пруду пескаря, на втором месте - карася, на третьем - щуку.

Количество информации в сообщении о некотором событии зависит от его вероятности. Чем меньше вероятность события, тем больше информации оно несёт.
P = K / N , где К - количество случаев реализации одного из исходов события, N - общее число возможных исходов одного из событий
2
I = log 2 (1/ p ), где I - количество информации, p - вероятность события

Задача 1. В коробке 50 шаров, из них 40 белых и 10 чёрных. Определить количество информации в сообщении о вытаскивании наугад белого шара и чёрного шара.

Решение .
Вероятность вытаскивания белого шара

P 1 = 40/50 = 0,8
Вероятность вытаскивания чёрного шара
P 2 = 10/50 = 0,2
Количество информации о вытаскивании белого шара
I 1 = log 2 (1/0,8) = log 2 1,25 = log 1,25/ log 2 » 0,32 бит
Количество информации о вытаскивании чёрного шара

I 2 = log 2 (1/0,2) = log 2 5 = log5/log2 » 2,32 бит

Ответ : 0,32 бит, 2,32 бит

Что такое логарифм?

Логарифмом числа а по основанию b называется показатель степени, в которую надо возвести число a , чтобы получить число b .

a logab = b, a > 0, b > 0, a ≠ 1

Разбор задач
Определить количество информации, получаемое при реализации одного из событий, если бросают
а) несимметричную четырехгранную пирамидку;
б) симметричную и однородную четырехгранную пирамидку.

Решение.

А) Будем бросать несимметричную четырехгранную пирамидку.
Вероятность отдельных событий будет такова:
р1 = 1 / 2,
р2 = 1 / 4,
р3 = 1 / 8,
р4 = 1 / 8,
тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:
I = -(1 / 2 log 2 1/2 + 1 / 4 log 2 1/4 + 1 / 8 log 2 1/8 + 1 / 8 log 2 1/8) = 1 / 2 + 2 / 4 + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).
б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:
I = log 2 4 = 2 (бит).
2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?
3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?
4. Сколько различных чисел можно закодировать с помощью 8 бит?
Решение: I=8 бит, K=2 I =2 8 =256 различных чисел.

Задача 2. В озере живут караси и окуни. Подсчитано, что карасей 1500, а окуней - 500. Сколько информации содержится в сообщениях о том, что рыбак поймал карася, окуня, поймал рыбу?

Решение.
События поимки карася или окуня не являются равновероятными, так как окуней в озере меньше, чем карасей.

Общее количество карасей и окуней в пруду 1500 + 500 = 2000.
Вероятность попадания на удочку карася

p 1 = 1500/2000 = 0,75, окуня p 2 = 500/2000 = 0,25.

I 1 = log 2 (1/ p I ), I 1 = log 2 (1/ p 2 ), где P 1 и P 2 - вероятности поймать карася и окуня соответственно.

I 1 = log 2 (1 / 0,75) » 0,43 бит, I 2 = log 2 (1 / 0,25) =2 бит - количество информации в сообщении поймать карася и поймать окуня соответственно.

Количество информации в сообщении поймать рыбу (карася или окуня) рассчитывается по формуле Шеннона

I = - p 1 log 2 p 1 - p 2 log 2 p 2

I = - 0,75*log 2 0,75 - 0,25*log 2 0,25 = - 0,75*(log0,75/log2)-0,25*(log0,25/log2) =

0,311 + 0,5 = 0,811

Ответ: в сообщении содержится 0,811 бит информации

Тренировочные карточки (20 минут)

№1

1. В коробке лежало 32 разноцветных карандаша. Сколько информации несет сообщение о том, что из коробки достали красный карандаш?

2. Сообщение о том, что ваш друг живет на 9 этаже, несет 4 бита информации. Сколько этажей в доме?

3. Сколько килобайтов составит сообщение из 384 символов 16-ти символьного алфавита?

4. Книга, набранная с помощью компьютера, содержит 250 страниц; на каждой странице—40 строк, в каждой строке—60 символов. Каков объем информации в книге?

5. Записать следующие числа в двоичной системе счисления: 37 и 52.

№2

2. В школьной библиотеке 8 стеллажей с книгами. На каждом стеллаже 4 полки. Библиотекарь сообщил Васе, что нужная ему книга находится на пятом стеллаже на второй сверху полке. Какое количество информации библиотекарь передал Васе?

4. Какой объем информации содержит сообщение, уменьшающее неопределенность знаний в 2 раза?

5. Записать следующие числа в двоичной системе счисления: 12 и 49.

1. При угадывании целого числа в некотором диапазоне было получено 8 бит информации. Сколько чисел содержит этот диапазон?

2. Вы подошли к светофору, когда горел красный свет. После этого загорелся желтый свет. Сколько информации вы при этом получили?

3. Племя Пульти имеет 16-ти символьный алфавит. Племя Мульти использует 32-х символьный алфавит. Вожди племен обменялись письмами. Письмо племени Пульти содержало 90 символов, а письмо племени Мульти—70 символов. Сравните объемы информации, содержащейся в письмах.

4. Сколько килобайт составит сообщение из 384 символов 8-ми символьного алфавита?

5. Записать следующие числа в двоичной системе счисления: 33 и 15.

2. Сообщение занимает 2 страницы и содержит 1/16Кбайта информации. На каждой странице записано 256 символов. Какое количество информации несет одна буква использованного алфавита?

3. Сообщение, записанное буквами из 128-ми символьного алфавита, содержит 11 символов. Какой объем информации оно несет?

4. В коробке лежат 64 разноцветных карандаша. Какое количество информации содержит сообщение, что из коробки достали зеленый карандаш?

5. Записать следующие числа в двоичной системе счисления: 17 и 42.

1. Какое количество информации получит второй игрок после первого хода первого игрока в игре “крестики-нолики” на поле 4х4?

2. В барабане для розыгрыша лотереи находится 8 шаров. Сколько информации содержит сообщение о первом выпавшем номере, например, выпал номер 2?

3. Количество бит информации в сообщении “Миша на олимпиаде по информатике занял одно из 16 мест”?

4. Растровый графический файл содержит черно-белое изображение с 16 градациями серого цвета размером 10х10 точек. Каков информационный объем этого файла?

5. Записать следующие числа в двоичной системе счисления: 28 и 51.

1. Алфавит племени Мульти состоит из 8 букв. Какое количество информации содержит сообщение, состоящее из 13 символов?

2. Растровый графический файл содержит черно-белое изображение (без градаций серого) размером 100х100 точек. Каков информационный объем этого файла?

3. При угадывании целого числа в некотором диапазоне было получено 5 бит информации. Сколько чисел содержит этот диапазон?

4. Была получена телеграмма: ” Встречайте, вагон 6”. Известно, что в составе поезда 16 вагонов. Какое количество информации было получено?

5. Записать следующие числа в двоичной системе счисления: 23 и 38.

1. Производится бросание симметричной четырехгранной пирамидки. Какое количество информации мы получаем в зрительном сообщении о ее падении на одну из граней?

2. Каков информационный объем текста, содержащего слово КОДИРОВКА, в 8-ми битной кодировке?

3. Цветное (с палитрой из 256 цветов) растровое графическое изображение имеет размер 10х10 точек. Какой объем памяти займет это изображение?

4. Сообщение о том, что ваш друг живет на 8 этаже, несет 4 бита информации. Сколько этажей в доме?

5. Записать следующие числа в двоичной системе счисления: 19 и 46.

1. Происходит выбор одной карты из колоды в 32карты. Какое количество информации мы получаем в зрительном сообщении о выборе определенной карты?

2. Какое количество информации требуется для двоичного кодирования каждого символа набора из 256 символов?

3. Текст занимает 0,5Кбайта памяти компьютера. Сколько символов содержит этот текст?

4. Алфавит племени Пульти состоит из 128 букв. Какое количество информации несет одна буква этого алфавита?

5. Записать следующие числа в двоичной системе счисления: 11 и 35.

1. “Дома ли твой друг?”— спросили ученика в школе. “Нет”,— ответил он. Сколько информации содержит ответ?

2. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байтов?

3. В коробке лежат 16 разноцветных шаров. Какое количество информации содержит сообщение, что из коробки достали желтый шар?

4. При угадывании целого числа в некотором диапазоне было получено 5 бит информации. Сколько чисел содержит этот диапазон?

5. Записать следующие числа в двоичной системе счисления: 13 и 41.

1. Чему равно количество бит информации в сообщении “Ваня на олимпиаде по информатике занял одно из 8 мест”?

2. Книга, набранная с помощью компьютера, содержит 150 страниц; на каждой странице — 40 строк, в каждой строке — 60 символов. Каков объем информации в книге? Определить в Кбайтах.

3. При угадывании целого числа в диапазоне от 1 до N было получено 8 бит информации. Чему равно N?

4. Сообщение, записанное буквами из 32-х символьного алфавита, содержит 30 символов. Какой объем информации оно несет?

5. Записать следующие числа в двоичной системе счисления: 16 и 39.

1. Алфавит племени Мульти состоит из 16 букв. Какое количество информации несет одна буква этого алфавита?

2. Сообщение о том, что ваш друг живет на 8 этаже, несет 5 бит информации. Сколько этажей в доме?

3. Найти максимальное количество книг (каждая объемом 200 страниц, на каждой странице 60 строк, 80 символов в строке), полностью размещенных на лазерном диске емкостью 600 Мбайт.

4. Какое количество информации, необходимо для отгадывания одного из 64 чисел?

5. Записать следующие числа в двоичной системе счисления: 14 и 53.

1. Была получена телеграмма: ”Встречайте, вагон 4”. Известно, что в составе поезда 8 вагонов. Какое количество информации было получено?

2. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита (сколько символов в алфавите?), с помощью которого записано сообщение?

3. “Вы выходите на следующей остановке?” — спросили человека в автобусе. “Да”, — ответил он. Сколько информации содержит ответ?

4. Сообщение, записанное буквами из 16-ти символьного алфавита, содержит 25 символов. Какой объем информации содержит ответ?

5. Записать следующие числа в двоичной системе счисления: 26 и 47.

1. Сколько килобайтов составляет сообщение, содержащее 12288 битов?

2. Какой объем информации содержит сообщение, уменьшающее неопределенность знаний в 4 раза?

3. Сколько символов содержит сообщение, записанное с помощью 16-ти символьного алфавита, если объем его составил 1/16 часть Мбайта?

4. Группа школьников пришла в бассейн, в котором 8 дорожек для плавания. Тренер сообщил, что группа будет плавать на дорожке номер 4. Сколько информации получили школьники из этого сообщения?

5. Записать следующие числа в двоичной системе счисления: 18 и 25.

1. Вы подошли к светофору, когда горел желтый свет. После этого загорелся зеленый. Какое количество информации вы при этом получили?

2. Для записи текста использовался 256-ти символьный алфавит. Каждая страница содержит 30 строк по 60 символов в строке. Какой объем информации содержат 6 страниц текста?

3. В барабане для розыгрыша лотереи находится 64 шара. Сколько информации содержит сообщение о первом выпавшем номере (например, выпал номер 32)?

4. При угадывании целого числа в некотором диапазоне было получено 7 бит информации. Сколько чисел содержит этот диапазон?

5. Записать следующие числа в двоичной системе счисления: 27 и 56.

1. Сообщение о том, что Петя живет в первом подъезде, несет 2 бита информации. Сколько подъездов в доме?

2. Сообщение, записанное буквами из 128-ми символьного алфавита, содержит 40 символов. Какой объем информации оно несет?

3. Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение?

4. Сколько килобайтов составит сообщение из 284 символов 16-ти символьного алфавита?

5. Записать следующие числа в двоичной системе счисления: 10 и 29.

1. Какое количество информации получит второй игрок после первого хода первого игрока в игре в “крестики-нолики” на поле 4х4?

2. Какое количество байт информации содержится в 1Мбайте?

3. Каково было количество возможных событий, если после реализации одного из них мы получили количество информации равное 7 бит?

4. Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?

5. Записать следующие числа в двоичной системе счисления: 22 и 59.

1. Сообщение, записанное буквами из 128-ми символьного алфавита, содержит 40 символов. Какой объем информации оно несет?

2. Какое количество информации получит второй игрок в игре “Угадай число” при правильной стратегии, если первый игрок загадал число в интервале от 1 до 64?

3. Для записи текста использовался 256-ти символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 3 страницы текста?

4. Текст занимает 0,25Кбайт памяти компьютера. Сколько символов содержит этот текст?

5. Записать следующие числа в двоичной системе счисления: 32 и 51.

1. Какое количество бит информации содержится в 1 Кбайте?

2. Первое племя имеет 16-ти символьный алфавит. Второе племя использует 32-х символьный алфавит. Вожди племен обменялись письмами. Письмо первого племени содержало 90 символов, а письмо второго племени — 80 символов. Сравните объемы информации, содержащейся в письмах.

3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?

4. Информация передается со скоростью 2,5Кбайт/с. Какой объем информации будет передан за 20мин?

5. Записать следующие числа в двоичной системе счисления: 21 и 48.

Решение задач по выбору (20 минут)

№1

Сообщение записано с помощью алфавита, содержащего 8 символов. Ка кое количество информации несет одна буква этого алфавита? Решение: I = log 2 8 = 3 бита.

Ответ: 3 бита.

№2

Информационный объем одного символа некоторого сообщения равен 6 битам. Сколько символов входит в алфавит, с помощью которого было/ составлено это сообщение? Решение: N = 2 I = 2 6 = 64 символа.

Ответ: 64 символа.

№3

Информационный объем одного символа некоторого сообщения равен 5 битам. Каковы пределы (максимальное и минимальное значение) мощности алфавита, с помощью которого составлено это сообщение?

Решение: N = 2 I = 2 5 = 32 — максимальное значение мощности алфавита. Если символов будет больше хотя бы на один, то для кодирования понадобится 6 бит.

Минимальное значение — 17 символов, т.к. для меньшего количества символов будет достаточно 4 бит. Ответ: 4 бита.

№4

Сообщение, записанное буквами из 128-символьного алфавита, содержания 30 символов. Какой объем информации оно несет?

Дано: N = 128, К = 30.

Найти: 1 т — ?

Решение:

1) I т = KI , неизвестно I ;

2) I = log 2 N = log 2 l 28 = 7 бит — объем одного символа;

3) I т = 30*7 = 210 бит — объем всего сообщения.

Ответ: 210 бит объем всего сообщения.

№5

Сообщение, составленное с помощью 32-символьного алфавита, содержит 80 символов. Другое сообщение составлено с использованием 64-символьного алфавита и содержит 70 символов. Сравните объемы информации, содержащейся в сообщениях.

Дано: N 1 = 32, К 1 = 80, N 2 = 64, К 2 = 70.

Найти: I т1 I т2

Решение:

I ) I 1 = log 2 Nl = log 2 32 = 5 бит — объем одного символа первого сооб-щения;

Количество информации - это числовая характеристика сигнала, отражающая ту степень неопределенности (неполноту знаний), которая исче-зает после получения сообщения в виде данного сигнала.
Эту меру неопределённости в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределённость осталась прежней, значит, информации получено не было (нулевая информация).
Приведённые рассуждения показывают, что между понятиями информация, неопределённость и возможность выбора существует тесная связь. Так, любая неопределённость предполагает возможность выбора, а любая информация, уменьшая неопределённость, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределённость.
Рассмотрим пример. Человек бросает монету и наблюдает, какой стороной она упадёт. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределённость, характеризуемая двумя возможностями. После того, как монета упадёт, достигается полная ясность, и неопределённость исчезает (становится равной нулю).
Приведённый пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет».
Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называемся битом (англ. bit - сокращённое от binary digit - двоичная единица).
Бит - минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.
Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:
Лампа А: 0 0 1 1 ;
Лампа В: 0 1 0 1 .
Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» по лампочке А и лампочке В, соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, a число возможных состояний системы - 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.
Связь между количеством информации и числом состояний системы устанавливается формулой Хартли.
i= log 2N,
где i - количество информации в битах; N -число возможных состояний. Ту же формулу можно представить иначе:
N=2i.
Группа из 8 битов информации называется байтом.
Если бит - минимальная единица информации, то байт - ее основная единица. Существуют производные единицы информации: килобайт (Кбайт, Кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).
Таким образом, между понятиями «информация», «неопределённость» и «возможность выбора» существует тесная связь. Любая неопределённость предполагает возможность выбора, а любая информация, уменьшая неопределённость, уменьшает и возможность выбора. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределённость.
Количество информации - это числовая характеристика сигнала, отражающая ту степень неопределённости (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала.

Еще по теме Понятие количества информации:

  1. Понятие, виды информации и принципы правового регулирования отношений в сфере информации
  2. Журналистика как массово-информационная деятельность. Понятия «информация» и «массовая информация». Массовая информация как продукт массово-информационной деятельности. Массовая информация и социальная информация.

























































Назад Вперёд

Внимание! Предварительный просмотр слайдов используется исключительно в ознакомительных целях и может не давать представления о всех возможностях презентации. Если вас заинтересовала данная работа, пожалуйста, загрузите полную версию.

Цель урока: закрепление навыков решения задач с помощью алфавитного и содержательного подходов.

Задачи урока:

  • Воспитательная – формировать информационную культуру учащихся, внимательность, аккуратность, дисциплинированность, усидчивость, терпимость, умение работать в группе.
  • Образовательная – повторить алфавитный и содержательный подходы на нахождение количества информации, сформировать навыки решения задач с помощью формулы Хартли, решить несколько задач.
  • Развивающая – развивать логическое мышление, внимательность, самоконтроль.

Тип урока: Комбинированный урок. Работа в группах.

Формы учебной деятельности учащихся: индивидуальная, групповая.

Средства обучения: компьютерный класс, интерактивная доска.

План урока:

  • Мотивация (2 минуты).
  • Актуализация опорных знаний (5 минут).
  • Совместное решение задач по теме (10 минут).
  • Физминутка (3 минуты).
  • Организация групповой работы, определение групп (1 минута).
  • Решение задач в группах на оценку, самоконтроль (15 минут).
  • (5 минут).
  • (1 минута).
  • Домашнее задание (1 минута).
  • Рефлексия (2 минуты).

Ход урока

Мотивация. Определение цели и задач урока.

Здравствуйте!

В настоящее время на экзаменах по информатике, в том числе ЕГЭ (часть А, B) есть много заданий по теме “Определение количества информации”. Цель данного урока – закрепление навыков решения задач с помощью алфавитного и содержательного подходов .

Для того чтобы хорошо понять решение задач на нахождение количества информации, необходимо прорешать задачи разного типа. Для этого давайте вспомним…

Актуализация опорных знаний (повторение).

С помощью какой формулы мы определяем количество информации в различных сообщениях, событиях? (Используется одна и та же формула Хартли, выведенная из вероятностно-статистического подхода К.-Э. Шеннона N=2 i , i=log 2 N, где i – количество информации (в битах), N – количество информационных сообщений (событий). В одном случае рассматриваются равновероятностные события, в другом – мощность алфавита).

Чем отличается алфавитный и содержательный подходы для определения количества информации? (При алфавитном подходе рассматривается текст как совокупность символов, а при содержательном – содержание происходящих событий. Первый подход более объективен, так как позволяет избежать двусмысленности происходящих событий.). При содержательном подходе рассматриваются равновероятностные события, поэтому для решения задач необходимо знать количество всех возможных событий. Для нахождения количества информации с использованием алфавитного подхода необходимо знать мощность используемого алфавита. Так как определяем информационную емкость не одного символа, а нескольких взаимосвязанных символов в слове, предложении, тексте, то необходимо знать и количество символов в слове.

Совместное решение задач.

Давайте решим несколько задач по данной теме.

1. Сообщение, записанное буквами 64-символьного алфавита, содержит 20 символов. Какой объем информации оно несет?

Решение:

Один символ алфавита несет в себе 6 бит информации (2^6=64),
Соответственно сообщение из 20 символов несет 6 х 20 = 120 бит.
Ответ: 120 бит.

2. Жители планеты Принтер используют алфавит из 256 знаков, а жители планеты Плоттер - из 128 знаков. Для жителей какой планеты сообщение из 10 знаков несет больше информации и на сколько?

Решение:

Один символ алфавита жителей планеты Принтер несет в себе 8 бит информации (2^8=256), а жителей планеты Плоттер - 7 бит информации (2^7=128). Соответственно сообщение из 10 знаков для жителей Принтер несет 10 х 8 = 80 бит, а для жителей Плоттер - 10 х 7 = 70 бит
80 - 70 = 10 бит.
Ответ: Больше для жителей Принтер на 10 бит.

3. Для кодирования нотной записи используется 7 значков-нот. Каждая нота кодируется одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения, состоящего из 180 нот?

Решение:

Каждая нота кодируется 3 битами (2^2=4<7<2^3=8).
Информационный объем сообщения равен 180 х 3 = 540 бит.
Ответ: 540 бит.

4. Цветное растровое графическое изображение, палитра которого включает в себя 65 536 цветов, имеет размер 100Х100 точек (пикселей). Какой объем видеопамяти компьютера (в Кбайтах) занимает это изображение в формате BMP?

Решение:

65536 =2^16, I = 16 бит на кодирование 1 цвета. Все изображение состоит из 10х10=10 000 точек. Следовательно, количество информации, необходимое для хранения изображения целиком 16*10 000=160 000 бит = 20 000 байт = 19,5 Кб.
Ответ: 19,5 килобайт.

5. В велокроссе участвуют 119 спортсменов. Специальное устройство регистрирует прохождение каждым из участников промежуточного финиша, записывая его номер с использованием минимально возможного количества бит, одинакового для каждого спортсмена. Каков информационный объем сообщения, записанного устройством, после того как промежуточный финиш прошли 70 велосипедистов?

Решение:

N=119 (2^6=64<7<2^7=128), I ≈7 бит необходимо для кодирования одного спортсмена, поскольку была записана информация о 70 спортсменах, объем сообщения составил: 7 х 70 = 490 бит.
Ответ: 490 бит.

Сложная задача

6. Словарный запас некоторого языка составляет 256 слов, каждое из которых состоит точно из 4 букв. Сколько букв в алфавите языка?

Решение:

При алфавитном подходе к измерению количества информации известно, что если мощность алфавита N (количество букв в алфавите), а максимальное количество букв в слове, записанном с помощью этого алфавита – m, то максимально возможное количество слов определяется по формуле L=N m . Из условия задачи известно количество слов (L=256) и количество букв в каждом слове (m=4). Надо найти N из получившегося уравнения 256=N 4 . Следовательно, N=4.
Ответ: 4 буквы.

Физминутка

(дети сели ровно, расслабились, закрыли глаза, звучит спокойная музыка , учитель комментирует):

Более тысячи биологически активных точек на ухе известно в настоящее время, поэтому, массируя их, можно опосредованно воздействовать на весь организм. Нужно стараться так помассировать ушные раковины, чтобы уши «горели». Давайте выполним несколько массажных движений:

  1. потяните за мочки сверху вниз;
  2. потяните ушные раковины вверх;
  3. потяните ушные раковины к наружи;
  4. выполните круговые движения ушной раковины по часовой стрелке и против.

Далее массажируем определенные места на голове, что активизирует кровообращение в кончиках пальчиков, предотвращает застой крови не только в руках, но и во всем теле, так как кончики пальцев непосредственно связаны с мозгом. Массаж проводится в следующей последовательности:

  1. найдите точку на лбу между бровями («третий глаз») и помассируйте ее;
  2. далее парные точки по краям крыльев носа (помогает восстановить обоняние);
  3. точку посередине верхнего края подбородка;
  4. парные точки в височных ямках;
  5. три точки на затылке в углублениях;
  6. парные точки в области козелка уха.

Нужно помнить, что любое упражнение может принести пользу, не оказать никакого воздействия, принести вред. Поэтому нужно выполнять его очень старательно, обязательно в хорошем настроении.

Организация групповой работы, определение групп.

Размещение обучающихся за компьютеры, где у всех открыто задание (Презентация задач) не более 3 человек за каждый ПК. С собой дети берут только тетрадь и ручку для решения. Здесь необходимо объяснить, что в презентации нужно будет ориентироваться по ссылкам, в том числе и выбрав правильный вариант ответа, всего задач – 5 (по 3 минуты на задачу). В конце автоматически выйдет результат на экран монитора в виде отметки за урок. Детей можно ознакомить с критериями выставления отметок за решение данного типа задач:

1 верная задача – отметка «2»
2 верные задачи – отметка «3»
3 верные задачи – отметка «4»
4 верные задачи – отметка «4»
5 верных задач – отметка «5».

Совместное обсуждение типичных ошибок .

– проверка, разрешение вопросов по решению задач:

1. Сколько информации несет сообщение о том, что было угадано число в диапазоне целых чисел от 684 до 811?

Решение:

811-684=128 (включая число 684), N=128, i=7 бит (2^7=128).
Ответ: 7 бит информации.

2. В некоторой стране автомобильный номер длиной 7 символов составляется из заглавных букв (всего используется 26 букв) и десятичных цифр в любом порядке. Каждый символ кодируется одинаковым и минимально возможным количеством бит, а каждый номер – одинаковым и минимально возможным количеством байт. Определите объем памяти, необходимый для хранения 20 автомобильных номеров.

Решение:

всего используется 26 букв + 10 цифр = 36 символов для кодирования 36 вариантов необходимо использовать 6 бит, так как 2^5=32<36<2^6=64, т.е. пяти бит не хватит (они позволяют кодировать только 32 варианта), а шести уже достаточно таким образом, на каждый символ нужно 6 бит (минимально возможное количество бит).
полный номер содержит 7 символов, каждый по 6 бит, поэтому на номер требуется 6 x 7 = 42 бита.
По условию каждый номер кодируется целым числом байт (в каждом байте – 8 бит), поэтому требуется 6 байт на номер (5x8=40<42<6x8=48), пяти байтов не хватает, а шесть – минимально возможное количество на 20 номеров нужно выделить 20x6=120 байт.
Ответ: 120 байт.

3. Каждая клетка поля 8×8 кодируется минимально возможным и одинаковым количеством бит. Решение задачи о прохождении "конем" поля записывается последовательностью кодов посещенных клеток. Каков объем информации после 11 сделанных ходов? (Запись решения начинается с начальной позиции коня).

Решение:

Всего клеток 8х8 = 64. Для кодирования 1 клетки необходимо 6 бит (2^6=64). В записи решения будет описано 12 клеток (11 ходов+начальная позиция). Объем информации записи 12х6 = 72 бита = 72:8 = 9 байт.
Ответ: 9 байт.

4. Информационное сообщение объемом 1,5 килобайта содержит 3072 символа. Сколько символов содержит алфавит, с помощью которого было записано это сообщение?

Решение:

1,5 Кбайта = 1,5*1024*8 = 12288 бит. 12288/3072 = 4 бита - информационный вес одного символа. Мощность алфавита равна 2^4=16 символов. Ответ: 16 символов.

5. Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?

Решение:

Всего требуется сохранить 128 х 256 = 32768 символов.
Информационный вес 1 символа 6 бит (2^6=64). Чтобы сохранить весь текст, потребуется 32768 х 6 = 196608 бит = 196608: 8 =24576 байт = 24576: 1024 = 24 Кб.
Ответ: 24 Кб.

Подведение итогов, выставление отметок .

объявление оценок за урок.

Домашнее задание:

к следующему уроку составить 1 задачу на нахождение количества информации, используя алфавитный или содержательный подход и решить ее в тетради.

Рефлексия

(раздать заготовленные листочки – Приложение 1 )

ПРАВИЛА НАПИСАНИЯ СИНКВЕЙНА

(Синквейн – это способ на любом этапе урока, изучения темы, проверить, что находится у обучающихся на уровне ассоциаций).

1 строчка – одно слово – название стихотворения, тема, обычно существительное.
2 строчка – два слова (прилагательные или причастия). Описание темы, слова можно соединять союзами и предлогами.
3 строчка – три слова (глаголы). Действия, относящиеся к теме.
4 строчка – четыре слова – предложение. Фраза, которая показывает отношение автора к теме в 1-ой строчке.
5 строчка – одно слово – ассоциация, синоним, который повторяет суть темы в 1-ой строчке, обычно существительное.

Данный вид рефлексии будет полезен учителю для проведения самоанализа.

ВСЕМ СПАСИБО!

Задачи были взяты из разных источников сети Интернет.

Лабораторная работа № 1

ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ В СООБЩЕНИИ

1 Цель и содержание

Ввести понятие «количество информации»; сформировать у студентов понимание вероятности, равновероятных и неравновероятных событий; научить студентов определять количество информации.

Данное практическое занятие содержит сведения о подходах к определению количества информации в сообщении.

2 Теоретическое обоснование

2.1 Введение понятия «количество информации»

В основе нашего мира лежат три составляющие – вещество, энергия и информация. А как много в мире вещества, энергии и информации? Можно измерить количество вещества, например взвесив его. Можно определить количество тепловой энергии в Джоулях, электроэнергии в киловатт/часах и т. д.

А можно ли измерить количество информации и как это сделать? Оказывается, информацию также можно измерять и находить ее количество. Количество информации в сообщении зависит от его информативности. Если в сообщении содержатся новые и понятные сведения , то такое сообщение называется информативным .

Например, содержит ли информацию учебник информатики для студентов, обучающихся в университете? (Ответ – да). Для кого он будет информативным – для студентов, обучающихся в университете или учеников 1 класса? (Ответ – для студентов, обучающихся в университете он будет информативным, так как в нем содержится новая и понятная ему информация, а для учеников 1 класса он информативным не будет, так как информация для него непонятна).

Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.

Но информативность сообщения сама по себе не дает точного определения количества информации. По информативности можно судить только о том, много информации или мало.

2.2 Вероятностный подход к определению количества информации

Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями или уменьшает неопределенность наших знаний. Другими словами сообщение содержит информацию, если оно приводит к уменьшению неопределенности наших знаний.

Например, мы бросаем монету и пытаемся угадать, какой стороной она упадет на поверхность. Возможен один результат из двух: монета окажется в положение «орел» или «решка». Каждое из этих двух событий окажется равновероятным, т. е. ни одно из них не имеет преимущества перед другим.

Перед броском монеты мы точно не знаем, как она упадет. Это событие предсказать невозможно, т. е. перед броском существует неопределенность нашего знания (возможно одно событие из двух). После броска наступает полная определенность знания, т. к. мы получает зрительное сообщение о положении монеты. Это зрительное сообщение уменьшает неопределенность нашего знания в два раза, т. к. из двух равновероятных событий произошло одно.

Если мы кидаем шестигранный кубик, то мы также не знаем перед броском, какой стороной он упадет на поверхность. В этом случае, возможно получить один результат из шести равновероятных . Неопределенность знаний равна шести , т. к. именно шесть равновероятных событий может произойти. Когда после броска кубика мы получаем зрительное сообщение о результате, то неопределенность наших знаний уменьшается в шесть раз .

Контрольный пример . На экзамене приготовлено 30 билетов.

  1. Чему равно количество событий, которые могут произойти при вытягивании билета? (Ответ – 30).
  2. Равновероятны эти события или нет? (Ответ – равновероятны).
  3. Чему равна неопределенность знаний студента перед тем как он вытянет билет? (Ответ – 30).
  4. Во сколько раз уменьшится неопределенность знаний после того как студент билет вытянул? (Ответ – в 30 раз).
  5. Зависит ли этот показатель от номера вытянутого билета? (Ответ – нет, т. к. события равновероятны).

Можно сделать следующий вывод.

Чем больше начальное число возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний, и тем большее количество информации будет содержать сообщение о результатах опыта.

Для того, чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту .

Таким образом 1 бит – это количество информации, уменьшающее неопределенность знаний в два раза .

Группа из 8 битов информации называется байтом . Если бит – минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (Кбайт, Кбт), мегабайт (Мбайт, Мбт) и гигабайт (Гбайт, Гбт).

1 Кбт = 1024 байта = 2 10 (1024) байтов.

1 Мбт = 1024 Кбайта = 2 20 (1024 1024) байтов.

1 Гбт = 1024 Мбайта = 2 30 (1024 1024 1024) байтов.

Существует формула, которая связывает между собой количество возможных событий и количество информации:

N = 2 i ,

где N – количество возможных вариантов;

I – количество информации.

Отсюда можно выразить количество информации в сообщении об одном из N равновероятных событий: I = log 2 N .

Контрольный пример . Пусть имеется колода карт, содержащая 32 различные кары. Мы вытаскиваем одну карту из колоды. Какое количество информации мы получим?

Количество возможных вариантов выбора карты из колоды – 32 (N = 32) и все события равновероятны. Воспользуемся формулой определения количества информации для равновероятных событий I = log 2 N = log 2 32 = 5 (32 = 2 i ; 2 5 = 2 i ; отсюда I = 5 бит).

Если количество возможных вариантов N является целой степенью числа 2, то производить вычисления по формуле N = 2 i достаточно легко. Если же количество возможных вариантов не является целой степенью числа 2, то необходимо воспользоваться инженерным калькулятором; формулу I = log 2 N представить как и произвести необходимые вычисления.

Контрольный пример . Какое количество информации можно получить при угадывании числа из интервала от 1 до 11?

В этом примере N = 11. Число 11 не является степенью числа 2, поэтому воспользуемся инженерным калькулятором и произведем вычисления для определения I (количества информации). I = 3,45943 бит.

2.3 Неравновероятные события

Очень часто в жизни мы сталкиваемся с событиями, которые имеют разную вероятность реализации. Например:

1. Когда сообщают прогноз погоды, то сведения о том, что будет дождь, более вероятны летом, а сообщение о снеге – зимой.

2. Если вы – лучший студент в группе, то вероятность сообщения о том, что за контрольную работу вы получите 5, больше, чем вероятность получения двойки.

3. Если в мешке лежит 10 белых шаров и 3 черных, то вероятность достать черный шар меньше, чем вероятность вытаскивания белого.

Как вычислить количество информации в сообщении о таком событии? Для этого необходимо использовать следующую формулу:

где I – это количество информации;

p – вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле: где K – величина, показывающая, сколько раз произошло интересующее нас событие; N – общее число возможных исходов какого-то процесса.

Контрольный пример . В мешке находятся 20 шаров. Из них 15 белых и 5 красных. Какое количество информации несет сообщение о том, что достали: а) белый шар; б) красный шар. Сравните ответы.

1. Найдем вероятность того, что достали белый шар:

2. Найдем вероятность того, что достали красный шар:

3. Найдем количество информации в сообщении о вытаскивании белого шара: бит.

4. Найдем количество информации в сообщении о вытаскивании красного шара: бит.

Количество информации в сообщении о том, что достали белый шар, равно 1, 1547 бит. Количество информации в сообщении о том, что достали красный шар, равно 2 бит.

При сравнении ответов получается следующая ситуация: вероятность вытаскивания белого шара была больше, чем вероятность красного шара, а информации при этом получилось меньше. Это не случайность, а закономерная, качественная связь между вероятностью события и количеством информации в сообщении об этом событии.

2.4 Алфавитный подход к измерению количества информации

При определения количества информации с помощью вероятностного подхода количество информации зависит от ее содержания, понятности и новизны. Однако любое техническое устройство не воспринимает содержание информации. Поэтому с этой точки зрения используется другой подход к измерению информации – алфавитный.

Предположим, что у нас есть текст, написанный на русском языке. Он состоит из букв русского алфавита, цифр, знаков препинания. Для простоты будем считать, что символы в тексте присутствуют с одинаковой вероятностью.

Множество используемых в тексте символов называется алфавитом. В информатике под алфавитом понимают не только буквы, но и цифры, и знаки препинания, и другие специальные знаки. У алфавита есть размер (полное количество его символов), который называется мощностью алфавита. Обозначим мощность алфавита через N . Тогда воспользуемся формулой для нахождения количества информации из вероятностного подхода: I = log 2 N . Для расчета количества информации по этой формуле нам необходимо найти мощность алфавита N .

Контрольный пример . Найти объем информации, содержащейся в тексте из 3000 символов, и написанном русскими буквами.

1. Найдем мощность алфавита:

N = 33 русских прописных буквы + 33 русских строчных буквы + 21 специальный знак = 87 символов.

2. Подставим в формулу и рассчитаем количество информации:

I = log 2 87 = 6,4 бита.

Такое количество информации – информационный объем – несет один символ в русском тексте. Теперь, чтобы найти количество информации во всем тексте, нужно найти общее количество символов в нем и умножить на информационный объем одного символа. Пусть в тексте 3000 символов.

6,4 3000 = 19140 бит.

Теперь дадим задание переводчику перевести этот текст на немецкий язык. Причем так, чтобы в тексте осталось 3000 символов. Содержание текста при этом осталось точно такое же. Поэтому с точки зрения вероятностного подхода количество информации также не изменится, т. е. новых и понятных знаний не прибавилось и не убавилось.

Контрольный пример . Найти количество информации, содержащейся в немецком тексте с таким же количеством символов.

1. Найдем мощность немецкого алфавита:

N = 26 немецких прописных буквы + 26 немецких строчных букв + 21 специальный знак = 73 символа.

2. Найдем информационный объем одного символа:

I = log 2 73 = 6,1 бит.

3. Найдем объем всего текста:

6,1 3000 = 18300 бит.

Сравнивая объемы информации русского текста и немецкого, мы видим, что на немецком языке информации меньше, чем на русском. Но ведь содержание не изменилось! Следовательно, при алфавитном подходе к измерению информации ее количество не зависит от содержания, а зависит от мощности алфавита и количества символов в тексте. С точки зрения алфавитного подхода, в толстой книге информации больше, чем в тонкой. При этом содержание книги не учитывается.

Правило для измерения информации с точки зрения алфавитного подхода:

  1. Найти мощность алфавита – N.
  2. Найти информационный объем одного символа – I = log 2 N .
  3. Найти количество символов в сообщении – K .
  4. Найти информационный объем всего сообщения – K I ..

Контрольный пример . Найти информационный объем страницы компьютерного текста.

Примечание . В компьютере используется свой алфавит, который содержит 256 символов.

1. Найдем информационный объем одного символа:

I = log 2 N, где N = 256.

I = log 2 256 = 8 бит = 1 байт .

2. Найдем количество символов на странице (примерно, перемножив количество символов в одной строке на количество строк на странице).

40 символов на одной строке 50 строк на странице = 2000 символов.

3. Найдем информационный объем всей страницы:

1 байт 2000 символов = 2000 байт.

Информационный объем одного символа несет как раз 1 байт информации. Поэтому достаточно подсчитать количество символов в тексте, которое и даст объем текста в байтах.

Например, если в тексте 3000 символов, то его информационный объем равен 3000 байтам.

3 Задания

1. Какое количество информации будет получено при отгадывании числа из интервала от 1 до 64; от 1 до 20?

2. Какое количество информации будет получено после первого хода в игре «крестики-нолики» на поле 3 x 3; 4 x 4?

3. Сколько могло произойти событий, если при реализации одного из них получилось 6 бит информации?

4. В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.

5. В коробке лежат 36 кубиков: красные, зеленые, желтые, синие. Сообщение о том, что достали зеленый кубик, несет 3 бита информации. Сколько зеленых кубиков было в коробке.

6. В группе учатся 12 девочек и 8 мальчиков. Какое количество информации несет сообщение, что к доске вызовут девочку; мальчика?

7. Найти объем текста, записанного на языке, алфавит которого содержит 128 символов и 2000 символов в сообщении.

8. Найти информационный объем книги в 130 страниц.

9. Расположите в порядке возрастания:

1 Мбт, 1010 Кбт, 10 000 бит, 1 Гбт, 512 байт.

10. В пропущенные места поставьте знаки сравнения <, >, =:

1 Гбт … 1024 Кбт … 10 000 бит … 1 Мбт … 1024 байт.

4 Контрольные вопросы

1. Какое сообщение называется информативным?

2. Что значит событие равновероятно; неравновероятно?

3. Что такое 1 бит информации?

4. Как определить количество информации для равновероятных событий?

5. Как определить количество информации для неравновероятных событий?

6. В чем заключается алфавитный подход к измерению количества информации

5 Домашняя работа

1.Установите знаки сравнения (<, > , =):

1байт 32бита 4байта 1Мбайт 1024Кбайт

2.Упорядочите по убыванию:

5байт 25бит 1Кбайт 1010байт

3.Упорядочите по возрастанию:

2Мбайта 13байт 48бит 2083Кбайт

4.Книга содержит 100 страниц; на каждой странице по 35 строк, в каждой строке - 50 символов. Рассчитать объем информации, содержащийся в книге.

5.Имеется следующая черно-белая картинка. Определите информационный объем этой картинки.

6.В языке племени Мумбо-Юмбо всего 129 разных слов. Сколько бит нужно чтобы закодировать любое из этих слов?

8.Дана черно-белая картинка. Определите количество информации, содержащейся в картинке.

9.Информационный объем черно-белой картинки равен 6000бит. Какое количество точек содержит картинка

Лучшие статьи по теме