Как настроить смартфоны и ПК. Информационный портал

Подготовительные курсы. Понятия бита, байта

|

Разнообразие необходимо при передаче информации. Нельзя нарисовать белым по белому, одного состояния недостаточно. Если ячейка памяти способна находиться только в одном (исходном) состоянии и не способна изменять свое состояние под внешним воздействием, это значит, что она не способна воспринимать и запоминать информацию. Информационная емкость такой ячейки равна 0.

Минимальное разнообразие обеспечивается наличием двух состояний. Если ячейка памяти способна, в зависимости от внешнего воздействия, принимать одно из двух состояний, которые условно обозначаются обычно как «0» и «1», она обладает минимальной информационной ёмкостью .

Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях, принята за единицу измерения количества информации - 1 бит.

1 бит (bit - сокращение от англ. bi nary digit - двоичное число) - единица измерения информационной емкости и количества информации , а также и еще одной величины – информационной энтропии , с которой мы познакомимся позже. Бит, одна из самых безусловных единиц измерения. Если единицу измерения длины можно было положить произвольной: локоть, фут, метр, то единица измерения информации не могла быть по сути никакой другой.

На физическом уровне бит является ячейкой памяти , которая в каждый момент времени находится в одном из двух состояний: « или «.

Если каждая точка некоторого изображения может быть только либо черной , либо белой , такое изображение называют битовым, потому что каждая точка представляет собой ячейку памяти емкостью 1 бит. Лампочка, которая может либо «гореть », либо «не гореть » также символизирует бит. Классический пример, иллюстрирующий 1 бит информации – количество информации, получаемое в результате подбрасывания монеты – “орел ” или “решка ”.

Количество информации равное 1 биту можно получить в ответе на вопрос типа «да »/ «нет ». Если изначально вариантов ответов было больше двух, количество получаемой в конкретном ответе информации будет больше, чем 1 бит, если вариантов ответов меньше двух, т.е. один, то это не вопрос, а утверждение, следовательно, получения информации не требуется, раз неопределенности нет.

Информационная ёмкость ячейки памяти, способной воспринимать информацию, не может быть меньше 1 бита, но количество получаемой информации может быть и меньше, чем 1 бит . Это происходит тогда, когда варианты ответов «да» и «нет» не равновероятны . Неравновероятность в свою очередь является следствием того, что некоторая предварительная (априорная) информация по этому вопросу уже имеется, полученная, допустим, на основании предыдущего жизненного опыта. Таким образом, во всех рассуждениях предыдущего абзаца следует учитывать одну очень важную оговорку: они справедливы только для равновероятного случая.

Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.

Краткие итоги

В лекции были рассмотрены понятии информатика и информатизация. Описано как передается и в каком виде существует информация.

Контрольные вопросы

1. Что изучает Информатика?

2. Что понимается под информацией?

3. Что называется информационными процессами?

4. Дайте определение, что такое технические средства.

5. Дайте определение, что такое программное обеспечение и что оно в себя включает.

6. Что означает термин Brainware?

7. Дайте определение Информационным объектам.

8. Дайте примеры передачи сообщений.

9. Опишите процесс передачи сообщений.


Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.

В лекции рассматривается общий смысл понятий алгоритма, количество информации, какими свойствами обладает информация. Понятия информатизация общества

Цель лекции: Понять, как измеряется количество информации. В лекции рассматривается понятия бита и байта информации.

Какими свойствами обладает информация?

Свойства информации:

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному, излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях

Как измеряется количество информации?

Возможно, ли объективно измерить количество информации? На этот вопрос ученые до сих пор не могут дать точный ответ. Как, например можно измерить информацию, которая содержится в литературных произведениях Пушкина, Лермонтова, Достоевского. Важнейшим результатом теории информации является следующий вывод: В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений :

1. при бросании монеты: «выпала решка» , «выпал орел»;

2. на странице книги: «количество букв чётное» , «количество букв нечётное» .

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина" . Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Легко заметить, что если вероятности p 1 , ..., p N равны, то каждая из них равна 1 / N , и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации Клод Шеннон предложил принять один бит (англ . bit - binary digit - двоичная цифра).

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»-«решка», «чет»-«нечет» и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт , равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).



Широко используются также ещё более крупные производные единицы информации:

· 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

· 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

· 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

· 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

· 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит ), а десятичная (дит ) единица информации.

При этом важно отличать двоичные кратные приставки от соответствующих десятичных:

«один К» – 1 К=210=1024 от «один кило» – 103=1000,

«один М» – 1 М=220=1048576 от «один мега» – 106=1000000 и т.д.

Этим часто злоупотребляют производители компьютерной техники, в частности, производители жестких магнитных дисков, которые при указании их информативной емкости используют меньшую единицу измерения с тем, чтобы результирующее значение выражалось большим числом (как в известном мультфильме – "А в попугаях-то я длиннее!").

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке.

В "Большом энциклопедическом словаре" информация определяется как "общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (генетическая информация). В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация , но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

· в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто , неизвестное раньше" ;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Понятие данные более общее чем информатика, в нем смысловые свойства сообщения как бы отступают на второй план. Когда нет необходимости подчеркнуть разницу между понятиями данные (вся совокупность сведений) и информация (новые полезные сведения) эти слова используют как синонимы .

В соответствии с этим для оценки количества информации используются разные единицы.

При передаче информации важно обратить внимание на то, какое количество информации пройдет через передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

1.2.2 Свойства информации

К важнейшим свойствам информации относятся:

  • полнота;
  • ценность;
  • своевременность (актуальность);
  • понятность;
  • доступность;
  • краткость;
  • и др.

Адекватность информации может выражаться в трех формах: семантической, синтаксичес-кой, прагматической.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной , если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.2.1. Информатизация и компьютеризация общества. Информационные ресурсы.

Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Человечество занималось обработкой информации тысячи лет. Существует мнение, что мир пережил несколько информационных революций.

Первая информационная революция связана с изобретением и освоением человеческого языка, который, точнее устная речь, выделила человека из мира животных. Это позволило человеку хранить, передавать, совершенствовать, увеличивать приобретенную информацию.

Вторая информационная революция заключалась в изобретении письменности. Прежде всего, резко возросли (по сравнению с предыдущим этапом) возможности по хранению информации. Человек получил искусственную внешнюю память. Организация почтовых служб позволила использовать письменность и как средство для передачи информации. Кроме того, возникновение письменности было необходимым условием для начала развития наук (вспомним Древнюю Грецию , например). С этим же этапом, по всей видимости, связано и возникновение понятия натуральное число . Все народы, обладавшие письменностью, владели понятием числа и пользовались той или иной системой счисления.

Все-таки, зафиксированное в письменных текстах знание было ограниченным, и, следовательно, мало доступным. Так было до изобретения книгопечатания .

Что обосновало третью информационную революцию. Здесь наиболее очевидна связь информации и технологии. Книгопечатание можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, на промышленную основу. По сравнению с предыдущим этот этап не столько увеличил возможности по хранению (хотя и здесь был выигрыш: письменный источник - часто один-единственный экземпляр, печатная книга - целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении (вспомним "Слово о полку Игореве ")), сколько повысил доступность информации и точность ее воспроизведения. Механизмом этой революции был печатный станок, который удешевил книгу и сделал информацию более доступной.

Четвертая революция, плавно переходящая в пятую , связана с созданием современных информационных технологий. Этот этап связан с успехами точных наук (прежде всего математики и физики) и характеризуется возникновением таких мощных средств связи, как телеграф (1794г. - первый оптический телеграф , 1841г. - первый электромагнитный телеграф), телефон (1876г.) и радио (1895г.), к которым по завершению этапа добавилось и телевидение (1921г.). Кроме средств связи появились новые возможности по получению и хранению информации - фотография и кино. К ним также очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски). Но самым поразительным было создание современных компьютеров и средств телекоммуникаций.

В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе , образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации , как правило, производится с помощью внешних устройств вычислительной техники в виде текстов, таблиц, графиков и т.д.

Стержнем любой информационной технологии является выбор и реализация наиболее рационального информационного процесса, который можно определить как совокупность процедур по преобразованию и обработке информации.

В свою очередь информационной процедурой принято считать совокупность однородных операций, воздействующих определенным образом на информацию. Основными информационными процедурами являются: регистрация, сбор, передача, кодирование, хранение и обработка информации.

Реализация любой задачи конкретного пользователя требует создания системы информационного обслуживания, которую чаще называют информационной системой.

Пусть А={а1, а2, …, аn} - алфавит некоторого языка. А* - множество всевозможных последовательностей символов этого языка.

Язык - это подмножество А*, которое удовлетворяет двум системам правил: синтаксическим (голубая штриховка) и семантическим (штриховка бордо), причем семантическим правилам могут удовлетворять только те конструкции, которые удовлетворяют синтаксическим правилам.

Пример: ббсе - не удовлетворяет синтаксису русского языка

Петя съел трактор - все синтаксические правила соблюдены, но предложение не удовлетворяет семантике русского языка

Таким образом, знание языка означает

1. Знание его алфавита,

2. Знание синтаксических правил

3. Знание семантических правил

В этом случае вы сможете общаться и будете правильно поняты.

Преобразование конструкций одного языка в последовательность букв другого алфавита называется кодированием.

Если говорить о кодировании, то сначала надо определить, какую конструкцию языка будем рассматривать в качестве символа, т.е. некоторой неделимой конструкции.

Рассмотрим некоторое предложение языка Q. Предложение состоит из слов, которые в свою очередь состоят из букв. Возможны 3 варианта определения символа (неделимой конструкции языка):

1. символ = буква: предложение - последовательность букв алфавита. Такой подход используется при письменной записи.

2. символ = слово. Такое представление предложений используется в стенографии.

3. символ = предложение. Такая ситуация возникает при переводе с одного языка на другой, причем особенно ярко это проявляется при переводе пословиц, шуток, поговорок.

Проблемой кодирования начал заниматься великий немецкий математик Готфрид Вильгельм Лейбниц ; он доказал, что минимальное количество букв, необходимое для кодирования любого алфавита, равно 2.

Пример. Русский язык: 33 буквы*2 (прописные, строчные)-2(ъ,ь) + 10 знаков препинания +10 цифр = 84 символа. Обязательным условием правильного кодирования является возможность однозначного преобразования АÛВ. Сколько двоичных символов необходимо, чтобы закодировать один символ русского языка?

буква код
а
А
б
Б
в
В
м
М

Предположим, надо закодировать слово Мама. Закодируем его: 10011 0 10010 0. Сделайте обратное преобразование (декодирование). Возникают проблемы, т.к. не понятно, где заканчивается одна буква и начинается другая. Основное правило однозначного преобразования из А в В и обратно нарушено, причина - использование кода переменной длины, следовательно необходимо выбрать код одинаковой заранее определенной длины. Какой?

Вывод: чем меньше букв в алфавите, тем длиннее символ. В русском языке 33 буквы, слова в среднем состоят из 4-6 букв. В японском языке около 3000 иероглифов, в среднем 1 предложение ~ 1 иероглиф.

В вычислительных машинах используется двоичное кодирование информации любого типа: программы, текстовые документы, графические изображения , видеоклипы, звуки и т.д. Удивительно, но все это богатство информации кодируется с помощью всего двух состояний: включено или выключено (единица или ноль). Формирование представления информации называется ее кодированием . В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки. В этом случае обратный переход к исходному представлению называется декодированием .

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательности символов. Так информация представляется в письменных текстах, при передаче по каналам связи, в памяти ЭВМ . Однако широко используется и многомерное представление информации, причем под многомерностью понимается не только расположение элементов информации на плоскости или в пространстве в виде рисунков, схем, графов, объемных макетов и т.п., но и множественность признаков используемых символов, например цвет, размер, вид шрифта в тексте.

Драйвер - это программа-посредник между оборудованием и другими программами.

Таким образом, тексты хранятся на диске или в памяти в виде чисел и программным способом преобразовываются в изображения символов на экране.

1.2.5. Кодирование изображений

В 1756 году выдающийся русский ученый Михаил Васильевич Ломоносов (1711 -1765) впервые высказал мысль, что для воспроизведения любого цвета в природе достаточно смешать в определенных пропорциях три основных цвета: красный, зеленый, синий. Теория трехкомпонентности цвета утверждает, что в зрительной системе человека возникают нервные возбуждения трех типов, каждое из которых независимо от остальных.

Компьютерное кодирование изображений также построено на этой теории. Картинка разбивается вертикальными и горизонтальными линиями на маленькие прямоугольники. Полученная матрица прямоугольников называется растром , а элементы матрицы - пикселями (от англ. Picture"s element - элемент изображения). Цвет каждого пикселя представлен тройкой значений интенсивности трех основных цветов. Такой метод кодирования цвета называется RGB (от англ. red - красный, green - зеленый, blue - синий). Чем больше битов выделено для каждого основного цвета, тем большую гамму цветов можно хранить про каждый элемент изображения. В стандарте, называемом true color (реальный цвет), на каждую точку растра тратится 3 байта, по 1 байт на каждый основной цвет. Таким образом, 256 (=2 8) уровней яркости красного цвета, 256 уровней яркости зеленого цвета и 256 уровней яркости синего цвета дают вместе примерно 16,7 млн различных цветовых оттенков, это превосходит способность человеческого глаза к цветовосприятию.

Чтобы хранить всю картинку, достаточно записывать в некотором порядке матрицу значений цветов пикселей, например, слева направо и сверху вниз. Часть информации о картинке при таком кодировании потеряется. Потери будут тем меньше, чем мельче пиксели. В современных компьютерных мониторах с диагональю 15 -17 дюймов разумный компромисс между качеством и размером элементов картинки на экране обеспечивает растр в 768х1024 точки.

    Что понимается под битом информации?

    Дайте определение единицы измерения информации байта.

    Определите понятие разряда в байте.

    Перечислите производные единицы информации.

    Что такое мощность алфавита?

    По какой формуле можно вычислить размер алфавита?

    Какие существуют основные подходы к измерению информации?

    Запишите формулу, связывающую между собой количество событий с различными вероятностями и количество информации.

ПРИЛОЖЕНИЕ А

ПРИМЕРЫ ЗАДАЧ (С РЕШЕНИЯМИ)

Пример 1. После экзамена по информатике объявляют оценки («5», «4», «3» или «2»). Какое количество информации будет нести сообщение об оценке студента А, который выучил лишь половину билетов, и сообщение об оценке учащегося Б, который выучил все билеты.

Решение. Опыт показывает, что для учащегося А все четыре оценки (события) равновероятны и тогда количество информации, которое несет сообщение об оценке, можно вычислить по формуле Хартли:

I = Iog 2 4 = 2 бита.

В результате наблюдений, для студента В наиболее вероятной оценкой является «5» (р 1 = 1/2), вероятность оценки «4» в два раза меньше (р 2 = 1/4), а вероятности оценок «2» и «3» еще в два раза меньше (р 3 =p 4 =1/8). Так как данные события не являются равновероятными, для подсчета количества информации воспользуемся формулой Шеннона:

I = - ( 1/2·log 2 l/2+1/4·log 2 l/4+1/8·log 2 l/8+1/8·log 2 l/8)бит= 1,75 бит

(log 2 l/2=-1,log 2 l/4=-2,log 2 l/8=-3).

Ответ: 2 бита; 1,75 бит.

Пример 2. В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение том, что выпал номер 17?

Решение. Поскольку вытаскивание любого из 32 шаров равновероятно, то количество информации об одном выпавшем номере находится из уравнения: 2 I =32. Так как 32=2 5 , тоI =5 бит. (Ответ не зависит от того, какой именно выпал номер).

Ответ: 5 бит.

Пример 3. Для регистрации на сайте пользователю требуется придумать пароль. Длина пароля – ровно 11 символов. В качестве символов используются десятичные цифры и 12 различных букв алфавита, причём все буквы используются в двух начертаниях: как строчные, так и заглавные (регистр буквы имеет значение).

Под хранение каждого такого пароля на компьютере отводится минимально возможное и одинаковое целое количество байтов, при этом используется посимвольное кодирование и все символы кодируются одинаковым и минимально возможным количеством битов.

Определите объём памяти, который занимает хранение 60 паролей (пароль должен занимать ЦЕЛОЕ число байт).

Решение.

    согласно условию, в пароле можно использовать 10 цифр (0...9) + 12 заглавных букв алфавита + 12 строчных букв, всего 10+12+12=34 символа;

    для кодирования 34 символов нужно выделить 6 бит памяти (5 бит не хватает, они позволяют закодировать только 2 5 =32 варианта);

    для хранения всех 11 символов пароля нужно 11*6 = 66 бит;

    поскольку пароль должен занимать целое число байт, берем ближайшее большее (точнее, не меньшее) значение, которое кратно 8: это 72= 9*8; то есть один пароль занимает 9 байт;

    следовательно, 60 паролей занимают 9*60 = 540 байт.

Ответ: 540 байт.

Пример 4. В базе данных хранятся записи, содержащие информацию о студентах:

<Фамилия> – 16 символов: русские буквы (первая прописная, остальные строчные);

<Имя> – 12 символов: русские буквы (первая прописная, остальные строчные);

<Отчество> – 16 символов: русские буквы (первая прописная, остальные строчные);

<Год рождения> – числа от 1960 до 1997.

Каждое поле записывается с использованием минимально возможного количества бит. Определите минимальное (целое) количество байт, необходимое для кодирования одной записи, если буквы е иё считаются совпадающими.

Решение.

    итак, нужно определить минимально возможные размеры в битах для каждого из четырех полей и сложить их;

    известно, что первые буквы имени, отчества и фамилии – всегда заглавные, поэтому можно хранить их в виде строчных и делать заглавными только при выводе на экран;

    таким образом, для символьных полей достаточно использовать алфавит из 32 символов (русские строчные буквы, «е» и «ё» совпадают, пробелы не нужны);

    для кодирования каждого символа 32-символьного алфавита нужно 5 бит (32=2 5), поэтому для хранения имени, отчества и фамилии нужно (16+12+16)*5=220 бит;

    для года рождения есть 38 вариантов, поэтому для него нужно отвести 6 бит (2 6 =64≥38);

    таким образом, всего требуется 226 бита или 29 байт.

Ответ: 29 байт.

Пример 5. Текст содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов (для записи текста использовался 256-символьный алфавит). Каков объем информации в Мбайтах содержится в документе?

Решение. Мощность алфавита равна 256 символов, поэтому один символ несет 1 байт информации. Значит, страница содержит 40·60 = 2400 байт информации. Объем всей информации в документе (в разных единицах):

2400·150 = 360 000 байт.

360000/1024 = 351,6 Кбайт.

351,5625/1024 = 0,3 Мбайт.

Ответ: 0,3 Мбайт.

Пример 6 . Какова мощность алфавита, с помощью которого записано сообщение, содержащее 2048 символов (страница текста), если его объем составляет 1,25 Кбайта?

Решение. Переведем информационное сообщение в биты:

1,25*1024*8=10240 бит.

Определим количество бит на один символ:

10240:2048=5 бит.

По формуле для мощности алфавита определим количество символов в алфавите:

N =2 i =2 5 =32 символа.

Ответ: 32 символа.

Отчет по лабораторным работам

ИНФОРМАТИКА

Курс 1 ЗЭЭ

Выполднил

Багинский М.Н

Мойсюк А.В

Проверил

Костюкевич В.М

Петрозаводск 2015

1.1. Что означает термин "информатика " и каково его происхождение?. 3

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года. 3

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика? 3

1.4. Назовите основные составные части информатики и основные направления её применения. 3

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?. 4

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день. 5

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию? 5

1.8. Где и как человек хранит информацию?. 5

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?. 6

1.10. Какие типы действий выполняет человек с информацией?. 6

1.11. Приведите примеры ситуаций, в которых информация. 6

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?. 7

1.13. Список использованной литературы…………………………………………...17

1.1. Что означает термин "информатика " и каково его происхождение?

Термин "информатика " (франц. informatique) происходит от французских слов information (информация ) и automatique (автоматика ) и дословно означает "информационная автоматика

Инфоpматика - это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года

1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации - массового внедрения компьютерной техники во все области жизни людей.

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни

1.4. Назовите основные составные части информатики и основные направления её применения.

Инфоpматика - комплексная научная дисциплина с широчайшим диапазоном применения. Её приоритетные направления:

Pазpаботка вычислительных систем и пpогpаммного обеспечения;

Теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

Математическое моделирование, методы вычислительной и прикладной математики и их применение к фундаментальным и прикладным исследованиям в различных областях знаний;

Методы искусственного интеллекта, моделирующие методы логического и аналитического мышления в интеллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

Системный анализ, изучающий методологические средства, используемые для подготовки и обоснования решений по сложным проблемам различного характера;

Биоинформатика, изучающая информационные процессы в биологических системах;

Социальная информатика, изучающая процессы информатизации общества;

Методы машинной графики, анимации, средства мультимедиа;

Телекоммуникационные системы и сети, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

Разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше";

В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

В кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

канал связи

ИСТОЧНИК ----------- ПРИЁМНИК

1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника - специалиста-метеоролога посредством канала связи - телевизионной передающей аппаратуры и телевизора.

2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

1.8. Где и как человек хранит информацию?

Текстов, рисунков, чертежей, фотографий;

Световых или звуковых сигналов;

Радиоволн;

Электрических и нервных импульсов;

Магнитных записей;

Жестов и мимики;

Запахов и вкусовых ощущений;

Хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними.

1.10. Какие типы действий выполняет человек с информацией?

Информацию можно:

1. создавать;

2. передавать

3. воспринимать

4. использовать

5. запоминать

6. принимать

7. копировать

8. преобразовывать

9. комбинировать

10. обрабатывать

11. делить на части

12. упрощать

13. хранить

14. искать

15. измерять

16. разрушать

1.11. Приведите примеры ситуаций, в которых информация

а) создается: книга

б) копируется: ксерокс

в) передается: радио

г) обрабатывается: компьютерные программы

д) воспринимается: глаза уши

е) разрушается: помехи в радиосигнале

ж) запоминается: головной мозг человека

з) измеряется: бит

и) ищется: сми интернет

к) принимается: скачивание фильма с интернета

л) делится на части: книга в двух томах

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?

А) Сбор информации в библиотеке, Б) анализ и выбор нужной информации,в) написание реферата по своей теме.

1.13. Приведите примеры информации:

· а) достоверной и недостоверной

· б) полной и неполной

Выпал снег (неполная инфо).

· в) ценной и малоценной;

Курс евро на сегодня равен 40 р (ценная инфо).

В Токио сегодня идет дождь (малоценная инфо).

· г) своевременной и несвоевременной

Начинается гроза (своевременная инфо).

Вчера в магазине была распродажа (несвоевременная инфо).

· д) понятной и непонятной

Понятная информация - на русском языке.

Непонятная информация - на китайском языке.

· е) доступной и недоступной для усвоения;

Человеку, знающему английский язык дали почитать книгу, написанную на английском языке – инфо будет доступна ему, а если он не знает английского, то информация будет не доступна.

· ж) краткой и пространной

Лук - это овощ.

Лук – это огородное или дикорастущее растение семейства лилейных с острым вкусом луковицы и съедобными трубчатыми листьями.

1.14. Назовите системы сбора и обработки информации в теле человека.

Головной мозг. Органы обоняния, осязания, слух, зрение.

1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

Видео камера, фотоаппарат, диктофон, компьютер, и др.

1.16. От чего зависит информативность сообщения, принимаемого человеком?

Сообщение информативно, если он содержит новые и понятные сведенья для принимающего его человека.

1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

Количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность (т.е. неполнота знания) по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что была получена исчерпывающая информация. Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

1.18. Как определяется единица измерения количества информации?

1 бит – количество информации в сообщении, уменьшающем неопределенность знаний человека в 2 раза.

1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений :

1. при бросании монеты: "выпала решка" , "выпал орел" ;

2. на странице книги: "количество букв чётное" , "количество букв нечётное" .

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина" . Однозначно ответить на этот вопрос нельзя . Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе .

Легко заметить, что если вероятности p 1 , ..., p N 1 / N

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями .

1.20. Почему в формуле Хартли за основание логарифма взято число 2?

Бит, единица информации имеет 2 состояния.

1.21. При каком условии формула Шеннона переходит в формулу Хартли?

Если вероятности p 1 , ..., p N равны, то каждая из них равна 1 / N , и формула Шеннона превращается в формулу Хартли.

1.22. Что определяет термин "бит" в теории информации и в вычислительной технике?

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"-"решка", "чет"-"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

1.23. Приведите примеры сообщений, информативность которых можно однозначно определить.

Прогноз погоды на завтра: ожидается переменная облачность, небольшой снег, возможен туман; ночью -11..13°, днем -9..-11°, ветер западный, умеренный.

Курс евро на завтра составит 40 руб.13 коп.

1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.

Пример 1: Вы бросаете монету, загадывая, что выпадет: орел или решка?

Решение: Есть два варианта возможного результата бросания монеты. Ни один из этих вариантов не имеет преимущества перед другим (равновероятны ). Перед подбрасыванием монеты неопределенность знаний о результате равна двум.

После совершения действия неопределенность уменьшилась в 2 раза. Получили 1 бит информации.

Ответ: Результат подбрасывания монеты принес 1 бит информации.

Пример 2 : Студент на экзамене может получить одну из четырех оценок: 5, 4, 3, 2. Учится неровно и с одинаковой вероятностью может получить любую оценку. После сдачи экзамена, на вопрос: «Что получил?» - ответил: «Четверку». Сколько бит информации содержится в его ответе?

Решение: Если сразу сложно ответить на вопрос, то можно отгадать оценку, задавая вопросы, на которые можно ответить только «да» или « нет», т.е. поиск осуществляется отбрасыванием половины вариантов.

Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.

1 вопрос: -Оценка выше тройки? - ДА

(число вариантов уменьшилось в два раза.) Получен 1 бит информации.

2 вопрос: -Ты получил пятерку? - НЕТ

(выбран один вариант из двух оставшихся: оценка – «четверка».) Получен еще 1 бит.

В сумме имеем 2 бита.

Ответ: Сообщение о том, что произошло одно из четырех равновероятностных событий несет 2 бита информарции.

Пример 3: На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

1 вопрос: - Книга лежит выше четвертой полки? - НЕТ (1, 2, 3, 4) - 1 бит

2 вопрос: - Книга лежит ниже третьей полки? - ДА (1, 2) - 1 бит

3 вопрос: - Книга – на второй полке? - НЕТ (1) - 1 бит


Похожая информация.


Лучшие статьи по теме