Количественная мера информации
Поможем в ✍️ написании учебной работы
Поможем с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой

Для измерения чего-либо должна быть определена единица измерения. Так как нет универсального определения информации, то возникают трудности с её измерением. Есть два подхода: Первый имеет дело со смыслом информации, так как рассматривает её восприятие человеком. Второй отталкивается от практических нужд хранения и передачи информации в технических системах и не связан со смыслом (содержанием) информации.

При семантическом подходе, оценивается, в первую очередь, качественность информации:

· репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта;

· содержательность информации отражает семантическую емкость, как отношение количества семантической информации в сообщении к объему обрабатываемых данных;

· достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав;

· доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования;

· актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации;

· своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного со временем решения поставленной задачи;

· точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления (необходимая точность, определяемая функциональным назначением показателя; максимальная точность, которую можно получить в конкретных условиях функционирования системы; формальная точность, измеряемая значением единицы младшего разряда числа; реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется);

· достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью (измеряется вероятностью того, что отображаемое значение параметра отличается от истинного значения в пределах необходимой точности);

· устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности.

Для измерения количества информации на семантическом уровне используется тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение.

В широком смысле тезаурус  – описание системы знаний о действительности, которыми располагает индивидуальный носитель информации или группа носителей.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp, изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Максимальное количество семантической информации Ic пользователь приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Поэтому количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной и нужно стремиться к согласованию величин S и Sp при оценке семантического аспекта информации.

Прагматическая мера информации определяет полезность (ценность) использования информации для достижения пользователем поставленной цели (денежное выражение, время обработки информации и принятия решения, скорость передачи данных, емкость памяти, производительность компьютера и т.д.).

Синтаксическая мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

С позиций каждого отдельного человека количество информации, содержащейся в каком-либо сообщении, – субъективная величина.

 

Компьютеры работают с данными. Получив исходные данные, они перерабатывают их по определенным алгоритмам в выходные данные (результаты), из которых человеку обычно легче извлекать информацию, чем из исходных данных.

!!! Следует различать понятие «информация»  и «данные».

Данные – это признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо, данные превращаются в информацию.

Для измерения информации вводятся два параметра: количество информации I и объем данных . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности (семантическая мера, прагматическая мера, синтаксическая мера).

Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена. Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Этот способ измерения количества информации впервые предложил в 1948г. К. Шеннон, утверждавший, что информация – это сведения, уменьшающие неопределенность, существовавшую до их получения.

Сообщение о том, что произошло одно из двух возможных событий (например, преподаватель узнаёт, присутствовал на лекции студент или нет, или же бросаем монету и смотрим – орел или решка) дает получателю один бит информации, так как уменьшает неопределенность в два раза: 2 i = 2, а i = log 2 2 =1.

Если N – неопределенность знания, количество возможных исходов события, а i – количество информации в сообщении об одном из N  результатов, то 2 i = N . Тогда количество информации, содержащееся в сообщении об одном из N  равновероятных событий, определяется решением этого показательного уравнения: i = log 2 N (формула Хартли).

Согласно формуле Шеннона энтропия системы, имеющей N возможных состояний Pi, равна:

 

 


где Pi – вероятность того, что система находится в i–ом состоянии, a – предварительные сведения о системе.

 Количество информации о системе, после получения некоторого сообщения b, определится как: I b ( a ) = H( a ) – H b ( a ), где H b ( a ) – неопределенность состояния системы после получения сообщения b.

В компьютерных системах хранения и передачи информации применяется алфавитный (объемный) подход к измерению информации. При этом подходе для определения количества информации имеет значение лишь объем (размер) хранимого и передаваемого кода. При представлении информации в компьютере она кодируется числовыми кодами в некоторой системе счисления.

При вводе в компьютер текстовой (символьной) информации каждому символу сопоставляется определенная группа двоичных знаков (код), а при выводе на экран или печать по этим знакам (кодам) строятся изображения символов. Соответствие между набором символов и двоичными знаками называется кодировкой символов.

Кодирование – способ представления цифр, букв и других знаков в памяти компьютера в виде наборов из 0 и 1. Из соображений удобства кодирования и из технических соображений при представлении символов пользуются равномерными кодами, т.е. двоичными группами равной длины.

Минимальная единица измерения данных в современных ЭВМ – бит (от англ. binary digit – двоичный разряд) – информация, которую может нести сообщение, состоящее из одного двоичного знака (0 или 1).

С помощью 1-го бита можно закодировать 2 (21) символа 0, 1.

С помощью  2-х битов  можно составить 4 (22) варианта кодов:
                    00 , 01 , 10 , 11 .

С помощью 3-х битов – 8 (23) вариантов:
                    000,  001,  010,  011, 100 , 101, 110, 111.

С помощью 4-х битов – 16 (24) вариантов:
                    0000 , 0001 , 0010 , 0011, 0100 , 0101, 0110 , 0111,
                    1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111
.

С помощью i–разрядного двоичного кода можно закодировать алфавит, состоящий из N символов (N – целая степень двойки): 2 i = N.

Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний объекта, что представляется в виде соотношения N = m n , а   n = log m N, где N – число возможных отображаемых состояний, m – основание системы счисления, n – число разрядов (символов) в сообщении.

Длина двоичного кода i, с помощью которого кодируется символ алфавита – информационный вес символа. Информационный объем текста – это информационные веса всех символов, составляющих текст.

Используемые единицы объема информации:

 






Дата: 2019-05-28, просмотров: 175.