Словарь терминов по информатике
Строка 25: | Строка 25: | ||
'''Энтропия информации''' | '''Энтропия информации''' | ||
+ | #Энтропия в теории информации — мера неопределённости сообщений. | ||
+ | http://www.wikiznanie.ru/ru-wz/index.php/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F Степанищева Екатерина | ||
'''Мера Хартли''' | '''Мера Хартли''' | ||
+ | #Аддитивная мера | ||
+ | Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита: | ||
+ | |||
+ | I = l log h, | ||
+ | |||
+ | где I – количество информации, содержащейся в сообщении; | ||
+ | |||
+ | l – длина сообщения; | ||
+ | |||
+ | h – мощность исходного алфавита. | ||
+ | |||
+ | При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем | ||
+ | |||
+ | I = 1*log22 = 1. | ||
+ | |||
+ | Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре. | ||
+ | |||
+ | Единицей измерения информации в аддитивной мере является бит. | ||
+ | |||
+ | http://www.klgtu.ru/ru/students/literature/inf_asu/340.html Степанищева Екатерина | ||
+ | |||
+ | |||
'''Мера Шеннона''' | '''Мера Шеннона''' | ||
[[Категория:Информатика и ИКТ]] | [[Категория:Информатика и ИКТ]] |
Версия 17:15, 6 октября 2009
Для каждого термина оставить определение или комментарий. Не допускается повторения определений. Для любой информации указать её источник (ссылку на Интернет-ресурс или статью/книгу).
Информатика
- Информатика - научное направление, занимающееся изучением законов, методов и способов накапливания, обработки и передачи информации с помощью ЭВМ и других технических средств. [Першиков В.И. Толковый словарь по информатике. - М.: Финансы и статистика, 1995.]--Михеева Ольга 13:53, 31 августа 2009 (SAMST)
Информационные технологии
Новые информационные технологии
Информация
Сигнал
Данные
Тезаурус
- Тезаурус — это совокупность сведений, которыми располагает пользователь или система.
http://synopsis.kubsu.ru/informatic/master/lecture/themes2_1_3.htm Степанищева Екатерина
Информационный процесс
Свойства информации
Энтропия информации
- Энтропия в теории информации — мера неопределённости сообщений.
http://www.wikiznanie.ru/ru-wz/index.php/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F Степанищева Екатерина
Мера Хартли
- Аддитивная мера
Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита:
I = l log h,
где I – количество информации, содержащейся в сообщении;
l – длина сообщения;
h – мощность исходного алфавита.
При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем
I = 1*log22 = 1.
Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.
Единицей измерения информации в аддитивной мере является бит.
http://www.klgtu.ru/ru/students/literature/inf_asu/340.html Степанищева Екатерина
Мера Шеннона