Словарь терминов по информатике

Материал из ТолВИКИ
(Различия между версиями)
Перейти к: навигация, поиск
Строка 25: Строка 25:
  
 
'''Энтропия информации'''
 
'''Энтропия информации'''
 +
#Энтропия в теории информации — мера неопределённости сообщений.
 +
http://www.wikiznanie.ru/ru-wz/index.php/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F  Степанищева Екатерина
  
 
'''Мера Хартли'''
 
'''Мера Хартли'''
 +
#Аддитивная мера
 +
Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита:
 +
 +
I = l log h,       
 +
 +
где I – количество информации, содержащейся в сообщении;
 +
 +
l – длина сообщения;
 +
 +
h – мощность исходного алфавита.
 +
 +
При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем
 +
 +
I = 1*log22 = 1.
 +
 +
Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.
 +
 +
Единицей измерения информации в аддитивной мере является бит.
 +
 +
http://www.klgtu.ru/ru/students/literature/inf_asu/340.html      Степанищева Екатерина
 +
 +
  
 
'''Мера Шеннона'''
 
'''Мера Шеннона'''
  
 
[[Категория:Информатика и ИКТ]]
 
[[Категория:Информатика и ИКТ]]

Версия 17:15, 6 октября 2009

Для каждого термина оставить определение или комментарий. Не допускается повторения определений. Для любой информации указать её источник (ссылку на Интернет-ресурс или статью/книгу).


Информатика

  1. Информатика - научное направление, занимающееся изучением законов, методов и способов накапливания, обработки и передачи информации с помощью ЭВМ и других технических средств. [Першиков В.И. Толковый словарь по информатике. - М.: Финансы и статистика, 1995.]--Михеева Ольга 13:53, 31 августа 2009 (SAMST)

Информационные технологии

Новые информационные технологии

Информация

Сигнал

Данные

Тезаурус

  1. Тезаурус — это совокупность сведений, которыми располагает пользователь или система.

http://synopsis.kubsu.ru/informatic/master/lecture/themes2_1_3.htm Степанищева Екатерина

Информационный процесс

Свойства информации

Энтропия информации

  1. Энтропия в теории информации — мера неопределённости сообщений.

http://www.wikiznanie.ru/ru-wz/index.php/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F Степанищева Екатерина

Мера Хартли

  1. Аддитивная мера

Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита:

I = l log h,

где I – количество информации, содержащейся в сообщении;

l – длина сообщения;

h – мощность исходного алфавита.

При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем

I = 1*log22 = 1.

Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.

Единицей измерения информации в аддитивной мере является бит.

http://www.klgtu.ru/ru/students/literature/inf_asu/340.html Степанищева Екатерина


Мера Шеннона

Личные инструменты
наши друзья
http://аудиохрестоматия.рф/