Словарь терминов по информатике

Материал из ТолВИКИ
Перейти к: навигация, поиск

Для каждого термина оставить определение или комментарий. Не допускается повторения определений. Для любой информации указать её источник (ссылку на Интернет-ресурс или статью/книгу).


Информатика

  1. Информатика - научное направление, занимающееся изучением законов, методов и способов накапливания, обработки и передачи информации с помощью ЭВМ и других технических средств. [Першиков В.И. Толковый словарь по информатике. - М.: Финансы и статистика, 1995.]--Михеева Ольга 13:53, 31 августа 2009 (SAMST)

Информационные технологии

Новые информационные технологии

Информация

Сигнал

Данные

Тезаурус

  1. Тезаурус — это совокупность сведений, которыми располагает пользователь или система.

http://synopsis.kubsu.ru/informatic/master/lecture/themes2_1_3.htm Степанищева Екатерина

Информационный процесс

Свойства информации

Энтропия информации

  1. Энтропия в теории информации — мера неопределённости сообщений.

http://www.wikiznanie.ru/ru-wz/index.php/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F Степанищева Екатерина

Мера Хартли

  1. Аддитивная мера

Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита:

I = l log h,

где I – количество информации, содержащейся в сообщении;

l – длина сообщения;

h – мощность исходного алфавита.

При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем

I = 1*log22 = 1.

Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.

Единицей измерения информации в аддитивной мере является бит.

http://www.klgtu.ru/ru/students/literature/inf_asu/340.html Степанищева Екатерина


Мера Шеннона

Личные инструменты
наши друзья
http://аудиохрестоматия.рф/