Семинар ДОПИNG Интересные факты
Строка 10: | Строка 10: | ||
<p align=justify> | <p align=justify> | ||
− | '''1.'''В истории кибернетики имя '''К.Шеннона''' занимает одно из самых значительных мест. Он создал теорию передачи и кодирования информации в каналах связи и заложил основы теории информации. Ему удалось доказать замечательный факт: он установил точную связь между способом кодирования сообщений, скоростью их передачи по каналам связи и вероятностью искажения передаваемой информации. Но, пожалуй, самым важным результатом в этой области явилось доказательство того, что при любых помехах и шумах можно обеспечить передачу информации без потерь.<br><br> | + | '''1.''' В истории кибернетики имя '''К.Шеннона''' занимает одно из самых значительных мест. Он создал теорию передачи и кодирования информации в каналах связи и заложил основы теории информации. Ему удалось доказать замечательный факт: он установил точную связь между способом кодирования сообщений, скоростью их передачи по каналам связи и вероятностью искажения передаваемой информации. Но, пожалуй, самым важным результатом в этой области явилось доказательство того, что при любых помехах и шумах можно обеспечить передачу информации без потерь.<br><br> |
'''Первая теорема Шеннона''' говорит о том, что для передачи любого сообщения с помощью канала без помех существует код минимальной длины, такой, что сообщение кодируется с минимальной избыточностью.<br><br> | '''Первая теорема Шеннона''' говорит о том, что для передачи любого сообщения с помощью канала без помех существует код минимальной длины, такой, что сообщение кодируется с минимальной избыточностью.<br><br> | ||
'''Вторая теорема Шеннона''' о кодировании при наличии шумов гласит, что всегда существует способ кодирования, при котором сообщения будут передаваться с какой угодно высокой достоверностью (со сколь угодно малой вероятностью ошибок), если только скорость передачи не превышает пропускной способности канала связи. Это было неожиданным открытием.<br><br> | '''Вторая теорема Шеннона''' о кодировании при наличии шумов гласит, что всегда существует способ кодирования, при котором сообщения будут передаваться с какой угодно высокой достоверностью (со сколь угодно малой вероятностью ошибок), если только скорость передачи не превышает пропускной способности канала связи. Это было неожиданным открытием.<br><br> | ||
Строка 17: | Строка 17: | ||
'''2.''' В 1977 году математики Р.Ривест, А.Шамил и Л.Элдеман зашифровали фразу из нескольких слов, используя комбинацию из 129 цифр. Они утверждали, что на разгадку понадобятся триллионы лет. Однако ключ к самому сложному в мире шифру ''«РСА-129»'' был найден за 17 лет. Над дешифровкой работали 600 ученых и добровольцев на пяти континентах при помощи 1600 компьютеров. ''Сложность шифра заключалась в том, что для его разгадки было необходимо определить две группы простых чисел, которые при перемножении давали код «РСА-129»''. <br><br>Зашифрованной оказалась бессмысленная фраза '''«волшебные слова – щепетильная скопа»''' (скопа – это хищная птица, живущая у водоемов и питающиеся рыбой). Эти слова были наугад выбраны из словаря в 1977 году. «Такие шифры необходимы, если вы хотите сохранить в секрете рецепт приготовления «Кока-колы» или формулы создания ядерного оружия», - сказал Р.Ривест на пресс-конференции в 1994 году. Возможность разгадки шифра за такой относительно короткий срок должны принять к сведению государственные организации и предприниматели, которые пользуются аналогичными длинными цифровыми кодами для защиты секретных сведений в своих компьютерных базах данных.<br><br><br> | '''2.''' В 1977 году математики Р.Ривест, А.Шамил и Л.Элдеман зашифровали фразу из нескольких слов, используя комбинацию из 129 цифр. Они утверждали, что на разгадку понадобятся триллионы лет. Однако ключ к самому сложному в мире шифру ''«РСА-129»'' был найден за 17 лет. Над дешифровкой работали 600 ученых и добровольцев на пяти континентах при помощи 1600 компьютеров. ''Сложность шифра заключалась в том, что для его разгадки было необходимо определить две группы простых чисел, которые при перемножении давали код «РСА-129»''. <br><br>Зашифрованной оказалась бессмысленная фраза '''«волшебные слова – щепетильная скопа»''' (скопа – это хищная птица, живущая у водоемов и питающиеся рыбой). Эти слова были наугад выбраны из словаря в 1977 году. «Такие шифры необходимы, если вы хотите сохранить в секрете рецепт приготовления «Кока-колы» или формулы создания ядерного оружия», - сказал Р.Ривест на пресс-конференции в 1994 году. Возможность разгадки шифра за такой относительно короткий срок должны принять к сведению государственные организации и предприниматели, которые пользуются аналогичными длинными цифровыми кодами для защиты секретных сведений в своих компьютерных базах данных.<br><br><br> | ||
− | '''3.'''На памятнике немецкому ученому Л.Больцману высечена формула, выведенная в 1877 году и и связывающая вероятность состояния физической системы и величину энтропии этой системы.<br><br> | + | '''3.''' На памятнике немецкому ученому Л.Больцману высечена формула, выведенная в 1877 году и и связывающая вероятность состояния физической системы и величину энтропии этой системы.<br><br> |
− | Энтропия - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.<br><br> | + | ''Энтропия - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.''<br><br> |
− | Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор "энтропия" стало чуть ли не синонимом слова "информация".<br><br> | + | Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор ''"энтропия"'' стало чуть ли не синонимом слова ''"информация"''.<br><br> |
Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимаеи эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.<br><br> | Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимаеи эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.<br><br> | ||
Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.<br><br> | Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.<br><br> |
Текущая версия на 21:53, 31 января 2010
Локальный координатор Участник:Надточий Ирина Сергеевна
Интересные факты (по теме семинара)
1. В истории кибернетики имя К.Шеннона занимает одно из самых значительных мест. Он создал теорию передачи и кодирования информации в каналах связи и заложил основы теории информации. Ему удалось доказать замечательный факт: он установил точную связь между способом кодирования сообщений, скоростью их передачи по каналам связи и вероятностью искажения передаваемой информации. Но, пожалуй, самым важным результатом в этой области явилось доказательство того, что при любых помехах и шумах можно обеспечить передачу информации без потерь.
Первая теорема Шеннона говорит о том, что для передачи любого сообщения с помощью канала без помех существует код минимальной длины, такой, что сообщение кодируется с минимальной избыточностью.
Вторая теорема Шеннона о кодировании при наличии шумов гласит, что всегда существует способ кодирования, при котором сообщения будут передаваться с какой угодно высокой достоверностью (со сколь угодно малой вероятностью ошибок), если только скорость передачи не превышает пропускной способности канала связи. Это было неожиданным открытием.
Большой вклад в разработку математических основ теории связи внесли советские ученые: А.Н.Колмогоров, А.Я.Хинчин, В.А.Котельников. Теория связи позволяет правильно спроектировать канал связи и выбрать оптимальный способ кодирования сигнала.
2. В 1977 году математики Р.Ривест, А.Шамил и Л.Элдеман зашифровали фразу из нескольких слов, используя комбинацию из 129 цифр. Они утверждали, что на разгадку понадобятся триллионы лет. Однако ключ к самому сложному в мире шифру «РСА-129» был найден за 17 лет. Над дешифровкой работали 600 ученых и добровольцев на пяти континентах при помощи 1600 компьютеров. Сложность шифра заключалась в том, что для его разгадки было необходимо определить две группы простых чисел, которые при перемножении давали код «РСА-129».
Зашифрованной оказалась бессмысленная фраза «волшебные слова – щепетильная скопа» (скопа – это хищная птица, живущая у водоемов и питающиеся рыбой). Эти слова были наугад выбраны из словаря в 1977 году. «Такие шифры необходимы, если вы хотите сохранить в секрете рецепт приготовления «Кока-колы» или формулы создания ядерного оружия», - сказал Р.Ривест на пресс-конференции в 1994 году. Возможность разгадки шифра за такой относительно короткий срок должны принять к сведению государственные организации и предприниматели, которые пользуются аналогичными длинными цифровыми кодами для защиты секретных сведений в своих компьютерных базах данных.
3. На памятнике немецкому ученому Л.Больцману высечена формула, выведенная в 1877 году и и связывающая вероятность состояния физической системы и величину энтропии этой системы.
Энтропия - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.
Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор "энтропия" стало чуть ли не синонимом слова "информация".
Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимаеи эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.
Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.
Уменьшая неопределенность, мы получаем информацию, - в этом весь смысл научного познания.
Литература: С.Бешенков, Е.Ракитина Информатика. Систематический курс. Учебник для 10 класса. - М.:Лаборатория Базовых Знаний, 2001