+7(996)961-96-66
+7(964)869-96-66
+7(996)961-96-66
Заказать помощь

Контрольная работа на тему Контрольная работа 041126

ОПИСАНИЕ РАБОТЫ:

Предмет:
ИНФОРМАТИКА
Тема:
Контрольная работа 041126
Тип:
Контрольная работа
Объем:
18 страниц
Дата:
26.11.04
Идентификатор:
idr_1909__0003181


Как скачать реферат, курсовую бесплатно?


Контрольная работа 041126 - работа из нашего списка "ГОТОВЫЕ РАБОТЫ". Мы помогли с ее выполнением и она была сдана на Отлично! Работа абсолютно эксклюзивная, нигде в Интернете не засвечена и Вашим преподавателям точно не знакома! Если Вы ищете уникальную, грамотно выполненную курсовую работу, контрольную, реферат и т.п. - Вы можете получить их на нашем ресурсе.
Вы можете запросить контрольную Контрольная работа 041126 у нас, написав на адрес ready@referatshop.ru.
Обращаем ваше внимание на то, что скачать контрольную Контрольная работа 041126 по предмету ИНФОРМАТИКА с сайта нельзя! Здесь представлено лишь несколько первых страниц и содержание этой эксклюзивной работы - для ознакомления. Если Вы хотите получить контрольную Контрольная работа 041126 (предмет - ИНФОРМАТИКА) - пишите.



Фрагмент работы:





Содержание

1. Дайте определения количества информации 3
2. Когда понятия энтропии и количества информации полностью совпадают? 3
3. Сформулируйте свойства энтропии дискретных сообщений 4
4. В чем состоит процедура Шеннона-Фано? 4
5. Как, исходя из теоремы кодирования Шеннона, добиться без избыточного кодирования? 5
6. В чем заключается естественная избыточность языков человека? 5
7. Для чего вносят искусственную избыточность в кодирование информации? 5
8. Каким образом решают проблему помехоустойчивости кода? 6
9. Для чего необходимо дискретное представление непрерывного сигнала? 7
10. В чем суть теоремы отсчетов? 7
11. Сформулируйте свойства энтропии непрерывных сообщений 7
12. Что такое пропускная способность канала связи? 8
13. Какие существуют способы оценки полезности информации? 9
14. В чем причины изменения ценности информации? 10
15. Что такое модель? Приведите примеры моделей экономических систем. 10
16. Сформулируйте выгоду моделирования в экономике. А какие при этом существуют проблемы? 12
17. В чем состоит методология системного анализа? 13
18. Дайте определение эмерджентности как свойства сложных систем. 14
19. Какова цель функционального описания системы? 14
20. Какова цель структурного описания системы? 15
21. Какова цель информационного описания системы? 15
22. В чем заключаются современные тенденции в области моделирования информационных систем? 16

1. Дайте определения количества информации

Количество информации - мера оценки информации, которое не зависит от формы и содержания сообщения, а только от вероятности получения сообщения о том или ином событии.
Шенноновская теория информации исходит из элементарного альтернативного выбора между двумя знаками (битами) О и L, где L может отождествляться с 1, "да", "истина" и т.п., а O с 0, "нет", "ложь". Такой выбор соответствует приему сообщения, состоящего из одного двоичного знака, и, тем самым, мы снимаем имеющуюся неопределенность в выборе.
Количество информации, содержащееся в таком сообщении, принимается за единицу и также называется битом. Так что бит - это и двоичный знак, и единица измерения количества информации, определяемая как количество информации в выборе с двумя взаимоисключающими равновероятными исходами.

2. Когда понятия энтропии и количества информации полностью совпадают?

Количество информации, содержащееся в знаке, задается частотой появления этого знака: ld(1/Pi ) бит.
Тогда среднее количество информации, приходящееся на один произвольный знак, равно
бит, причем . (3.1)
Таким образом, понятия энтропии и количества информации совпадают, когда знаки имеют одинаковую вероятность появления.


3. Сформулируйте свойства энтропии дискретных сообщений

Свойства энтропии:
1) энтропия заранее известного сообщения равна 0;
2) во всех других случаях H > 0.
3) энтропия достигает максимального значения, когда вероятности сообщений одинаковы.

4. В чем состоит процедура Шеннона-Фано?

Как уже отмечалось, результат одного отдельного альтернативного выбора может быть представлен как 0 или 1. Тогда выбору всякого знака соответствует некоторая последовательность двоичных знаков 0 или 1, то есть двоичное слово. Это двоичное слово называют кодировкой знака, а множество кодировок всех знаков источника сообщений - кодом источника сообщений. Если количество знаков представляет собой степень двойки (n = 2N) и все знаки равновероятны Pi = (1/2)N, то все двоичные слова имеют длину N и H=N=ld(n). Такие коды называют равномерными кодами.
Если ld(n) не целое число, то это означает, что ld(n) не может быть одинаковым для всех знаков количеством необходимых альтернативных выборов. Тем не менее, выбор из n знаков всегда можно осуществить с помощью N альтернативных выборов, где N-1 ld(n) N. Для этого достаточно разбивать всякое множество знаков так, чтобы количество знаков в двух получающихся подмножествах различалось не более, чем на 1. Таким образом, для источника с n знаками всегда существует кодирование словами постоянной длины N, где N-1 ld(n) N.


5. Как, исходя из теоремы кодирования Шеннона, добиться без избыточного кодирования?

В общем случае связь между средней длиной слова L и энтропией H источника сообщений дает следующая теорема кодирования Шеннона:
1) имеет место неравенство L H, причем L - H = 0 тогда, когда набор знаков можно разбить на точно равновероятные подмножества;
2) всякий источник сообщений можно закодировать так, что разность L - H будет как угодно мала.
Разность L-H называют избыточностью кода (мера бесполезно совершаемых альтернативных выборов).
Таким образом, чтобы добиться безызбыточного кодирования, необходимо чтобы разность L-H была равна нулю, т.е. надо разбить набор знаков на точно равновероятные подмножества.

6. В чем заключается естественная избыточность языков человека?

различные сочетания букв не являются равновероятными. Поэтому, если при подсчете энтропии русского текста исходить из двухбуквенных сочетаний, то она уменьшается еще более - примерно до Н2 = 3,5 бита. С учетом трехбуквенных сочетаний энтропия сокращается до Н3 = 2,98 бит, а если иметь в виду еще более длинные сочетания, то приблизительно до Н4 = 2,5 бита. Каждая буква имеет в среднем информацию около 2,5 бита, то есть примерно половину букв в осмысленных текстах можно было бы выбросить; при этом по оставшимся буквам текст может быть понят и восстановлен. В теории информации говорят, что наш язык обладает избыточностью порядка 50%. Это и есть естественная избыточность.


Посмотреть другие готовые работы по предмету ИНФОРМАТИКА