13. Определите энтропию источника сообщений на основании статистики распределения вероятностей появления символов
13. Определите энтропию источника сообщений на основании статистики распределения вероятностей появления символов на выходе источника. Приведенные вероятности для каждого символа следующие: a = 0,35, b = 0,035, c = 0,07, d = 0,15, e = 0,07, f = 0,07, g = 0,14, h = 0,035, i = 0,01, j = 0,07.
14. У вас имеется алфавит из 5 символов, с соответствующими вероятностями появления: символ a с вероятностью 0,7, символ b с вероятностью 0,2, символ c с вероятностью 0,08, символ d с вероятностью 0,015, символ e с вероятностью 0,005. Определите количество информации в сообщении, состоящем из 20 символов. Каково количество информации в данном сообщении, если все символы равновероятны? Пожалуйста, прикрепите скриншоты самих изображений высокого качества.
14. У вас имеется алфавит из 5 символов, с соответствующими вероятностями появления: символ a с вероятностью 0,7, символ b с вероятностью 0,2, символ c с вероятностью 0,08, символ d с вероятностью 0,015, символ e с вероятностью 0,005. Определите количество информации в сообщении, состоящем из 20 символов. Каково количество информации в данном сообщении, если все символы равновероятны? Пожалуйста, прикрепите скриншоты самих изображений высокого качества.
Zvezdnaya_Galaktika 56
13. Для определения энтропии источника сообщений на основе статистики распределения вероятностей появления символов на выходе источника, мы можем использовать формулу энтропии Шеннона.Энтропия источника сообщений определяется следующим образом:
\[H(X) = -\sum p_i \log_2(p_i)\]
Где:
\(H(X)\) - энтропия источника сообщений,
\(p_i\) - вероятность появления символа \(i\).
По данному условию мы имеем следующие вероятности для каждого символа:
\(p_a = 0.35\),
\(p_b = 0.035\),
\(p_c = 0.07\),
\(p_d = 0.15\),
\(p_e = 0.07\),
\(p_f = 0.07\),
\(p_g = 0.14\),
\(p_h = 0.035\),
\(p_i = 0.01\),
\(p_j = 0.07\).
Теперь давайте рассчитаем энтропию источника сообщений:
\[H(X) = -p_a \log_2(p_a) - p_b \log_2(p_b) - p_c \log_2(p_c) - p_d \log_2(p_d) - p_e \log_2(p_e) - p_f \log_2(p_f) - p_g \log_2(p_g) - p_h \log_2(p_h) - p_i \log_2(p_i) - p_j \log_2(p_j)\]
\[H(X) = -(0.35 \cdot \log_2(0.35)) - (0.035 \cdot \log_2(0.035)) - (0.07 \cdot \log_2(0.07)) - (0.15 \cdot \log_2(0.15)) - (0.07 \cdot \log_2(0.07)) - (0.07 \cdot \log_2(0.07)) - (0.14 \cdot \log_2(0.14)) - (0.035 \cdot \log_2(0.035)) - (0.01 \cdot \log_2(0.01)) - (0.07 \cdot \log_2(0.07))\]
Выполнив необходимые вычисления, получим значение энтропии источника сообщений равное:
\[H(X) \approx 2.085\]
Таким образом, энтропия источника сообщений составляет приблизительно 2.085 бит.
14. Чтобы определить количество информации в сообщении, состоящем из 20 символов, мы можем использовать формулу для расчета средней информации для каждого символа и умножить эту величину на количество символов в сообщении.
Средняя информация для каждого символа в алфавите с заданными вероятностями определяется следующим образом:
\[I(X) = -\sum p_i \log_2(p_i)\]
Где:
\(I(X)\) - средняя информация для каждого символа,
\(p_i\) - вероятность появления символа \(i\).
По данному условию мы имеем следующие вероятности для каждого символа:
\(p_a = 0.7\),
\(p_b = 0.2\),
\(p_c = 0.08\),
\(p_d = 0.015\),
\(p_e = 0.005\).
Теперь давайте рассчитаем среднюю информацию для каждого символа:
\[I(X) = -p_a \log_2(p_a) - p_b \log_2(p_b) - p_c \log_2(p_c) - p_d \log_2(p_d) - p_e \log_2(p_e)\]
\[I(X) = -(0.7 \cdot \log_2(0.7)) - (0.2 \cdot \log_2(0.2)) - (0.08 \cdot \log_2(0.08)) - (0.015 \cdot \log_2(0.015)) - (0.005 \cdot \log_2(0.005))\]
Выполнив необходимые вычисления, получим значение средней информации для каждого символа:
\[I(X) \approx 1.029\]
Используя полученное значение средней информации для каждого символа, мы можем определить количество информации в сообщении, состоящем из 20 символов:
\[Количество\ информации\ =\ I(X) \times количество\ символов\]
\[Количество\ информации\ = \approx\ 1.029 \times 20\]
\[Количество\ информации \approx 20.58\]
Таким образом, количество информации в сообщении, состоящем из 20 символов, составляет примерно 20.58 бит.