1. Какая энтропия возникает при выборе двух шаров из урны с двумя белыми и одним черным шаром? 2. Какая энтропия

  • 3
1. Какая энтропия возникает при выборе двух шаров из урны с двумя белыми и одним черным шаром?
2. Какая энтропия возникает при выборе двух козырных карт из колоды в 36 карт?
3. Какой уровень неопределенности сопутствует опыту угадывания суммы очков на извлеченной доминошной кости из полного набора?
4. Какая энтропия возникает при извлечении трех карт с картинками из колоды?
5. Какая дифференциальная энтропия возникает при равномерном распределении?
6. Какая дифференциальная энтропия возникает при показательном законе распределения случайной величины, если известно, что
Веселый_Зверь
60
1. Перед тем как рассчитать энтропию, сначала определим вероятность каждого исхода. У нас есть 3 шара в урне: 2 белых и 1 черный. Выберем 2 шара из урны. Здесь возможны 3 исхода: (белый, белый), (белый, черный) и (черный, белый).

Вероятность каждого исхода можно рассчитать по формуле:

\[P(\text{исход}) = \frac{\text{количество благоприятных исходов}}{\text{количество всех возможных исходов}}\]

Таким образом, вероятности исходов будут:
- \(P(\text{белый, белый}) = \frac{2}{3} \times \frac{1}{2} = \frac{1}{3}\)
- \(P(\text{белый, черный}) = \frac{2}{3} \times \frac{1}{2} = \frac{1}{3}\)
- \(P(\text{черный, белый}) = \frac{1}{3} \times \frac{2}{2} = \frac{1}{3}\)

Теперь можем рассчитать энтропию:

\[H = -\sum_{i=1}^{n} P(\text{исход}_i) \log_2 P(\text{исход}_i)\]

Подставим значения и рассчитаем:
\[H = -\left(\frac{1}{3} \log_2 \frac{1}{3} + \frac{1}{3} \log_2 \frac{1}{3} + \frac{1}{3} \log_2 \frac{1}{3}\right)\]

2. Повторим ту же процедуру для второй задачи. У нас есть колода из 36 карт, в которой 9 карт являются козырными. Мы выбираем 2 карты из колоды. Вероятность каждого исхода можно рассчитать так же, как и в предыдущей задаче:

- \(P(\text{2 козырные карты}) = \frac{9}{36} \times \frac{8}{35}\)
- \(P(\text{1 козырная и 1 некозырная карта}) = \frac{9}{36} \times \frac{27}{35}\)
- \(P(\text{2 некозырные карты}) = \frac{27}{36} \times \frac{26}{35}\)

Затем рассчитаем энтропию по той же формуле:

\[H = -\left(P(\text{2 козырные карты}) \log_2 P(\text{2 козырные карты}) + P(\text{1 козырная и 1 некозырная карта}) \log_2 P(\text{1 козырная и 1 некозырная карта}) + P(\text{2 некозырные карты}) \log_2 P(\text{2 некозырные карты})\right)\]

3. Чтобы рассчитать уровень неопределенности, нам необходимо знать количество возможных значений и их вероятности. Если у нас есть полный набор домино из 28 костей, то есть 7 различных значений сумм очков на костях (от 0 до 6).

Предположим, что каждая сумма очков равновероятна, тогда вероятность каждого значения будет:
- \(P(\text{0 очков}) = \frac{1}{7}\)
- \(P(\text{1 очко}) = \frac{1}{7}\)
- \(P(\text{2 очка}) = \frac{1}{7}\)
- \(P(\text{3 очка}) = \frac{1}{7}\)
- \(P(\text{4 очка}) = \frac{1}{7}\)
- \(P(\text{5 очков}) = \frac{1}{7}\)
- \(P(\text{6 очков}) = \frac{1}{7}\)

Теперь, используя энтропию, мы можем рассчитать уровень неопределенности.

4. В этой задаче мы рассматриваем извлечение 3 карт с картинками (валет, дама, король) из стандартной колоды из 52 карт. Каждой картинке соответствуют 4 карты. Итак, у нас есть общее количество карт:
- (валет) 4 карты
- (дама) 4 карты
- (король) 4 карты

Вероятность каждого исхода можно рассчитать следующим образом:
- \(P(\text{3 карты с картинками}) = \frac{4}{52} \times \frac{4}{51} \times \frac{4}{50}\)
- \(P(\text{2 карты с картинками и 1 некартина}) = \frac{4}{52} \times \frac{4}{51} \times \frac{48}{50}\)
- \(P(\text{1 карта с картинкой и 2 некартины}) = \frac{4}{52} \times \frac{48}{51} \times \frac{48}{50}\)

Теперь рассчитаем энтропию:
\[H = -\left(P(\text{3 карты с картинками}) \log_2 P(\text{3 карты с картинками}) + P(\text{2 карты с картинками и 1 некартина}) \log_2 P(\text{2 карты с картинками и 1 некартина}) + P(\text{1 карта с картинкой и 2 некартины}) \log_2 P(\text{1 карта с картинкой и 2 некартины})\right)\]

5. Дифференциальная энтропия равномерного распределения вычисляется по формуле:

\[H = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]

где \(p(x_i)\) - вероятность появления каждого возможного значения \(x_i\).

В случае равномерного распределения, вероятность каждого значения будет одинаковой, то есть \(p(x_i) = \frac{1}{n}\), где \(n\) - количество возможных значений. Подставим значение и получим дифференциальную энтропию.

6. Для показательного закона распределения случайной величины вероятность можно рассчитать с помощью функции плотности. Для данной случайной величины \(X\) с функцией плотности \(f(x) = \lambda e^{-\lambda x}\), где \(x \geq 0\) и \(\lambda > 0\), вероятность попадания случайной величины в интервал \((a, b)\) вычисляется следующим образом:

\[P(a < X < b) = \int\limits_{a}^{b} \lambda e^{-\lambda x} dx\]

Чтобы рассчитать дифференциальную энтропию показательного закона распределения, мы должны использовать формулу:

\[H = -\int\limits_{-\infty}^{\infty} f(x) \log_2 f(x) dx\]

Подставим значение функции плотности и рассчитаем дифференциальную энтропию.