1. Какая энтропия возникает при выборе двух шаров из урны с двумя белыми и одним черным шаром? 2. Какая энтропия
1. Какая энтропия возникает при выборе двух шаров из урны с двумя белыми и одним черным шаром?
2. Какая энтропия возникает при выборе двух козырных карт из колоды в 36 карт?
3. Какой уровень неопределенности сопутствует опыту угадывания суммы очков на извлеченной доминошной кости из полного набора?
4. Какая энтропия возникает при извлечении трех карт с картинками из колоды?
5. Какая дифференциальная энтропия возникает при равномерном распределении?
6. Какая дифференциальная энтропия возникает при показательном законе распределения случайной величины, если известно, что
2. Какая энтропия возникает при выборе двух козырных карт из колоды в 36 карт?
3. Какой уровень неопределенности сопутствует опыту угадывания суммы очков на извлеченной доминошной кости из полного набора?
4. Какая энтропия возникает при извлечении трех карт с картинками из колоды?
5. Какая дифференциальная энтропия возникает при равномерном распределении?
6. Какая дифференциальная энтропия возникает при показательном законе распределения случайной величины, если известно, что
Веселый_Зверь 60
1. Перед тем как рассчитать энтропию, сначала определим вероятность каждого исхода. У нас есть 3 шара в урне: 2 белых и 1 черный. Выберем 2 шара из урны. Здесь возможны 3 исхода: (белый, белый), (белый, черный) и (черный, белый).Вероятность каждого исхода можно рассчитать по формуле:
\[P(\text{исход}) = \frac{\text{количество благоприятных исходов}}{\text{количество всех возможных исходов}}\]
Таким образом, вероятности исходов будут:
- \(P(\text{белый, белый}) = \frac{2}{3} \times \frac{1}{2} = \frac{1}{3}\)
- \(P(\text{белый, черный}) = \frac{2}{3} \times \frac{1}{2} = \frac{1}{3}\)
- \(P(\text{черный, белый}) = \frac{1}{3} \times \frac{2}{2} = \frac{1}{3}\)
Теперь можем рассчитать энтропию:
\[H = -\sum_{i=1}^{n} P(\text{исход}_i) \log_2 P(\text{исход}_i)\]
Подставим значения и рассчитаем:
\[H = -\left(\frac{1}{3} \log_2 \frac{1}{3} + \frac{1}{3} \log_2 \frac{1}{3} + \frac{1}{3} \log_2 \frac{1}{3}\right)\]
2. Повторим ту же процедуру для второй задачи. У нас есть колода из 36 карт, в которой 9 карт являются козырными. Мы выбираем 2 карты из колоды. Вероятность каждого исхода можно рассчитать так же, как и в предыдущей задаче:
- \(P(\text{2 козырные карты}) = \frac{9}{36} \times \frac{8}{35}\)
- \(P(\text{1 козырная и 1 некозырная карта}) = \frac{9}{36} \times \frac{27}{35}\)
- \(P(\text{2 некозырные карты}) = \frac{27}{36} \times \frac{26}{35}\)
Затем рассчитаем энтропию по той же формуле:
\[H = -\left(P(\text{2 козырные карты}) \log_2 P(\text{2 козырные карты}) + P(\text{1 козырная и 1 некозырная карта}) \log_2 P(\text{1 козырная и 1 некозырная карта}) + P(\text{2 некозырные карты}) \log_2 P(\text{2 некозырные карты})\right)\]
3. Чтобы рассчитать уровень неопределенности, нам необходимо знать количество возможных значений и их вероятности. Если у нас есть полный набор домино из 28 костей, то есть 7 различных значений сумм очков на костях (от 0 до 6).
Предположим, что каждая сумма очков равновероятна, тогда вероятность каждого значения будет:
- \(P(\text{0 очков}) = \frac{1}{7}\)
- \(P(\text{1 очко}) = \frac{1}{7}\)
- \(P(\text{2 очка}) = \frac{1}{7}\)
- \(P(\text{3 очка}) = \frac{1}{7}\)
- \(P(\text{4 очка}) = \frac{1}{7}\)
- \(P(\text{5 очков}) = \frac{1}{7}\)
- \(P(\text{6 очков}) = \frac{1}{7}\)
Теперь, используя энтропию, мы можем рассчитать уровень неопределенности.
4. В этой задаче мы рассматриваем извлечение 3 карт с картинками (валет, дама, король) из стандартной колоды из 52 карт. Каждой картинке соответствуют 4 карты. Итак, у нас есть общее количество карт:
- (валет) 4 карты
- (дама) 4 карты
- (король) 4 карты
Вероятность каждого исхода можно рассчитать следующим образом:
- \(P(\text{3 карты с картинками}) = \frac{4}{52} \times \frac{4}{51} \times \frac{4}{50}\)
- \(P(\text{2 карты с картинками и 1 некартина}) = \frac{4}{52} \times \frac{4}{51} \times \frac{48}{50}\)
- \(P(\text{1 карта с картинкой и 2 некартины}) = \frac{4}{52} \times \frac{48}{51} \times \frac{48}{50}\)
Теперь рассчитаем энтропию:
\[H = -\left(P(\text{3 карты с картинками}) \log_2 P(\text{3 карты с картинками}) + P(\text{2 карты с картинками и 1 некартина}) \log_2 P(\text{2 карты с картинками и 1 некартина}) + P(\text{1 карта с картинкой и 2 некартины}) \log_2 P(\text{1 карта с картинкой и 2 некартины})\right)\]
5. Дифференциальная энтропия равномерного распределения вычисляется по формуле:
\[H = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]
где \(p(x_i)\) - вероятность появления каждого возможного значения \(x_i\).
В случае равномерного распределения, вероятность каждого значения будет одинаковой, то есть \(p(x_i) = \frac{1}{n}\), где \(n\) - количество возможных значений. Подставим значение и получим дифференциальную энтропию.
6. Для показательного закона распределения случайной величины вероятность можно рассчитать с помощью функции плотности. Для данной случайной величины \(X\) с функцией плотности \(f(x) = \lambda e^{-\lambda x}\), где \(x \geq 0\) и \(\lambda > 0\), вероятность попадания случайной величины в интервал \((a, b)\) вычисляется следующим образом:
\[P(a < X < b) = \int\limits_{a}^{b} \lambda e^{-\lambda x} dx\]
Чтобы рассчитать дифференциальную энтропию показательного закона распределения, мы должны использовать формулу:
\[H = -\int\limits_{-\infty}^{\infty} f(x) \log_2 f(x) dx\]
Подставим значение функции плотности и рассчитаем дифференциальную энтропию.