Тема . Теория вероятностей и статистика
.07 Случайные величины. Мат. ожидание и дисперсия. Ковариация.
Вспоминай формулы по каждой теме
Решай новые задачи каждый день
Вдумчиво разбирай решения
ШКОЛКОВО.
Готовиться с нами - ЛЕГКО!
Подтемы раздела теория вероятностей и статистика
Решаем задачу:

Ошибка.
Попробуйте повторить позже

Задача 1#88669

Пусть у нас есть n  принтеров в офисе, каждый из них ломается за год с вероятностью p  . Найти мат. ожидание и дисперсию количества сломанных принтеров за год.

Комментарией. То, что происходит в этой задаче, в науке называется биномиальным распределением (вместо принтеров, естественно, может быть любые другие n  объектов, каждый из которых что-то ”  делает”  с одной и той же вероятностью p  ). При вычислении вы сразу же поймете, причем тут бином.

Показать ответ и решение

Давайте поймем самое главное - какие значения принимает наша случайная величина, равная количеству сломанных принтеров, и с какими вероятностями.

Ясно, что если ξ  - количество сломанных принтеров, то ξ  может быть равна 0,1,2,...,n  .

С какими вероятностями принимаются эти значения?

Например,

                                                       n
P(ξ = 0) = P( все пр интеры останутся целы ми ) = (1− p)

(мы считаем, что принтеры друг на друга никак не влияют и ломаются независимо.)

Ну хорошо, для ξ = 0  вероятность было посчитать легко, а что будет в общем случае? Какая вероятность того, что ξ = k  ? То есть что у нас какие-то k  принтеров сломаются?

Если фиксировать конкретные k  принтеров, к примеру, первые k  , то вероятность, что именно они сломаются, а остальные останутся целыми будет

 k      n− k
p (1−  p)

Но сломаться-то могут любые k  . Значит, надо посчитать, сколькими способами можно выбрать k  сломающихся принтеров из n  . Ясно, что Ckn  способами. И у каждого из Ckn  наборов вероятность будет  k      n− k
p (1 − p)  .

Поскольку нас устраивает любой такой набор, то эти одинаковые вероятности нужно сложить, и будет сумма из Ckn  слагаемых, каждое из которых равно pk(1− p)n−k  .

Таким образом, получаем, что

             k k      n−k
P (ξ = k) = C np (1− p)

Таким образом, мы сразу же можем посчитать мат. ожидание ξ  :

     ∑n               ∑n                     ∑n        n!
Eξ =    k ⋅P (ξ = k ) =  k ⋅Cknpk(1− p)n−k =    k ⋅---------pk(1 − p)n−k =
     k=0              k=0                    k=0   k!(n − k)!

  ∑n                                 ∑n
=    ------n!-------pk(1 − p)n−k = np    ----(n−-1)!---pk− 1(1 − p)n−k =
  k=1(k − 1)!(n − k)!                 k=1 (k − 1)!(n − k)!

      n
= np ∑  Ck− 1pk− 1(1 − p)n−k
         n− 1
     k=1

И тут уже вырисовывается картина того, что мы должны в конце концов получить.

Давайте прибегнем к небольшой хитрости и распишем

∑n                       ∑n
    Ckn−−11pk−1(1 − p)n−k =    Ckn−− 11pk−1(1− p)n−1−(k−1)
k=1                      k=1

Мы просто в степени (1 − p)  вместо n−  k  записали n − 1− (k − 1)  , что одно и то же.

Но теперь-то заметим, что если мы будем по биному Ньютона раскрывать выражение

           n−1
(p + (1− p))

то что у нас получится? А у нас как раз и получится

          n− 1  ∑n   k−1 k− 1      n−1−(k−1)
(p + 1− p )   =     Cn−1p   (1 − p)
                k=1

Просто тупо по биному Ньютона. Таким образом, оставшаяся сумма равна (p+ 1 − p)n−1   , что, разумеется, равно единичке для любого p  и для любого n  . Таким образом, окончательно получаем:

     ∑n               ∑n                            ∑n
Eξ =    k ⋅P (ξ = k) =    k ⋅Cknpk(1 − p)n−k = ...= np    Ckn−−11pk−1(1 − p)n− 1−(k− 1) = np
     k=0              k=0                           k=1----------  ------------
                                                    ◟            ◝=◜1           ◞

Вот мы и посчитали мат. ожидание.

Попробуем посчитать дисперсию:

           2       2
Varξ = E (ξ )− (Eξ)

То есть для дисперсии нам нужно посчитать только лишь     2
E (ξ)  .

Итак,

    2   ∑n   2            ∑n  2   k  k      n−k   ∑n  2  ---n!---- k      n− k
E (ξ) =    k  ⋅P (ξ = k) =    k  ⋅Cnp (1 − p)    =    k  ⋅k!(n − k)!p (1− p )   =
        k=0               k=0                     k=0

  ∑n
=    (k + (k − 1)k)⋅---n!---pk (1 − p)n−k =
  k=0              k!(n − k)!

   n                            n
  ∑     ----n!--- k       n−k  ∑           ----n!---  k      n−k
=    k ⋅k!(n−  k)!p (1 − p)   +    (k − 1)k ⋅k!(n − k)!p (1 − p)
  k◟=0---------◝◜------------◞  k=0
   =np -мы это только что считали

Таким образом, остается вычислить лишь

∑n
   (k − 1)k ⋅---n!----pk(1− p)n−k
k=0          k!(n − k)!

 n                                   n
∑            ---n!---- k      n−k   ∑   ------n!-------k      n−k
   (k − 1)k ⋅ k!(n − k)!p (1 − p)   =     (k − 2)!(n − k)!p (1− p)    =
k=0                                 k=2

             ∑n
=  n(n− 1)p2    ----(n-−-2)!---pk− 2(1 − p)n−2−(k−2)
             k=2 (k − 2)!(n − k)!

И тут, как вы видите, срабатывает тот же самый трюк, поскольку

 n                                      n
∑  ----(n-−-2)!---pk− 2(1 − p)n−2−(k−2) = ∑  Ck−2pk−2(1 − p)n−2−(k− 2)
   (k − 2)!(n − k)!                          n−2
k=2                                     k=2

Есть не что иное, как             n−2
(p+  (1 − p))   , что равно 1 при любом p  и при любом n  .

Поэтому получаем, что

        ∑n                           ∑n
E(ξ2) =    k ⋅----n!---pk(1−  p)n− k+    (k − 1)k ⋅---n!---pk(1 − p)n−k =
        k=0   k!(n− k)!              k=0         k!(n−  k)!
        ◟-----------◝=◜np-----------◞

= np+  n(n− 1)p2

Следовательно,

V arξ = E (ξ2)− (E ξ)2 = np+n (n− 1)p2− (np )2 = np+n2p2 − np2− n2p2 = np − np2 = n (p− p2) = np(1− p)

Замечание 1. Нетрудно видеть, что вычисления ни в случае мат. ожидания, ни в случае дисперсии не самые приятные. И вот в случае мат. ожидания действительно можно было все облегчить, но мы специально показали сложный способ, чтобы вы могли сравнить его с простым, который получается при помощи нашего замечательного свойства аддитивности мат. ожидания.

Итак, пусть I1   - случайная величина, равная 1, если первый принтер сломался, и 0 если нет. I2   - случайная величина, равная 1, если второй принтер сломался, и 0 если нет. И так далее...

Тогда ясно, что ξ = I1 + ...+ In  .

Далее, очевидно, что EIk =  1⋅p + 0⋅(1 − p) = p  , а по свойству аддитивности мат. ожидания

Eξ = E (I1 + ...+ In) = EI1 + ...+ EIn = p◟+-p-+◝◜...+-p◞ = np
                                          n раз

И мы получаем тот же ответ для мат. ожидания, только в тысячу раз проще.

Замечание 2. Логичный вопрос, а нельзя ли было получить результат для дисперсии так же нахаляву? Во-первых, можно, но вообще говоря далеко не всегда.

Но в этой задаче можно, потому что принтеры ломаются независимо (обратите внимание, что в халявном вычислении мат. ожидания это нигде не нужно было учитывать). С другой стороны, пока мы не доказали формулы для аддитивности дисперсии в независимом случае, мы ей и не пользуемся, поэтому тут пришлось немного пострадать с преобразованием сумм.

Ответ:

Специальные программы

Все специальные программы

Программа
лояльности v2.0

Приглашай друзей в Школково и получай вознаграждение до 10%!

Крути рулетку
и выигрывай призы!

Крути рулетку и покупай курсы со скидкой, которая привязывается к вашему аккаунту.

Бесплатное обучение
в Школково

Для детей ДНР, ЛНР, Херсонской, Запорожской, Белгородской, Брянской областей, а также школьникам, находящимся в пунктах временного размещения Крыма обучение на платформе бесплатное.

Налоговые вычеты

Узнай, как получить налоговый вычет при оплате обучения в «Школково».

Специальное предложение
для учителей

Бесплатный доступ к любому курсу подготовки к ЕГЭ или олимпиадам от «Школково». Мы с вами делаем общее и важное дело, а потому для нас очень значимо быть чем-то полезными для учителей по всей России!

Вернём деньги за курс
за твою сотку на ЕГЭ

Сдать экзамен на сотку и получить обратно деньги за подготовку теперь вполне реально!

cyberpunkMouse
cyberpunkMouse
Рулетка
Вы можете получить скидку в рулетке!