Технико экономическое обоснование использования распределения пуассона. Закон распределения пуассона

💖 Нравится? Поделись с друзьями ссылкой

Введение

Подчиняются ли каким-либо законам явления, носящие случайный характер? Да, но эти законы отличаются от привычных нам физических законов. Значения СВ невозможно предугадать даже при известных условиях эксперимента, мы можем лишь указать вероятности того, что СВ примет то или иное значение. Зато зная распределение вероятностей СВ, мы можем делать выводы о событиях, в которых участвуют эти случайные величины. Правда, эти выводы будут также носить вероятностный характер.

Пусть некоторая СВ является дискретной, т.е. может принимать лишь фиксированные значения Xi. В этом случае ряд значений вероятностей P(Xi) для всех (i=1…n) допустимых значений этой величины называют её законом распределения.

Закон распределения СВ - это отношение, устанавливающее связь между возможными значениями СВ и вероятностями, с которыми принимаются эти значения. Закон распределения полностью характеризует СВ.

При построении математической модели для проверки статистической гипотезы необходимо ввести математическое предположение о законе распределения СВ (параметрический путь построения модели).

Непараметрический подход к описанию математической модели (СВ не имеет параметрического закона распределения) менее точен, но имеет более широкую область применения.

Точно также, как и для вероятности случайного события, для закона распределения СВ есть только два пути его отыскания. Либо мы строим схему случайного события и находим аналитическое выражение (формулу) вычисления вероятности (возможно, кто–то уже сделал или сделает это за нас!), либо придется использовать эксперимент и по частотам наблюдений делать какие–то предположения (выдвигать гипотезы) о законе распределения.

Конечно же, для каждого из "классических" распределений уже давно эта работа проделана – широко известными и очень часто используемыми в прикладной статистике являются биномиальное и полиномиальное распределения, геометрическое и гипергеометрическое, распределение Паскаля и Пуассона и многие другие.

Для почти всех классических распределений немедленно строились и публиковались специальные статистические таблицы, уточняемые по мере увеличения точности расчетов. Без использования многих томов этих таблиц, без обучения правилам пользования ими последние два столетия практическое использование статистики было невозможно.

Сегодня положение изменилось – нет нужды хранить данные расчетов по формулам (как бы последние не были сложны!), время на использование закона распределения для практики сведено к минутам, а то и секундам. Уже сейчас существует достаточное количество разнообразных пакетов прикладных компьютерных программ для этих целей.

Среди всех вероятностных распределений есть такие, которые используются на практике особенно часто. Эти распределения детально изучены и свойства их хорошо известны. Многие из этих распределений лежат в основе целых областей знаний – таких, как теория массового обслуживания, теория надежности, контроль качества, теория игр и т.п

Среди них нельзя не обратить внимание на труды Пуассона (1781-1840), доказавшего более общую, чем у Якова Бернулли, форму закона больших чисел, а также впервые применившего теорию вероятностей к задачам стрельбы. С именем Пуассона связан один из законов распределения, играющий большую роль в теории вероятностей и ее приложениях.

Именно этому закону распределения и посвящена данная курсовая работа. Речь пойдет непосредственно о законе, о его математических характеристиках, особых свойствах, связи с биномиальным распределением. Несколько слов будет сказано по поводу практического применения и приведено несколько примеров из практики.

Цель нашего реферата – выяснить сущность теорем распределения Бернулли и Пуассона.

Задача – изучить и проанализировать литературу по теме реферата.

1. Биномиальное распределение (распределение Бернулли)

Биномиальное распределение (распределение Бернулли) - распределение вероятностей числа появлений некоторого события при повторных независимых испытаниях, если вероятность появления этого события в каждом испытании равна p (0

Говорят, что СВ Х распределена по закону Бернулли с параметром p, если она принимает значения 0 и 1 с вероятностями pX(x)ºP{X=x} = pxq1-x; p+q=1; x=0,1.

Биноминальное распределение возникает в тех случаях, когда ставится вопрос: сколько раз происходит некоторое событие в серии из определенного числа независимых наблюдений (опытов), выполняемых в одинаковых условиях.

Для удобства и наглядности будем полагать, что нам известна величина p – вероятность того, что вошедший в магазин посетитель окажется покупателем и (1– p) = q – вероятность того, что вошедший в магазин посетитель не окажется покупателем.

Если X – число покупателей из общего числа n посетителей, то вероятность того, что среди n посетителей оказалось k покупателей равна

P(X= k) = , где k=0,1,…n 1)

Формулу (1) называют формулой Бернулли. При большом числе испытаний биномиальное распределение стремиться к нормальному.

Испытание Бернулли – это вероятностный эксперимент с двумя исходами, которые, как правило, называют «успехом» (его принято обозначать символом 1) и «неудачей» (соответственно, обозначается 0). Вероятность успеха принято обозначать буквой p, неудачи – буквой q; конечно, q=1-p. Величину p называют параметром испытания Бернулли.

Биномиальная, геометрическая, паскалева и отрицательная биномиальная случайные величины получаются из последовательности независимых испытаний Бернулли, если эту последовательность оборвать тем или иным способом, например, после n-го испытания или x-го успеха. Принято использовать следующую терминологию:

– параметр испытания Бернулли (вероятность успеха в отдельном испытании);

– число испытаний;

– число успехов;

– число неудач.

Биномиальная случайная величина (m|n,p) – число m успехов в n испытаниях.

Геометрическая случайная величина G(m|p)– число m испытаний до первого успеха (включая первый успех).

Паскалева случайная величина C(m|x,p)– число m испытаний до x-го успеха (не включая, конечно, сам x-й успех).

Отрицательная биномиальная случайная величина Y(m|x,p) – число m неудач до x-го успеха (не включая x-й успех).

Замечание: иногда отрицательное биномиальное распределение называют паскалевым и наоборот.


Распределение Пуассона

2.1. Определение закона Пуассона

Во многих задачах практики приходится иметь дело со случайными величинами, распределенными по своеобразному закону, который носит название закона Пуассона.

Рассмотрим прерывную случайную величину Х, которая может принимать только целые, неотрицательные значения: 0, 1, 2, … , m, … ; причем последовательность этих значений теоретически не ограничена. Говорят, что случайная величина Х распределена по закону Пуассона, если вероятность того, что она примет определенное значение m, выражается формулой:

где а - некоторая положительная величина, называемая параметром закона Пуассона.

Ряд распределения случайной величины Х, распределенной по закону Пуассона, выглядит следующим образом:

хm m
Pm e-a

2.2.Основные характеристики распределения Пуассона

Для начала убедимся, что последовательность вероятностей, может представлять собой ряд распределения, т.е. что сумма всех вероятностей Рm равна единице.

Используем разложение функции ех в ряд Маклорена:

Известно, что этот ряд сходится при любом значении х, поэтому, взяв х=а, получим

следовательно

Определим основные характеристики - математическое ожидание и дисперсию - случайной величины Х, распределенной по закону Пуассона. Математическим ожиданием дискретной случайной величины называют сумму произведений всех ее возможных значений на их вероятности. По определению, когда дискретная случайная величина принимает счетное множество значений:

Первый член суммы (соответствующий m=0) равен нулю, следовательно, суммирование можно начинать с m=1:

Таким образом, параметр а представляет собой не что иное, как математическое ожидание случайной величины Х.

Дисперсией случайной величины Х называют математической ожидание квадрата отклонения случайной величины от ее математического ожидания:

Однако, удобнее ее вычислять по формуле:

Поэтому найдем сначала второй начальный момент величины Х:

По ранее доказанному

кроме того,

2.3.Дополнительные характеристики распределения Пуассона

I. Начальным моментом порядка k случайной величины Х называют математическое ожидание величины Хk:

В частности, начальный момент первого порядка равен математическому ожиданию:

II. Центральным моментом порядка k случайной величины Х называют математическое ожидание величины k:

В частности, центральный момент 1-ого порядка равен 0:

μ1=М=0,

центральный момент 2-ого порядка равен дисперсии:

μ2=M2=a.

III. Для случайной величины Х, распределенной по закону Пуассона, найдем вероятность того, что она примет значение не меньшее заданного k. Эту вероятность обозначим Rk:

Очевидно, вероятность Rk может быть вычислена как сумма

Однако, значительно проще определить ее из вероятности противоположного события:

В частности, вероятность того, что величина Х примет положительное значение, выражается формулой

Как уже говорилось, многие задачи практики приводят к распределению Пуассона. Рассмотрим одну из типичных задач такого рода.

Рис.2

Пусть на оси абсцисс Ох случайным образом распределяются точки (рис.2). Допустим, что случайное распределение точек удовлетворяет следующим условиям:

1) Вероятность попадания того или иного числа точек на отрезок l зависит только от длины этого отрезка, но не зависит от его положения на оси абсцисс. Иными словами, точки распределены на оси абсцисс с одинаковой средней плотностью. Обозначим эту плотность, т.е. математическое ожидание числа точек, приходящихся на единицу длины, через λ.

2) Точки распределяются на оси абсцисс независимо друг от друга, т.е. вероятность попадания того или иного числа точек на заданный отрезок не зависит от того, сколько их попало на любой другой отрезок, не перекрывающийся с ним.

3) Вероятность попадания на малый участок Δх двух или более точек пренебрежимо мала по сравнению с вероятностью попадания одной точки (это условие означает практическую невозможность совпадения двух или более точек).

Выделим на оси абсцисс определенный отрезок длины l и рассмотрим дискретную случайную величину Х - число точек, попадающих на этот отрезок. Возможные значения величины будут 0,1,2,…,m,… Так как точки попадают на отрезок независимо друг от друга, то теоретически не исключено, что их там окажется сколь угодно много, т.е. данный ряд продолжается неограниченно.

Докажем, что случайная величина Х распределена по закону Пуассона. Для этого надо подсчитать вероятность Рm того, что на отрезок попадет ровно m точек.

Сначала решим более простую задачу. Рассмотрим на оси Ох малый участок Δх и вычислим вероятность того, что на этот участок попадет хотя бы одна точка. Будем рассуждать следующим образом. Математическое ожидание числа точек, попадающих на этот участок, очевидно, равно λ·Δх (т.к. на единицу длины попадает в среднем λ точек). Согласно условию 3 для малого отрезка Δх можно пренебречь возможностью попадания на него двух или больше точек. Поэтому математическое ожидание λ·Δх числа точек, попадающих на участок Δх, будет приближенно равно вероятности попадания на него одной точки (или, что в данных условиях равнозначно, хотя бы одной).

Таким образом, с точностью до бесконечно малых высшего порядка, при Δх→0 можно считать вероятность того, что на участок Δх попадет одна (хотя бы одна) точка, равной λ·Δх, а вероятность того, что не попадет ни одной, равной 1-c·Δх.

Воспользуемся этим для вычисления вероятности Pm попадания на отрезок l ровно m точек. Разделим отрезок l на n равных частей длиной Условимся называть элементарный отрезок Δх "пустым", если в него не попало ни одной точки, и "занятым", если в него попала хотя бы одна. Согласно вышедоказанному вероятность того, что отрезок Δх окажется "занятым", приближенно равна λ·Δх= ; вероятность того, что он окажется "пустым", равна 1- . Так как, согласно условию 2, попадания точек в неперекрывающиеся отрезки независимы, то наши n отрезков можно рассмотреть как n независимых "опытов", в каждом из которых отрезок может быть "занят" с вероятностью p= . Найдем вероятность того, что среди n отрезков будет ровно m "занятых". По теореме о повторных независимых испытаниях эта вероятность равна

,

или обозначим λl=a:

.

При достаточно большом n эта вероятность приближенно равна вероятности попадания на отрезок l ровно m точек, т.к. попадание двух или больше точек на отрезок Δх имеет пренебрежимо малую вероятность. Для того, чтобы найти точное значение Рm, нужно перейти к пределу при n→∞:

Учитывая, что

,

получаем, что искомая вероятность выражается формулой

где а=λl, т.е. величина Х распределена по закону Пуассона с параметром а=λl.

Надо отметить, что величина а по смыслу представляет собой среднее число точек, приходящееся на отрезок l. Величина R1 (вероятность того, что величина Х примет положительное значение) в данном случае выражает вероятность того, что на отрезок l попадет хотя бы одна точка: R1=1-e-a.

Таким образом, мы убедились, что распределение Пуассона возникает там, где какие-то точки (или другие элементы) занимают случайное положение независимо друг от друга, и подсчитывается количество этих точек, попавших в какую-то область. В нашем случае такой областью был отрезок l на оси абсцисс. Однако этот вывод легко можно распространить и на случай распределения точек на плоскости (случайное плоское поле точек) и в пространстве (случайное пространственное поле точек). Нетрудно доказать, что если соблюдены условия:

1) точки распределены в поле статистически равномерно со средней плотностью λ;

2) точки попадают в неперекрывающиеся области независимым образом;

3) точки появляются поодиночке, а не парами, тройками и т.д.,

то число точек Х, попавших в любую область D (плоскую или пространственную), распределяется по закону Пуассона:

,

где а - среднее число точек, попадающих в область D.

Для плоского случая а=SD λ, где SD - площадь области D,

для пространственного а= VD λ, где VD - объем области D.

Для пуассоновского распределения числа точек, попадающих в отрезок или область, условие постоянной плотности (λ=const) несущественно. Если выполнены два других условия, то закон Пуассона все равно имеет место, только параметр а в нем приобретает другое выражение: он получается не простым умножением плотности λ на длину, площадь или объем, а интегрированием переменной плотности по отрезку, площади или объему.

Распределение Пуассона играет важную роль в ряде вопросов физики, теории связи, теории надежности, теории массового обслуживания и т.д. Всюду, где в течение определенного времени может происходить случайное число каких-то событий (радиоактивных распадов, телефонных вызовов, отказов оборудования, несчастный случаях и т.п.).

Рассмотрим наиболее типичную ситуацию, в которой возникает распределение Пуассона. Пусть некоторые события (покупки в магазине) могут происходить в случайные моменты времени. Определим число появлений таких событий в промежутке времени от 0 до Т.

Случайное число событий, происшедших за время от 0 до Т, распределено по закону Пуассона с параметром l=аТ, где а>0 – параметр задачи, отражающий среднюю частоту событий. Вероятность k покупок в течение большого интервала времени, (например, – дня) составит


Заключение

В заключение хочется отметить то, что распределение Пуассона является достаточно распространенным и важным распределением, имеющим применение как в теории вероятностей и ее приложениях, так и в математической статистике.

Многие задачи практики сводятся в конечном счете к распределению Пуассона. Его особое свойство, заключающееся в равенстве математического ожидания и дисперсии, часто применяют на практике для решения вопроса, распределена случайная величина по закону Пуассона или нет.

Также важен тот факт, что закон Пуассона позволяет находить вероятности события в повторных независимых испытаниях при большом количестве повторов опыта и малой единичной вероятности.

Однако распределение Бернулли применяется в практике экономических расчетов и в частности при анализе устойчивости исключительно редко. Это связано как с вычислительными сложностями, так и с тем, что распределение Бернулли – для дискретных величин, и с тем, что условия классической схемы (независимость, счетное число испытаний, неизменность условий, влияющих на возможность наступления события) не всегда выполняются в практических ситуациях. Дальнейшие исследования в области анализа схемы Бернулли, проводимые в XVIII-XIX вв. Лапласом, Муавром, Пуассоном и другими были направлены на создание возможности использования схемы Бернулли в случае большого, стремящегося к бесконечности количества испытаний.


Литература

1. Вентцель Е.С. Теория вероятностей. - М, "Высшая школа" 1998

2. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. - М, "Высшая школа" 1998

3. Сборник задач по математике для втузов. Под ред. Ефимова А.В. - М, Наука 1990

Наиболее общим случаем различного рода вероятностных распределений является биномиальное распределение. Воспользуемся его универсальностью для определения наиболее часто встречающихся на практике частных видов распределений.

Биномиальное распределение

Пусть имеется некое событие A . Вероятность появления события A равна p , вероятность непоявления события A равна 1 – p , иногда ее обозначают как q . Пусть n — число испытаний, m — частота появления события A в этих n испытаниях.

Известно, что суммарная вероятность всех возможных комбинаций исходов равна единице, то есть:

1 = p n + n · p n – 1 · (1 – p ) + C n n – 2 · p n – 2 · (1 – p ) 2 + … + C n m · p m · (1 – p ) n – m + … + (1 – p ) n .

p n — вероятность того, что в n n раз;

n · p n – 1 · (1 – p ) — вероятность того, что в n n – 1) раз и не произойдет 1 раз;

C n n – 2 · p n – 2 · (1 – p ) 2 — вероятность того, что в n испытаниях событие A произойдет (n – 2) раза и не произойдет 2 раза;

P m = C n m · p m · (1 – p ) n – m — вероятность того, что в n испытаниях событие A произойдет m раз и не произойдет (n – m ) раз;

(1 – p ) n — вероятность того, что в n испытаниях событие A не произойдет ни разу;

— число сочетаний из n по m .

Математическое ожидание M биномиального распределения равно:

M = n · p ,

где n — число испытаний, p — вероятность появления события A .

Среднеквадратичное отклонение σ :

σ = sqrt(n · p · (1 – p )) .

Пример 1 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.0098 . Как видим, вероятность наступления этого события достаточно мала. Объясняется это, во-первых, тем, что абсолютно не ясно, произойдет ли событие или нет, поскольку вероятность равна 0.5 и шансы здесь «50 на 50»; а во-вторых, требуется исчислить то, что событие произойдет именно один раз (не больше и не меньше) из десяти.

Пример 2 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 2 раза. Имеем: C 10 2 = 45 , и далее: P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.044 . Вероятность наступления этого события стала больше!

Пример 3 . Увеличим вероятность наступления самого события. Сделаем его более вероятным. Вычислить вероятность того, что событие, имеющее вероятность p = 0.8 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.000004 . Вероятность стала меньше, чем в первом примере! Ответ, на первый взгляд, кажется странным, но поскольку событие имеет достаточно большую вероятность, вряд ли оно произойдет только один раз. Более вероятно, что оно произойдет большее, чем один, количество раз. Действительно, подсчитывая P 0 , P 1 , P 2 , P 3 , …, P 10 (вероятность того, что событие в n = 10 испытаниях произойдет 0, 1, 2, 3, …, 10 раз), мы увидим:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.8 0 · (1 – 0.8) 10 – 0 = 1 · 1 · 0.2 10 = 0.0000… ;
P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.0000… ;
P 2 = 45 · 0.8 2 · (1 – 0.8) 10 – 2 = 45 · 0.8 2 · 0.2 8 = 0.0000… ;
P 3 = 120 · 0.8 3 · (1 – 0.8) 10 – 3 = 120 · 0.8 3 · 0.2 7 = 0.0008… ;
P 4 = 210 · 0.8 4 · (1 – 0.8) 10 – 4 = 210 · 0.8 4 · 0.2 6 = 0.0055… ;
P 5 = 252 · 0.8 5 · (1 – 0.8) 10 – 5 = 252 · 0.8 5 · 0.2 5 = 0.0264… ;
P 6 = 210 · 0.8 6 · (1 – 0.8) 10 – 6 = 210 · 0.8 6 · 0.2 4 = 0.0881… ;
P 7 = 120 · 0.8 7 · (1 – 0.8) 10 – 7 = 120 · 0.8 7 · 0.2 3 = 0.2013… ;
P 8 = 45 · 0.8 8 · (1 – 0.8) 10 – 8 = 45 · 0.8 8 · 0.2 2 = 0.3020… (самая большая вероятность!);
P 9 = 10 · 0.8 9 · (1 – 0.8) 10 – 9 = 10 · 0.8 9 · 0.2 1 = 0.2684… ;
P 10 = 1 · 0.8 10 · (1 – 0.8) 10 – 10 = 1 · 0.8 10 · 0.2 0 = 0.1074…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Нормальное распределение

Если изобразить величины P 0 , P 1 , P 2 , P 3 , …, P 10 , которые мы подсчитали в примере 3, на графике, то окажется, что их распределение имеет вид, близкий к нормальному закону распределения (см. рис. 27.1 ) (см. лекцию 25. Моделирование нормально распределенных случайных величин).

Рис. 27.1. Вид биномиального распределения
вероятностей для различных m при p = 0.8, n = 10

Биномиальный закон переходит в нормальный, если вероятности появления и непоявления события A примерно одинаковы, то есть, условно можно записать: p ≈ (1 – p ) . Для примера возьмем n = 10 и p = 0.5 (то есть p = 1 – p = 0.5 ).

Содержательно к такой задаче мы придем, если, например, захотим теоретически посчитать, сколько будет мальчиков и сколько девочек из 10 родившихся в роддоме в один день детей. Точнее, считать будем не мальчиков и девочек, а вероятность, что родятся только мальчики, что родится 1 мальчик и 9 девочек, что родится 2 мальчика и 8 девочек и так далее. Примем для простоты, что вероятность рождения мальчика и девочки одинакова и равна 0.5 (но на самом деле, если честно, это не так, см. курс «Моделирование систем искусственного интеллекта»).

Ясно, что распределение будет симметричное, так как вероятность рождения 3 мальчиков и 7 девочек равна вероятности рождения 7 мальчиков и 3 девочек. Наибольшая вероятность рождения будет у 5 мальчиков и 5 девочек. Эта вероятность равна 0.25, кстати, не такая уж она и большая по абсолютной величине. Далее, вероятность того, что родится сразу 10 или 9 мальчиков намного меньше, чем вероятность того, что родится 5 ± 1 мальчик из 10 детей. Как раз биномиальное распределение нам поможет сделать этот расчет. Итак.

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.5 0 · (1 – 0.5) 10 – 0 = 1 · 1 · 0.5 10 = 0.000977… ;
P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.009766… ;
P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.043945… ;
P 3 = 120 · 0.5 3 · (1 – 0.5) 10 – 3 = 120 · 0.5 10 = 0.117188… ;
P 4 = 210 · 0.5 4 · (1 – 0.5) 10 – 4 = 210 · 0.5 10 = 0.205078… ;
P 5 = 252 · 0.5 5 · (1 – 0.5) 10 – 5 = 252 · 0.5 10 = 0.246094… ;
P 6 = 210 · 0.5 6 · (1 – 0.5) 10 – 6 = 210 · 0.5 10 = 0.205078… ;
P 7 = 120 · 0.5 7 · (1 – 0.5) 10 – 7 = 120 · 0.5 10 = 0.117188… ;
P 8 = 45 · 0.5 8 · (1 – 0.5) 10 – 8 = 45 · 0.5 10 = 0.043945… ;
P 9 = 10 · 0.5 9 · (1 – 0.5) 10 – 9 = 10 · 0.5 10 = 0.009766… ;
P 10 = 1 · 0.5 10 · (1 – 0.5) 10 – 10 = 1 · 0.5 10 = 0.000977…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Отразим на графике величины P 0 , P 1 , P 2 , P 3 , …, P 10 (см. рис. 27.2 ).

Рис. 27.2. График биномиального распределения при параметрах
p = 0.5 и n = 10, приближающих его к нормальному закону

Итак, при условиях m n /2 и p ≈ 1 – p или p ≈ 0.5 вместо биномиального распределения можно использовать нормальное. При больших значениях n график сдвигается вправо и становится все более пологим, так как математическое ожидание и дисперсия возрастают с увеличением n : M = n · p , D = n · p · (1 – p ) .

Кстати, биномиальный закон стремится к нормальному и при увеличении n , что вполне естественно, согласно центральной предельной теореме (см. лекцию 34. Фиксация и обработка статистических результатов).

Теперь рассмотрим, как изменится биномиальный закон в случае, когда p q , то есть p –> 0 . В этом случае применить гипотезу о нормальности распределения нельзя, и биномиальное распределение переходит в распределение Пуассона.

Распределение Пуассона

Распределение Пуассона — это частный случай биномиального распределения (при n >> 0 и при p –> 0 (редкие события)).

Из математики известна формула, позволяющая примерно подсчитать значение любого члена биномиального распределения:

где a = n · p — параметр Пуассона (математическое ожидание), а дисперсия равна математическому ожиданию. Приведем математические выкладки, поясняющие этот переход. Биномиальный закон распределения

P m = C n m · p m · (1 – p ) n – m

может быть написан, если положить p = a /n , в виде

Так как p очень мало, то следует принимать во внимание только числа m , малые по сравнению с n . Произведение

весьма близко к единице. Это же относится к величине

Величина

очень близка к e –a . Отсюда получаем формулу:

Пример . В ящике находится n = 100 деталей, как качественных, так и бракованных. Вероятность достать бракованное изделие составляет p = 0.01 . Допустим, что мы вынимаем изделие, определяем, бракованное оно или нет, и кладем его обратно. Поступая таким образом, получилось, что из 100 изделий, которые мы перебрали, два оказались бракованными. Какова вероятность этого?

По биномиальному распределению получаем:

По распределению Пуассона получаем:

Как видно, величины получились близкими, поэтому в случае редких событий вполне допустимо применять закон Пуассона, тем более что он требует меньших вычислительных затрат.

Покажем графически вид закона Пуассона. Возьмем для примера параметры p = 0.05 , n = 10 . Тогда:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.05 0 · (1 – 0.05) 10 – 0 = 1 · 1 · 0.95 10 = 0.5987… ;
P 1 = 10 · 0.05 1 · (1 – 0.05) 10 – 1 = 10 · 0.05 1 · 0.95 9 = 0.3151… ;
P 2 = 45 · 0.05 2 · (1 – 0.05) 10 – 2 = 45 · 0.05 2 · 0.95 8 = 0.0746… ;
P 3 = 120 · 0.05 3 · (1 – 0.05) 10 – 3 = 120 · 0.05 3 · 0.95 7 = 0.0105… ;
P 4 = 210 · 0.05 4 · (1 – 0.05) 10 – 4 = 210 · 0.05 4 · 0.95 6 = 0.00096… ;
P 5 = 252 · 0.05 5 · (1 – 0.05) 10 – 5 = 252 · 0.05 5 · 0.95 5 = 0.00006… ;
P 6 = 210 · 0.05 6 · (1 – 0.05) 10 – 6 = 210 · 0.05 6 · 0.95 4 = 0.0000… ;
P 7 = 120 · 0.05 7 · (1 – 0.05) 10 – 7 = 120 · 0.05 7 · 0.95 3 = 0.0000… ;
P 8 = 45 · 0.05 8 · (1 – 0.05) 10 – 8 = 45 · 0.05 8 · 0.95 2 = 0.0000… ;
P 9 = 10 · 0.05 9 · (1 – 0.05) 10 – 9 = 10 · 0.05 9 · 0.95 1 = 0.0000… ;
P 10 = 1 · 0.05 10 · (1 – 0.05) 10 – 10 = 1 · 0.05 10 · 0.95 0 = 0.0000…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Рис. 27.3. График распределения Пуассона при p = 0.05 и n = 10

При n –> ∞ распределение Пуассона переходит в нормальный закон, согласно центральной предельной теореме (см.

Снова напомним ситуацию, которая была названа схемой Бернулли: производится n независимых испытаний, в каждом из которых некоторое событие А может появиться с одной и той же вероятностью р . Тогда для определения вероятности того, что в этих n испытаниях событие А появится ровно k раз (такая вероятность обозначалась P n (k ) ) может быть точно вычислена по формуле Бернулли , гдеq =1− p . Однако при большом числе испытаний n расчеты по формуле Бернулли становятся очень неудобными, так как приводят к действиям с очень большими числами. Поэтому (если помните это когда-то проходилось при изучении схемы и формулы Бернулли при изучении первой части теории вероятностей «Случайные события») при больших n предлагались значительно более удобные (хотя и приближенные) формулы, которые оказывались тем точнее, чем больше n (формула Пуассона, локальная и интегральная формула Муавра-Лапласа). Если в схеме Бернулли число опытов n велико, а вероятность р появления события А в каждом испытании мала, то хорошее приближение дает упомянутая формула Пуассона
, где параметра = n p . Эта формула и приводит к распределению Пуассона. Дадим точные определения

Дискретная случайная величина Х имеет распределение Пуассона , если она принимает значения 0, 1, 2, ... с вероятностями р 0 , р 1 , ... , которые вычисляются по формуле

а число а является параметром распределения Пуассона. Обращаем внимание, что возможных значений с.в. Х бесконечно много это все целые неотрицательные числа. Таким образом, д.с.в Х с распределением Пуассона имеет следующий закон распределения:

При вычислении математического ожидания (по их определению для д.с.в. с известным законом распределения) придется теперь считать не конечные суммы, а суммы соответствующих бесконечных рядов (так как таблица закона распределения имеет бесконечно много столбцов). Если же посчитать суммы этих рядов, то окажется, что и математическое ожидание, и дисперсия случайной величины Х с распределением Пуассона совпадает с параметром а этого распределения:

,
.

Найдем моду d (X ) распределенной по Пуассону случайной величины Х . Применим тот же самый прием, что был использован для вычисления моды биномиально распределенной случайной величины. По определению моды d (X )= k , если вероятность
наибольшая среди всех вероятностей р 0 , р 1 , ... . Найдем такое число k (это целое неотрицательное число). При таком k вероятность p k должна быть не меньше соседних с ней вероятностей: p k −1 p k p k +1 . Подставив вместо каждой вероятности соответствующую формулу, получим, что число k должно удовлетворять двойному неравенству:

.

Если расписать формулы для факториалов и провести простые преобразования, можно получить, что левое неравенство дает k ≤ а , а правое k ≥ а −1 . Таким образом, число k удовлетворяет двойному неравенству а −1 ≤ k ≤ а , т.е. принадлежит отрезку [а −1, а ] . Поскольку длина этого отрезка, очевидно, равна 1 , то в него может попасть либо одно, либо 2 целых числа. Если число а целое, то в отрезке [а −1, а ] имеется 2 целых числа, лежащих на концах отрезка. Если же число а не целое, то в этом отрезке есть только одно целое число.

Таким образом, если число а целое, то мода распределенной по Пуассону случайной величины Х принимает 2 соседних значения: d (X )=а−1 и d (X )=а . Если же число а не целое, то мода имеет одно значение d (X )= k , где k есть единственное целое число, удовлетворяющее неравенству а −1 ≤ k ≤ а , т.е. d (X )= [а ] .

Пример . Завод отправил на базу 5000 изделий. Вероятность того, что в пути изделие повредится, равно 0.0002 . Какова вероятность, что повредится 18 изделий? Каково среднее значение поврежденных изделий? Каково наивероятнейшее число поврежденных изделий и какова его вероятность?

Как сразу стали поступать запросы: «Где Пуассон? Где задачи на формулу Пуассона?» и т.п . И поэтому я начну с частного применения распределения Пуассона – ввиду большой востребованности материала.

Задача до боли эйфории знакома:

И следующие две задачи принципиально отличаются от предыдущих:

Пример 4

Случайная величина подчинена закону Пуассона с математическим ожиданием . Найти вероятность того, что данная случайная величина примет значение, меньшее, чем ее математическое ожидание.

Отличие состоит в том, что здесь речь идёт ИМЕННО о распределении Пуассона.

Решение : случайная величина принимает значения с вероятностями:

По условию, , и тут всё просто: событие состоит в трёх несовместных исходах :

Вероятность того, что случайная величина примет значение, меньшее, чем ее математическое ожидание.

Ответ :

Аналогичная задача на понимание:

Пример 5

Случайная величина подчинена закону Пуассона с математическим ожиданием . Найти вероятность того, что данная случайная величина примет положительное значение.

Решение и ответ в конце урока.

Помимо приближения биномиального распределения (Примеры 1-3), распределение Пуассона нашло широкое применение в теории массового обслуживания для вероятностной характеристики простейшего потока событий. Постараюсь быть лаконичным:

Пусть в некоторую систему поступают заявки (телефонные звонки, приходящие клиенты и т.д.). Поток заявок называют простейшим , если он удовлетворяет условиям стационарности , отсутствия последствий и ординарности . Стационарность подразумевает то, что интенсивность заявок постоянна и не зависит от времени суток, дня недели или других временнЫх рамок. Иными словами, не бывает «часа пик» и не бывает «мёртвых часов». Отсутствие последствий означает, что вероятность появления новых заявок не зависит от «предыстории», т.е. нет такого, что «одна бабка рассказала» и другие «набежали» (или наоборот, разбежались). И, наконец, свойство ординарности характеризуется тем, что за достаточно малый промежуток времени практически невозможно появление двух или бОльшего количества заявок. «Две старушки в двери?» – нет уж, увольте.

Итак, пусть в некоторую систему поступает простейший поток заявок со средней интенсивностью заявок в минуту (в час, в день или в произвольный промежуток времени). Тогда вероятность того, что за данный промежуток времени , в систему поступит ровно заявок, равна:

Пример 6

Звонки в диспетчерскую такси представляет собой простейший пуассоновский поток со средней интенсивностью 30 вызовов в час. Найти вероятность того, что: а) за 1 мин. поступит 2-3 вызова, б) в течение пяти минут будет хотя бы один звонок.

Решение : используем формулу Пуассона:

а) Учитывая стационарность потока, вычислим среднее количество вызовов за 1 минуту:
вызова – в среднем за одну минуту.

По теореме сложения вероятностей несовместных событий:
– вероятность того, что за 1 минуту в диспетчерскую поступит 2-3 вызова.

б) Вычислим среднее количество вызов за пять минут:

На этой странице мы собрали примеры решения учебных задач, где используется распределение Пуассона.

Краткая теория

Рассмотрим некоторый поток событий, в котором события наступают независимо друг от друга и с некоторой фиксированной средней интенсивностью $\lambda$ (событий в единицу времени). Тогда случайная величина $X$, равная числу событий $k$, произошедших за фиксированное время, имеет распределение Пуассона . Вероятности вычисляются по следующей формуле:

$$ P(X=k)=\frac{\lambda^k}{k!}\cdot e^{-\lambda}, k=0,1,2,... $$

Для пуассоновской случайной величины математическое ожидание и дисперсия совпадают с интенсивностью потока событий:

$$M(X)=\lambda, \quad D(X)=\lambda.$$

Распределение Пуассона играет важную роль в теории массового обслуживания . При увеличении $\lambda$ данное распределение стремится к нормальному распределению $N(\lambda, \sqrt{\lambda})$. В свою очередь, оно само является "приближенной" моделью биномиального распределения при больших $n$ и крайне малых $p$ (см. теорию про формулу Пуассона).


Примеры решенных задач

Задача 1. Среднее число самолетов, взлетающих с полевого аэродрома за одни сутки, равно 10. Найти вероятность того, что за 6 часов взлетят:
А) три самолета,
Б) не менее двух самолетов.

Задача 2. На автовокзале время прибытия автобусов различных рейсов объявляет дежурный. Появление информации о различных рейсах происходит случайной и независимо друг от друга. В среднем на автовокзал прибывает 5 рейсов каждые полчаса.
А) Составьте ряд распределения числа сообщений о прибытии автобусов в течение получаса.
Б) Найдите числовые характеристики этого распределения.
В) Запишите функцию распределения вероятностей и постройте ее график.
Г) Чему равна вероятность того, что в течение получаса прибудут не менее трех автобусов?
Д) Чему равна вероятность того, что в течение четверти часа не прибудет ни один автобус?

Задача 3. АТС получает в среднем за час 480 вызовов. Определить вероятность того, что за данную минуту она получит: ровно 3 вызова; от 2 до 5 вызовов.

Задача 4. Случайная величина $X$ распределена по закону Пуассона с параметром $\lambda=0,8$. Необходимо:
А) выписать формулу для вычисления вероятности $P(X=m)$;
Б) найти вероятность $P(1 \le X \lt 3)$;
В) найти математическое ожидание $M(2X+5)$ и дисперсию $D(5-2X)$.

Задача 5. Среднее число ошибочных соединений, приходящееся на одного телефонного абонента в единицу времени, равно 8. Какова вероятность того, что для данного абонента число ошибочных соединений будет больше 4?

Задача 6. В среднем в магазин заходят 3 человека в минуту. Найти вероятность того, что за 2 минуты в магазин зайдет не более 1 человека.

Задача 7. Автомобиль проходит технический осмотр и обслуживание. Число неисправностей, обнаруженных во время техосмотра, распределяется по закону Пуассона с параметром 0,63. Если неисправностей не обнаружено, техническое обслуживание автомобиля продолжается в среднем 2 ч. Если обнаружены одна или две неисправности, то на устранение каждой из них тратится в среднем еще полчаса. Если обнаружено больше двух неисправностей, то автомобиль становится на профилактический ремонт, где он находится в среднем 4 ч.
Определите закон распределения среднего времени $T$ обслуживания и ремонта автомобиля и его математическое ожидание $M(T)$.



Рассказать друзьям