Обновления:

Популярное:
Какими будут самолеты



Причина ТехПрорывова



Преимущества бизнес-авиации



Навигационные системы



Советы для путешественников с собакой
Главная » Электрика » Детерминизм и случайность

1 2 3 4 5 ... 66

Функция Pn{k) целочисленного аргумента достигает максимума при

jfe=,o=[(+l)p], (1.21)

где символ [х] означает целую часть числа х.

Вероятность того, что событие А появится не более т раз:

k=Q k=0\ /

Сумма в правой части (1.22) равна отношению неполной бета-функции к полной

где неполная Bq{x, у) и полная В{х, у) бета-функции представляются интегралами

В,(х, у)=г--Ц\-г)У-Чг, (1.236) о

В {X, у) = (1 - г)У- dz. (1.23в) о

Для того чтобы убедиться в справедливости равенства (1.23а),

достаточно подставить в его правую часть интеграл (1.236),

продифференцировать обе части по и воспользоваться табличным выражением

В{х, у)=Т{х)Т{уУТ{х + у),

где

T{x)=]z-e-dz (1,23г)

о

- гамма-функция, которая inpn целочисленном аргументе х==т Г(т) = (т-1)!, ml. (1.23д)

1.3.2. Асимптотика Муавра - Лапласа. В тех случаях, когда число независимых испытаний велико, епосредственное вычисление вероятностей по формуле (1.20) представляет большие трудности, так как при этом определение биномиальных коэффициентов связано с вычислением факториалов при больших аргументах. Факториал можно с достаточной точностью получить, применив так называемую асимптотическую формулу Стирлинга

m!lA2m+/e- .

* Символ (асимптотическое равенство) означает, что отношение двух выражений, соединенных этим символом, стремится к единице при неограниченном возрастании т. Формула Стирлинга справедлива и для гамма-функции Г(т + 1), где т не обязательно целое число.

И



Используя формулу Стирлинга, при я~>оо из (1.20) с точностью до малых порядка IIУ п можно получить следующее асимптотическое равенство:

где

пи = . о = Ут-

Формула (1.24), которую иногда называют локальной формулой Муавра - Лапласа, является искомым асимптотическим приближением еероятности Рп(й), точное значение которой дается биномиальной формулой (1.20).

Вероятность того, что число появлений события при п независимых испытаниях находится ,в пределах от ki до 2, можно подсчитать с помощью асимптотической формулы

P{i<<,} = P{a<x ,<6}~-fexp( -42, (1.25)

У2я а \ I

где а= [ki-np)la, b= {k2-np)/a.

Формула (1.25) является аналитическим выражением так называемой интегральной теоремы Лапласа.

1.3.3. Асимптотика Пуассона. Во многих практических задачах, относящихся к схеме последовательности большого числа независимых испытаний (/г>1), вероятность появления события при одиночном испытании относительно мала, так что

P = Un, (1.26)

где X - положительная величина.

Рассмотрим вероятность того, что событие А при п испытаниях не появляется вовсе. На основании (1.20) и (1.26) эту вероятность можно представить в виде

Рп (0) = (l-p)-=(l-V/2)-,

In Рп (0) =nln{l-l/n) =-l-VI{2n)-..,

Если п^К^, то в разложении логарифма в ряд .можно ограничиться первым членом, тогда

Рп(0)-е-\ (1.27)

Далее при фиксированном k

Pn{k) x-ik-l)p К ,28

Pn(k--\) kq k

Пр-и k=l из (1.27) и (1.28) следует Рп(1)--Яе-\ Аналогично



при = 2 имеем Рп(2) (XV2)e-4 При любом целом k получаем асимптотическую формулу Пуассона

Рп()-е-\ Х>0, fe>0. (1.29)

Используя (1.29), находим вероятность того, что событие появляется не более т раз:

Рп{<}=Е е~=--Р(т, Я). (1.30)

Функцию Р(т, Я) можно представить интегралом

Р(т, Я)=: -?г' е-йг. (1.30а)

При ? = 0 интеграл (1.30а) - гам,ма-функция Г(т+1), которая при целочисленном аргументе равна ml [см. (1.23г и д)]. Интеграл

Г(т+1, %)=ze-dz = T{m+l)-]ze-dz (1.31)

о к

называется неполной гамма-функцией. Формула (1.30) может быть записана следующим образом:

Р(т, Я) = 1-i. (1.32)

Г(т+1)

1.4. простая цепь маркова

Предположим, что исходом каждого испытания может быть не одно из двух событий А или Л, а одно событие из.полной группы несовместимых событий А^ Am- Простейший вид вероятностной связи состоит в том, что условная вероятность phj появления какого-то события Aj при (5+1)-м испытании зависит только от того, какое событие Ai появилось при 5-м испытании, и не зависит от того, какие события появились при более ранних испытаниях. Такая последовательность событий называется простой цепью Маркова. Если условная вероятность pij перехода от события Аг к событию Aj обусловлена только этими событиями, но не зависит от номера испытания, то соответствующая простая цепь Маркова называется однородной.

Следующее повышение сложности состоит в учете появления двух или более событий, предшествовавших данному испытанию. Подобным образом можно получить все более сложные цепи Маркова.

Как следует из приведенного определения, для описания простой однородной цепи Маркова необходимо указать условные вероятности появления события Aj после события Лг, г, /=1, т. 16



Эти\ вероятности назьшаются переходными; они могут быть рас-полдаены в )виде таблицы:

/Рп Р12 ... Plm \

(1.33)

Р21 Р22 ... Р2т \рт1 Рт2 ... Ртт У

Такая таблица называется матрицей переходных вероятностей (или стохастической матрицей). Необходимо задать также априорные вероятности Р/г(1) осуществления каждого из событий Ak в дервом испытании. Матрица М переходных вероятностей вместе с вектором априорных вероятностей p(l) = [pi(l), Pm(l)] полностью определяют простую однородную цепь Маркова.

Поскольку при каждом данно^м испытании появление одного из событий, составляющих полную группу, достоверно, то сумма переходных вероятностей в каждой строке матрицы М равна единице, т. е.

Ри=1 i=Um, (1.34)

В соответствии с формулой полной вероятности вероятность появления события Aj во втором испытании

Pj(2)= ЕЛ(1)ргл 1-1 ГП

или в векторной записи

р(2)=Мр(1). (1.35)

Общее соотношение между векторами p(i) и р(5) имеет вид

p(s)=M-p(t), sL (1.36)

Справедлива теорема, согласно которой для однородной простой цепи Маркова с положительно определенной матрицей М

limp(s) = p, (1.37)

где р - вектор предельных вероятностей появления событий, который не зависит от р(1) и является собственным вектором матрицы М, принадлежащим характеристическому числу, равному единице.



Глава 2

СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

2.1. распределения вероятностей случайных величин

2.1.1. Определение случайной величины. Случайная величина - числовая форма представления заранее непредсказуемых результатов эксперимента, для которого выполняются условия, приведенные в п. 1.1.1. Она характеризуется множеством возможных значений п распределением вероятностей, заданным на этом множестве.

Если множество возможных значений случайной величины конечное или счетное

ТО случайная величина называется дискретной. При этом каждому возможному значению дискретной случайной величины можно поставить в соответствие событие Л^: = Xh, й=1, 2, а всему множеству возможных значений g - полную группу событий. Тогда распределение вероятностей дискретной случайной величины представляет совокупность вероятностей, характеризующих эту полную группу событий:

Ри-Р{Аи) = Р{1 = хи}, й=1, 2, (2.1а)

(2.16)

В дальнейшем, когда пределы суммирования могут быть конечными или бесконечными, указывается только индекс суммирования [см. (2.16)].

Однако не всегда можно установить взаимно однозначное соответствие между множеством возможных значений случайной величины и полной группой событий. Так, результаты измерений физической величины могут принадлежать континууму значений, т. е. заполнять интервал действительной оси. Если возможные значения случайной величины заполняют интервал, то введение понятия вероятности сложнее. Случайная величина принимает несчетное множество значений, и априорная вероятность фиксированного значения не имеет смысла, так как эта вероятность равна нулю. Можно, однако, разбить интервал возможных значений случайной величины на конечное число непересекающихся отрезков. Тогда совокупность событий, состоящих в том, что случайная величина попадет в каждый из этих отрезков, образует полную группу. При этом введение понятия вероятности того, что значения случайной величины находятся в пределах некоторого отрезка, становится аналогичным дискретному случаю.



Чакой способ определения распределения вероятностей однозначен для дискретных случайных величин и неоднозначен для случайной величины, значения которой заполняют интервал. В последнем случае остается совершенно произвольным правило разбиения интервала на конечное число непересекающихся отрезков. Поэтому рассмотрим общепринятый подход к определению распределения, справедливый для случайных величин обоих указанных видов.

2.1.2. Функция распределения. Предположим, что случайная величина g может принимать любые действительные значения. Данное предположение не уменьшает общности, так как ограниченность интервала возможных значений будет означать, что вероятность попадания значения случайной величины в область числовой оси вне указанного интервала равна нулю.

Используем простейшее правило разбиения: зафиксируем на действительной оси порог х. Область возможных значений случайной величины делится на две части: к одной из них относятся значения не превосходящие порог л:, а к другой - превосходящие порог. Функция

Fi{x) = P{lx}, (2,2)

показывающая, как Зависит от выбранного порога х вероятность того, что значения случайной величины не превосходят его, называется функцией распределения вероятностей случайной величины

Укажем основные свойства функций распределения. Значения этих функций, представляющие вероятности, должны находиться в пределах от О до 1, причем

lim /g(x) = fg(-oo) = P(K оо} = 0 (2.3а)

как вероятность невозможного события, а

limfg (х) = fI (сх)) - Р (К оо} = 1 (2.36)

как вероятность достоверного события. Свойство, выраженное равенством (2.36), аналогично свойству полной группы событий. Если Х2>Хи то

{lX2) = (lX,)[j{Xi<lX2), (lx,)[]{x,<lX2)=0, и, следовательно,

Р{КХ2} = Р{1Х,}+Р{Х,<Х2},

откуда, используя (2.2), находим

P{Xi<lx,} = Fi(x,)-F{x,), х,>х,. (2.4)

Таким образом, вероятность того, что случайная величина заключена в определенных пределах, равна разности значений функции распределения в верхнем и нижнем пределах.

Соотношение (2.4) подчеркивает универсальность приведенного подхода к определению распределения вероятностей, так как



он позволяет перейти к любому другому определению. Так как левая часть равенства (2.4) не может быть отрицательной, то при

Fi(x,)>Fi(x,), (2.5)

Следовательно, функция распределения неубывающая.

Условия (2.3) и (2.5) необходимы и достаточны для того, чтобы функция одной переменной была функцией распределения случайной величины.

2.1.3. Функция,распределения дискретной случайной величиньь Для дискретной случайной величины g функция распределения

2 = 2 Pk- (2.6)

(г) =

(2.7)

(2.8)

Вводя функцию единичного скачка 1, z>0, О, z<0, можно переписать (2.6) в виде

Plix)= 2Pfe (-ft).

Обратно, зная функцию распределения, можно найти вероятность р„ = Р {I = х„) = (х„) - f I {xn-i), =1.2.... (2.9)

Графически функция распределения дискретной случайной величины представляется ступенчатой кривой (рис. 2.1) со скачками, равными pk в точках Xk, и постоянным значением на полузамкнутом интервале {х^-и Xh], й=1, 2,...

Примерами распределения вероятностей дискретной случайной величины являются биномиальное распределение, когда

(2.10)

OCj X2 0 Xs Xq Xr X

Рис. 2.1. функция распределения дискретной случайной величины



Рде'=1-0р:1 [ср. с (1.20)], и распределение Пуассона, когда

2.1.4. Плотность вероятности непрерывной случайной величины. Если функция распределения случайной величины дифференцируема при всех значениях аргумента (за исключением, может быть, граничных точек), то такая случайная величина называется непрерывной. Производная

(2.12)

называется плотностью вероятности непрерывной случайной величины (рис. 2.2)

Плотность вероятности как производная неубывающей функции (функции распределения) не .может быть отрицательной, т. е.

Ш£(х)>0. (2.13)

Интегрируя обе части (2.12) в пределах от -оо до л: и учитывая (2.3а), выразим функцию распределения через плотность (рис. 2.2,6):

Fi(x)= lwi{u)du. (2.14)

При х-оо из (2.14) находим

°lwi{x)dx=\. (2.15)

Из (2.15) следует, что (л:)->0 при л:-оо, причем wi[x) -л:-<1+), 8>0 при л:>1.

Условия (2.13) и (2.15) необходимы и достаточны, чтобы функция одной переменной была плотностью вероятности непрерывной случайной величины.

Используя (2.4) и (2.14), находим (см. заштрихованную часть рис. 2.2,а)

Р {1 < Е < 2} = ( ) du. (2.16)

Значение x=Xuy при котором плотность вероятности имеет максимум, называется модой. Кривая плотности может быть уни-

* Так как F(x) - величина безразмерная, то размерность плотности такая же, как величины \1х,



W(X) 1

a) /

J

Ю

Рис. 2.2. Плотность вероятности (a) и функция распределения (б) непрерывной случайной величины

модальной, т. е. иметь один максимум как на рис. 2.2,а, или полимодальной, т. е. иметь несколько максимумов.

2.1.5. Обобщенная плотность вероятности для дискретной случайной величины. Для дискретной случайной величины функция распределения не дифференцируема в обычном смысле. Можно, однако, распространить понятие плотности вероятности на дискретную случайную величину, используя обобщенную функцию - дельта-функцию^. Поскольку дельта-функцию можно представить в виде производной функции единичного скачка [см. (2.7)]

(2.17)

получим из (2.8) выражение обобщенной йлотности вероятности дискретной случайной величины

Плотность вероятности постоянного числ а Wa {х) =6{х-а).

(2.18)

(2.18а)

Отметим, что дельта-функция удовлетворяет требованиям, предъявляемым к плотности вероятности:

8{х)>0, ]8{x)dx=l.

Плотность вероятности случайной величины может быть суммой функций вида (2.12) и (2.18):

Щ М = 1 wi {х) + aZpk8ix- Xj,),

Тогда случайную величину называют смеисанной.

(2.19)

* Ввиду того, что в дальнейшем дельта-функция широко используется, некоторые главные свойства ее приведены в Приложении 1.



2.2. числовые характеристики случайной величины

2.2.1. Моменты распределения. Рассмотренные в § 2.1 функция распределения и плотность вероятности дают полную характеристику случайной величины. Однако в ряде случаев о случайной величине достаточно иметь лишь некоторое общее представление. Аналогичное положение имеет место тогда, когда вместо описания мельчайших подробностей геометрической формы твердого тела ограничиваются такими его числовыми характеристиками, как длина, ширина, высота, объем, момент инерции и т. д.

В теории вероятностей числовыми характеристиками случайной величины служат моменты распределения. Для непрерывных случайных величин моменты распределения -го порядка {k= = 1, 2,...) определяют по формуле

т,Ш= ]xw{x)dx (2.20)

- 00

в предположении, что несобственный интеграл абсолютно сходит-

ся, т. е. что j \x\wi{x)dx имеет конечное значение. Геометри-

чески числа nih можно трактовать как моменты инерции соответствующих порядков плоской фигуры, ограниченной осью абсцисс и кривой плотности вероятности.

Если случайная величина дискретна и принимает значения Хи..., Хпу... с вероятностями ри..., Рп,..., то ее k-й момент распределения 2

т.Ш= И^Рг (2.21)

Г

В Предположении, что ряд в правой части (2.21) сходится абсолютно. Формулу (2.21) можно переписать в векторной форме

т,Ш^(х^)р, (2.21а)

где х^, р - вектор k-x степеней значений случайной величины и вектор вероятностей соответственно.

Следует подчеркнуть, что далеко не всегда удается характеризовать случайную величину при помощи моментов, так как не для любого распределения эти моменты существуют.

Заметим, что если существует момент -го порядка, то, конечно, существуют все моменты порядка k<:.n. Если же момент пго порядка неограничен, то и любые моменты порядка k>n неограничены.

1 Символ ШкЦ} обозначает не функцию случайной переменной I, а операцию усреднения величины по множеству ее возможных значений [ср. формулу (3.14а)].

Если допускать представление плотности вероятности дискретной случайной величины дельта-функциями [см. (2.17)], то (2.21) является частным случаем (2.20).




1 2 3 4 5 ... 66
© 2001 AeroKZN.ru.
Копирование текстов запрещено.
Яндекс.Метрика