При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Понятие о независимых случайных величинах – одно их важных понятий теории вероятностей.

Случайная величина называется независимой от случайной величины , если закон распределения величины не зависит от того, какое значение приняла величина .

Для непрерывных случайных величин условие независимости от может быть записано в виде:

при любом .

Напротив, в случае, если зависит от , то

.

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина не зависит от .

Действительно, пусть не зависит от :

. (8.5.1)

Из формул (8.4.4) и (8.4.5) имеем:

откуда, принимая во внимание (8.5.1), получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины и называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины и называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

, (8.5.2)

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Условие (8.5.2) может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции можно заключить, что случайные величины , являются независимыми, а именно, если плотность распределения распадается на произведение двух функций, из которых одна зависит только от , другая - только от , то случайные величины независимы.

Пример. Плотность распределения системы имеет вид:

.

Определить, зависимы или независимы случайные величины и .

Решение. Разлагая знаменатель на множители, имеем:

.

Из того, что функция распалась на произведение двух функций, из которых одна зависима только от , а другая - только от , заключаем, что величины и должны быть независимы. Действительно, применяя формулы (8.4.2) и (8.4.3), имеем:

;

аналогично

откуда убеждаемся, что

и, следовательно, величины и независимы.

Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины и независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «независимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую - функциональную зависимость. Две величины и называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости - с вероятностной или «стохастической» зависимостью. Если величина связана с величиной вероятностной зависимостью, то, зная значение , нельзя указать точно значение , а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина .

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, и действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины и находятся в вероятностной зависимости, это не означает, что с изменением величины величина изменяется вполне определенным образом; это лишь означает, что с изменением величины величина имеет тенденцию также изменяться (например, возрастать или убывать при возрастании ). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступлении.

Рассмотрим, например, две такие случайные величины: - рост наугад взятого человека, - его вес. Очевидно, величины и находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом.

откуда заключаем, что m1 , m2 - математические ожидания компонент X, Y двумерной нормальной случайной величины (X, Y), σ1 , σ2 - средние квадратические отклонения их компонент.

Графиком двумерной нормальной плотности в пространстве является холмообразная поверхность, располагающаяся над всей плоскостью xOy, асимптотически приближающаяся к ней при удалении на бесконечность, симметричная относительно вертикальной оси, проходящей через центр (m1 , m2 ), и с вершиной в этой точке. Любое сечение поверхностиграфика нормальной плотности плоскостью, перпендикулярной xOy, является кривой Гаусса.

6.5 Зависимость и независимость двух случайных величин

Определение. Случайные величины X, Y называютсянезависимыми , если независимыми являются события X < x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Теорема. Общее необходимое и достаточное условие независимости двух случайных величин:

FXY (x, y) = FX (x) · FY (y)

для любых вещественных x и y.

Это условие есть иначе записанное необходимое и достаточное условие независимости двух событий: P (AB) = P (A)P (B) для случая событий A = (X < x), B = (Y < y).

Теорема. Необходимое и достаточное условие независимости двух непрерывных случайных величин:

fXY (x, y) = fX (x) · fY (y), x, y.

Теорема. Необходимое и достаточное условие независимости двух дискретных случайных величин:

p ik= p i · p k

для любых i = 1, 2, . . . , m; k = 1, 2, . . . , n.

Замечание. Равенство нулю коэффициента корреляции ρ является необходимым и достаточным условием независимости компонент X, Y двумерной нормальной случайной величины (X, Y).

6.6 Условные законы распределения. Числовые характеристики двумерной случайной величины. Связь между случайными величинами

6.6.1 Условные законы распределения

Определение. Условным законом распределения одной из одномерных составляющих двумерной случайной величины (X, Y) называется ее закон распределения, вычисленный при условии, что другая составляющая приняла определенное значение (или попала в какой-то интервал).

В случае дискретных случайных величин формулы для нахождения условных вероятностей имеют вид:

pj (xi ) =

P [(X = xi )(Y = yj )]

Pi (yj ) =

P [(X = xi )(Y = yj )]

P (Y = yj )

P (X = xi )

В случае непрерывных случайных величин эти формулы примут вид

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fY (y)

fX (x)

т.е. условная плотность вероятности одной из одномерных составляющих двумерной случайной величины равна отношению ее совместной плотности к плотности вероятности ее другой составляющей.

Данные соотношения, записанные в виде

fXY (x, y) = fX (x)fX (y) = fX (y)fY (x),

называются теоремой (правило) умножения плотностей распределений.

Используя формулы для получения одномерных составляющих непрерывной случайной величины запишем формулы для условных составляющих:

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Числовые характеристики

Рассмотрим случайную величину ϕ(X, Y), являющуюся функцией компонент X, Y двумерной случайной величины (X, Y). Справедливы общие формулы:

для дискретного случая.

Здесь fXY (x, y) - плотность вероятности случайной величины (X, Y), а pik = P (X = xi , Y = yk ) (i = 1, . . . , m; k = 1, . . . , n) - закон распределения дискретной двумерной случайной вели-

С помощью этих формул можно записать формулы для математического ожидания и дисперсии одномерных компонент дискретной случайной величины.

Формулы для нахождения математического ожидания имеют вид:

M(X) = Z Z

xfXY (x, y)dxdy;

M(Y) = yfXY (x, y)dxdy

для непрерывных случайных величин;

M(X) = xi pik ;

M(Y) = yk pik

для дискретного случая.

Формулы для вычисления дисперсии одномерных компонент двумерной случайной величины имеют вид:

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

для дискретного случая.

6.6.3 Корреляционные момент и коэффициент корреляции

Выше были сформулированы функциональные характеристики зависимости двух случайных величин. Рассмотрим теперь числовые характеристики связи между случайными величинами.

Определение. Корреляционным моментом K XY , иначе - ковариацией, двух случайных величин X, Y называется математическое ожидание произведения отклонений этих случайных величин от их математических ожиданий:

KXY = M[(X − mX )(Y − mY )].

Очевидно, что KXY = KY X .

Формулы для вычисления KXY имеют вид:

KXY =Z Z

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Корреляционный момент и коэффициент корреляции - это числовые характеристики двумерной случайной величины, причем ρXY - безразмерная характеристика. Из их свойств следует, что они характеризуют связь между случайными величинами.

Свойства корреляционного момента и коэффициента корреляции. Свойство 1.

KXY = M − mX mY .

Эту формулу удобно применять для вычисления ковариации.

Свойство 2.

−1 ≤ ρ ≤ 1.

Это свойство означает, что коэффициент корреляции - нормированная характеристика. Свойство 3. Для независимых случайных величин X, Y их корреляционный момент,

а следовательно, и коэффициент корреляции, равны нулю.

Замечание. Обратное предложение в общем случае неверно, т.е. существуют независимые случайные величины (X, Y), для которых KXY = 0.

Определение. Две случайные величины X, Y называютсянекоррелированными , если их корреляционный момент равен нулю. Если KXY 6= 0, то говорят, что X, Y коррелируют между собой.

Замечание. Если KXY 6= 0, то случайные величины X, Y зависимы.

Свойство 4. Для случайных величин X, Y = aX + b, связанных линейной зависимостью, коэффициент корреляции равен 1, если a > 0, и −1, если a < 0.

Свойство 5. Если |ρXY | = 1, то случайные величины X, Y связаны линейной зависимостью с вероятностью единица.

Замечание. Величина M = α 1,1 называется вторым смешанным начальным моментомдвумерной случайной величины (X, Y), а ее корреляционный момент K XY -

вторым смешанным центральным моментом.

Понятия зависимости и независимости случайных событий. Условная вероятность. Формулы сложения и умножения вероятностей для зависимых и независимых случайных событий. Формула полной вероятности и формула Байеса.

Теоремы сложения вероятностей

Найдем вероятность суммы событий A и B (в предположении их совместности либо несовместности).

Теорема 2.1. Вероятность суммы конечного числа несовместных событий равна сумме их вероятностей:

P\{A+B+\ldots+N\}=P\{A\}+P\{B\}+\ldots+P\{N\}.

Пример 1. Вероятность того, что в магазине будет продана пара мужской обуви 44-го размера, равна 0,12; 45-го - 0,04; 46-го и большего - 0,01. Найти вероятность того, что будет продана пара мужской обуви не меньше 44-го размера.

Решение. Искомое событие D произойдет, если будет продана пара обуви 44-го размера (событие A ) или 45-го (событие B ), или не меньше 46-го (событие C ), т. е. событие D есть сумма событий A,B,C . События A , B и C несовместны. Поэтому согласно теореме о сумме вероятностей получаем

P\{D\}=P\{A+B+C\}=P\{A\}+P\{B\}+P\{C\}=0,\!12+0,\!04+0,\!01 =0,\!17.

Пример 2. При условиях примера 1 найти вероятность того, что очередной будет продана пара обуви меньше 44-го размера.

Решение. События "очередной будет продана пара обуви меньше 44-го размера" и "будет продана пара обуви размера не меньше 44-го" противоположные. Поэтому по формуле (1.2) вероятность наступления искомого события

P\{\overline{D}\}=1-P\{D\}=1-0,\!17=0,\!83.

поскольку P\{D\}=0,\!17 , как это было найдено в примере 1.

Теорема 2.1 сложения вероятностей справедлива только для несовместных событий. Использование ее для нахождения вероятности совместных событий может привести к неправильным, а иногда и абсурдным выводам, что наглядно видно на следующем примере. Пусть выполнение заказа в срок фирмой "Electra Ltd" оценивается вероятностью 0,7. Какова вероятность того, что из трех заказов фирма выполнит в срок хотя бы какой-нибудь один? События, состоящие в том, что фирма выполнит в срок первый, второй, третий заказы обозначим соответственно A,B,C . Если для отыскания искомой вероятности применить теорему 2.1 сложения вероятностей, то получим P\{A+B+C\}=0,\!7+0,\!7+0,\!7=2,\!1 . Вероятность события оказалась больше единицы, что невозможно. Это объясняется тем, что события A,B,C являются совместными. Действительно, выполнение в срок первого заказа не исключает выполнения в срок двух других.

Сформулируем теорему сложения вероятностей в случае двух совместных событий (будет учитываться вероятность их совместного появления).

Теорема 2.2. Вероятность суммы двух совместных событий равна сумме вероятностей этих двух событий без вероятности их совместного появления:

P\{A+B\}=P\{A\}+P\{B\}-P\{AB\}.

Зависимые и независимые события. Условная вероятность

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Пример 3. Монета брошена два раза. Вероятность появления "герба" в первом испытании (событие A ) не зависит от появления или не появления "герба" во втором испытании (событие B ). В свою очередь, вероятность появления "герба" во втором испытании не зависит от результата первого испытания. Таким образом, события A и B независимые.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B , вычисленная в предположении осуществления другого события A , называется условной вероятностью события B и обозначается P\{B|A\} .

Условие независимости события B от события A записывают в виде P\{B|A\}=P\{B\} , а условие его зависимости - в виде P\{B|A\}\ne{P\{B\}} . Рассмотрим пример вычисления условной вероятности события.

Пример 4. В ящике находятся 5 резцов: два изношенных и три новых. Производится два последовательных извлечения резцов. Определить условную вероятность появления изношенного резца при втором извлечении при условии, что извлеченный в первый раз резец в ящик не возвращается.

Решение. Обозначим A извлечение изношенного резца в первом случае, а \overline{A} - извлечение нового. Тогда P\{A\}=\frac{2}{5},~P\{\overline{A}\}=1-\frac{2}{5}=\frac{3}{5} . Поскольку извлеченный резец в ящик не возвращается, то изменяется соотношение между количествами изношенных и новых резцов. Следовательно, вероятность извлечения изношенного резца во втором случае зависит от того, какое событие осуществилось перед этим.

Обозначим B событие, означающее извлечение изношенного резца во втором случае. Вероятности этого события могут быть такими:

P\{B|A\}=\frac{1}{4},~~~P\{B|\overline{A}\}=\frac{2}{4}=\frac{1}{2}.

Следовательно, вероятность события B зависит от того, произошло или нет событие A .

Формулы умножения вероятностей

Пусть события A и B независимые, причем вероятности этих событий известны. Найдем вероятность совмещения событий A и B .

Теорема 2.3. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:

P\{AB\}=P\{A\}\cdot P\{B\}.

Следствие 2.1. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий:

P\{A_1A_2\ldots{A_n}\}=P\{A_1\}P\{A_2\}\ldots{P\{A_n\}}.

Пример 5. Три ящика содержат по 10 деталей. В первом ящике - 8 стандартных деталей, во втором - 7, в третьем - 9. Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что все три вынутые детали окажутся стандартными.

Решение. Вероятность того, что из первого ящика взята стандартная деталь (событие A ), P\{A\}=\frac{8}{10}=\frac{4}{5} . Вероятность того, что из второго ящика взята стандартная деталь (событие B ), P\{B\}=\frac{7}{10} . Вероятность того, что из третьего ящика взята стандартная деталь (событие C ), P\{C\}=\frac{9}{10} . Так как события A , B и C независимые в совокупности, то искомая вероятность (по теореме умножения)

P\{ABC\}=P\{A\}P\{B\}P\{C\}=\frac{4}{5}\frac{7}{10}\frac{9}{10}=0,\!504.

Пусть события A и B зависимые, причем вероятности P\{A\} и P\{B|A\} известны. Найдем вероятность произведения этих событий, т. е. вероятность того, что появится и событие A , и событие B .

Теорема 2.4. Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:

P\{AB\}=P\{A\}\cdot P\{B|A\};\qquad P\{AB\}=P\{B\}\cdot P\{A|B\}

Следствие 2.2. Вероятность совместного появления нескольких зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились.

Пример 6. В урне находятся 5 белых шаров, 4 черных и 3 синих. Каждое испытание состоит в том, что наудачу извлекают один шар, не возвращая его в урну. Найти вероятность того, что при первом испытании появится белый шар (событие A ), при втором - черный (событие B ) и при третьем - синий (событие C ).

Решение. Вероятность появления белого шара при первом испытании P\{A\}=\frac{5}{12} . Вероятность появления черного шара при втором испытании, вычисленная в предположении, что при первом испытании появился белый шар, т. е. условная вероятность P\{B|A\}=\frac{4}{11} . Вероятность появления синего шара при третьем испытании, вычисленная в предположении, что при первом испытании появился белый шар, а при втором - черный, P\{C|AB\}=\frac{3}{10} . Искомая вероятность

P\{ABC\}=P\{A\}P\{B|A\}P\{C|AB\}=\frac{5}{12}\frac{4}{11}\frac{3}{10}.

Формула полной вероятности

Теорема 2.5. Если событие A наступает только при условии появления одного из событий , образующих полную группу несовместных событий, то вероятность события A равна сумме произведений вероятностей каждого из событий B_1,B_2,\ldots{B_n} на соответствующую условную вероятность события B_1,B_2,\ldots{B_n} :

P\{A\}=\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}.

При этом события B_i,~i=1,\ldots,n называются гипотезами, а вероятности P\{B_i\} - априорными. Эта формула называется формулой полной вероятности.

Пример 7. На сборочный конвейер поступают детали с трех станков. Производительность станков не одинакова. На первом станке изготовляют 50% всех деталей, на втором - 30%, на третьем - 20%. Вероятность качественной сборки при использовании детали, изготовленной на первом, втором и третьем станке, соответственно 0,98, 0,95 и 0,8, Определить вероятность того, что узел, сходящий с конвейера, качественный.

Решение. Обозначим A событие, означающее годность собранного узла; B_1 , B_2 и B_3 - события, означающие, что детали сделаны соответственно на первом, втором и третьем станке. Тогда

P\{B_1\}=0,\!5;~~~~~P\{B_2\}=0,\!3;~~~~~P\{B_3\}=0,\!2;
P\{A|B_1\}=0,\!98;~~~P\{A|B_2\}=0,\!95;~~~P\{A|B_3\}=0,\!8.

Искомая вероятность

Формула Байеса

Эта формула применяется при решении практических задач, когда событие A , появляющееся совместно с каким-либо из событий B_1,B_2,\ldots{B_n} , образующих полную группу событий, произошло и требуется провести количественную переоценку вероятностей гипотез B_1,B_2,\ldots{B_n} . Априорные (до опыта) вероятности P\{B_1\},P\{B_2\},\ldots{P\{B_n\}} известны. Требуется вычислить апостериорные (после опыта) вероятности, т. е., по существу, нужно найти условные вероятности P\{B_1|A\},P\{B_2|A\},\ldots{P\{B_n|A\}} . Для гипотезы B_j формула Байеса выглядит так:

P\{B_j|A\}=\frac{P\{B_j\} P\{A|B_j\}}{P\{A\}}.

Раскрывая в этом равенстве P\{A\} по формуле полной вероятности (2.1), получаем

P\{B_j|A\}=\dfrac{P\{B_j\}P\{A|B_j\}}{\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}}.

Пример 8. При условиях примера 7 рассчитать вероятности того, что в сборку попала деталь, изготовленная соответственно на первом, втором и третьем станке, если узел, сходящий с конвейера, качественный.

Источник