Независимые одинаково распределённые случайные величины. Одинаково распределенные взаимно независимые случайные величины

21.09.2019

Выше мы рассмотрели вопрос о нахождении ФПВ для суммы статистически независимых случайных величин. В этом разделе мы снова рассмотрим сумму статистически независимых величин, но наш подход будет иным и не зависит от частных ФПВ случайных величин в сумме. В частности, предположим, что слагаемые суммы – статистически независимые и одинаково распределенные случайные величины, каждая из которых имеет ограниченные средние значения и ограниченную дисперсию.

Пусть определяется как нормированная сумма, называемая выборочным средним

Сначала определим верхние границы вероятности хвостов , а затем докажем очень важную теорему, определяющую ФПВ в пределе, когда стремится к бесконечности.

Случайная величина , определенная (2.1.187), часто встречается при оценивании среднего случайной величины по ряду наблюдений , . Другими словами, могут рассматриваться как независимые выборочные реализации из распределения , а является оценкой среднего .

Математическое ожидание равно

.

Дисперсия равна

Если рассматривать как оценку среднего , видим, что его математическое ожиданий равно , а его дисперсия уменьшается с ростом объема выборки . Если неограниченно возрастает, дисперсия стремится к нулю. Оценка параметра (в данном случае ), которая удовлетворяет условиям, что её математическое ожидание стремится к истинному значению параметра, а дисперсия строго к нулю, называется состоятельной оценкой.

Хвостовую вероятность случайной величины можно оценить сверху, используй границы, данные в разд. 2.1.5. Неравенство Чебышева применительно к имеет вид

,

. (2.1.188)

В пределе, когда , из (2.1.188) следует

. (2.1.189)

Следовательно, вероятность того, что оценка среднего отличается от истинного значения больше, чем на , стремится к нулю, если неограниченно растет. Это положение является формой закона больших чисел. Так как верхняя граница сходится к нулю относительно медленно, т.е. обратно пропорционально . выражение (2.1.188) называют слабым законом больших чисел .

Если к случайной величине применить границу Чернова, содержащую экспоненциальную зависимость от , тогда получим плотную верхнюю границу для вероятности одного хвоста. Следуя процедуре, изложенной в разд. 2.1.5, найдем, что вероятность хвоста для определяется выражением

где и . Но , статистически независимы и одинаковы распределены. Следовательно,

где - одна из величин . Параметр , который дает наиболее точную верхнюю границ получается дифференцированием (2.1.191) и приравниванием производной нулю. Это ведет к уравнению

(2.1.192)

Обозначим решение (2.1.192) через . Тогда граница для вероятности верхнего хвоста

, . (2.1.193)

Аналогично мы найдем, что вероятность нижнего хвоста имеет границу

, . (2.1.194)

Пример 2.1.7. Пусть , - ряд статистически независимых случайных величин, определенных так:

Мы хотим определить плотную верхнюю границу вероятности того, что сумма от больше, чем нуль. Так как , то сумма будет иметь отрицательное значение для математического ожидания (среднего), следовательно, будем искать вероятность верхнего хвоста. При в (2.1.193) имеем

, (2.1.195)

где - решение уравнения

Следовательно,

. (2.1.197)

Следовательно, для границы в (2.1.195) получаем

Мы видим, что верхняя граница уменьшается экспоненциально с , как ожидалось. В противоположность этому согласно границе Чебышева вероятность хвоста уменьшается обратно пропорционально .

Центральная предельная теорема. В этом разделе рассмотрим чрезвычайно полезную теорему, касающуюся ИФР суммы случайных величин в пределе, когда число слагаемых суммы неограниченно возрастает. Имеется несколько версий этой теоремы. Докажем теорему для случая, когда случайные суммируемые величины , , статистически независимы и одинаково распределены, каждая из них имеет ограниченное среднее и ограниченную дисперсию .

Для удобства определим нормированную случайную величину

Таким образом, имеет нулевое среднее и единичную дисперсию.

Теперь пусть

Так как каждое слагаемое суммы имеет нулевое среднее и единичную дисперсию нормированная (множителем ) величина имеет нулевое среднее и единичную дисперсию. Мы хотим определить ИФР для в пределе, когда .

Характеристическая функция равна

, (2.1.200).

,

или, что эквивалентно,

. (2.1.206)

Но это как раз характеристическая функция гауссовской случайной величины нулевым средним и единичной дисперсией. Таким образом, мы имеем важный результат; ФПВ суммы статистически независимых и одинаково распределенных случайных величин с ограниченным средним и дисперсией приближается к гауссовской при . Это результат известен как центральная предельная теорема .

Хотя мы предположили, что случайные величины в сумме распределены одинаково это предположение можно ослабить при условии, что определённые дополнительные ограничения все же накладываются на свойства случайных суммируемых величин. Имеется одна разновидность теоремы, например, когда отказываются от предположения об одинаковом распределении случайных величин в пользу условия, накладываемого на третий абсолютный момент случайных величин суммы. Для обсуждения этой и других версий центральной предельной теоремы читатель отсылается к книге Крамера (1946).

Уже известно, что по закону распределœения можно найти числовые характеристики случайной величины. Отсюда следует, что если несколько случайных величин имеют одинаковые распределœения, то их числовые характеристики одинаковы.

Рассмотрим n взаимно независимых случайных величин X 1 , X 2 , …,X n , которые имеют одинаковые распределœения, а следовательно, и одинаковые характеристики (математическое ожидание, дисперсию и др.). Наибольший интерес представляет изучение числовых характеристик среднего арифметического этих величин.

Обозначим среднее арифметическое рассматриваемых случайных величин через :

.

Следующие ниже три положения устанавливают связь между числовыми характеристиками среднего арифметического и соответствующими характеристиками каждой отдельной величины.

1. Математическое ожидание среднего арифметического одинаково распределœенных взаимно независимых случайных величин равно математическому ожиданию а каждой из величин:

Доказательство. Пользуясь свойствами математического ожидания (постоянный множитель можно вынести за знак математического ожидания; математическое ожидание суммы равно сумме математических ожиданий слагаемых), имеем

Приняв во внимание, что математическое ожидание каждой из величин по условию равно а , получим

.

2. Дисперсия среднего арифметического n одинаково распределœенных взаимно независимых случайных величин в n раз меньше дисперсии D каждой из величин:

Доказательство . Пользуясь свойствами дисперсии (постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат; дисперсия суммы независимых величин равна сумме дисперсий слагаемых), имеем

Приняв во внимание, что дисперсия каждой из величин по условию равна D , получим

.

3. Среднее квадратическое отклонение среднего арифметического n одинаково распределœенных взаимно независимых случайных величин в раз меньше среднего квадратического отклонения а каждой из величин:

Доказательство . Так как , то среднее квадратическое отклонение равно

.

Общий вывод из формул (7.3) и (7.4): вспоминая, что дисперсия и среднее квадратическое отклонение служат мерами рассеяния случайной величины, заключаем, что среднее арифметическое достаточно большого числа взаимно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая отдельная величина.

Поясним на примере значение этого вывода для практики.

Пример. Обычно для измерения некоторой физической величины производят несколько измерений, а затем находят среднее арифметическое полученных чисел, ĸᴏᴛᴏᴩᴏᴇ принимают за приближенное значение измеряемой величины. Предполагая, что измерения производятся в одних и тех же условиях, доказать:

а) среднее арифметическое дает результат более надежный, чем отдельные измерения;

б) с увеличением числа измерений надежность этого результата возрастает.

Решение . а) Известно, что отдельные измерения дают неодинаковые значения измеряемой величины. Результат каждого измерения зависит от многих случайных причин (изменение температуры, колебания прибора и т.п.), которые не бывают заранее полностью учтены.

По этой причине мы вправе рассматривать возможные результаты n отдельных измерений в качестве случайных величин X 1 , X 2 , …,X n (индекс указывает номер измерения). Эти величины имеют одинаковое распределœение вероятностей (измерения производятся по одной и той же методике и теми же приборами), а следовательно, и одинаковые числовые характеристики; кроме того, они взаимно независимы (результат каждого отдельного измерения не зависит от остальных измерений).

Как было показано, среднее арифметическое таких величин имеет меньшее рассеяние, чем каждая отдельная величина. Иначе говоря, среднее арифметическое оказывается более близким к истинному значению измеряемой величины, чем результат отдельного измерения. Это и означает, что среднее арифметическое нескольких измерений дает более надежный результат, чем отдельное измерение.

б) Известно, что при возрастании числа отдельных случайных величин рассеяние среднего арифметического убывает. Это значит, что с увеличением числа измерений среднее арифметическое нескольких измерений всœе менее отличается от истинного значения измеряемой величины. Τᴀᴋᴎᴍ ᴏϬᴩᴀᴈᴏᴍ, увеличивая число измерений, получают более надежный результат.

К примеру, если среднее квадратическое отклонение отдельного измерения s = 6 м, а всœего произведено n = 36 измерений, то среднее квадратическое отклонение среднего арифметического этих измерений равно лишь 1 м. Действительно,

.

Очевидно, что среднее арифметическое нескольких измерений, как и следовало ожидать, оказалось более близким к истинному значению измеряемой величины, чем результат отдельного измерения.

Центральная предельная теорема представляет собой группу теорем, посвященных установлению условий, при которых возникает нормальный закон распределения, и нарушение которых ведет к распределению, отличному от нормального. Различные формы центральной предельной теоремы различаются между собой условиями, накладываемыми на распределения образующих сумму случайных слагаемых. Докажем одну из самых простых форм этой теоремы, а именно, центральную предельную теорему для независимых одинаково распределенных слагаемых.

Рассмотрим последовательность независимых одинаково распределенных случайных величин, имеющих математическое ожидание. Предположим также, что существует дисперсия. Введем обозначение. Закон больших чисел для этой последовательности можно представить в следующей форме:

где сходимость можно понимать, как в смысле сходимости по вероятности (слабый закон больших чисел), так и в смысле сходимости с вероятностью, равной единице (усиленный закон больших чисел).

Теорема (центральная предельная теорема для независимых одинаково распределенных случайных величин). Пусть - последовательность независимых одинаково распределенных случайных величин, . Тогда имеет место равномерная относительно () сходимость

где - функция стандартного нормального распределения (с параметрами):

При выполнении условия такой сходимости последовательность называется асимптотически нормальной.

Теоремы Ляпунова и Линдеберга

Рассмотрим случай когда случайные величины имеют разные распределения, - независимы с разными распределениями.

Теорема (Линдеберга). Пусть - последовательность независимых случайных величин с конечными дисперсиями. Если для этой последовательности выполняется условие Линдеберга:

где, то для нее выполнена центральная предельная теорема.

Поскольку непосредственно проверка условия Линдеберга затруднительна, то рассматривается некоторое другое условие при котором имеет место центральная предельная теорема, а именно условие теоремы Ляпунова.

Теорема (Ляпунова). Если для последовательности случайных величин выполняется условие Ляпунова:

то последовательность является асимптотически нормальной, т.е. имеет место центральная предельная теорема.

Из выполнения условия Ляпунова следует выполнение условия Линдеберга, а из него следует центральная предельная теорема.

«Наша цель - доказать, что если взять одинаково распределённые независимые случайные величины с конечной дисперсией, то зная только среднее и...»

Наша цель --- доказать, что если взять одинаково распределённые независимые случайные величины с конечной

дисперсией, то зная только среднее и дисперсию можно довольно точно оценивать вероятность принятия средним

из этих величин значений в заданном интервале.

Сначала определим распределение вероятностей на множестве исходов R так, чтобы разрешить себе более, чем

счётное, количество событий.

Рассмотрим распределение вероятностей, у которого исходы --- числа. Что мы тогда можем заметить про вероятности (не выделяя особо элементарные события)?

Перечислим базовые свойства вероятности, которые верны для нашего определения, и которые надо сохранить.

Определение 1. Вероятность любого события неотрицательна. Вероятность достоверного события равна 1. Если событие является объединением не более, чем счётного числа непересекающихся событий, вероятности которых известны, то его вероятность определена и равна сумме их вероятностей.

Мы можем полностью задать это распределение неубывающей функцией F (a) : F (a) = P ({x | x a}).

Теорема 1. При этом будет выполнено P ({x | x a}) = lim F (b).

ba+ Доказательство 1. Действительно, R \ {x | x a} = {x | x a} = {x | x a + 1} }

© dagexpo.ru, 2024
Стоматологический сайт