Дисперсия дискретной случайной величины. Среднее квадратическое отклонение. Как посчитать дисперсию случайной величины Дисперсия х

variance ) в зарубежной. В статистике часто употребляется обозначение σ X 2 {\displaystyle \sigma _{X}^{2}} или σ 2 {\displaystyle \displaystyle \sigma ^{2}} .

Квадратный корень из дисперсии, равный σ {\displaystyle \displaystyle \sigma } , называется среднеквадрати́ческим отклоне́нием , станда́ртным отклоне́нием или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах , что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Замечания

где - i {\displaystyle i} -ое значение случайной величины, p i {\displaystyle p_{i}} - вероятность того, что случайная величина принимает значение x i {\displaystyle x_{i}} , n {\displaystyle n} - количество значений случайной величины.

где f (x) {\displaystyle f(x)} - плотность вероятности случайной величины.

  • В силу линейности математического ожидания, справедлива формула: D [ X ] = M [ X 2 ] − (M [ X ]) 2 {\displaystyle D[X]=M-\left(M[X]\right)^{2}}
  • Дисперсия является вторым центральным моментом случайной величины;
  • Дисперсия может быть бесконечной.
  • Дисперсия может быть вычислена с помощью производящей функции моментов U (t) {\displaystyle U(t)} : D [ X ] = M [ X 2 ] − (M [ X ]) 2 = U ″ (0) − (U ′ (0)) 2 {\displaystyle D[X]=M-\left(M[X]\right)^{2}=U""(0)-\left(U"(0)\right)^{2}}
  • Дисперсия целочисленной случайной величины может быть вычислена с помощью производящей функции последовательности .
  • Удобная формула для вычисления смещённой оценки дисперсии (англ. biased sample variance ) случайной величины X {\displaystyle X} по последовательности X 1 . . . X n {\displaystyle X_{1}...X_{n}} - реализаций этой случайной величины: S ¯ 2 = ∑ i = 1 n X i 2 − (∑ i = 1 n X i) n 2 n = ∑ i = 1 n X i 2 − n X ¯ 2 n = ∑ i = 1 n (X i 2 − X ¯ 2) n {\displaystyle {\bar {S}}^{2}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-{\dfrac {\left(\sum \limits _{i=1}^{n}X_{i}\right)}{n}}^{2}}{n}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-n{\bar {X}}^{2}}{n}}={\dfrac {\sum \limits _{i=1}^{n}\left(X_{i}^{2}-{\bar {X}}^{2}\right)}{n}}} где X ¯ = ∑ i = 1 n X i n {\displaystyle {\bar {X}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}}{n}}} - несмещённая оценка M [ X ] {\displaystyle M[X]} . Для получения несмещённой оценки дисперсии (англ. unbiased sample variance ) правую часть вышеуказанного равенства необходимо умножить на n n − 1 {\displaystyle {\frac {n}{n-1}}} . Несмещённая оценка обозначается S ~ 2 {\displaystyle {\widetilde {S}}^{2}} : S ~ 2 = ∑ i = 1 n X i 2 − (∑ i = 1 n X i) n 2 n − 1 = ∑ i = 1 n X i 2 − n X ¯ 2 n − 1 = ∑ i = 1 n (X i 2 − X ¯ 2) n − 1 {\displaystyle {\widetilde {S}}^{2}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-{\dfrac {\left(\sum \limits _{i=1}^{n}X_{i}\right)}{n}}^{2}}{n-1}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-n{\bar {X}}^{2}}{n-1}}={\dfrac {\sum \limits _{i=1}^{n}\left(X_{i}^{2}-{\bar {X}}^{2}\right)}{n-1}}}

Свойства

  • Дисперсия любой случайной величины неотрицательна: D [ X ] ⩾ 0 ; {\displaystyle D[X]\geqslant 0;}
  • Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;
  • Если случайная величина равна константе, то её дисперсия равна нулю: D [ a ] = 0. {\displaystyle D[a]=0.} Верно и обратное: если D [ X ] = 0 , {\displaystyle D[X]=0,} то X = M [ X ] {\displaystyle X=M[X]} почти всюду ;
  • Дисперсия суммы двух случайных величин равна: D [ X + Y ] = D [ X ] + D [ Y ] + 2 cov (X , Y) {\displaystyle D=D[X]+D[Y]+2\,{\text{cov}}(X,Y)} , где cov (X , Y) {\displaystyle {\text{cov}}(X,Y)} - их ковариация ;
  • Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство: D [ ∑ i = 1 n c i X i ] = ∑ i = 1 n c i 2 D [ X i ] + 2 ∑ 1 ⩽ i < j ⩽ n c i c j cov (X i , X j) {\displaystyle D\left[\sum _{i=1}^{n}c_{i}X_{i}\right]=\sum _{i=1}^{n}c_{i}^{2}D+2\sum _{1\leqslant i, где c i ∈ R {\displaystyle c_{i}\in \mathbb {R} } ;
  • В частности, D [ X 1 + . . . + X n ] = D [ X 1 ] + . . . + D [ X n ] {\displaystyle D=D+...+D} для любых задана равенством f X (x) = { 1 , x ∈ [ 0 , 1 ] 0 , x ∉ [ 0 , 1 ] . {\displaystyle f_{X}(x)=\left\{{\begin{matrix}1,&x\in \\0,&x\not \in .\end{matrix}}\right.}

    Тогда математическое ожидание квадрата случайной величины

    M [ X 2 ] = ∫ 0 1 x 2 d x = x 3 3 | 0 1 = 1 3 , {\displaystyle M\left=\int \limits _{0}^{1}\!x^{2}\,dx=\left.{\frac {x^{3}}{3}}\right\vert _{0}^{1}={\frac {1}{3}},}

    и математическое ожидание случайной величины

    M [ X ] = ∫ 0 1 x d x = x 2 2 | 0 1 = 1 2 . {\displaystyle M\left=\int \limits _{0}^{1}\!x\,dx=\left.{\frac {x^{2}}{2}}\right\vert _{0}^{1}={\frac {1}{2}}.}

    Тогда дисперсия случайной величины

    D [ X ] = M [ X 2 ] − (M [ X ]) 2 = 1 3 − (1 2) 2 = 1 12 . {\displaystyle D[X]=M\left-(M[X])^{2}={\frac {1}{3}}-\left({\frac {1}{2}}\right)^{2}={\frac {1}{12}}.}

Дисперсия случайной величины характеризует меру разброса случайной величины около ее математического ожидания.

Если случайная величина x имеет математическое ожидание M x , то дисперсией случайной величины x называется величина D x =M (x - M x ) 2 .

Легко показать, что D x = M (x - M x ) 2 = M x 2 - M (x) 2 .

Эта универсальная формула одинаково хорошо применима как для дискретных случайных величин, так и для непрерывных. Величина M x 2 >для дискретных и непрерывных случайных величин соответственно вычисляется по формулам

, .

Для определения меры разброса значений случайной величины часто используется среднеквадратичное отклонение ,связанное с дисперсией соотношением .

Основные свойства дисперсии:

  • дисперсия константы равна нулю, D c =0;
  • для произвольной константы D (cx ) = c 2 D (x);
  • дисперсия суммы двух независимых случайных величинравна сумме их дисперсий: D (x ± h ) = D (x) + D (h).

51) Функцией распределения называют функцию , определяющую вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х, т.е.

Иногда вместо термина «Функция распределения» используют термин «Интегральная функция».

Свойства функции распределения:

1. Значения функции распределения принадлежит отрезку : 0 F(x) 1
2. F(x) - неубывающая функция, т.е. F(x 2) F(x 1), если x 2 >x 1

Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (a,b), равна приращению функции распределения на этом интервале:

P(a X

Пример 9. Случайная величина Х задана функцией распределения:

Найти вероятность того, что в результате испытания Х примет значение, принадлежащее интервалу (0;2): P(0

Решение: Так как на интервале (0;2) по условию, F(x)=x/4+1/4, то F(2)-F(0)=(2/4+1/4)-(0/4+1/4)=1/2. Итак, P(0

Следствие 2. Вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю.

Следствие 3. Если возможные значения случайной величины принадлежат интервалу (а;b), то: 1) F(x)=0 при x a; 2) F(x)=1 при x b.
Справедливы следующие предельные соотношения:

График функции распределения расположен в полосе, ограниченной прямыми у=0, у=1 (первое свойство). При возрастании х в интервале (а;b), в котором заключены все возможные значения случайной величины, график «подымается вверх». При x a ординаты графика равны нулю; при x b ординаты графика равны единице:

Функцией распределения случайной величины Х называется функция F(x) , выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х :

.

Функцию F(x) называют интегральной функцией распределения или интегральным законом распределения.

Способ задания непрерывной случайной величины с помощью функции распределения не является единственным. Необходимо определить некоторую функцию, отражающую вероятности попадания случайной точки в различные участки области возможных значений непрерывной случайной величины. Т. е. представить некоторую замену вероятностям p i для дискретной случайной величины в непрерывном случае.

Такой функцией является плотность распределения вероятностей. Плотностью вероятности (плотностью распределения, дифференциальной функцией ) случайной величины Х называется функция f(x), являющаяся первой производной интегральной функции распределения.

Теория вероятности - особый раздел математики, который изучают только студенты высших учебных заведений. Вы любите расчёты и формулы? Вас не пугают перспективы знакомства с нормальным распределением, энтропией ансамбля, математическим ожиданием и дисперсией дискретной случайной величины? Тогда этот предмет вам будет очень интересен. Давайте познакомимся с несколькими важнейшими базовыми понятиями этого раздела науки.

Вспомним основы

Даже если вы помните самые простые понятия теории вероятности, не пренебрегайте первыми абзацами статьи. Дело в том, что без четкого понимания основ вы не сможете работать с формулами, рассматриваемыми далее.

Итак, происходит некоторое случайное событие, некий эксперимент. В результате производимых действий мы можем получить несколько исходов - одни из них встречаются чаще, другие - реже. Вероятность события - это отношение количества реально полученных исходов одного типа к общему числу возможных. Только зная классическое определение данного понятия, вы сможете приступить к изучению математического ожидания и дисперсии непрерывных случайных величин.

Среднее арифметическое

Ещё в школе на уроках математики вы начинали работать со средним арифметическим. Это понятие широко используется в теории вероятности, и потому его нельзя обойти стороной. Главным для нас на данный момент является то, что мы столкнемся с ним в формулах математического ожидания и дисперсии случайной величины.

Мы имеем последовательность чисел и хотим найти среднее арифметическое. Всё, что от нас требуется - просуммировать всё имеющееся и разделить на количество элементов в последовательности. Пусть мы имеем числа от 1 до 9. Сумма элементов будет равна 45, и это значение мы разделим на 9. Ответ: - 5.

Дисперсия

Говоря научным языком, дисперсия - это средний квадрат отклонений полученных значений признака от среднего арифметического. Обозначается одна заглавной латинской буквой D. Что нужно, чтобы её рассчитать? Для каждого элемента последовательности посчитаем разность между имеющимся числом и средним арифметическим и возведем в квадрат. Значений получится ровно столько, сколько может быть исходов у рассматриваемого нами события. Далее мы суммируем всё полученное и делим на количество элементов в последовательности. Если у нас возможны пять исходов, то делим на пять.

У дисперсии есть и свойства, которые нужно запомнить, чтобы применять при решении задач. Например, при увеличении случайной величины в X раз, дисперсия увеличивается в X в квадрате раз (т. е. X*X). Она никогда не бывает меньше нуля и не зависит от сдвига значений на равное значение в большую или меньшую сторону. Кроме того, для независимых испытаний дисперсия суммы равна сумме дисперсий.

Теперь нам обязательно нужно рассмотреть примеры дисперсии дискретной случайной величины и математического ожидания.

Предположим, что мы провели 21 эксперимент и получили 7 различных исходов. Каждый из них мы наблюдали, соответственно, 1,2,2,3,4,4 и 5 раз. Чему будет равна дисперсия?

Сначала посчитаем среднее арифметическое: сумма элементов, разумеется, равна 21. Делим её на 7, получая 3. Теперь из каждого числа исходной последовательности вычтем 3, каждое значение возведем в квадрат, а результаты сложим вместе. Получится 12. Теперь нам остается разделить число на количество элементов, и, казалось бы, всё. Но есть загвоздка! Давайте её обсудим.

Зависимость от количества экспериментов

Оказывается, при расчёте дисперсии в знаменателе может стоять одно из двух чисел: либо N, либо N-1. Здесь N - это число проведенных экспериментов или число элементов в последовательности (что, по сути, одно и то же). От чего это зависит?

Если количество испытаний измеряется сотнями, то мы должны ставить в знаменатель N. Если единицами, то N-1. Границу ученые решили провести достаточно символически: на сегодняшний день она проходит по цифре 30. Если экспериментов мы провели менее 30, то делить сумму будем на N-1, а если более - то на N.

Задача

Давайте вернемся к нашему примеру решения задачи на дисперсию и математическое ожидание. Мы получили промежуточное число 12, которое нужно было разделить на N или N-1. Поскольку экспериментов мы провели 21, что меньше 30, выберем второй вариант. Итак, ответ: дисперсия равна 12 / 2 = 2.

Математическое ожидание

Перейдем ко второму понятию, которое мы обязательно должны рассмотреть данной статье. Математическое ожидание - это результат сложения всех возможных исходов, помноженных на соответствующие вероятности. Важно понимать, что полученное значение, как и результат расчёта дисперсии, получается всего один раз для целой задачи, сколько бы исходов в ней не рассматривалось.

Формула математического ожидания достаточно проста: берем исход, умножаем на его вероятность, прибавляем то же самое для второго, третьего результата и т. д. Всё, связанное с этим понятием, рассчитывается несложно. Например, сумма матожиданий равна матожиданию суммы. Для произведения актуально то же самое. Такие простые операции позволяет с собой выполнять далеко не каждая величина в теории вероятности. Давайте возьмем задачу и посчитаем значение сразу двух изученных нами понятий. Кроме того, мы отвлекались на теорию - пришло время попрактиковаться.

Ещё один пример

Мы провели 50 испытаний и получили 10 видов исходов - цифры от 0 до 9 - появляющихся в различном процентном отношении. Это, соответственно: 2%, 10%, 4%, 14%, 2%,18%, 6%, 16%, 10%, 18%. Напомним, что для получения вероятностей требуется разделить значения в процентах на 100. Таким образом, получим 0,02; 0,1 и т.д. Представим для дисперсии случайной величины и математического ожидания пример решения задачи.

Среднее арифметическое рассчитаем по формуле, которую помним с младшей школы: 50/10 = 5.

Теперь переведем вероятности в количество исходов «в штуках», чтобы было удобнее считать. Получим 1, 5, 2, 7, 1, 9, 3, 8, 5 и 9. Из каждого полученного значения вычтем среднее арифметическое, после чего каждый из полученных результатов возведем в квадрат. Посмотрите, как это сделать, на примере первого элемента: 1 - 5 = (-4). Далее: (-4) * (-4) = 16. Для остальных значений проделайте эти операции самостоятельно. Если вы всё сделали правильно, то после сложения всех вы получите 90.

Продолжим расчёт дисперсии и математического ожидания, разделив 90 на N. Почему мы выбираем N, а не N-1? Правильно, потому что количество проведенных экспериментов превышает 30. Итак: 90/10 = 9. Дисперсию мы получили. Если у вас вышло другое число, не отчаивайтесь. Скорее всего, вы допустили банальную ошибку при расчётах. Перепроверьте написанное, и наверняка всё встанет на свои места.

Наконец, вспомним формулу математического ожидания. Не будем приводить всех расчётов, напишем лишь ответ, с которым вы сможете свериться, закончив все требуемые процедуры. Матожидание будет равно 5,48. Напомним лишь, как осуществлять операции, на примере первых элементов: 0*0,02 + 1*0,1… и так далее. Как видите, мы просто умножаем значение исхода на его вероятность.

Отклонение

Ещё одно понятие, тесно связанное с дисперсией и математическим ожиданием - среднее квадратичное отклонение. Обозначается оно либо латинскими буквами sd, либо греческой строчной «сигмой». Данное понятие показывает, насколько в среднем отклоняются значения от центрального признака. Чтобы найти её значение, требуется рассчитать квадратный корень из дисперсии.

Если вы построите график нормального распределения и захотите увидеть непосредственно на нём квадратичного отклонения, это можно сделать в несколько этапов. Возьмите половину изображения слева или справа от моды (центрального значения), проведите перпендикуляр к горизонтальной оси так, чтобы площади получившихся фигур были равны. Величина отрезка между серединой распределения и получившейся проекцией на горизонтальную ось и будет представлять собой среднее квадратичное отклонение.

Программное обеспечение

Как видно из описаний формул и представленных примеров, расчеты дисперсии и математического ожидания - не самая простая процедура с арифметической точки зрения. Чтобы не тратить время, имеет смысл воспользоваться программой, используемой в высших учебных заведениях - она называется «R». В ней есть функции, позволяющие рассчитывать значения для многих понятий из статистики и теории вероятности.

Например, вы задаете вектор значений. Делается это следующим образом: vector <-c(1,5,2…). Теперь, когда вам потребуется посчитать какие-либо значения для этого вектора, вы пишете функцию и задаете его в качестве аргумента. Для нахождения дисперсии вам нужно будет использовать функцию var. Пример её использования: var(vector). Далее вы просто нажимаете «ввод» и получаете результат.

В заключение

Дисперсия и математическое ожидание - это без которых сложно в дальнейшем что-либо рассчитать. В основном курсе лекций в вузах они рассматриваются уже в первые месяцы изучения предмета. Именно из-за непонимания этих простейших понятий и неумения их рассчитать многие студенты сразу начинают отставать по программе и позже получают плохие отметки по результатам сессии, что лишает их стипендии.

Потренируйтесь хотя бы одну неделю по полчаса в день, решая задания, схожие с представленными в данной статье. Тогда на любой контрольной по теории вероятности вы справитесь с примерами без посторонних подсказок и шпаргалок.

Дисперсия D X случайной величиныXопределяется формулой

D X = E (X – EX)2

Дисперсия случайной величины - это математическое ожидание квадрата отклонения случайной величины от её математического ожидания.

Рассмотрим случайную величину Xс законом распределения

Вычислим её математическое ожидание.

E X = 1 + 2 + 3 =

Составим закон распределения случайной величины X – EX

а затем закон распределения случайной величины (X-EX) 2

D X = ++=

Замечание. Более удобной для вычисления может оказаться следующая формула, которую можно рассматривать как одно из свойств дисперсии:

DX = EX2 – (EX)2

Таким образом, дисперсия случайной величины равна разности мате­матического ожидания квадрата случайной величины и квадрата её математи­ческого ожидания. Для использования этой формулы нужно составить таблицу:

Выше было показано, что EX =р . Легко видеть, чтоEX 2 =р . Таким образом, получается, чтоD X=р р 2 =pq .

Дисперсия характеризует степень рассеяния значений случайной величины относительно её математического ожидания. Если все значения случайной величины тесно сконцентрированы около её математического ожидания и большие отклонения от математического ожидания маловероятны, то такая случайная величина имеет малую дисперсию. Если значения случайной величины рассеяны и велика вероятность больших отклонений от математического ожидания, то такая случайная величина имеет большую дисперсию.

Пример

Найти дисперсию случайной величины Х, равномерно распределенной на

Свойства дисперсии.

    Если k – число, то D (kX ) =k 2 D X.

    Для попарно независимых случайных величин X 1 ,X 2 ,,X n справедливо равенство

    Если Х и Y независимы, D (X+Y) =D X+D Y.

Предлагаем в качестве упражнения рассмотреть, чему равняется D(X– Y) в тех же условиях

Неравенства Маркова и Чебышева

Неравенства Маркова дают оценку для значений случайной величины в тех случаях, когда наши знания о случайной величине ограничиваются ее математическим ожиданием и дисперсией, и, хотя эти оценки достаточно грубы, они требуют минимальной информации о рассматриваемой случайной величине.

Если возможные значения дискретной случайной величины Х неотрицательны и существует ее математическое ожидание ЕХ = а, то для любого числа с > 0 справедливо неравенство

Р (Х <с) >1 – а / с

Соответственно, выполняется и неравенство

Р (Х ≥ с) ≤ а / с

Эти неравенства называются (первым и вторым) неравенствами Маркова

Пример 9.4. Пусть X - время опоздания студента на

лекцию, причем известно, что ЕХ = 1 мин. Воспользовавшись

первым неравенством Чебышева, оценим вероятность Р{Х >5}

того, что студент опоздает не менее, чем на 5 мин.

Имеем P(X≥5) ≤EX/5

Таким образом, искомая вероятность не более 0,2, т.е. в среднем,

из каждых пяти студентов опаздывает по крайней мере на 5 мин не более чем один студент.

Если Х – случайная величина, математическое ожидание которой ЕХ = а, дисперсия DХ конечна, то для любого числа с > 0 выполняются неравенства

P (| X – a | ≥ c) ≤DX / c 2

P (| X – a | < c) >1 – DX / c 2

Данные неравенства называются (первым и вторым) неравенствами Чебышева

Замечание . Иногда и неравенства Маркова и неравенства Чебышева называются первым и вторым неравенствами Чебышева.

Пример . Пусть в условиях предыдущего примера известно дополнительно, что а = y/DX = 1. Оценим минимальное значение х о, при котором вероятность опоздания студента на время не менее х о не превышает заданного значения Р 3 = 0,1.

Для решения поставленной задачи воспользуемся неравенством Чебышева. Тогда

Р 3 ≤ Р{Х ≥х 0 } = Р{Х - ЕX ≥ х о - ЕX} ≤ Р{|Х – EХ| >х 0 - EX}≤

и

И, подставляя конкретные значения, имеем

Таким образом, вероятность опоздания студента на время более 4,16 мин не более 0,1.

Сравнивая полученный результат с результатом предыдущего примера можно заметить, что дополнительная информация о дисперсии времени опоздания позволяет дать более точную оценку искомой вероятности.

Замечание . Элементарным следствием из неравенства Чебышева является Закон больших чисел (в форме Чебышева):

Определение. (Начальным ) Моментом порядка k случайной величины Х называется число m k = Е(Х k)

Определение. (Центральным) моментом порядка k случайной величины Х называется число μ k = Е(Х–ЕХ) k

Замечание. Нетрудно видеть, что математическое ожидание – начальный момент первого порядка, а дисперсия – центральный момент второго порядка.

Замечание. Если плотность распределения вероятностей непрерывной случайной величины симметрична относительно прямой x = EX , то все ее центральные моменты нечетного порядка равны нулю.

появлению значений, которые выше или, наоборот, ниже среднего, образуются асимметричные распределения.

Определение . Асимметрией А случайной величины Х называют отношение третьего центрального момента к кубу среднеквадратичного отклонения. А=μ 3 / σ 3

(по Е.В.Сидоренко)

Асимметрия - величина, характеризующая степень асимметрии распределения относительно математического ожидания.: Если коэффициент асимметрии отрицателен, то либо большая часть значений случайной величины, либо мода находятся левее математического ожидания, и наоборот, если больше нуля, то правее.

В тех случаях, когда какие-нибудь причины благоприятствуют более частому

появлению значений, которые выше или, наоборот, ниже среднего, образуются асимметричные распределения. При левосторонней, или положительной, асимметрии в распределении чаще встречаются более низкие значения признака, а при правосторонней,

или отрицательной - более высокие

Очевидно, что для случайной величины, распределенной симметрично относительно математического ожидания, асимметрия равна нулю.

В тех случаях, когда какие-либо причины способствуют преимущественному

появлению средних или близких к средним значений, образуется распределение с положительным эксцессом. Если же в распределении преобладают крайние значения, причем одновременно и более низкие, и более высокие, то такое распределение характеризуется отрицательным эксцессом и в центре распределения может образоваться впадина, превращающая его в двувершинное (см следующий рисунок эксцесса).

Определение . Эксцессом γ случайной величины Х называют отношение

 = (μ 4 / σ 4) –3

Эксцесс: а) положительный; 6) отрицательный. В распределениях с нормальной выпуклостью γ =0.

Нормальное распределение наиболее часто используется в теории вероятностей и в математической статистике, поэтому график плотности вероятностей нормального распределения стал своего рода эталоном, с которым сравнивают другие распределения. Одним из параметров, определяющих отличие распределения случайной величины Х от нормального распределения, как раз и является эксцесс. Для нормального распределения γ=0, если γ >0 , то это значит, что график плотности «заострен» сильнее, чем у нормального, а если γ<0, то, соответственно, меньше.

Определение . Квантилью уровня α или α-квантилью (0<α<1) называют число Q α , удовлетворяющее неравенствам Р{X < Q α }≤α и P{X> Q α } ≤ 1 – α

½ -квантиль называют также Медианой М случайной величины Х.

Для непрерывной случайной величины Х α-квантиль Q α – это такое число, меньше которого Х принимает значение с вероятностью α.

Если известна плотность распределения ρ(х) случайной величины Х, то, учитывая связь между функцией распределения и плотностью, уравнение для определения квантили можно записать как

Иначе говоря, квантиль Q α – решение уравнения F(Q α)=α ,

Пример .

Найдем α-квантиль и медиану экспоненциального распределения

(Непрерывная случайная величина Х имеет показательное распределение с параметром  > 0, если она принимает только неотрицательные значения, а ее плотность распределения имеет вид: (х) = е -  х, x≥0 и 0, если х <0

, поэтому
, а медиана равна

Определение. Модой непрерывной случайной величины называют точку максимума (локального) плотности распределения р(х). Различают унимодальные (имеющие одну моду), бимодальные (имеющие две моды) и мулътимодальные (имеющие несколько мод) распределения.

Для определения моды дискретной случайной величины предположим сначала, что ее значения x 1 , … x n расположены в порядке возрастания.

Модой дискретной случайной величины называют такое значение х i , при котором для вероятностей выполняются неравенства

p i -1 < p i и p i +1 < р i

В случае дискретных случайных величин распределения также могут быть унимодальными, бимодальными и мультимодальными.

Наивероятнейшим значением называют моду, при которой достигается глобальный максимум вероятности (дискретной случайной величины) или плотности распределения (непрерывной случайной величины).

Если распределение унимодальное, то мода также будет наивероятнейшим значением.

Y -100
р 0,3 0,4 0,3

Несмотря на то что математические ожидания величин X и Y одинаковы: М(Х)=М(Y) =0, возможные значения величин Х и Y «разбросаны» или «рассеяны» около своих математических ожида­ний по-разному: возможные значения величины X расположены гораздо ближе к своему математическому ожиданию, чем значения величины Y.

Укажем еще на один пример. При одинаковой средней величине годовых осадков одна местность может быть засушливой и неблагоприятной для сельскохозяйственных работ (нет дождей весной и летом), а другая - благоприятной для ведения сельского хозяйства.

Из сказанного вытекает необходимость введения новой числовой характеристики случайной величины, по которой можно судить о «рассеянии» возможных значений этой случайной величины.

Пусть задана дискретная случайная величина X:

X х 1 х 2 …. х n
р p 1 p 2 …. p n

Определение 1. Отклонением случайной величины X от ее математического ожидания М(Х) (или просто отклонением случайной величины X) называют случайную величину Х- М(Х).

Видно, что для того, чтобы отклонение случайной величины X приняло значение x 1 - М(Х), достаточно, чтобы случайная величина X приняла значение x 1 . Вероятность же этого события равна p 1 ; следовательно, и вероятность того, что отклонение случайной величины X примет значение x 1 - М(Х), также равна p 1 . Аналогично обстоит дело и для остальных возможных значений отклонения случайной величины X. Используя это, запишем закон распределения отклонения случайной величины X:

Х- М(Х) Х 1 - М(Х) Х 2 - М(Х) …. Х п - М(Х)
р p 1 p 2 …. p n

Вычислим теперь математическое ожидание отклонения Х- М(Х). Пользуясь свойствами 5 и 1 (подразд. 9.2, п. 2), получаем

М[Х - М(Х)] = М(Х) - М(Х) = 0. Следовательно, справедлива следующая теорема.

Теорема 9.2 . Математическое ожидание отклонения Х- М(Х) равно нулю:

М[Х-М(Х)] = 0.

Из теоремы видно, что с помощью отклонения Х- М(Х) не удается определить среднее отклонение возможных значений величины X от ее математического ожидания, т.е. степень рассеяния величины X. Это объясняется взаимным погашением положительных и отрицательных возможных значений отклонения. Однако можно освободиться от этого недостатка, если рассматривать квадрат отклонения случайной величины X.



Запишем закон распределения случайной величины 2 (рассуждения те же, что и в случае случайной величины Х- М(Х)).

[Х-М(Х) ] 2 [ Х 1 - М(Х) ] 2 [Х 2 - М(Х) ] 2 …. [Х п -М(Х) ] 2
р p 1 p 2 …. p n

Определение 2 . Дисперсией D(Х) дискретной случайной величины X называют математическое ожидание квадрата отклонения случайной величины X от ее математического ожидания:

D(Х) = М [(Х-М(Х )) 2 ].

Из закона распределения величины [Х- М (Х )] 2 следует, что D (X ) =

= [Х 1 - М (Х )] 2 p 1 + [Х 2 - М (Х )] 2 p 2 + ... + [ Х n - М (Х )] 2 p n .

2. Свойства дисперсии дискретной случайной величины.

1. Дисперсия дискретной случайной величины X равна разности между математическим ожиданием квадрата величины X и квадратом ее математического ожидания :

D (X ) = М (Х 2 )-М 2 (Х ).

Действительно, используя свойств математического ожидания, имеем

D (X ) = М[(Х - М(Х)) 2 ] = М[Х 2 -2ХМ(Х) + М 2 (Х)] =

= М(Х 2)-2М(Х)×М(Х) + М 2 (Х) = М(Х 2)-2 М 2 (Х) + М 2 (Х) = М(Х 2)- -М 2 (Х).

С помощью этого свойства и свойства математического ожидания устанавливаются следующие свойства.

2. Дисперсия постоянной величины С равна нулю .

3.Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат : D (CX ) =C 2 D (X ) .

4.Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: М(Х+Y) = D (Х) + D (Y).

Методом математической индукции это свойство распространяется и на случай любого конечного числа слагаемых.

Следствием свойств 3 и 4 является свойство 5.

5. Дисперсия разности двух независимых случайных величин X и Y равна сумме их дисперсий : М(Х-Y) = D (Х) + D (Y).

Пример 9.6. Дисперсия случайной величины X равна 3. Найти дисперсию следующих величин: а) --3 X ; б) 4 X + 3.

Согласно свойствам 2, 3 и 4 дисперсии имеем

а) D(-3Х) = 9D(Х) = 9×3 = 27;

б) D (4Х+ 3) = D(4Х) + D (3) = 16D(Х) + 0 = 16×3 = 48.



Что еще почитать