Характеристики непрерывной случайной величины заданной плотность распределения. Найти функцию распределения F(x)

Функция распределения в этом случае согласно (5.7), примет вид:

где: m – математическое ожидание, s– среднеквадратическое отклонение.

Нормальное распределение называют еще гауссовским по имени немецкого математика Гаусса . Тот факт, что случайная величина имеет нормальное распределение с параметрами: m,, обозначают так: N (m,s), где: m =a =M ;

Достаточно часто в формулах математическое ожидание обозначают через а . Если случайная величина распределена по закону N(0,1), то она называется нормированной или стандартизированной нормальной величиной. Функция распределения для нее имеет вид:

.

График плотности нормального распределения, который называют нормальной кривой или кривой Гаусса, изображен на рис.5.4.

Рис. 5.4. Плотность нормального распределения

Определение числовых характеристик случайной величины по её плотности рассматривается на примере.

Пример 6 .

Непрерывная случайная величина задана плотностью распределения:.

Определить вид распределения, найти математическое ожидание M(X) и дисперсию D(X).

Сравнивая заданную плотность распределения с (5.16) можно сделать вывод, что задан нормальный закон распределения с m =4. Следовательно, математическое ожидание M(X)=4, дисперсия D(X)=9.

Среднее квадратическое отклонение s=3.

Функция Лапласа, имеющая вид:

,

связана с функцией нормального распределения (5.17), cоотношением:

F 0 (x) = Ф(х) + 0,5.

Функции Лапласа нечётная.

Ф(-x )=-Ф(x ).

Значения функции Лапласа Ф(х) табулированы и берутся из таблицы по значению х (см. Приложение 1).

Нормальное распределение непрерывной случайной величины играет важную роль в теории вероятностей и при описании реальности, имеет очень широкое распространение в случайных явлениях природы. На практике очень часто встречаются случайные величины, образующиеся именно в результате суммирования многих случайных слагаемых. В частности, анализ ошибок измерения показывает, что они являются суммой разного рода ошибок. Практика показывает, что распределение вероятностей ошибок измерения близко к нормальному закону.

С помощью функции Лапласа можно решать задачи вычисления вероятности попадания в заданный интервал и заданного отклонения нормальной случайной величины.

В отличие от дискретной случайной величины непрерывные случайные величины невозможно задать в виде таблицы ее закона распределения поскольку невозможно перечислить и выписать в определенной последовательностей все ее значения. Одним из возможных способов задания непрерывной случайной величины является использование функции распределения.

ОПРЕДЕЛЕНИЕ. Функцией распределения называют функцию, определяющую вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х, т.е.

Иногда вместо термина «Функция распределения» используют термин «Интегральная функция».

Свойства функции распределения:

1. Значения функции распределения принадлежит отрезку : 0F(x)1
2. F(x) - неубывающая функция, т.е. F(x 2)F(x 1), если x 2 >x 1

Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (a,b), равна приращению функции распределения на этом интервале:

P(aX

Пример 9. Случайная величина Х задана функцией распределения:

Найти вероятность того, что в результате испытания Х примет значение, принадлежащее интервалу (0;2): P(0

Решение: Так как на интервале (0;2) по условию, F(x)=x/4+1/4, то F(2)-F(0)=(2/4+1/4)-(0/4+1/4)=1/2. Итак, P(0

Следствие 2. Вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю.

Следствие 3. Если возможные значения случайной величины принадлежат интервалу (а;b), то: 1) F(x)=0 при xa; 2) F(x)=1 при xb.
Справедливы следующие предельные соотношения:

График функции распределения расположен в полосе, ограниченной прямыми у=0, у=1 (первое свойство). При возрастании х в интервале (а;b), в котором заключены все возможные значения случайной величины, график «подымается вверх». При xa ординаты графика равны нулю; при xb ординаты графика равны единице:


Рисунок-1

Пример 10. Дискретная случайная величина Х задана таблицей распределения:

X 1 4 8
P 0.3 0.1 0.6

Найти функцию распределения и построить ее график.
Решение: Функция распределения аналитически может быть записана так:


Рисунок-2

ОПРЕДЕЛЕНИЕ: Плотностью распределения вероятностей непрерывной случайной величины Х называют функцию f(x) - первую производную от функции распределения F(x): f(x)=F"(x)

Из этого определения следует, что функция распределения является первообразной для плотности распределения.

Теорема. Вероятность того, что непрерывная случайная величина Х примет значение, принадлежащее интервалу (а;b) равна определенному интегралу от плотности распределения, взятому в пределах от а до b:

(8)

Свойства плотности распределения вероятностей:

1. Плотность вероятностей является неотрицательной функцией: f(x)0.
2. Определенный интеграл от -∞ до +∞ от плотности распределения вероятностей непрерывной случайной величины равен 1: f(x)dx=1.
3. Определенный интеграл от -∞ до x от плотности распределения вероятностей непрерывной случайной величины равен функции распределения этой величины: f(x)dx=F(x)

Пример 11. Задана плотность распределения вероятностей случайной величины Х

Найти вероятность того, что в результате испытания Х примет значение, принадлежащее интервалу (0,5;1).

Решение: Искомая вероятность:

Распространим определение числовых характеристик дискретных величин на величины непрерывные. Пусть непрерывная случайная величина Х задана плотностью распределения f(x).

ОПРЕДЕЛЕНИЕ. Математическим ожиданием непрерывной случайной величины Х, возможные значения которой принадлежат отрезку , называют определенный интеграл:

M(x)=xf(x)dx (9)

Если возможные значения принадлежат всей оси Ох, то:

M(x)=xf(x)dx (10)

Модой M 0 (X) непрерывной случайной величины X называют то ее возможное значение, которому соответствует локальный максимум плотности распределения.

Медианой M e (X) непрерывной случайной величины X называют то ее возможное значение, которое определяется равенством:

P{X e (X)}=P{X>M e (X)}

ОПРЕДЕЛЕНИЕ. Дисперсией непрерывной случайной величины называют математическое ожидание квадрата ее отклонения. Если возможные значения Х принадлежат отрезку , то:

D(x)= 2 f(x)dx (11)
или
D(x)=x 2 f(x)dx- 2 (11*)

Если возможные значения принадлежат всей оси х, то.

Равномерное распределение. Непрерывная величина Х распределена равномерно на интервале (a , b ), если все ее возможные значения находятся на этом интервале и плотность распределения вероятностей постоянна:

Для случайной величины Х , равномерно распределенной в интервале (a , b ) (рис. 4), вероятность попадания в любой интервал (x 1 , x 2 ), лежащий внутри интервала (a , b ), равна:

(30)


Рис. 4. График плотности равномерного распределения

Примерами равномерно распределенных величин являются ошибки округления. Так, если все табличные значения некоторой функции округлены до одного и того же разряда , то выбирая наугад табличное значение, мы считаем, что ошибка округления выбранного числа есть случайная величина, равномерно распределенная в интервале

Показательное распределение. Непрерывная случайная величина Х имеет показательное распределение

(31)

График плотности распределения вероятностей (31) представлен на рис. 5.


Рис. 5. График плотности показательного распределения

Время Т безотказной работы компьютерной системы есть случайная величина, имеющая показательное распределение с параметром λ , физический смысл которого – среднее число отказов в единицу времени, не считая простоев системы для ремонта.

Нормальное (гауссово) распределение. Случайная величина Х имеет нормальное (гауссово) распределение , если плотность распределения ее вероятностей определяется зависимостью:

(32)

где m = M (X ) , .

При нормальное распределение называется стандартным .

График плотности нормального распределения (32) представлен на рис. 6.


Рис. 6. График плотности нормального распределения

Нормальное распределение является наиболее часто встречающимся в различных случайных явлениях природы. Так, ошибки выполнения команд автоматизированным устройством, ошибки вывода космического корабля в заданную точку пространства, ошибки параметров компьютерных систем и т.д. в большинстве случаев имеют нормальное или близкое к нормальному распределение. Более того, случайные величины, образованные суммированием большого количества случайных слагаемых, распределены практически по нормальному закону.

Гамма-распределение. Случайная величина Х имеет гамма-распределение , если плотность распределения ее вероятностей выражается формулой:

(33)

где – гамма-функция Эйлера.

  • 5. Определенный интеграл. Формула Ньютона-Лейбница. Свойства определенного интеграла. Геометрический смысл определенного интеграла. Определенный интеграл.
  • 7.Случайные события. Классическое и статистическое определения вероятности случайного события. Виды случайных событий
  • 8.Основные теоремы теории вероятностей.Повторные независимые испытания. Формула Бернулли.Формула Пуассона.
  • 9.Дискретные случайные величины.Закон распределения дискретной случайной величины.Основные числовые характеристики дискретнойслучайной величины и ее свойства.
  • 10.Непрерывные случайные величины.Функция распределениянепрерывной случайной величины и ее свойства.
  • 11.Плотность распределения вероятностей непрерывной случайной величины и ее свойства. Основные числовые характеристики непрерывной случайной величины.
  • 12. Нормальный закон распределения. Вероятность попадения нормально распределенной случайнойвеличиныв заданный интервал.Правило трех сигм.
  • 13. Статистическая совокупность.Генеральная и выборочная статистические совокупности. Статистический дискретный ряд распределения.Полигоны частот и относительных частот.
  • 14.Статистический интервальный ряд распределения.Гистограммы частоти относительных частот.
  • 15.Выборочные характеристики распределения.Точечные оценки основныхчисловых характеристик генеральной совокупности
  • 16.Интервалтьные оценки числовых характеристик генеральной совокупности.Доверительный интервал,доверительная вероятность. Распределение Стьюдента.
  • 17. Основные понятия и определения колебательных процессов. Механические колебания. Гармонические колебания. Незатухающие колебания.
  • 18. Затухающие колебания. Вынужденные колебания. Резонанс. Автоколебания.
  • 19. Механические (упругие) волны. Основные характеристики волн. Уравнение плоской волны. Поток энергии и интенсивность волны. Вектор Умова.
  • 20. Внутреннее трение (вязкость жидкости). Формула Ньютона. Ньютоновские и неньютоновские жидкости. Ламинарное и турбулентное течение жидкости. Формула Гагена-Пуазейля.
  • 21. Звук. Виды звуков. Физические характеристики звука. Характеристики слухового ощущения и их связь с физическими характеристиками звука. Шкала уровней интенсивности звука.
  • 22. Закон Вебера-Фехнера. Шкала уровней громкости звука. Кривые равной громкости.
  • 4. Действие ультразвука на вещество, клетки и ткани организма. Применение ультразвука в медицине.
  • 25. Эффект Доплера и его использование в медико-биологических исследованиях
  • 26. Законы отражения и преломления света. Явление полного внутреннего отражения. Предельный угол преломления. Предельный угол полного отражения.
  • 27. Принцип действия рефрактометра. Ход лучей рефрактометра в проходящем и отраженном свете.
  • 28. Биологические мембраны, их структура и функции. Модели мембран.
  • 29. Перенос частиц через мембраны. Уравнение Фика. Применение уравнения Фика к биологической мембране. Уравнение Нернста-Планка.
  • 30. Пассивный транспорт и его основные виды. Понятие об активном транспорте.
  • 31. Биоэлектрические потенциалы. Потенциал покоя. Механизм генерации потенциала действия.
  • 1Состояние покоя 2 началась деполяризация
  • 3Участок полностью деполяризован 4началась реполяризация
  • 32. Переменный ток. Полное сопротивление в цепи переменного тока. Импеданс тканей организма. Дисперсия импеданса.
  • 33. Устройство простейшего оптического микроскопа. Разрешающая способность и предел разрешения микроскопа. Способы увеличения разрешающей способности микроскопа. Иммерсионные системы.
  • 34. Полное и полезное увеличения микроскопа. Ход лучей в микроскопе. Апертурная диафрагма и апертурный угол.
  • 35.Поглощение света. Закон Бугера. Закон Бугера-Ламберта-Бера. Конценрационная колориметрия.Нефелометрия.
  • 36.Рассеяние света.Явление Тиндаля.Молекулярное рассеяние,Закон Рэлея.Комбинационное рассеяние.
  • 37.Свет естественный и поляризованный.Поляризатор и анализатор. Закон Малюса
  • 38.Поляризация света при отражении и преломлении на границе двух диэлектриков. Закон Брюстера.
  • 39.Поляризация света при двойном лучепреломлении. Призма Николя. Вращение плоскости поляризации. Закон Био.
  • 40.Тепловое Законы теплового излучения. Формула Планка.
  • 1.Закон Кирхгофа: отношение излучательной способности тела к его поглощательной способности не зависит от природы тела и для всех тел является одной и той же функцией длины волны и температуры:
  • 2. 2. Закон Стефана – Больцмана: полная (по всему спектру) излучательная способность абсолютно черного тела пропорциональна четвертой степени абсолютной температуры:
  • 3. Закон Вина (закон смещения): длина волны на которую приходится максимум энергии излучения абсолютно черного тела обратно пропорциональна абсолютной температуре:
  • 41.Излучение Солнца.Инфракрасное и ультрафиолетовое излучения и их применение в медицине.
  • 42.Теплоотдача организма.Физические основы термографии.
  • 43.Люминесценция, ее виды. Механизм и свойства люминесценции. Правило Стокса.
  • 44.Применение люминофоров и люминесцентного анализа в медицине и фармации.
  • 45.Вынужденное излучение. Инверсная заселенность уровней. Основные элементы лазера.
  • 1.Устройство,поставляющее энергнию для переработки ее в когерентное излучение
  • 2.Активная среда,которая вбирает в себя эту энергию и переизлучает ее в виде когерентного излучения
  • 3.Устройство,осуществляющее обратную связь
  • 49.Первичные процессы взаимодействия рентгеновского излучения веществом: когерентное рассеяние, комптон-эффект, фотоэффект.
  • 50.Физические основы применения рентгеновского излучение в медицине. Рентгенодиагностика. Современные рентгеновские компьютерные томографы.
  • 51.Явление радиоактивности. Виды радиоактивного распада. Основной закон радиоактивного распада.
  • 52. Альфа-распад ядер и его особенности. Бета-распад, его виды, особенности и спектр. Гамма излучение ядер.
  • 53.Взаимодействие ионизирующего излучения с веществом
  • 54.Методы радиационной медицины. Радионуклидная диагностика.
  • 55.Методы радиоизотопной терапии.
  • 56.Ускорители заряженных частиц и их использование в медицине.
  • 57. Дозиметрия ионизирующего излучения. Поглощенная и экспозиционная дозы. Мощность дозы.
  • 58. Количественная оценка биологического действия ионизирующего излучения. Коэффициент качества излучения. Эквивалентная доза.
  • функции распределения . Функция F(x), равная вероятности того, что случайная величина Х в результате испытания примет значение, меньше х, называется функцией распределения данной случайной величины: F (x )= P (X < x )

    Свойства функции распределения : 1) Функция распределения удовлетворяет неравенству: 0≤F(x)≤1 ; 2) Функция распределения является неубывающей функцией, т.е. из х 2> х 1 следует F(x2)≥F(x1). 3)Функция распределения стремится к 0 при неограниченном убывании еаргумента и стремится к 1 при его неограниченном возрастании.

    График функции распределения

    11.Плотность распределения вероятностей непрерывной случайной величины и ее свойства. Основные числовые характеристики непрерывной случайной величины.

    Плотностью распределения вероятностей (плотностью вероятности) f(x) непрерывной случайной величины Х называется производная функции распределения F(x) этой величины: f(x)=F’(x)

    Свойства плотности распределения вероятностей: 1) Плотность вероятности является неотрицательной функцией: f(x)≥0; 2) Вероятность того, что в результате испытания непрерывная случайная величина примет какие либо значения из интервала (a,b) равна: 3) Определенный интеграл в пределах от –бесконечности до + бесконечности от плотности вероятности непрерывной случайной величины равен единице: 4) Определенный интеграл в пределах от минус бесконечности до х от плотности вероятности непрерывной случайной величины равен функции распределения этой величины:

    Под основными числовыми характеристиками непрерывной случайной величины понимают, математическое ожидание, дисперсию и среднее квадратическое отклонение.

    Математическое ожидание непрерывной случайной величины:

    Дисперсия непрерывной случайной величины D (X ) = M [ X M (X )] 2 . (добавить)

    Среднее квадратическое отклонение: σ(х)= √D(X)

    12. Нормальный закон распределения. Вероятность попадения нормально распределенной случайнойвеличиныв заданный интервал.Правило трех сигм.

    Из всех видов распределения непрерывных случайных величин наиболее часто используют нормальное распределение , которое задается законом Гаусса. Так, если мы имеем сумму большого числа независимых величин, подчиненных каким угодно законам распределения, то при некоторых общих условиях она будет приближенно подчиняться нормальному закону. Непрерывная случайная величина называется распределенной по нормальному закону, если ее плотность вероятности имеет вид: (увеличить,дописать), где М-математическое ожидание, σ в квадрате – дисперсия, σ-среднее квадратическое отклонение этой величины.это кривая Гаусса:

    Подставив выражение для плотности вероятности нормально распределенной случайной величины в выражение , получим вероятность того, что в результате испытания нормально распределенная случайная величина

    примет значение из заданного интервала: P (a < X < b ) =____________________

    Правило трех сигм : отклонения значений нормального распределения случайной величины от ее математического ожидания по абсолютной величине практически не превышает ее утроенного среднего квадратического отклонения.

  • (НСВ )

    Непрерывной называют случайную величину, возможные значения которой непрерывно занимают некоторый интервал.

    Если дискретная величина может быть задана перечнем всех её возможных значений и их вероятностей, то непрерывную случайную величину, возможные значения которой сплошь занимают некоторый интервал (а , b ) задать перечнем всех возможных значений невозможно.

    Пусть х – действительное число. Вероятность события, состоящего в том, что случайная величина Х примет значение, меньшее х , т.е. вероятность события Х < х , обозначим через F (x ). Если х изменяется, то, конечно, изменяется и F (x ), т.е. F (x ) – функция от х .

    Функцией распределения называют функцию F (x ), определяющую вероятность того, что случайная величина Х в результате испытания примет значение, меньшее х , т.е.

    F (x ) = Р (Х < х ).

    Геометрически это равенство можно истолковать так: F (x ) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х .

    Свойства функции распределения.

    1 0 . Значения функции распределения принадлежат отрезку :

    0 ≤ F (x ) ≤ 1.

    2 0 . F (x ) – неубывающая функция, т.е.

    F (x 2) ≥ F (x 1), если x 2 > x 1 .

    Следствие 1. Вероятность того, что случайная величина примет значение, заключённое в интервале (а , b ), равна приращению функции распределения на этом интервале:

    Р (а < X < b ) = F (b ) − F (a ).

    Пример. Случайная величина Х задана функцией распределения

    F (x ) =

    Случайна величина Х 0, 2).

    Согласно следствию 1, имеем:

    Р (0 < X <2) = F (2) − F (0).

    Так как на интервале (0, 2), по условию, F (x ) = + , то

    F (2) − F (0) = (+ ) − (+ ) = .

    Таким образом,

    Р (0 < X <2) = .

    Следствие 2. Вероятность того, что непрерывная случайная величина Х примет одно определённое значение, равна нулю.

    3 0 . Если возможные значения случайной величины принадлежат интервалу (а , b ), то

    1). F (x ) = 0 при х а ;

    2). F (x ) = 1 при х b .

    Следствие. Если возможные значения НСВ расположены на всей числовой оси ОХ (−∞, +∞), то справедливы предельные соотношения:

    Рассмотренные свойства позволяют представить общий вид графика функции распределения непрерывной случайной величины:

    Функцию распределения НСВ Х часто называют интегральной функцией .

    Дискретная случайная величина тоже имеет функцию распределения:



    График функции распределения дискретной случайной величины имеет ступенчатый вид.

    Пример. ДСВ Х задана законом распределения

    Х 1 4 8

    Р 0,3 0,1 0,6.

    Найти её функцию распределения и построить график.

    Если х ≤ 1, то F (x ) = 0.

    Если 1 < x ≤ 4, то F (x ) = р 1 =0,3.

    Если 4 < x ≤ 8, то F (x ) = р 1 + р 2 = 0,3 + 0,1 = 0,4.

    Если х > 8, то F (x ) = 1 (или F (x ) = 0,3 + 0,1 + 0,6 = 1).

    Итак, функция распределения заданной ДСВ Х :

    График искомой функции распределения:

    НСВ можно задать плотностью распределения вероятностей.

    Плотностью распределения вероятностей НСВ Х называют функцию f (x ) – первую производную от функции распределения F (x ):

    f (x ) = .

    Функция распределения является первообразной для плотности распределения. Плотность распределения ещё называют: плотность вероятности, дифференциальной функцией .

    График плотности распределения называют кривой распределения .

    Теорема 1. Вероятность того, что НСВ Х примет значение, принадлежащее интервалу (а , b ), равна определённому интегралу от плотности распределения, взятому в пределах от а до b :

    Р (а < X < b ) = .

    Р (а < X < b ) = F (b ) −F (a ) == . ●

    Геометрический смысл: вероятность того, что НСВ примет значение, принадлежащее интервалу (а , b ), равна площади криволинейной трапеции, ограниченной осью ОХ , кривой распределения f (x ) и прямыми х =а и х =b .

    Пример. Задана плотность вероятности НСВ Х

    f (x ) =

    Найти вероятность того, что в результате испытания Х примет значение, принадлежащее интервалу (0,5;1).

    Р (0,5 < X < 1) = 2= = 1 – 0,25 = 0,75.

    Свойства плотности распределения :

    1 0 . Плотность распределения - неотрицательная функция:

    f (x ) ≥ 0.

    2 0 . Несобственный интеграл от плотности распределения в пределах от −∞ до +∞ равен единице:

    В частности, если все возможные значения случайной величины принадлежат интервалу (а , b ), то

    Пусть f (x ) – плотность распределения, F (х ) – функция распределения, тогда

    F (х ) = .

    F (x ) = Р (Х < х ) = Р (−∞ < X < х ) = = , т.е.

    F (х ) = . ●

    Пример (*). Найти функцию распределения по данной плотности распределения:

    f (x ) =

    Построить график найденной функции.

    Известно, что F (х ) = .

    Если, х а , то F (х ) = = == 0;

    Если а < x b , то F (х ) = =+ = = .

    Если х > b , то F (х ) = =+ + = = 1.

    F (x ) =

    График искомой функции:

    Числовые характеристики НСВ

    Математическим ожиданием НСВ Х , возможные значения которой принадлежат отрезку [a , b ], называют определённый интеграл

    М (Х ) = .

    Если все возможные значения принадлежат всей оси ОХ , то

    М (Х ) = .

    Предполагается, что несобственный интеграл сходится абсолютно.

    Дисперсией НСВ Х называют математическое ожидание квадрата её отклонения.

    Если возможные значения Х принадлежат отрезку [a , b ], то

    D (X ) = ;

    Если возможные значения Х принадлежат всей числовой оси (−∞; +∞), то

    D (X ) = .

    Легко получить для вычисления дисперсии более удобные формулы:

    D (X ) = − [M (X )] 2 ,

    D (X ) = − [M (X )] 2 .

    Среднее квадратическое отклонение НСВ Х определяется равенством

    (Х ) = .

    Замечание. Свойства математического ожидания и дисперсии ДСВ сохраняются и для НСВ Х .

    Пример. Найти М (Х ) и D (X ) случайной величины Х , заданной функцией распределения

    F (x ) =

    Найдём плотность распределения

    f (x ) = =

    Найдём М (Х ):

    М (Х ) = = = = .

    Найдём D (X ):

    D (X ) = − [M (X )] 2 = − = − = .

    Пример (**). Найти М (Х ), D (X ) и (X ) случайной величины Х , если

    f (x ) =

    Найдём М (Х ):

    М (Х ) = = =∙= .

    Найдём D (X ):

    D (X ) =− [M (X )] 2 =− = ∙−=.

    Найдем (Х ):

    (Х ) = = = .

    Теоретические моменты НСВ.

    Начальный теоретический момент порядка k НСВ Х определяется равенством

    ν k = .

    Центральный теоретический момент порядка k НСВ Х определяется равенством

    μ k = .

    В частности, если все возможные значения Х принадлежат интервалу (a , b ), то

    ν k = ,

    μ k = .

    Очевидно:

    k = 1: ν 1 = M (X ), μ 1 = 0;

    k = 2: μ 2 = D (X ).

    Связь между ν k и μ k как и у ДСВ :

    μ 2 = ν 2 − ν 1 2 ;

    μ 3 = ν 3 − 3ν 2 ν 1 + 2ν 1 3 ;

    μ 4 = ν 4 − 4ν 3 ν 1 + 6 ν 2 ν 1 2 − 3ν 1 4 .

    Законы распределения НСВ

    Плотности распределения НСВ называют также законами распределения .

    Закон равномерного распределения.

    Распределение вероятностей называют равномерным , если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение.

    Плотность вероятности равномерного распределения:

    f (x ) =

    Её график:

    Из примера (*) следует, что функция распределения равномерного распределения имеет вид:

    F (x ) =

    Её график:

    Из примера (**) следуют числовые характеристики равномерного распределения:

    М (Х ) = , D (X ) = , (Х ) = .

    Пример. Автобусы некоторого маршрута идут строго по расписанию. Интервал движения 5 минут. Найти вероятность того, что пассажир, подошедший к остановке, будет ожидать очередной автобус менее 3-х минут.

    Случайная величина Х – время ожидания автобуса подошедшим пассажиром. Её возможные значения принадлежат интервалу (0; 5).

    Так как Х – равномерно распределённая величина, то плотность вероятности:

    f (x ) = = = на интервале (0; 5).

    Чтобы пассажир ожидал очередной автобус менее 3-х минут, он должен подойти к остановке в промежуток времени от 2 до 5 минут до прихода следующего автобуса:

    Следовательно,

    Р (2 < X < 5) == = = 0,6.

    Закон нормального распределения.

    Нормальным называют распределение вероятностей НСВ Х

    f (x ) = .

    Нормальное распределение определяется двумя параметрами: а и σ .

    Числовые характеристики:

    М (Х ) == = =

    = = + = а ,

    т.к. первый интеграл равен нулю (подынтегральная функция нечётная, второй интеграл – это интеграл Пуассона, который равен .

    Таким образом, М (Х ) = а , т.е. математическое ожидание нормального распределения равно параметру а .

    Учитывая, что М (Х ) = а , получим

    D (X ) = = =

    Таким образом, D (X ) = .

    Следовательно,

    (Х ) = = = ,

    т.е. среднее квадратическое отклонение нормального распределения равно параметру .

    Общими называют нормальное распределение с произвольными параметрами а и (> 0).

    Нормированным называют нормальное распределение с параметрами а = 0 и = 1. Например, если Х – нормальная величина с параметрами а и , то U = − нормированная нормальная величина, причём М (U ) = 0, (U ) = 1.

    Плотность нормированного распределения:

    φ (x ) = .

    Функция F (x ) общего нормального распределения:

    F (x ) = ,

    а функция нормированного распределения:

    F 0 (x ) = .

    График плотности нормального распределения называют нормальной кривой (кривой Гаусса ):

    Изменение параметра а ведет к сдвигу кривой вдоль оси ОХ : вправо, если а возрастает, и влево, если а убывает.

    Изменение параметра ведет: с возрастанием максимальная ордината нормальной кривой убывает, а сама кривая становится пологой; при убывании нормальная кривая становится более “островершинной” и растягивается в положительном направлении оси OY :

    Если а = 0, а = 1, то нормальную кривую

    φ (x ) =

    называют нормированной .

    Вероятность попадания в заданный интервал нормальной случайной величины.

    Пусть случайная величина Х распределена по нормальному закону. Тогда вероятность того, что Х

    Р (α < X < β ) = = =

    Используя функцию Лапласа

    Φ (х ) = ,

    Окончательно получим

    Р (α < X < β ) = Φ () − Φ ().

    Пример. Случайная величина Х распределена по нормальному закону. Математическое ожидание и среднее квадратическое отклонение этой величины соответственно равны 30 и 10. Найти вероятность того, что Х

    По условию, α =10, β =50, а =30, =1.

    Р (10< X < 50) = Φ () − Φ () = 2Φ (2).

    По таблице: Φ (2) = 0,4772. Отсюда

    Р (10< X < 50) = 2∙0,4772 = 0,9544.

    Часто требуется вычислить вероятность того, что отклонение нормально распределённой случайной величины Х по абсолютной величине меньше заданного δ > 0, т.е. требуется найти вероятность осуществления неравенства | X a | < δ :

    Р (| X a | < δ ) = Р (a − δ < X < a + δ ) = Φ () − Φ () =

    = Φ () − Φ () = 2Φ ().

    В частности, при а = 0:

    Р (| X | < δ ) = 2Φ ().

    Пример. Случайная величина Х распределена нормально. Математическое ожидание и среднее квадратическое отклонение соответственно равны 20 и 10. Найти вероятность того, что отклонение по абсолютной величине будет меньше 3.

    По условию, δ = 3, а = 20, =10. Тогда

    Р (| X − 20| < 3) = 2 Φ () = 2Φ (0,3).

    По таблице: Φ (0,3) = 0,1179.

    Следовательно,

    Р (| X − 20| < 3) = 0,2358.

    Правило трёх сигм.

    Известно, что

    Р (| X a | < δ ) = 2Φ ().

    Пусть δ = t , тогда

    Р (| X a | < t ) = 2Φ (t ).

    Если t = 3 и, следовательно, t = 3, то

    Р (| X a | < 3) = 2Φ (3) = 2∙ 0,49865 = 0,9973,

    т.е. получили практически достоверное событие.

    Суть правила трёх сигм: если случайная величина распределена нормально, то абсолютная величина её отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения.

    На практике правило трёх сигм применяют так: если распределение изучаемой случайной величины неизвестен, но условие, указанное в приведённом правиле, выполняется, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае она не распределена нормально.

    Центральная предельная теорема Ляпунова.

    Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

    Пример. □ Пусть производится измерение некоторой физической величины. Любое измерение дает лишь приближённое значение измеряемой величины, так как на результат измерения влияют очень многие независимые случайные факторы (температура, колебания прибора, влажность и др.). Каждый из этих факторов порождает ничтожную “частную ошибку”. Однако, поскольку число этих факторов очень велико, то их совокупное действие порождает уже заметную “суммарную ошибку”.

    Рассматривая суммарную ошибку как сумму очень большого числа взаимно независимых частных ошибок, мы вправе заключить, что суммарная ошибка имеет распределение, близкое к нормальному. Опыт подтверждает справедливость такого заключения. ■

    Запишем условия, при которых сумма большого числа независимых слагаемых имеет распределение, близкое к нормальному.

    Пусть Х 1 , Х 2 , …, Х п − последовательность независимых случайных величин, каждая из которых имеет конечные математическое ожидание и дисперсию:

    М (Х k ) = a k , D (Х k ) = .

    Введём обозначения:

    S n = , A n = , B n = .

    Обозначим функцию распределения нормированной суммы через

    F п (x ) = P (< x ).

    Говорят, что к последовательности Х 1 , Х 2 , …, Х п применима центральная предельная теорема, если при любых х функция распределения нормированной суммы при п → ∞ стремится к нормальной функции распределения:

    Закон показательного распределения.

    Показательным (экспоненциальным ) называют распределение вероятностей НСВ Х , которое описывается плотностью

    f (x ) =

    где λ – постоянная положительная величина.

    Показательное распределение определяется одним параметром λ .

    График функции f (x ):

    Найдём функцию распределения:

    если, х ≤ 0, то F (х ) = = == 0;

    если х ≥ 0, то F (х ) == += λ∙ = 1 − е −λх .

    Итак, функция распределения имеет вид:

    F (x ) =

    График искомой функции:

    Числовые характеристики:

    М (Х ) == λ = = .

    Итак, М (Х ) = .

    D (X ) =− [M (X )] 2 = λ − = = .

    Итак, D (X ) = .

    (Х ) = = , т.е. (Х ) = .

    Получили, что М (Х ) = (Х ) = .

    Пример. НСВ Х

    f (x ) = 5е −5х при х ≥ 0; f (x ) = 0 при х < 0.

    Найти М (Х ), D (X ), (Х ).

    По условию, λ = 5. Следовательно,

    М (Х ) = (Х ) = = = 0,2;

    D (X ) = = = 0,04.

    Вероятность попадания в заданный интервал показательно распределённой случайной величины.

    Пусть случайная величина Х распределена по показательному закону. Тогда вероятность того, что Х примет значение из интервала ), равна

    Р (а < X < b ) = F (b ) − F (a ) = (1 − е −λ b ) − (1 − е −λ a ) = е −λ a е −λ b .

    Пример. НСВ Х распределена по показательному закону

    f (x ) = 2е −2х при х ≥ 0; f (x ) = 0 при х < 0.

    Найти вероятность того, что в результате испытания Х примет значение из интервала ).

    По условию, λ = 2. Тогда

    Р (0,3 < X < 1) = е − 2∙0,3 − е − 2∙1 = 0,54881− 0,13534 ≈ 0,41.

    Показательное распределение широко применяется в приложениях, в частности в теории надёжности.

    Будем называть элементом некоторое устройство независимо от того, “простое” оно или “сложное”.

    Пусть элемент начинает работать в момент времени t 0 = 0, а по истечении времени t происходит отказ. Обозначим через Т непрерывную случайную величину – длительность времени безотказной работы элемента. Если элемент проработал безотказно (до наступления отказа) время, меньшее t , то, следовательно, за время длительностью t наступит отказ.

    Таким образом, функция распределения F (t ) = Р (T < t ) определяет вероятность отказа за время длительностью t . Следовательно, вероятность безотказной работы за это же время длительностью t , т.е. вероятность противоположного события T > t , равна

    R (t ) = Р (T > t ) = 1− F (t ).

    Функцией надёжности R (t ) называют функцию, определяющую вероятность безотказной работы элемента за время длительностью t :

    R (t ) = Р (T > t ).

    Часто длительность времени безотказной работы элемента имеет показательное распределение, функция распределения которого

    F (t ) = 1 − е −λ t .

    Следовательно, функция надёжности в случае показательного распределения времени безотказной работы элемента имеет вид:

    R (t ) = 1− F (t ) = 1− (1 − е −λ t ) = е −λ t .

    Показательным законом надёжности называют функцию надёжности, определяемую равенством

    R (t ) = е −λ t ,

    где λ – интенсивность отказов.

    Пример. Время безотказной работы элемента распределено по показательному закону

    f (t ) = 0,02е −0,02 t при t ≥0 (t – время).

    Найти вероятность того, что элемент проработает безотказно 100 часов.

    По условию, постоянная интенсивность отказов λ = 0,02. Тогда

    R (100) = е − 0,02∙100 = е − 2 = 0,13534.

    Показательный закон надёжности обладает важным свойством: вероятность безотказной работы элемента на интервале времени длительностью t не зависит от времени предшествующей работы до начала рассматриваемого интервала, а зависит только от длительности времени t (при заданной интенсивности отказов λ ).

    Другими словами, в случае показательного закона надёжности безотказная работа элемента “в прошлом” не сказывается на величине вероятности его безотказной работы “в ближайшем будущем”.

    Указанным свойством обладает только показательное распределение. Поэтому, если на практике изучаемая случайная величина этим свойством обладает, то она распределена по показательному закону.

    Закон больших чисел

    Неравенство Чебышева.

    Вероятность того, что отклонение случайной величины Х от её математического ожидания по абсолютной величине меньше положительного числа ε , не меньше, чем 1 – :

    Р (|X M (X )| < ε ) ≥ 1 – .

    Неравенство Чебышева имеет для практики ограниченное значение, поскольку часто дает грубую, а иногда и тривиальную (не представляющую интереса) оценку.

    Теоретическое значение неравенства Чебышева весьма велико.

    Неравенство Чебышева справедливо для ДСВ и НСВ .

    Пример. Устройство состоит из 10 независимо работающих элементов. Вероятность отказа каждого элемента за время Т равна 0,05. С помощью неравенства Чебышева оценить вероятность того, что абсолютная величина разности между числом отказавших элементов и средним числом отказов за время Т окажется меньше двух.

    Пусть Х – число отказавших элементов за время Т .

    Среднее число отказов – это математическое ожидание, т.е. М (Х ).

    М (Х ) = пр = 10∙0,05 = 0,5;

    D (X ) = npq =10∙0,05∙0,95 = 0,475.

    Воспользуемся неравенством Чебышева:

    Р (|X M (X )| < ε ) ≥ 1 – .

    По условию, ε = 2. Тогда

    Р (|X – 0,5| < 2) ≥ 1 – = 0,88,

    Р (|X – 0,5| < 2) ≥ 0,88.

    Теорема Чебышева.

    Если Х 1 , Х 2 , …, Х п – попарно независимые случайные величины, причём дисперсии их равномерно ограничены (не превышают постоянного числа С ), то, как бы мало ни было положительное число ε , вероятность неравенства

    |− | < ε

    Будет как угодно близка к единице, если число случайных величин достаточно велико или, другими словами,

    − | < ε ) = 1.

    Таким образом, теорема Чебышева утверждает, что если рассматривается достаточно большое число независимых случайных величин, имеющих ограниченные дисперсии, то почти достоверным можно считать событие, состоящее в том, что отклонение среднего арифметического случайных величин от среднего арифметического их математических ожиданий будет по абсолютной величине сколь угодно малым.

    Если М (Х 1) = М (Х 2) = …= М (Х п ) = а , то, в условиях теоремы, будет иметь место равенство

    а | < ε ) = 1.

    Сущность теоремы Чебышева такова: хотя отдельные независимые случайные величины могут принимать значения далёкие от своих математических ожиданий, среднее арифметическое достаточно большого числа случайных величин с большой вероятностью принимает значения близкие к определенному постоянному числу (или к числу а в частном случае). Иными словами, отдельные случайные величины могут иметь значительны разброс, а их среднее арифметическое рассеянно мало.

    Таким образом, нельзя уверенно предсказать, какое возможное значение примет каждая из случайных величин, но можно предвидеть, какое значение примет их среднее арифметическое.

    Для практики теорема Чебышева имеет неоценимое значение: измерение некоторой физической величины, качества, например, зерна, хлопка и другой продукции и т.д.

    Пример. Х 1 , Х 2 , …, Х п задана законом распределения

    Х п пα 0 пα

    Р 1 −

    Применима ли к заданной последовательности теорема Чебышева?

    Для того, чтобы к последовательности случайных величин была применима теорема Чебышева, достаточно, чтобы эти величины: 1. были попарно независимыми; 2). имели конечные математические ожидания; 3). имели равномерно ограниченные дисперсии.

    1). Так как случайные величины независимы, то они подавно попарно независимы.

    2). М (Х п ) = −пα ∙+ 0∙(1 − ) +

    Теорема Бернулли.

    Если в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико.

    Другими словами, если ε – сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство

    р | < ε ) = 1.

    Теорема Бернулли утверждает, что при п → ∞ относительная частота стремится по вероятности к р. Коротко теорему Бернулли можно записать в виде:

    Замечание. Последовательность случайных величин Х 1 , Х 2 , … сходится по вероятности к случайной величине Х , если для любого сколь угодно малого положительного числа ε вероятность неравенства | Х n Х | < ε при п → ∞ стремится к единице.

    Теорема Бернулли объясняет, почему относительная частота при достаточно большом числе испытаний обладает свойством устойчивости и оправдывает статистическое определение вероятности.

    Цепи Маркова

    Цепью Маркова называют последовательность испытаний, в каждом из которых появляется только одно из k несовместных событий А 1 , А 2 ,…, А k полной группы, причём условная вероятность р ij (S ) того, что в S -м испытании наступит событие А j (j = 1, 2,…, k ), при условии, что в (S – 1)-м испытании наступило событий А i (i = 1, 2,…, k ), не зависит от результатов предшествующих испытаний.

    Пример. □ Если последовательность испытаний образует цепь Маркова и полная группа состоит из 4 несовместных событий А 1 , А 2 , А 3 , А 4 , причём известно, что в 6-м испытании появилось событие А 2 , то условная вероятность того, что 7-м испытании наступит событие А 4 , не зависит от того, какие события появились в 1-м, 2-м,…, 5-м испытаниях. ■

    Ранее рассмотренные независимые испытания являются частным случаем цепи Маркова. Действительно, если испытания независимы, то появление некоторого определенного события в любом испытании не зависит от результатов ранее произведенных испытаний. Отсюда следует, что понятие цепи Маркова является обобщением понятия независимых испытаний.

    Запишем определение цепи Маркова для случайных величин.

    Последовательность случайных величин Х t , t = 0, 1, 2, …, называется цепью Маркова с состояниями А = { 1, 2, …, N }, если

    , t = 0, 1, 2, …,

    и при любых ( п, .,

    Распределение вероятностей Х t в произвольный момент времени t можно найти, воспользовавшись формулой полной вероятности