- •А.Ю. Крюков, Б.Ф. Потапов
- •Крюков, А.Ю.
- •СОДЕРЖАНИЕ
- •ПРЕДИСЛОВИЕ
- •ВВЕДЕНИЕ
- •1.1. СУЩНОСТЬ И НАЗНАЧЕНИЕ МОДЕЛИРОВАНИЯ
- •1.1.1. Понятие о моделировании и свойства моделей
- •1.1.2. Цели моделирования
- •1.1.3. Виды моделирования и классификация моделей
- •1.2.1. Общие положения и основные определения
- •1.2.2. Структура математической модели и ее построение
- •1.2.3. Иерархия математических моделей
- •1.2.5. Классификация математических моделей
- •1.2.6. Геометрическое представление математических моделей
- •1.3. ЗАКЛЮЧИТЕЛЬНЫЕ ЗАМЕЧАНИЯ
- •2.1. МОДЕЛИ МИКРОУРОВНЯ
- •2.2. МОДЕЛИ МАКРОУРОВНЯ
- •2.2.1. Общая характеристика моделей, их структура и сущность
- •1. Компонентные уравнения
- •2. Топологические уравнения
- •Компонентные и топологические уравнения электрической системы
- •2.2.5. Задания для самостоятельной работы
- •2.3. ЗАКЛЮЧИТЕЛЬНЫЕ ЗАМЕЧАНИЯ
- •3.2.1. Общие принципы моделирования полей
- •3.2.2. Особенности построения моделей
- •3.2.3. Модели стационарных полей
- •3.2.4. Модели нестационарных полей
- •3.2.7. Задание для самостоятельной работы
- •3.3. ЗАКЛЮЧИТЕЛЬНЫЕ ЗАМЕЧАНИЯ
- •4.1.1. Надежность объектов как комплексное свойство
- •4.1.2. Классификация отказов и временные понятия
- •4.3.1. Основные понятия, определения и положения
- •4.3.2. Основные характеристики случайных величин
- •4.4. ПОКАЗАТЕЛИ НАДЕЖНОСТИ
- •4.4.1. Показатели безотказности
- •4.6.1. Общая характеристика и виды моделей
- •4.6.2. Распределения, используемые в теории надежности
- •4.6.3. Композиция законов распределения
- •4.6.4. Задание для самостоятельной работы
- •4.7 ПОТОКИ ОТКАЗОВ И ВОССТАНОВЛЕНИЙ
- •4.8. РАСЧЕТ НАДЕЖНОСТИ ТЕХНИЧЕСКИХ СИСТЕМ
- •4.8.1. Общие положения
- •4.8.2. Модели параметрических отказов
- •5.1. ОСНОВЫ ТЕОРИИ ГРАФОВ И СЕТЕВЫЕ МОДЕЛИ
- •5.1.1. Общие замечания, основные понятия и определения
- •5.1.2. Решение задачи о максимальном потоке
- •5.1.3. Потоки минимальной стоимости
- •5.1.4. Практические примеры сетевых задач
- •5.1.5. Некоторые обобщения по сетевым задачам
- •5.1.6. Альтернативные методы решения сетевых задач
- •5.2.1. Основные положения
- •5.2.2. Структура принятия решения
- •5.2.4. Пример применения классических критериев
- •6.1.1. Постановка задач оптимизации и критерии
- •оптимальности
- •6.1.2. Многокритериальные задачи оптимизации
- •6.1.3. Классификация методов оптимизации
- •6.2. РЕГУЛЯРНЫЕ МЕТОДЫ ОПТИМИЗАЦИИ
- •6.2.1. Методы математического анализа
- •6.2.2. Понятие о вариационном исчислении
- •6.2.3. Принцип максимума Понтрягина
- •6.2.4. Метод динамического программирования
- •6.3. ПРЯМЫЕ МЕТОДЫ ОПТИМИЗАЦИИ
- •6.3.2. Минимаксные стратегии одномерного поиска
- •6.3.4. Многомерные методы безусловной оптимизации
- •6.3.7. Заключение по прямым методам оптимизации
- •7 1. ОБЩИЕ ПОЛОЖЕНИЯ
- •ЗАКЛЮЧЕНИЕ
- •Учебное издание
- •Учебное пособие
4.2.ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
4.3.1.Основные понятия, определения и положения
Предмет изучения теории вероятностей - объективные за кономерности массовых случайных явлений.
Введем некоторые основные определения.
Опыт - это осуществление какого-либо комплекса усло вий, который может быть воспроизведен сколь угодно большое число раз.
Под событием будем понимать результат опыта или на блюдения.
Случайное событие ~ это событие, которое может поя виться или не появиться при проведении опыта, т.е. некоторое событие, которое при заданных условиях может произойти или не произойти.
Случайной величиной (СВ) называется переменная величи на, значения которой зависят от случая, т.е. величина, способная принимать различные случайные значения.
Количественную меру (оценку) объективной возможности осуществления некоторого события при фиксированных усло виях эксперимента называют вероятностью этого события. Можно сказать, что вероятность некоторого события - это ме ра его «благоприятствования».
Отметим, что по принятому в теории вероятности соглаше нию вероятность произвольного события полагается безразмер ной величиной, изменяющейся от 0 до 1. При этом нулевая веро ятность соответствует невозможному событию (которое никогда произойти не моэ/сет), а единичная - достоверному (детермини рованному) событию {которое обязательно произойдет).
Элементарное событие - это событие, которое происхо дит в результате единичного опыта. Составное событие - это совокупность элементарных событий.
Пример. Игральный кубик подбрасывается 2 раза. Пусть составное событие определено следующим образом: «сумма выпавших цифр равна 6». Тогда элементарными будут события: «5 + 1», «4 + 2», «3 + 3», «2 + 4» и «1 + 5».
Генеральной совокупностью называют совокупность со бытий, которые могут быть реализованы в результате бесконеч ного числа однотипных опытов. Выборочной совокупностью или просто выборкой называют совокупность случайно ото бранных событий из генеральной совокупности.
Объемом совокупности называют число событий этой со вокупности.
События будем называть равновозможными, если мера их «благоприятствования» одинакова. В реальных условиях, когда число опытов п конечно, мера «благоприятствования» определя ется не вероятностью, а частотой появления. Пусть событие А наблюдалось в т опытах из п опытов (испытаний). Тогда часто та появления события A W(A) определяется формулой
W(A)= — . |
(4.5) |
п |
|
Если п достаточно велико, то работает одна из предельных |
|
теорем (закон больших чисел - теорема Бернулли): |
|
p(A)~W(A), |
(4.6) |
где р(А) - вероятность события А.
Теорема Бернулли выражает закон статистической устой чивости массовых случайных явлений.
Совместными называются события А и В, которые могут произойти одновременно. Если события одновременно произой ти не могут, то такие события называются несовместными.
Случайная переменная величина X, которая может прини мать любые значения, находящиеся в некотором интервале
[а; Ь\, называется непрерывной.
Дискретной называют случайную величину, которая при нимает отдельные, изолированные значения с определенными вероятностями.
Для описания моделей теории надежности используется математический аппарат как дискретных, так и непрерывных СВ. К дискретным СВ относится число отказов системы, а к не прерывным - временные понятия: моменты возникновения от казов, значения наработки, ресурса технических систем и др.
Вероятность появления какого-либо одного из нескольких несовместимых событий равна сумме вероятностей этих собы тий. Вероятность совместного появления нескольких событий равна произведению вероятностей этих событий, причем если события совершаются последовательно, при вычислении веро ятности каждого события должно учитываться возможное влия ние всех наступивших ранее событий. Например, в ящике нахо дятся 5 черных, 3 белых и 2 красных шара. Вероятность вынуть наудачу белый шар (событие А) равна 0,3; вероятность вынуть красный шар (событие В) равна 0,2; вероятность вынуть белый или красный шар равна 0,3 + 0,2 = 0,5. Вероятность вынуть по следовательно белый и красный шар равна: 0,3 х 0,2 = 0,06, если первый вынутый шар кладется обратно, и 0,3 х (2/9) = 0,067, ес ли вынутый шар не возвращается.
События А и В называются статистически независимы ми, поскольку вероятность их совместного наступления равна произведению вероятностей этих событий: р(АВ)=р(А)р(В). В противном случае события А и В статистически зависимы.
Вероятность события А, найденная при условии, что осуществилось событие В, называется условной вероятно-
стыо события А и обозначается р ( А Л. Аналогично для со
|
|
\В ; |
|
гв^ |
Для статистически независимых событий |
бытия В: р |
||
в) |
= Р(А) и р |
в л =Р(В). |
|
\ A j |
4.3.2. Основные характеристики случайных величин
Для характеристики СВ нужно знать совокупность воз можных значений этой величины, а также вероятности, с кото рыми эти значения могут появляться. Эти данные образуют за кон распределения случайной величины.
Таким образом, закон распределения СВ - это любое пра вило (таблица, функция), позволяющее находить вероятности всевозможных событий, связанных со случайной величиной (например, вероятность того, что она примет такое-то значение или попадет на такой-то интервал).
1. Распределение дискретных случайных величии
Допустим, что случайная величина X может принимать ко нечный набор значений х\, х2,..., х„, каждый раз при испытании ома принимает одно из этих значений с вероятностямир\,р2, —,Рп, оче видно, что
р \ + р 2+ +р„=\. |
(4.7) |
Если вероятностир\, р 2,..., р„ известны, то говорят, что за дано распределение случайной величины X, и что случайная ве личина X задана.
Интегральным законом распределения (или интеграль ной функцией распределения) случайной величины X называ ется функция F(x), равная вероятности того, что случайная
величина |
примет значение, меньшее х: F(x) - р(Х < х). |
Оче |
|
видно, что если набор X], х2..., х„ упорядочен, т.е. x t <х2 <... < х,„ то |
|||
р ( Х < х |) |
= 0, р(х| < Х < х 2) = р и р(х\ < Х < х г) = р\ +р 2, |
|
|
р(х{ < Х < х п) - р \ +р2 + |
+ р„ \. По дополнительному согла |
||
шению принимают р(Х > х„) = 0. График функции F(x) |
для |
||
дискретной СВ имеет ступенчатый вид и схематически изо |
|||
бражен на рис. 4.6. |
|
|
|
На основании вышеизложенного можно выявить следую |
|||
щие основные свойства функции распределения F(x): |
|
||
1) |
функция |
F(x) безразмерная и изменяется |
в предела |
0 < F(x) < 1для всех х\
щ
1«- |
|
|
|
"p l + ‘“ + p 6 |
,— 1 |
||
„ р 1+... + р 5 |
,— I |
||
» P l + - |
+ P 4 |
.---- ' |
|
"Pl+Pl + Рз |
1------ ' |
||
" A |
+ f t |
!------ ' |
|
»Р\ |
,— |
‘ |
|
|
I |
|
|
|
I |
|
|
О X1 Xz X3 X4 X5 X6 X j X
|
Рис. 4.6. Распределение дискретной СВ |
|
|
|
2) F(x) |
- неубывающая функция |
х: если |
х2>хи |
то |
F(x1)>F(x])- |
|
|
|
|
3 ) |
для неограниченной случайной величины, |
т.е. пр |
||
-оо < х < со, F(-со) =р[Х <—оо] = 0; Р(ао) = р[Х < оо] = 1; |
|
|||
4) для |
ограниченной случайной |
величины |
х\ < х < х„ |
|
F(x\) = 0 и F(x„) = 1. |
|
|
|
2. Распределение непрерывных случайных величин
Для непрерывной СВ понятие интегральной функции рас пределения имеет тот же смысл, что и для дискретной. Однако непрерывная величина X может принимать любые значения, на ходящиеся в некотором интервале [а; Ь\, поэтому вероятность того, что она примет какое-либо определенное значение х, равна нулю, так как число возможных случаев бесконечно. Считая, что для каждого малого участка, находящегося на интервале [а; Ь\ допустимых значений переменной X, вероятность попада ния X на этот участок пропорциональна его длине, можно оха рактеризовать случайную величину X, указав вероятность fix)dx того, что x < X < x + dx. Функция fix) называется плотностью распределения вероятностей случайной величины X, или диф ференциальным законом распределения. Из теоремы о сложе
нии вероятностей следует, что вероятность попадания X в ин тервал от JCOдо х\ определяется следующим образом:
F(x) = р(х0 < Х < х,) = \f(x)d x . |
(4.8) |
•'ll |
|
Таким образом, содержательный смыслах) заключается в том, что для всякой точки х е [а; Ъ] и взятого около нее ма лого приращения dx произведение J[x)dx равно вероятности того, что случайная переменная примет значение, заключенное между х и х + dx.
Функция fix) называется дифференциальным законом рас пределения случайной величины и связана с интегральной
функцией F(x) соотношением |
|
д х) =^ М } |
(4.9) |
dx |
|
т.е. является первой производной функции распределения и ха рактеризует скорость ее изменения. В соответствии со свойст вами функции F(x) можно записать ограничение на изменения функции/*) :/* ) > 0.
Для непрерывной СВ, распределенной на интервале [а; Ь], можно записать условие нормировки, аналогичное уравне нию (4.8):
I, |
|
F(b) = Р (а< Х <b)= Jf(x)dx = 1 |
(4.10) |
а |
|
Следовательно, для непрерывной СВ можно найти только область возможных значений, но не конкретное значение.
На рис. 4.7 схематически представлен пример графика ин тегральной функции распределения вероятностей.
Моменты распределения вводятся, как правило, для не прерывных СВ и служат для описания свойств плотности рас пределения. Моменты часто удобны при решении прикладных
задач. Величина
ь
М к = jxkf ( x ) d x , к= ],2, |
(4.11) |
называется к-ы начальным моментом распределения случайной величины X.
Закон распределения, устанавливающий связи ме жду реализациями случай ной величины X или случай ного процесса X(t) и вероят ностями их появления, по зволяет полностью охарак теризовать случайную вели чину и определить ее основ ные характеристики, к кото рым относятся математи ческое ожидание, дисперсия, мода и медиана.
Математическим ожиданием дискретной случайной ве
личины называют сумму произведений всех ее возможных зна чений и их вероятностей.
Математическое ожидание является средневзвешенным значением СВ, в которое каждое значение входит с «весом», равным соответствующей вероятности. Таким образом, матема тическое ожидание представляет собой центр тяжести системы материальных точек, «координаты» которых суть всевозможные значения СВ, а «массы» равны вероятностям этих значений.
Пусть СВ X принимает только значения х\, х2, хп, веро
ятности которых соответственно равны р \,р 2,..., рп• Тогда мате матическое ожидание М(Х) определится формулой
М (Х) = ^ х ,р , |
(4.12) |
/ = 1 |
|
Математическое ожидание может быть оценено как стати стическое среднее по / = 1, 2, ..., п значениям СВ, полученным
расчетом или в результате эксперимента, если все исходы пола гаются равновероятными по всем наблюдениям:
М{Х) =- ^ х г |
(4.13) |
Пых |
|
Для непрерывной СВ х, распределенной на интервале [а; Ъ\ по закону fix), математическим ожиданием является на
чальный момент первого порядка: |
|
ь |
|
М(х) = |:с /(x)dx. |
(4.14) |
Модой случайной величины называется ее наиболее веро ятное значение (то, для которого вероятность достигает макси мума, т.е. функция fix) имеет локальный экстремум). Для непре рывной СВ мода определяется из уравнения
# (* ) _ Q |
(4-15) |
|
dx |
||
|
Если мода единственна, то распределение СВ называют
унимодальным, в противном случае - мультимодальным. Медианой случайной величины X называется такое ее зна
чение х*, для которого р(Х <х*) - р{Х > х*) . Для непрерыв
ной СВ х, распределенной на интервале [а; Ъ] по закону fix), ме диана определяется из уравнения
X\f{x)dx =\ . |
(4.16) |
Квантиль порядка а, ае(0, 1) есть значение ха, для кото рого р(Х < ха) = а и р(ха < X) = а. Медиана является квантилыо
порядка .
На практике часто требуется оценить среднее отклонение возможных значений случайной величины от ее среднего значе
ния. Характеристикой такого отклонения служит дисперсия слу чайной величины.
Дисперсией дискретной СВ называют математическое ожидание квадрата отклонения случайной величины от ее мате матического ожидания:
D(X) = M(X-M(X)f. |
(4.17) |
Для непрерывной случайной величины х, распределенной на интервале [а; Ъ\ по закону fix), дисперсия определяется сле
дующим образом: |
|
J'xf{,x)dx |
(4.18) |
Статистически дисперсия может быть рассчитана по /=1,2, ..., п значениям СВ, полученным расчетом или в резуль тате эксперимента, если все исходы полагаются равновероят ными:
D { X ) = ^ - T { x - M { X ) ) 2 |
(4.19) |
п - \ы \ |
|
Для оценки отклонения возможных значений СВ вокруг ее среднего значения часто используют также среднее квадра тическое отклонение, которое равно квадратному корню из дисперсии:
(4.20)
В настоящее время общепринятым является аксиоматиче ское построение теории вероятностей, базирующееся на аксио мах А.Н. Колмогорова [4, 17], которые основаны на теории множеств. Преимущество такого подхода заключается в ясном выделении математической стороны вопроса.
Аксиоматика Колмогорова базируется на анализе вероят ностного пространства (Q, U, р \ где П - пространство элемен тарных событий (по существу, Q - это достоверное событие);
121