Эссе по теории вероятностей

Предмет: Теория вероятностей
Тип работы: Эссе
Язык: Русский
Дата добавления: 12.07.2019

 

 

 

 

  • Данный тип работы не является научным трудом, не является готовой работой!
  • Данный тип работы представляет собой готовый результат обработки, структурирования и форматирования собранной информации, предназначенной для использования в качестве источника материала для самостоятельной подготовки учебной работы.

Если вам тяжело разобраться в данной теме напишите мне в whatsapp разберём вашу тему, согласуем сроки и я вам помогу!

 

По этой ссылке вы сможете узнать как правильно написать и оформить эссе:

 

Как правильно написать эссе

 

Посмотрите похожие темы возможно они вам могут быть полезны:

 

Эссе в магистратуру по психологии
Эссе по специальной педагогике
Эссе по экономике с примерами
Эссе по менеджменту организации

 

Введение:

Эссе по теории вероятностей

Теория вероятностей является одной из классических областей математики. У нее долгая история. Стохастические и статистические методы в настоящее время глубоко проникают в приложения. Они используются в физике, технике, домохозяйках, биологии и медицине. Их роль особенно возрастает в связи с развитием компьютерных технологий. Например, для изучения физических явлений мы проводим наблюдения и эксперименты.

Результат обычно записывается в виде нескольких наблюдаемых количественных значений. Если вы повторите эксперимент, результаты будут отличаться. Например, повторные измерения одного и того же значения на одном и том же приборе при сохранении определенных условий (температуры, влажности и т. д.) Дадут, по крайней мере, немного другие результаты.

Выполнение нескольких измерений не позволяет точно предсказать следующее измерение. В этом смысле они говорят, что результат измерения является случайным значением. Шанс, случайный шанс, случайный срыв, случайное обнаружение, случайные ошибки. Эта серия может продолжаться до бесконечности. Математика существует уже много лет, и какие законы существуют в сфере возможностей!

Но здесь наука обнаружила интересные закономерности - они позволяют чувствовать себя уверенно при встрече со случайными событиями. Как наука, теория вероятностей началась в 17 веке. Появление концепции вероятности было связано с необходимостью играть в азартные игры и с необходимостью страхования в период, когда торговые отношения и путешествия значительно возросли.

Слово «возбуждение», обычно понимаемое как сильное возбуждение или страсть, является транскрипцией французского слова «опасность», которое буквально означает «случайность» или «риск». Азартные игры - это название игры на выигрыш, которая в основном зависит от навыков игрока, а не от шансов. Схема азартных игр была очень простой и позволила провести всесторонний логический анализ.

Первые попытки такого рода связаны с именами известных ученых-алгебраиков Джерорамо Кардана (1501-1576) и Галилея Галилея (1564-1642). Но честь открытия этой теории, которая позволяет не только сравнивать случайные величины, но и выполнять с ними определенные математические операции, принадлежит Блезу Паскалю (1623-1662) и Пьеру Фермеру.

Даже в древние времена мы заметили, что существуют отличительные явления: небольшое количество наблюдений не показывает их точность, но с увеличением количества наблюдений некоторые закономерности становятся более отчетливыми. Все началось с игры в кости.

Суть теории. Теория вероятностей - это наука, изучающая закон массовых случайных явлений. Этот же закон изучается статистикой только в более узких предметных областях социально-экономических явлений. Существует общая методология и высокая степень взаимосвязи между этими науками.

Почти все выводы, сделанные статистикой, считаются стохастическими. Стохастический характер статистических исследований особенно выражен в селективном методе, так как выводы, полученные из результатов выборки, оцениваются с заданной вероятностью. По мере развития рынка, вероятность и статистика постепенно увеличиваются.

Это особенно верно в управлении рисками, запасами и портфелями ценных бумаг. За рубежом теория вероятностей и математическая статистика очень широко применяются. В Японии распространение и внедрение реальных стохастических методов является актуальным, поскольку они все еще широко используются для контроля качества продукции.

Как уже упоминалось, понятие вероятности события определено для массовых явлений, точнее однородных массовых операций. Однородные массовые операции настроены так, чтобы называться множественными итерациями одной и той же операции или теста. Каждый тест состоит из создания определенного набора условий, которые необходимы для конкретной массовой операции. Как правило, вы должны иметь возможность воспроизводить этот набор условий снова и снова. При случайном бросании игральных костей единственным условием является то, что кости бросаются в стол, а все другие ситуации (начальная скорость, атмосферное давление и температура, окраска стола и т. д.)

Игра в стрельбу многократно стреляет в конкретную цель с определенного расстояния от положения стоя. Каждый выстрел - это проверка операции массового огня при определенных условиях. Если стрелок может менять позиции на разных выстрелах («стоя», «лежа», «от колена»), предыдущие условия значительно изменились и нужно говорить о массовых маневрах стрельбы с определенного расстояния.

Абстракция события. В математике событие - это объект или явление, которое может появляться или не появляться при определенных условиях. Кроме того, создание этих условий является существенной причиной появления ожидаемого явления. Различают невозможное, возможное и надежное событие. Невозможное событие - никогда не появляется в этих условиях (правильнее сказать, что вероятность такого события бесконечно мала). Надежные события - всегда будут отображаться, если существуют соответствующие условия. В этом случае существует четкая причинно-следственная связь между условием и событием.

Возможные события - это те, которые появляются, и те, которые не появляются при одинаковых условиях.

Другими словами, создание условия в этом случае не гарантирует, что событие произойдет. Это указывает на неоднозначное или косвенное прямое следствие между состоянием и ожидаемым событием. При изучении возможных событий понятие частоты таких событий возникает между повторными наблюдениями. Частота событий - это количество событий, которые могут произойти при определенных условиях. Очевидно, это число f = 0,1,2,3,..., n. Где f - спецификация частоты, а n - максимально возможное значение. Также ясно, что если f = n, событие достоверно, то есть оно всегда происходит. Частота - это простая, с низкой точностью мера способностей.

Более точной мерой вероятности того, что событие произойдет, является относительная частота (частота) -p = f / n 0 ≤ f ≤ n, так что 0 ≤ p ≤ 1, где n - общее количество наблюдений или испытаний. (Иногда называется случайностью) f - количество возможных событий, которые произошли. 3. Наиболее точным показателем статистической разрешимости вероятности является ограничение относительной частоты (частоты) при неограниченном увеличении количества тестов. Это называется статистической вероятностью. P = lim (m / n) n → ∞. Это определение чисто теоретическое. На практике невозможно увеличить количество тестов без ограничений.

Хорошо известные комбинации комбинаций часто используются для расчета количества основных результатов, которые составляют событие в классической схеме. Каждая комбинационная формула основана на конкретном идеализированном эксперименте путем случайного выбора m элементов из n различных элементов исходного набора E = {e1, e2, ..., en} Определить общее количество При постановке каждого такого эксперимента указывается точный метод отбора и значение различных образцов. Существуют две принципиально разные схемы выбора: в первой выбор производится без возврата каких-либо элементов (т. е. Либо m элементов выбираются все сразу, либо выбирается один элемент за раз) .

Каждый выбранный элемент исключается из исходного набора). Во второй схеме выбор производится поэлементно, и на каждом шаге выбранный элемент принудительно возвращается назад, и начальный набор полностью перемешивается перед следующим выбором. После того, как выбор сделан каким-либо образом, выбранные элементы (или их номера) можно упорядочить (т.е. выложить в непрерывную цепочку). В результате мы получаем следующие четыре различные настройки для эксперимента, который случайным образом выбирает m элементов из общего числа n различных элементов в наборе E. A.

Схемы выбора, приводящие к комбинациям Подмножество элементов набора E с различными конфигурациями. Результирующая комбинация элементов (результат элемента) называется n-комбинацией элементов m, а общее число N (W) определяется по следующей формуле: Cmn = n! / [М! (N-м)! ] = N (n-1) ... (n-m + 1) / m! Для числового Cmn, также называемого биномиальным коэффициентом, следующая идентификация действительна и часто помогает решить проблему. Cmn = Cn-mn (свойство симметрии), Ckn + 1 = Ckn + Ck-1n; C0n = 1 (отношение регрессии), C0n + C1n + ... + Cnn = 2n (биноминальный результат Ньютона).

Набор E содержит первые 10 букв русского алфавита. Сколько трехбуквенных алфавитов может состоять из определенного набора символов? Насколько вероятно, что буква «а» будет включена в случайно выбранный алфавит? Решение Количество различных алфавитов равно количеству 3 подмножеств элементов из набора E (количество комбинаций из 10 элементов по 3 в каждой): N (W) = C310 = 10 x 9 x 8 / (1 x 2 x 3) = 120 Пусть событие А будет произвольно выбранным алфавитом из трех букв, включая букву «а».

Количество элементов в наборе A равно числу всех возможных способов выбора от 2 до 9 символов (буква «a» исключается из 10 символов). Равно числу 9 комбинаций элементов 2: N (A) = C29 = 9 x 8/2 = 36. Следовательно, P (A) = N (A) / N (W) = 36/120 = 0,3. B. Схема выбора, ведущая к размещению. Эксперимент состоит из выбора m элементов без возврата, но если вы упорядочите их в порядке, выбранном в последовательной цепочке, различными результатами этого эксперимента будет набор E Их продолжение упорядочено либо подмножеством элементов, набором элементов или порядком.

Результирующая комбинация элементов (результат элемента) называется расположением n элементов относительно m, Общее число N (W) определяется по следующей формуле: Amn = Cmn x m! = п! / (Н-м)! = n (n-1) ... (n-m + 1). Если n = m, эксперименты фактически строятся в любом порядке множества E. Сводится к случайной перестановке элементов во всем наборе. Далее N (W) = Ann = n! Пример 2. Группа из восьми человек проходит за круглым столом в случайном порядке. В этом случае, насколько вероятно, что два конкретных человека сидят рядом? Решение. N (W) = A88 = 40320, потому что весь набор из восьми элементов упорядочен.

Если два отмеченных лица сидят бок о бок, то при таком расположении предпочтительнее событие А: пара из восьми смежных мест за круглым столом. Двумя способами оставшиеся 6 человек произвольно размещаются в местах отдыха, так что согласно формуле числа элементов прямого произведения множества N (A) = 2 x 8 x 6! Следовательно, P (A) = N (A) / N (W) = 2/7.

Эксперимент схемы выбора, приводящий к итерационной комбинации, состоит из выбора, который возвращает m элементов множества E = {e1, e2, ..., en}, но если нет последующего упорядочения, различные m Наборы элементов различаются по составу, что приводит к различным результатам таких экспериментов. В этом случае отдельные наборы могут содержать повторяющиеся элементы. Например, если m = 4, наборы {e1, e1, e2, e1} и {e2, e1, e1, e1} неразличимы в этом эксперименте, а набор {e1, e1, e3, e1} является предыдущим Отличается от Комбинации, полученные в этом эксперименте, называются повторяющимися комбинациями, а общее количество определяется по формуле N (W) = Cmn + m-1.

В библиотеке есть книги по 16 разделам науки. Я получил следующие четыре заказа на литературу. Учитывая, что любой состав заказанной литературы одинаково возможен, найдите вероятность следующего события. Электронные книги были заказаны из различных отделов науки, а B-книги были заказаны из того же раздела науки.

Решение. Число всех одинаково вероятных результатов этого эксперимента явно равно количеству комбинаций с 16-элементным повторением 4. N (W) = C416 + 4-1 = C419. P (A) = N (A) / N (W) = C416 / C419 », потому что количество результатов, приводящих к событию A, равно числу способов выбрать 4 элемента из 16 без возврата это 0,47.

Количество результатов в пользу события B равно числу способов выбора одного элемента из 16, поэтому P (A) = N (A) / N (W) = C116 / C419 19 0,004. D. Схемы выбора, приводящие к повторяющимся расположениям E = {e1, e2, ..., en} Если выбор m элементов выполняется путем их возврата в цепочку и упорядочения, Наборы элементов дадут разные результаты. (Как правило, повторяется), состав элементов или их порядок. Например, если m = 4, наборы {e1, e1, e2, e1}, {e2, e1, e1, e1} и {e1, e1, e3, e1} являются различными результатами этого эксперимента.

Различные возникающие комбинации называются конфигурациями, называемыми итерациями, и их общее количество определяется по формуле N (W) = nm. Пример 4. Опыт состоит из четырех альтернатив, которые возвращают любую из букв алфавита E = {a, b, k, o, m}, раскладывая слова в том порядке, в котором они получают буквы. В результате, насколько вероятно выложить слово «мать»? Решение.

Количество элементов в наборе, а также возможный результат равны количеству аранжировок с повторением 5 элементов по 4.

N (W) = 54. Слово «мама» соответствует только одному возможному исходу. Таким образом, P (A) = N (A) / N (W) = 1/54 "0,0016. E. Упорядоченная схема разбиения: построить множество E с m различными элементами. Установите E как Рассмотрим случайное разбиение на подмножества E1, E2, ..., Es разумным образом: множество Åi содержит ровно ni элементов (i = 1, 2, ... Множество Ei упорядочено по количеству элементов ni.

Число всех основных результатов этого эксперимента определяется формулой N (W) = n! / (N1! × n2! × ... Xns!) Пример 10 Десять человек, включая Петрова и Иванова, размещаются в отеле с двумя трехместными номерами и одним четырехместным номером. Сколько существует способов их размещения? Какова вероятность того, что Петров и Иванов окажутся в четырехместном номере? Решение: разделы для этого эксперимента: s = 3, n = 10, n1 = 3, n2 = 3, Характеризуется n3 = 4 параметрами, тогда N (W) = 10! / (3! × 3! × 4!) = 4200. Событие А-Петров и Иванов помещаются в одну четырехместную комнату.

Благоприятный результат для события A соответствует перегородкам s = 3, n = 8, n1 = 3, n2 = 3, n3 = 2, тогда N (A) = 8! / (3! × 3! × 2!) = 560. Требуемая вероятность: P (A) = N (A) / N (W) = 560/4200 = 2/15. 4. Классическое определение вероятности. Улучшение формулировки заняло много времени, но не в результате действия А. Классическое определение вероятности было создано в результате изучения Основания и Петти. Понятие частоты, количества опытов С другой стороны, это событие смогло сделать реальные выводы во всех проведенных экспериментах, но, учитывая цифры, исследователи оставались неуверенными.

Это будет. Классическое определение вероятности (очень неполный формат), впервые появился в «Искусство предположений» из J.Bernoulli (1713). В главе 1 части 4 этой книги он написал: «Вероятность - это определенная степень уверенности, которая отличается от нее в целом». Дж. Бернулли включил в эту формулировку современный смысл. Как указывают его последующие слова: «Если безусловная достоверность обозначена, например, буквой α или 1 (единица измерения), три подходят для существования или реализации события. Но в остальном это нехорошо, но событие называется надежным 3α / 5 или 3/5.

В будущем он напишет об отношении числа благоприятных случаев к числу всех возможных случаев, Хотя эти случаи предполагают, что это также возможно, они явно не заявляют об этом, и это утверждение показывает, что у Бернулли также было статистическое понятие вероятности. Мы ввели и использовали концепцию вероятности события в виде числа от 0 до 1. Надежные события относятся к 1 (максимум) и невозможным событиям (ноль (минимум)). Можно определить двумя способами:

  1. Отношение числа случаев, благоприятных для конкретного события, к числу всех одинаково возможных случаев.
  2. Частота события при выполнении большого количества независимых тестов. Можно сказать, что история теории вероятностей начинается с момента 5. Геометрическая вероятность В 1692 году в Лондоне был опубликован английский перевод книги Г. Гюйгенса «Об азартных вычислениях». Иного характера, чем рассмотренный автором. Проблема с Arbuthnot была: Кубоид с ребрами, равными a, b и c, случайно выбрасывается на плоскость. Как часто коробка падает с вашего лица? Решением этой проблемы является Т. Это описано в Симпсоне (1710-1761), законе природы и несчастного случая (1740).

Он предложил следующее решение. Напишите сферу около коробки и спроецируйте все ребра, стороны и основание от центра к ее поверхности. В результате поверхность сферы делится на шесть непересекающихся областей, соответствующих граням параллелепипеда. Симпсон резюмирует: «Определенная часть сферы, ограниченная, таким образом, траекторией, описываемой радиусом, имеет такое же отношение к общей площади поверхности, как и вероятность того, что определенная грань будет соответствовать. Это легко заметить». Вышесказанное полностью описывает принцип нахождения геометрических вероятностей.

Вводятся меры множества случаев в пользу события и учитывается их связь с измерениями множества всех возможных случаев. В этом случае все измерения сводятся к площади поверхности шара. Работа, опубликованная дважды французским натуралистом Буффоном (1707-1788), членом Парижской академии наук (1733) и почетным членом Петербургской академии наук (1766), геометрическая вероятность (1733.1777). Числа (прямоугольники), монеты подброшены на пол, их диаметр на 2р меньше каждой стороны прямоугольника, и монеты полностью размещены внутри фигуры.

Какова вероятность того, что случайно перевернутые монеты пересекут одну или две стороны диаграммы? Иглы случайным образом выбрасываются на плоскость, разрезанную равноотстоящими параллельными линиями. Один игрок утверждает, что стрелка пересекает одну прямую линию, а другой - нет. Определите вероятность выигрыша каждого игрока; Тот же вопрос, если игла была брошена в самолет и разбита на квадраты. После Буффона вопрос о геометрической вероятности стал систематически включаться в монографии и учебники по теории вероятностей.

Алгебраическая теория регулярности событий, случайная вероятность, аксиоматическое определение вероятности.

Более точное математическое определение вероятности является более аксиоматическим определением, чем классическое определение. Здесь событие считается элементом некоторого конечного или бесконечного множества Ω. Для простоты возьмем конечное множество Ω = (w1, w2, ..., wn). wi является элементом множества Ω. Это множество Ω называется базовым пространством событий, а его элемент wi называется базовым событием. Рассмотрим подмножество F (Ω) со свойством ΩЄF. Событие Ө-Обозначает пустой набор как невозможное событие ӨЄF (Ω). Далее несовместимые события A и B определяются как A∩B = Ө, где ∩ - знак объединения множества, а U - подавление множества.

F называется алгеброй такого множества F-событий. Вероятность события A называется такой числовой функцией P (A), которая определяется алгеброй события F, и справедлива следующая аксиома: Для AЄF P (A) ≥0 является истинно неотрицательной аксиомой. P (Ω) = 1 - аксиома нормы. Если AЄF и BЄF не совместимы (то есть A∩B = Ө), то P (AUB) = P (A) + P (B) является аддитивной аксиомой.

Какова вероятность официальных событий Байеса A и B: P (A) и P (B). А какова условная вероятность события A для каждого B: P (A | B). Как найти условную вероятность P (B | A) формула Байеса отвечает на этот вопрос. P (B | A) = P (A | B) · P (B) / P (A) (1) Конечно, эта формула может использоваться только при условии P (A) 0. Формула Байеса выводится из следующего уравнения: P (BA) = P (B | A) · P (A) (2) P (AB) = P (A | B) · P (B) ( 3) P (BA) = P (AB) (4) Общая часть событий B и A, очевидно, не зависит от порядка записи A и B, то есть BA = AB. Когда P (A) = 0, я обычно принимаю, что P (B | A) является неопределенной величиной.

Полная формула вероятности. Предположим, что существует полная группа непересекающихся событий для каждых n пар. Другими словами, (6) найти условную вероятность конкретного события A из Ei: P (A | Ei) и вероятность P (Ei), i = 1, ..., n. Следующая формула для полной вероятности верна для события A P (A) = P (A | E1) · P (E1) + ... + P (A | En) · P (En) (7). P (A) = P () = P (A (Ei)) = P (AE1) + ... + P (AEn) = P (A | E1) · P (E1) + ... + P (A | En) P (En) (8) Из элементарного уравнения Байеса (1) и уравнения для полной вероятности (7), тем более полное уравнение Байеса P (Ei | A) = P (A | Ei) Ei) / (P (A | E1) · P (E1) + ... + P (A | En) · P (En)).

События, которые не являются полностью совместимыми по группам Событие, которое происходит. Нет опыта Например, невозможно потерять две грани куба за один бросок. Полная группа событий - это набор несовместимых событий одного типа, одно из которых является обязательным. В примере с использованием игральных костей полная группа событий приведет к потере каждой из шести граней. Согласно классическим и аксиоматическим определениям вероятности вероятность любого случайного события A составляет 0 <P (A) <1.

Граничные значения 0 и 1 определяют неслучайные события - они делятся следующим образом: невозможно- (P (A) = 0 или P (Ө) = 0) - при этих условиях Инициирование ненадежно - (P (A) = 1) - Инициация обязательна при этих условиях. Для несовместимых событий вы можете легко определить вероятность объединения (суммирования) событий. Если Аifor iЄ (1, n) является несовместимым событием, общая вероятность события Аi равна сумме удельных вероятностей. P (A1 + A2 +, ..., + An) = P (A1) + P (A2) + ... + P (An) 9.

Если возникновение события A не влияет на вероятность, событие A Вызывается независимо от события B. Событие B происходит. Вероятность двух независимых событий, происходящих одновременно, равна произведению вероятностей этих событий. P (AB) = P (A) * P (B) или P (A1, A2, ..., An) = P (A1) * P (A2) * ... * P (An) независимость события В то же время, если есть два возможных события, вероятность суммы двух независимых событий A и B более точно определяется следующим образом: P (A + B) = P (A) + P (B). ) -P (AB), где P (AB) - вероятность совпадения

Нетрадиционные события. События Безусловные события рассматриваются вне определенных условий и легко обозначаются буквами A, B, C и т. д. Условные события - считаются, когда происходят другие события. Они обозначены событием A, например, когда происходит событие A / B B. Условная вероятность события A при возникновении события B может быть найдена следующим образом: P (A / B) = P (AB) / P (B), если P (B) ≠ 0, события A и B , C называется независимой, если безусловная вероятность равна условной вероятности: P (A) = P (A / B) = P (A / C) = P (A / BC) P ( B) = P (B / A) = P (B / C) = P (B / AC) P (C) = P (C / A) = P (C / B) = P (C / AB) Государство называется событием независимости. Если это условие нарушается, событие является зависимым. Чем больше разница, тем больше зависимость. Если по соглашению вы рассматриваете вероятность объединения двух продуктов (продуктов), то есть принимаете, что событие A происходит, когда происходит событие B, вероятность объединения описывается двумя способами. Вы можете: P (AB) = P (A) * P (B / A) P (AB) = P (B) * P (A / B).

Если вы берете 3 события, вы можете записать вероятность их комбинации. Количество методов увеличивается до 12 и так далее. Понятие случайных величин. Случайная переменная - это величина, значение которой является результатом преобразования или измерения и не может быть четко определено условиями, при которых она происходит. То есть случайная величина - это числовое случайное событие. Случайные величины делятся на два класса. Дискретные случайные величины - значения этих величин являются натуральными числами и сравнивают частоту и вероятность как отдельные события. Непрерывные случайные величины значения из определенного интервала (интервала), которые могут принимать любое значение. Если между X1 и X2 существует бесконечное число чисел, вероятность того, что случайная величина XiЄ (X1, X2) примет конкретное значение, будет бесконечно мала.

Поскольку невозможно перечислить все значения непрерывной случайной величины, мы фактически используем среднее значение интервалов (X1, X2). Для дискретной случайной величины функция y = P (x), называемая функцией распределения случайной величины, существует граф, называемый многоугольником распределения. Различают следующие группы числовых свойств: свойства местоположения (математические ожидания, моды, медианы, квантили и т. д.).

Дисперсии (дисперсии, стандартные отклонения и т. д.), Формы плотности распределения (асимметрия, избыток и т. д). Математическое ожидание (среднее по всему распределению) представляет собой действительное число, определяемое по следующей формуле в зависимости от типа CB X: mX = M [X] = свойство математического ожидания: M [C] = C. С является константой. M [C × X] = C × M [X]; M [X + Y] = M [X] + M [Y], любые CB X и Y; M [X × Y] = M [X] × M [Y] + KXY, где KXY = M [] - ковариация CB X и Y. K-й начальный момент (k = 0, 1, 2, ...) распределения CB X называется действительным числом, определяемым по формуле: nk = M [Xk] = k-й порядок распределения CB X. Центральный момент - это число, определяемое по формуле: mk = M [(X-mX) k].

Из определения момента, в частности: n0 = m0 = 1, n1 = mX, m2 = DX = sX2. Режим SWNT определяется как максимум PR f (x), где действительное число Mo (X) = x *. Режим может иметь одно значение (унимодальное распределение) или несколько значений (мультимодальное распределение). Срединное значение SWNT является действительным числом Me (X) = x0 и удовлетворяет условию P {X <x0} = P {X³x0} или F (x0) = 0,5. Квантиль на уровне p является вещественным tp, удовлетворяющим формуле F (tp) = p. В частности, из определения медианы x0 = t0,5.

Дисперсия CB X является неотрицательным числом D [X] = DX и определяется уравнением. Характеристики дисперсии: D [C] = 0, где C - постоянная величина. D [C × X] = C2 × D [X]; D [X-C] = D [X], дисперсия, очевидно, не изменяется от смещения CB X. D [X + Y] = D [X] + D [Y] + 2 × KXY, где KXY = M - ковариация CB X и Y. Неотрицательное число sX = называется стандартным отклонением CB X. Определяет стандартный среднеквадратичный интервал рассеяния стандарта с размерами CBX и симметричным относительно математических ожиданий.

(Значение sX иногда называют стандартным отклонением). CB X называется стандартизированным, если mX = 0 и sX = 1. Если X = const (то есть X не является случайным), то D [X] = 0. Индекс PR-асимметрии является фактором асимметрии («асимметрии») распределения. А = м3 / с3Х. Индекс эксцесса PR является коэффициентом эксцесса («пик») распределения. E = (m4 / s4X) -3. В частности, для нормального распределения E = 0. Упорядоченный набор из n случайных величин (CB) X1, X2, ..., Xn, рассматриваемых вместе в этом эксперименте, называется n-мерным CB или случайным вектором, и = (X1, X2, ..., Xn).

N-мерная функция распределения случайных векторов (DF) - это функция от n действительных переменных x1, x2, ..., xn, определяемая как вероятность того, что n неравенств будет выполнено одновременно: F (x1, x2, ... xn) = P {X1 <x1, X2 <x2, ..., Xn <xn}. В частности, для двумерного случайного вектора (X, Y) определение DF дает F (x, y) = P {X <x, Y <y}. DF F (x, y) обладает следующими свойствами: 10 £ F (x, y) £ 1; 2 F (x, y) - неубывающая функция аргументов. 3. 4. Свойство 4 обычно называют условием согласованности.

Таким образом, DF отдельных компонентов случайного вектора можно найти, перейдя от совместной функции распределения этих компонентов к пределу. Вероятность того, что случайная точка на плоскости (X, Y) попадет в прямоугольник со сторонами, параллельными осям, можно рассчитать с помощью DF по следующей формуле: P {x1 £ X <x2, y1 £ Y <y2} = F (x1, y1) + F (x2, y2) -F (x1, y2) -F (x2, y1). Двумерный случайный вектор (X, Y) называется дискретным случайным вектором (SVDT), если набор возможных значений G (x, y) меньше или равен счетному.

Правило распределения может быть задано двумерной таблицей из списка возможных значений пар компонентов {(xi, yi) | (xi, yi) ÎG (x, y)} и каждой пары вероятностей pij, которая удовлетворяет условию = P {X = xi, Y = yj} Двумерный случайный вектор (X, Y) называется непрерывным случайным вектором (CBNT), называемым функцией плотности вероятности случайного вектора (PR), следующим образом Если существует неотрицательная функция f (x, y): f (x, y) =, то F (x, y) =. Вероятность PR имеет следующие свойства: f (x, y) ³0, (x, y) ÎR2; - условие нормализации.

Вероятности PR для отдельных компонентов случайного вектора определяются как Интеграция плотности соединения: f (x) = f (y) =. Вероятность того, что случайная точка попадет в любую квадратную область S на плоскости, определяется по формуле P {(X, Y) ÎS} =. Условная плотность распределения вероятностей случайной компоненты X называется функцией f (x / y) действительной переменной x ∆ R, если компонент Y принимает конкретное значение y: f (x / y) = f ( х, у) / f (у).

Условная плотность распределения вероятностей случайной компоненты Y определяется аналогичным образом, если компонент X имеет конкретное значение x: f (y / x) = f (x, y) / f (x). CB X1, X2, ..., Xn называются (агрегированными) независимыми, если событие {XiÎBi}, i = 1, 2, ..., n. B1, B2, ... строк, уравнение выполняется: P {X1ÎB1, X2ÎB2, ... XnÎBn} = P {X1ÎB1} × P {X2ÎB2} × ... × P {XnÎBn}. Теорема: CB X1, X2, .... Xn независима, только если уравнение выполнено в любой точке x = (x1, x2, ..., xn): F (x1, x2 ,. .., xn) = F (x1) × F (x2) × ... × F (xn) (или f (x1, x2, ..., Xn) = f (x1) × f (x2) ×. .. × f (xn)). Для двумерных случайных векторов (X, Y) введены следующие числовые свойства:

Начальный момент порядка r + s случайного вектора (X, Y) представляет собой действительное число nr, s, определяемое как nr, s = M [Xr Ys] = Если в правой части уравнения есть интеграл (соответственно), то начальный момент nr, s сходится абсолютно. В частности, nr, 0 = M [Xr] - соответствующий начальный момент компонента X. Вектор с неслучайными координатами (mX, mY) = (n1,0, n0,1) называется случайным вектором (X, Y) или математическим ожиданием центра рассеяния. Центральный момент порядка r + s случайного вектора (X, Y) представляет собой действительное число mr, s, определяемое уравнением mr, s = M [(X-mX) r (Y-mY) s].

Абсолютная сходимость в правой части уравнения (каждая серия). Вектор с неслучайными координатами (DX, DY) = (m2,0, m0,2) называется случайной векторной дисперсией. Центральный момент m1,1 называется корреляционным моментом (ковариацией): KXY = M [] = M [(X-mX) x (Y-mY)] = M [XY] -mX mY. Коэффициент корреляции двух случайных компонент X и Y случайного вектора представляет собой нормированную ковариацию rXY = KXY / (sXsY). Свойства ковариантности (и коэффициенты корреляции): KXX = DX, KYY = DY, (rXX = rYY = 1); = KYX, (rXY = rYX); | KXY | £, (| rXY | £ 1).

Момент ковариации и коэффициент корреляции определяют степень линейной зависимости между X и Y. = 1 CB Необходимо и достаточно, чтобы X и Y были связаны линейной зависимостью X = a x Y + b. Где а и б постоянные. CB с KXY = 0 (rXY = 0) называется некоррелированным. Независимость случайных величин X и Y подразумевает их декорреляцию (вообще говоря, обратное неверно).

Если Y принимает одно из возможных значений yj, условное ожидаемое значение компонента X является действительным числом, определяемым следующей формулой: mX / Y = M [X / Y = yj] =, где P {X = xi / Y = yj} =, pij = P {X = xi, Y = yj}. Если Y принимает одно из возможных значений yj, условная дисперсия компонента X является действительным числом, определяемым как: DX / Y = D [X / Y = yj] = двумерный случайный вектор Приведенные выше уравнения для числовых свойств могут быть легко обобщены на n-мерные случайные векторы (X1, X2, ..., Xn).

Так, например, вектор с неслучайными координатами (m1, m2, ..., mn). mi - выражение i = M [Xi] =, ковариационная матрица n-мерного случайного вектора = (X1, X2, ..., Xn) называется симметричным вектором. Его элементами являются ковариации пар соответствующих компонент случайного вектора. Очевидно, что Kii = M [Xi2] является дисперсией i-го компонента. N-мерная матрица корреляции случайных векторов - это симметричная матрица, состоящая из коэффициентов корреляции пар соответствующих компонентов случайного вектора. C =, rij = - коэффициенты корреляции i-й и j-й компонент.

Заключение

Таким образом, после изучения теории вероятностей, ее истории, ее местоположения и потенциала, возникновение этой теории не является совпадением науки, и технологии и кибернетики не существует, поскольку существующее управление программами не может поддерживать создание человека. Кибернетическая машина, которая мыслит независимо, как человек, может быть объяснена необходимостью дальнейшей разработки устройства. И именно теория вероятностей может способствовать возникновению искусственного интеллекта.

«Процесс контроля происходит везде, где бы он ни происходил - организмы, механизмы или общество - в соответствии с теми же законами», - заявил Кибернетика. А это означает, что процессы, которые происходят в голове человека и могут гибко адаптироваться к изменяющимся условиям, могут быть искусственно воспроизведены на сложных автоматизированных устройствах, даже если они еще не полностью поняты. вы. Наиболее важным понятием в математике является понятие функции, но в большинстве случаев одно значение аргумента соответствует только одному значению функции, и функциональные отношения между ними четко определены, Это была функциональная проблема.

Однако на практике случаются случайные события, и многие события имеют неопределенные характеристики соединения. Поиск закономерностей случайных явлений является задачей теории вероятностей, областью математики. Вероятность - это инструмент для изучения скрытых и неясных взаимосвязей различных явлений во многих областях науки, техники и экономики. Теория вероятностей надежно рассчитывает изменения в предложении, спросе, цене и других экономических показателях. Теория вероятностей также является основой науки, такой как статистика. Так называемая теория игр основана на формулах этого раздела математики.