Формула полной вероятности. Теория вероятности: формулы и примеры решения задач

Понимаю, что всем хочется заранее знать, как завершится спортивное мероприятие, кто одержит победу, а кто проиграет. Обладая подобной информацией, можно без страха делать ставки на спортивные мероприятия. Но можно ли вообще и если да, то как рассчитать вероятность события?

Вероятность – это величина относительная, поэтому не может с точностью говорить о каком-либо событии. Данная величина позволяет проанализировать и оценить необходимость совершения ставки на то или иное соревнование. Определение вероятностей – это целая наука, требующая тщательного изучения и понимания.

Коэффициент вероятности в теории вероятности

В ставках на спорт есть несколько вариантов исхода соревнования:

  • победа первой команды;
  • победа второй команды;
  • ничья;
  • тотал.

У каждого исхода соревнования есть своя вероятность и частота, с которой данное событие совершится при условии сохранения начальных характеристик. Как уже говорили ранее, невозможно точно рассчитать вероятность какого-либо события – оно может совпасть, а может и не совпасть. Таким образом, ваша ставка может как выиграть, так и проиграть.

Точного 100% предугадывания результатов соревнования не может быть, так как на исход матча влияет множество факторов. Естественно, и букмекеры не знают заранее исход матча и лишь предполагают результат, принимая решение на своей системе анализа и предлагают определенные коэффициенты для ставок.

Как посчитать вероятность события?

Допустим, что коэффициент букмекера равен 2. 1/2 – получаем 50%. Получается, что коэффициент 2 равен вероятности 50%. По тому же принципу можно получить безубыточный коэффициент вероятности – 1/вероятность.

Многие игроки думают, что после нескольких повторяющихся поражений, обязательно произойдет выигрыш — это ошибочное мнение. Вероятность выигрыша ставки не зависит от количества поражений. Даже если вы выбрасываете несколько орлов подряд в игре с монеткой, вероятность выбрасывания решки останется прежней – 50%.

как онтологическая категория отражает меру возможности возникновения какого-либо сущего в каких-либо условиях. В отличие от математических и логической интерпретации этого понятия онтологическая В. не связывает себя с обязательностью количетвенного выражения. Значение В. раскрывается в контексте понимания детерминизма и характера развития в целом.

Отличное определение

Неполное определение ↓

ВЕРОЯТНОСТЬ

понятие, характеризующее количеств. меру возможности появления нек-рого события при определ. условиях. В науч. познании встречаются три интерпретации В. Классическая концепция В., возникшая из математич. анализа азартных игр и наиболее полно разработанная Б. Паскалем, Я. Бернулли и П. Лапласом, рассматривает В. как отношение числа благоприятствующих случаев к общему числу всех равновозможных. Напр., ири бросании игральной кости, имеющей 6 граней, выпадение каждой из них можно ожидать с В., равной 1/6, т. к. ни одна грань не имеет преимуществ перед другой. Подобная симметричность исходов опыта специально учитывается при организации игр, но сравнительно редко встречается при исследовании объективных событий в науке и практике. Классич. интерпретация В. уступила место статистич. концепции В., в основе к-рой лежат действит. наблюдения появления нек-рого события в ходе длит. опыта при точно фиксированных условиях. Практика подтверждает, что чем чаще происходит событие, тем больше степень объективной возможности его появления, или В. Поэтому статистич. интерпретация В. опирается на понятие относит. частоты, к-рое может быть определено опытным путем. В. как теоретич. понятие никогда не совпадает с эмпирически определяемой частотой, однако во мн. случаях она практически мало отличается от относит. частоты, найденной в результате длит. наблюдений. Многие статистики рассматривают В. как «двойник» относит. частоты, к-рая определяется при статистич. исследовании результатов наблюдений

или экспериментов. Менее реалистичным оказалось определение В. как предела относит. частот массовых событий, или коллективов, предложенное Р. Мизесом. В качестве дальнейшего развития частотного подхода к В. выдвигается диспозиционная, или пропенситивная, интерпретация В. (К. Поппер, Я. Хэккинг, М. Бунге, Т. Сетл). Согласно этой интерпретации, В. характеризует свойство порождающих условий, напр. эксперимент. установки, для получения последовательности массовых случайных событий. Именно такая установка порождает физич. диспозиции, или предрасположенности, В. к-рых может быть проверена с помощью относит. частот.

Статистич. интерпретация В. доминирует в науч. познании, ибо она отражает специфич. характер закономерностей, присущих массовым явлениям случайного характера. Во многих физич., биологич., экономич., демографич. и др. социальных процессах приходится учитывать действие множества случайных факторов, к-рые характеризуются устойчивой частотой. Выявление этой устойчивой частоты и количеств. ее оценка с помощью В. дает возможность вскрыть необходимость, к-рая прокладывает себе путь через совокупное действие множества случайностей. В этом находит свое проявление диалектика превращения случайности в необходимость (см. Ф. Энгельс, в кн.: Маркс К. и Энгельс Ф., Соч., т. 20, с. 535-36).

Логическая, или индуктивная, В. характеризует отношение между посылками и заключением недемонстративного и, в частности, индуктивного рассуждения. В отличие от дедукции, посылки индукции не гарантируют истинности заключения, а лишь делают его в той или иной степени правдоподобным. Это правдоподобие при точно сформулированных посылках иногда можно оценивать с помощью В. Значение этой В. чаще всего определяется посредством сравнит. понятий (больше, меньше или равно), а иногда и численным способом. Логич. интерпретацию часто используют для анализа индуктивных рассуждений и построения различных систем вероятностных логик (Р. Карнап, Р. Джефри). В семантич. концепции логич. В. часто определяется как степень подтверждения одного высказывания другими (напр., гипотезы ее эмпирич. данными) .

В связи с развитием теорий принятия решений и игр все большее распростраиение получает т. н. персоналистская интерпретация В. Хотя В. при этом выражает степень веры субъекта и появление нек-рого события, сами В. должны выбираться с таким расчетом, чтобы удовлетворялись аксиомы исчисления В. Поэтому В. при такой интерпретации выражает не столько степень субъективной, сколько разумной веры. Следовательно, решения, принимаемые на основе такой В., будут рациональными, ибо они не учитывают психологич. особенностей и склонностей субъекта.

С гносеологич. т. зр. различие между статистич., логич. и персоналистской интерпретациями В. состоит в том, что если первая дает характеристику объективным свойствам и отношениям массовых явлений случайного характера, то последние две анализируют особенности субъективной, познават. деятельности людей в условиях неопределенности.

ВЕРОЯТНОСТЬ

одно из важнейших понятий науки, характеризующее особое системное видение мира, его строения, эволюции и познания. Специфика вероятностного взгляда на мир раскрывается через включение в число базовых понятий бытия понятий случайности, независимости и иерархии (идеи уровней в структуре и детерминации систем).

Представления о вероятности зародились еще в древности и относились к характеристике нашего знания, при этом признавалось наличие вероятностного знания, отличающегося от достоверного знания и от ложного. Воздействие идеи вероятности на научное мышление, на развитие познания прямо связано с разработкой теории вероятностей как математической дисциплины. Зарождение математического учения о вероятности относится к 17 в., когда было положено начало разработке ядра понятий, допускающих. количественную (числовую) характеристику и выражающих вероятностную идею.

Интенсивные приложения вероятности к развитию познания приходятся на 2-ю пол. 19- 1-ю пол. 20 в. Вероятность вошла в структуры таких фундаментальных наук о природе, как классическая статистическая физика, генетика, квантовая теория, кибернетика (теория информации). Соответственно вероятность олицетворяет тот этап в развитии науки, который ныне определяется как неклассическая наука. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Теорию вероятностей обычно определяют как математическую дисциплину, изучающую закономерности массовых случайных явлений при определенных условиях. Случайность означает, что в рамках массовости бытие каждого элементарного явления не зависит и не определяется бытием других явлений. В то же время сама массовость явлений обладает устойчивой структурой, содержит определенные регулярности. Массовое явление вполне строго делится на подсистемы, и относительное число элементарных явлений в каждой из подсистем (относительная частота) весьма устойчиво. Эта устойчивость сопоставляется с вероятностью. Массовое явление в целом характеризуется распределением вероятностей, т. е. заданием подсистем и соответствующих им вероятностей. Язык теории вероятностей есть язык вероятностных распределений. Соответственно теорию вероятностей и определяют как абстрактную науку об оперировании распределениями.

Вероятность породила в науке представления о статистических закономерностях и статистических системах. Последние суть системы, образованные из независимых или квазинезависимых сущностей, их структура характеризуется распределениями вероятностей. Но как возможно образование систем из независимых сущностей? Обычно предполагается, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между их элементами существовали достаточно устойчивые связи, которые цементируют системы. Устойчивость статистическим системам придает наличие внешних условий, внешнего окружения, внешних, а не внутренних сил. Само определение вероятности всегда опирается на задание условий образования исходного массового явления. Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии (субординации). Эта идея выражает взаимоотношения между характеристиками отдельных элементов и целостными характеристиками систем: последние как бы надстраиваются над первыми.

Значение вероятностных методов в познании заключается в том, что они позволяют исследовать и теоретически выражать закономерности строения и поведения объектов и систем, имеющих иерархическую, «двухуровневую» структуру.

Анализ природы вероятности опирается на частотную, статистическую ее трактовку. Вместе с тем весьма длительное время в науке господствовало такое понимание вероятности, которое получило название логической, или индуктивной, вероятности. Логическую вероятность интересуют вопросы обоснованности отдельного, индивидуального суждения в определенных условиях. Можно ли оценить степень подтверждения (достоверности, истинности) индуктивного заключения (гипотетического вывода) в количественной форме? В ходе становления теории вероятностей такие вопросы неоднократно обсуждались, и стали говорить о степенях подтверждения гипотетических заключений. Эта мера вероятности определяется имеющейся в распоряжении данного человека информацией, его опытом, воззрениями на мир и психологическим складом ума. Во всех подобных случаях величина вероятности не поддается строгим измерениям и практически лежит вне компетенции теории вероятностей как последовательной математической дисциплины.

Объективная, частотная трактовка вероятности утверждалась в науке со значительными трудностями. Первоначально на понимание природы вероятности оказали сильное воздействие те философско-методологические взгляды, которые были характерны для классической науки. Исторически становление вероятностных методов в физике происходило под определяющим воздействием идей механики: статистические системы трактовались просто как механические. Поскольку соответствующие задачи не решались строгими методами механики, то возникли утверждения, что обращение к вероятностным методам и статистическим закономерностям есть результат неполноты наших знаний. В истории развития классической статистической физики предпринимались многочисленные попытки обосновать ее на основе классической механики, однако все они потерпели неудачу. Основания вероятности состоят в том, что она выражает собою особенности структуры определенного класса систем, иного, чем системы механики: состояние элементов этих систем характеризуется неустойчивостью и особым (не сводящимся к механике) характером взаимодействий.

Вхождение вероятности в познание ведет к отрицанию концепции жесткого детерминизма, к отрицанию базовой модели бытия и познания, выработанных в процессе становления классической науки. Базовые модели, представленные статистическими теориями, носят иной, более общий характер: они включают в себя идеи случайности и независимости. Идея вероятности связана с раскрытием внутренней динамики объектов и систем, которая не может быть всецело определена внешними условиями и обстоятельствами.

Концепция вероятностного видения мира, опирающаяся на абсолютизацию представлений о независимости (как и прежде парадигма жесткой детерминации), в настоящее время выявила свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем и физико-математических основ явлений самоорганизации.

Отличное определение

Неполное определение ↓

  • Вероя́тность - степень (относительная мера, количественная оценка) возможности наступления некоторого события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае - маловероятным или невероятным. Перевес положительных оснований над отрицательными, и наоборот, может быть в различной степени, вследствие чего вероятность (и невероятность) бывает большей либо меньшей. Поэтому часто вероятность оценивается на качественном уровне, особенно в тех случаях, когда более или менее точная количественная оценка невозможна или крайне затруднительна. Возможны различные градации «уровней» вероятности.

    Исследование вероятности с математической точки зрения составляет особую дисциплину - теорию вероятностей. В теории вероятностей и математической статистике понятие вероятности формализуется как числовая характеристика события - вероятностная мера (или её значение) - мера на множестве событий (подмножеств множества элементарных событий), принимающая значения от

    {\displaystyle 0}

    {\displaystyle 1}

    Значение

    {\displaystyle 1}

    Соответствует достоверному событию. Невозможное событие имеет вероятность 0 (обратное вообще говоря не всегда верно). Если вероятность наступления события равна

    {\displaystyle p}

    То вероятность его ненаступления равна

    {\displaystyle 1-p}

    В частности, вероятность

    {\displaystyle 1/2}

    Означает равную вероятность наступления и ненаступления события.

    Классическое определение вероятности основано на понятии равновозможности исходов. В качестве вероятности выступает отношение количества исходов, благоприятствующих данному событию, к общему числу равновозможных исходов. Например, вероятность выпадения «орла» или «решки» при случайном подбрасывании монетки равна 1/2, если предполагается, что только эти две возможности имеют место и они являются равновозможными. Данное классическое «определение» вероятности можно обобщить на случай бесконечного количества возможных значений - например, если некоторое событие может произойти с равной вероятностью в любой точке (количество точек бесконечно) некоторой ограниченной области пространства (плоскости), то вероятность того, что оно произойдет в некоторой части этой допустимой области равна отношению объёма (площади) этой части к объёму (площади) области всех возможных точек.

    Эмпирическое «определение» вероятности связано с частотой наступления события исходя из того, что при достаточно большом числе испытаний частота должна стремиться к объективной степени возможности этого события. В современном изложении теории вероятностей вероятность определяется аксиоматически, как частный случай абстрактной теории меры множества. Тем не менее, связующим звеном между абстрактной мерой и вероятностью, выражающей степень возможности наступления события, является именно частота его наблюдения.

    Вероятностное описание тех или иных явлений получило широкое распространение в современной науке, в частности в эконометрике, статистической физике макроскопических (термодинамических) систем, где даже в случае классического детерминированного описания движения частиц детерминированное описание всей системы частиц не представляется практически возможным и целесообразным. В квантовой физике сами описываемые процессы имеют вероятностную природу.

вероятность (probability) - число от 0 до 1, которое отражает шансы того, что случайное событие произойдет, где 0 - это полное отсутствие вероятности происхождения события, а 1 означает, что рассматриваемое событие определенно произойдет.

Вероятность события E является числом от до 1.
Сумма вероятностей взаимоисключающих событий равна 1.

эмпирическая вероятность - вероятность, которая посчитана как относительная частота события в прошлом, извлеченная из анализа исторических данных.

Вероятность очень редких событий нельзя посчитать эмпирически.

субъективная вероятность - вероятность, основанная на личной субъективной оценке события безотносительно исторических данных. Инвесторы, которые принимают решения о покупке и продаже акций зачастую действуют именно исходя из соображений субъективной вероятности.

априорная вероятность -

Шанс 1 из… (odds) того что событие произойдет через понятие вероятности. Шанс появления события выражается через вероятность так: P/(1-P).

Например, если вероятность события 0,5, то шанс события 1 из 2 т.к. 0,5/(1-0,5).

Шанс того, что событие не произойдет вычисляется по формуле (1-P)/P

Несогласованная вероятноть - например в цене акций компании А на 85% учтено возможное событие E, а в цене акций компании Б всего на 50%. Это называется несогласованная вероятность. Согласно теореме голландских ставок, несогласованная вероятность создает возможности для извлечения прибыли.

Безусловная вероятность - это ответ на вопрос «Какова вероятность того, что событие произойдет?»

Условная вероятность - это ответ на вопрос: «Какова вероятность события A если событие Б произошло». Условная вероятность обозначается как P(A|B).

Совместная вероятность - вероятность того, что события А и Б произойдут одновременно. Обозначается как P(AB).

P(A|B) = P(AB)/P(B) (1)

P(AB) = P(A|B)*P(B)

Правило суммирования вероятностей:

Вероятность того, что случится либо событие A либо событие B -

P (A or B) = P(A) + P(B) - P(AB) (2)

Если события A и B взаимоисключающие, то

P (A or B) = P(A) + P(B)

Независимые события - события A и B независимы если

P(A|B) = P(A), P(B|A) = P(B)

То есть это последовательность результатов, где значение вероятности постоянно от одного собятия к другому.
Бросок монеты - пример такого события, - результат каждого следующего броска не зависит от результата предыдущего.

Зависимые события - это такие события, когда вероятность появления одного зависит от вероятности появления другого.

Правило умножения вероятностей независимых событий:
Если события A и B независимы, то

P(AB) = P(A) * P(B) (3)

Правило полной вероятности:

P(A) = P(AS) + P(AS") = P(A|S")P(S) + P (A|S")P(S") (4)

S и S" - взаимоисключающие события

математическое ожидание (expected value) случайной переменной есть среднее возможных исходов случайной величины. Для события X матожидание обоначается как E(X).

Допустим у нас есть 5 значений взаимоисключающих событий c определенной вероятностью (например доход компании составил такую-то сумму с такой вероятностью). Матожиданием будет сумма всех исходов помноженных на их вероятность:

Дисперсия случайной величины - матожидание квадратных отклонений случайной величины от ее матожидания:

s 2 = E{ 2 } (6)

Условное матожидание (conditional expected value) - матожидание случайной величины X при условии того, что событие S уже произошло.

Не будем долго размышлять о высоком — начнем сразу с определения.

Схема Бернулли — это когда производится n однотипных независимых опытов, в каждом из которых может появиться интересующее нас событие A , причем известна вероятность этого события P (A ) = p. Требуется определить вероятность того, что при проведении n испытаний событие A появится ровно k раз.

Задачи, которые решаются по схеме Бернулли, чрезвычайно разнообразны: от простеньких (типа «найдите вероятность, что стрелок попадет 1 раз из 10») до весьма суровых (например, задачи на проценты или игральные карты). В реальности эта схема часто применяется для решения задач, связанных с контролем качества продукции и надежности различных механизмов, все характеристики которых должны быть известны до начала работы.

Вернемся к определению. Поскольку речь идет о независимых испытаниях, и в каждом опыте вероятность события A одинакова, возможны лишь два исхода:

  1. A — появление события A с вероятностью p;
  2. «не А» — событие А не появилось, что происходит с вероятностью q = 1 − p.

Важнейшее условие, без которого схема Бернулли теряет смысл — это постоянство. Сколько бы опытов мы ни проводили, нас интересует одно и то же событие A , которое возникает с одной и той же вероятностью p.

Между прочим, далеко не все задачи в теории вероятностей сводятся к постоянным условиям. Об этом вам расскажет любой грамотный репетитор по высшей математике. Даже такое нехитрое дело, как вынимание разноцветных шаров из ящика, не является опытом с постоянными условиями. Вынули очередной шар — соотношение цветов в ящике изменилось. Следовательно, изменились и вероятности.

Если же условия постоянны, можно точно определить вероятность того, что событие A произойдет ровно k раз из n возможных. Сформулируем этот факт в виде теоремы:

Теорема Бернулли. Пусть вероятность появления события A в каждом опыте постоянна и равна р. Тогда вероятность того, что в n независимых испытаниях событие A появится ровно k раз, рассчитывается по формуле:

где C n k — число сочетаний, q = 1 − p.

Эта формула так и называется: формула Бернулли. Интересно заметить, что задачи, приведенные ниже, вполне решаются без использования этой формулы. Например, можно применить формулы сложения вероятностей. Однако объем вычислений будет просто нереальным.

Задача. Вероятность выпуска бракованного изделия на станке равна 0,2. Определить вероятность того, что в партии из десяти выпущенных на данном станке деталей ровно k будут без брака. Решить задачу для k = 0, 1, 10.

По условию, нас интересует событие A выпуска изделий без брака, которое случается каждый раз с вероятностью p = 1 − 0,2 = 0,8. Нужно определить вероятность того, что это событие произойдет k раз. Событию A противопоставляется событие «не A », т.е. выпуск бракованного изделия.

Таким образом, имеем: n = 10; p = 0,8; q = 0,2.

Итак, находим вероятность того, что в партии все детали бракованные (k = 0), что только одна деталь без брака (k = 1), и что бракованных деталей нет вообще (k = 10):

Задача. Монету бросают 6 раз. Выпадение герба и решки равновероятно. Найти вероятность того, что:

  1. герб выпадет три раза;
  2. герб выпадет один раз;
  3. герб выпадет не менее двух раз.

Итак, нас интересует событие A , когда выпадает герб. Вероятность этого события равна p = 0,5. Событию A противопоставляется событие «не A », когда выпадает решка, что случается с вероятностью q = 1 − 0,5 = 0,5. Нужно определить вероятность того, что герб выпадет k раз.

Таким образом, имеем: n = 6; p = 0,5; q = 0,5.

Определим вероятность того, что герб выпал три раза, т.е. k = 3:

Теперь определим вероятность того, что герб выпал только один раз, т.е. k = 1:

Осталось определить, с какой вероятностью герб выпадет не менее двух раз. Основная загвоздка — во фразе «не менее». Получается, что нас устроит любое k , кроме 0 и 1, т.е. надо найти значение суммы X = P 6 (2) + P 6 (3) + ... + P 6 (6).

Заметим, что эта сумма также равна (1 − P 6 (0) − P 6 (1)), т.е. достаточно из всех возможных вариантов «вырезать» те, когда герб выпал 1 раз (k = 1) или не выпал вообще (k = 0). Поскольку P 6 (1) нам уже известно, осталось найти P 6 (0):

Задача. Вероятность того, что телевизор имеет скрытые дефекты, равна 0,2. На склад поступило 20 телевизоров. Какое событие вероятнее: что в этой партии имеется два телевизора со скрытыми дефектами или три?

Интересующее событие A — наличие скрытого дефекта. Всего телевизоров n = 20, вероятность скрытого дефекта p = 0,2. Соответственно, вероятность получить телевизор без скрытого дефекта равна q = 1 − 0,2 = 0,8.

Получаем стартовые условия для схемы Бернулли: n = 20; p = 0,2; q = 0,8.

Найдем вероятность получить два «дефектных» телевизора (k = 2) и три (k = 3):

\[\begin{array}{l}{P_{20}}\left(2 \right) = C_{20}^2{p^2}{q^{18}} = \frac{{20!}}{{2!18!}} \cdot {0,2^2} \cdot {0,8^{18}} \approx 0,137\\{P_{20}}\left(3 \right) = C_{20}^3{p^3}{q^{17}} = \frac{{20!}}{{3!17!}} \cdot {0,2^3} \cdot {0,8^{17}} \approx 0,41\end{array}\]

Очевидно, P 20 (3) > P 20 (2), т.е. вероятность получить три телевизора со скрытыми дефектами больше вероятности получить только два таких телевизора. Причем, разница неслабая.

Небольшое замечание по поводу факториалов. Многие испытывают смутное ощущение дискомфорта, когда видят запись «0!» (читается «ноль факториал»). Так вот, 0! = 1 по определению.

P . S . А самая большая вероятность в последней задаче — это получить четыре телевизора со скрытыми дефектами. Подсчитайте сами — и убедитесь.