Частотное определение вероятности
Вероятностью события А называется предел отношения числа m появлений события А среди n испытаний, каждое из которых проводится в рамках одного и того же комплекса условий, при n , т.е. . При этом сходимость понимается не обычная, а по вероятности. Обычная сходимость последовательности к некоторому пределу означает, что для любого сколько угодно малого всегда найдется такое значение N, начиная с которого все значения последовательности (при n>N), будут находиться внутри -коридора, построенного вокруг предельного значения. В данном случае такое значение N отсутствует, но с ростом n вероятность выхода значения из -коридора стремится к нулю.
Примечание. Ввиду того, что на практике число испытаний не может быть бесконечным, то в качестве вероятности события А часто принимают относительную частоту (частость), т.е. , которую иногда округляют.
Пример 1. Среди 100 изделий, изготовленных по одной технологии, при проверке обнаружено 5 дефектных. Тогда в качестве вероятности изготовления дефектного изделия по этой технологии можно принять
При изменении технологии, т.е. комплекса условий проведения испытаний, вероятность сначала может быть оценена экспертами, а затем, после накопления новых статистических данных, – аналогично предыдущему.
Пример 2. Из 1000 бросаний монеты в 495 случаях выпал «орел». Число 495 близко к 500, поэтому можно сделать предположение о равновозможности выпадения орла и решки при одном бросании монеты и значит можно принять .
Субъективная вероятность события
Это величина, оцениваемая экспертом или группой экспертов в долях или количестве шансов (обычно из 100), соответствующих этому событию. Эксперты при этом должны руководствоваться правилами: P()=1 (100%); P( )=0; если В A, то P(В) P(A); если A1, A2 . An – полная группа событий, то
Субъективные вероятности используются обычно по отношению к редким, особым событиям. Эксперты при этом привлекают информацию из аналогичных ситуаций.
Аксиоматическое определение вероятности
Потребность самых различных специалистов в едином определении понятия «вероятность», которое бы обобщило предыдущие три, впервые удовлетворил А. Н. Колмогоров. Данное им аксиоматическое определение базируется на использовании понятия поля событий (или -алгебры) S, т.е. класса (системы) таких подмножеств пространства элементарных событий , счетное число операций дополнения, объединения и пересечения с которыми всегда дает подмножество, не выходящее из этого класса, причем, S. Исходя из этого, дается определение вероятности, как некоторой числовой функции, определенной на множествах поля S. Мы будем руководствоваться более простым определением.
Определение. Вероятностью P(A) любого события A (A ) называется число, удовлетворяющее следующим аксиомам:
Аксиома 1. P(A) ≥ 0.
Аксиома 2. Вероятность достоверного события равна единице: P() = 1.
Аксиома 3. Вероятность события A, являющегося объединением двух несовместных событий (А = В + С, где ВС=Æ ), равна сумме вероятностей этих событий, то есть:
Следствия: 1) (это следует из аксиом 2, 3).
2) Р(Æ)=0 (это следует из аксиомы 3, если взять В = , С = Æ = , а также следствия 1).
3) Р(В∙С)=0, если В и С несовместны.
4) , если Аi (i=1,2,…,n) –полная группа событий.
Действительно: P(A)= > P(В).
Частотная теория вероятностей
Эта теория была одной из первых, где принцип устойчивости статистических частот был реализован на математическом уровне. Фактически, этот принцип использовался в качестве определения вероятности. Напомним основные понятия частотной теории вероятности [86] |88] Ричарда фон Мизеса (1919). [1] Эта теория основана на понятии коллектива. Рассмотрим случайный эксперимент S и обозначим через L = m> множество всех возможных результатов этого эксперимента. Множество S назовём множеством меток или множеством признаков (атрибутов). Мы рассматриваем только конечные множества L. Рассмотрим N реализаций эксперимента S и запишем результат Xj после каждой реализации. Тогда мы получаем конечную выборку:
Коллектив это бесконечная идеализация этой конечной выборки:
для которой верны следующие два принципа фон Мизеса.
Первый — это статистическая стабилизация относительных частот каждого признака а € S в последовательности (3.2). Давайте вычислим частоты //дг(а, х) = п^(а,x)/N, где пд-(а, х) число реализаций признака а в первых N испытаниях. Принцип статистической стабилизации относительных частот говорит: частота //дг(о, х) стремится к пределу, когда N стремится к бесконечности для каждой метки а в L. Этот предел Р(а) = lim i^v(o. т) в частотной теории вероятности и называют вероятностью метки (признака) а. Иногда эта вероятность будет обозначатся через Рх(о) (чтобы показать зависимость от коллектива х).
“Мы будем говорить, что коллектив — это массовое явление или повторяющееся событие, или просто длинная последовательность наблюдений для которых существуют достаточные основания поверить в то, что относительные частоты наблюдаемого признака (атрибута) будут стремиться к фиксированному пределу если наблюдения продолжались бесконечно. Этот предел и будем называть вероятностью признака (атрибута). рассмотренного в пределах заданного коллектива” |87|.
Второй принцип это так называемый принцип случайности. На эвристическом уровне ясно, что это мы не можем рассматривать, к примеру, последовательность 2 = (0,1,0,1. 0,1. ) как случайный объект (порожденный статистическим экспериментом). Однако принцип статистической устойчивости верен для 2 и Р(0) = Р(1) = 1/2. Таким образом, нам нужно дополнительное ограничение на последовательности вида (3.2). Это условие было предложено фон Мизесом:
Пределы относительных частот должны быть устойчивы относительно правила выбора (выбора подпоследовательности) в коллективе (3.2).
В частности, последовательность 2 не удовлетворяет этому принципу. Например, если мы выберем только чётные позиции в 2, то мы получим нулевую последовательность 2о = (0,0. ), где Р(0) = 1, Р(1) =0.
Однако, это очень естественное понятие было скрытой бомбой в основаниях теории фон Мизеса. Основная задача состояла в том, чтобы определить класс правил выбора, который породит плодотворную теорию. Основное и весьма естественное ограничение состоит в том, что правило выбора в (3.2) не может быть основано на использовании признаков (атрибутов) элементов. Например, мы не можем рассматривать подпоследовательность последовательности в (3.2), построенной выбором элементов, соответствующих фиксированной метке а* € L. Фон Ми- зес предложил следующее определение правила выбора:
- (ПВ) “подпоследовательность извлечена с помощью правила выбора, если решение сохранить или отбросить n-ый элемент настоящей последовательности зависит от числа п и от значений меток #i. ,#n_i, п — 1-ых предшедствующих элементов, но не зависит от значения метки н-ого элемента или любого следующего элемента”, см. [87| с. 9. Таким образом, правило выбора может быть определено с помощью функций /1 > /2(^1), >х2)> /4(^1,?3)1 •.каждая из которых даёт’ значение О
- (отбросить n-ый элемент) или 1 (оставить n-ый элемент).
Приведем несколько примеров правил выбора: (1) выбираются те хп для которых число п простое; (2) выбираются те х*„, которые следуют за словом 01; (3) бросаем (двустороннюю) монету; выбираем хп если п-ое бросание даёт герб. Первые две процедуры выбора могут быть названы закономерными, третья — случайной. Более или менее очевидно, что все три процедуры являются правилами выбора: значение переменной х„ не использовалось в определении того, будет ли выбрано это хп.
Принцип случайности гарантирует нам то, что нс существует игровой стратегии, использующей такое правило выбора, которое может выбрать подпоследовательность, допускающую различные преимущества для играющего. Этот принцип может быть назван как законом запрещения выигрышной игровой стратегии.
Определение (Г1В) вызвало некоторые математические проблемы. Если класс правил выбора слишком широк, то понятие коллектива является слишком узким (фактически, нс существует последовательностей где вероятности были бы инвариантны относительно всех способов выбора). Это и было основным объектом критики теории фон Мизеса. Эта проблема исследовалась начиная с 30-ых годов и была решена только в 70-ых годах на основе колмогоровского понятия алгоритмической сложности [76|.
Тем не менее сам фон Мизес был удовлетворён следующим практическим решением этой проблемы. Он предложил (см. [88]) зафиксировать для произвольного коллектива класс правил выбора, который зависит от физической задачи, описанной этим коллективом. Таким образом, он переместил эту проблему за рамки математики.
Частотная теория вероятности, по сути, не является исчислением вероятностей, но есть исчисление коллективов, которое порождает соответствующее исчисление вероятностей. Мы кратко обсудим некоторые основные операции над коллективами (подробнее см. (88|).
Поскольку вероятность определена на базе принципа статистической стабилизации относительных частот, то вполне возможно развить плодотворное вероятностное исчисление используя только этот принцип, см. А.Я. Хинчин [113]. Последовательность (3.2), удовлетворяющую принципу статистической стабилизации относительных частот, называют S- последовательностью. Таким образом, пределы относительных частот в S-последовательности х не обязательно инвариантны относительно некоторого класса способов выбора. [2]
(а) Смешивание и аддитивность. Пусть х — коллектив с (конечным) пространством меток Lx и пусть Е = п. ,а*,> подмножество Ьх. Последовательность х вида (3.2) преобразуется в новую последовательность Уе но следующему правилу. Если х3 € Е то мы пишем 1; если х3 $ Е тогда мы пишем 0. В итоге получим множество меток LUF = . Легко показать, что эта последовательность обладает свойством статистической стабилизации для своих меток. Например,
где vh(Ex) = vNE) = пм(Уе)/№ есть относительная частота появления 1 в последовательности Уе- Чтобы получить равенство (3.3) мы использовали только тот факт, что сложение является непрерывной операцией в ноле действительных чисел R. Мы можем показать, что последовательность уе также удовлетворяет принципу случайности, см. [88|. Значит, она является новым коллективом. С помощью этой операции любой коллектив х порождает распределение вероятности на алгебре FjJX всех подмножеств множества Lx : Р(Е) = Р>,е( 1)- Иногда также будет удобно обозначать это распределение вероятностей через РХ(Е), чтобы отличать вероятности соответствующие различным коллективам. Теперь мы найдем свойства этой вероятности. Поскольку Р(Е) = lim vn(E х) и 0 vn(E) FLt [0,1] аддитивна. Таким образом, Р — нормализованная мера на алгебре Flz, которая принимает значения из отрезка [0,1]. Заметим, что все эти рассуждения можно повторить дчя ^-последовательностей.
количество меток, принадлежащих множеству А среди первых к элементов х). Таким образом,
Здесь мы использовали тот факт, что п[к(ау, z(A)), число элементов aj среди первых Мк элементов ансамбля z(A), равняется пк(ау,х), числу элементов ау среди первых к элементов ансамбля х. Вероятность Р2(.4 )(о?) есть условная вероятность метки ctj при условии, что метка принадлежит множеству А. Обозначим Р(otj/A) = Рх(аj/A). Как следствие этой формулы получим формулу Байеса:
В действительности, эта формула связывает вероятности определенные по разным коллективам. В левой части стоит вероятность Рг(Д), а в правой части вероятности Рх. Как и в случае ансамбль-вероятности, иногда
мы будем использовать символ Р,(В) вместо Р(В/А). Полезно заметить, что Р 4 : Flx —> [0,1] является мерой, нормализованной единицей. В частности, вероятность Р можно записать как условную вероятность
Как и в рамках теории ансамблей, здесь мы также можем получить формулу полной вероятности (2.8). Формула (2.8) часто применяется неправильно: вероятности Р(/Ц) находятся по одному коллективу, а условные вероятности Р(С//Ц) по другому коллективу. Чтобы применять эту формулу правильно нам следует использовать индекс коллектива:
Формулы (2.5)—(2.7) можно легко получить и в рамках часто тной теории.
Замечание 3.1. Формула Байеса с точки зрения частотной теории является просто следствием возможности применения операции разбиения для коллективов. Следует заметить, что с физической точки зрения операция разбиения является физическим условием, которое означает, что выделением коллектива z(A) из первоначального коллектива х мы не изменяем свойств принадлежности элемента коллектива множеству В. Если физическая система не удовлетворяет этому условию мы не можем использовать формулу Байеса (3.4). Это не означает, что мы не можем определить условную вероятность РЛ <В).Но мы не можем использовать (3.4) для того, чтобы вычислять эту вероятность.
Важно отметить, что условные вероятности в формуле (2.7) определены по различным коллективам z(A) и z(B). С физической точки зрения соотношение (2.7) между этими вероятностями имеет смысл только для физических систем, удовлетворяющих условиям, которые обсуждались в замечании 3.1.
Замечательно также то, что мы можем рассматривать счётные множества признаков (атрибутов) Lx = 2,ат. >. Если мы используем дополнительное условие JZJti P( a j) 00 Д ля вероятностей меток, тогда Р будет (дискретной) мерой на Fix. Более того, эта мера будет
- [1] ‘В действительности, уже в 1866 Джои Вони, см. |105|, пытался точно определитьвероятность в терминах относительных частот.
- [2] Конечно, использование S-последовательностей противоречит современной теории вероятностей, которая основана на обобщениях принципа случайности Мизеса(таких как сложность по Колмогорову |7б| и теории статистических тестов Мартнн-Лёфа |83|). Однако, оказалось, что вся эта техника со случайностью не используетсяв квантовой физике. Экспериментаторов интересует только статистическая стабилизация относительных частот.
Относительная частота события
и статистическое определение вероятности
Сегодня мы завершаем изучение первого раздела теории вероятностей, который посвящён основным подходам к определению вероятности, теоремам сложения и умножения событий, а также их основным следствиям. В учебной литературе статистическое определение вероятности обычно рассматривается в первой же главе, но вот мне показалось удачным отложить этот вопрос на заключительный урок по теме. Давайте вспомним, с чего всё начиналось:
Вероятность наступления события в некотором испытании – есть отношение , где:
– общее число всех равновозможных, элементарных исходов этого испытания, которые образуют полную группу событий;
– количество элементарных исходов, благоприятствующих событию .
О некоторых недостатках классического определения вероятности заходила речь в статье Геометрическое определение вероятности, но это только верхушка айсберга, и сейчас данный вопрос получит интереснейшее продолжение. Начнём опять же с бесхитростных примеров 1-го урока по теории вероятностей:
– вероятность того, что в результате броска монеты выпадет «орёл»;
– вероятность того, что в результате броска игральной кости выпадет 5 очков;
– вероятность того, что из колоды будет извлечена трефа
Внимательный читатель заметил, что все комментарии о вероятностях сформулированы в будущем времени. И это не случайность – классическое определение, как правило, оценивает вероятность ДО проведения испытаний и даже без их фактического проведения. То есть, монета ещё не подброшена, а вероятность появления орла мы уже прекрасно знаем. Можно дать зарок никогда не брать в руки кубик либо колоду карт, однако, вероятности событий беспроблемно рассчитываются и без этого.
Примечание: однако, в отсутствии информации о результате испытания фразу «Вероятность того, что монета упала орлом» (например) всё же нельзя признать некорректной. То есть классическое определение может оценивать вероятность и после реального опыта.
Почему такое возможно? Такое возможно потому, что все элементарные исходы известны и подсчитаны заранее:
орёл и решка – итого 2 элементарных исхода;
1, 2, 3, 4, 5, 6 – 6 элементарных исходов;
6, 7, 8, 9, 10, В, Д, К, Т каждой масти – всего 36 карт.
Кроме того, для применения классического определения вероятности необходима равновозможность элементарных исходов (см. определение). Равновозможность выпадения граней монеты либо кубика обуславливается симметрией и несмещённым центром тяжести, колода же карт должна быть полной, некраплёной и хорошо перемешанной.
И всё было бы ладно, но в реальной жизни подобные модели встречаются нечасто. В большинстве ситуаций элементарные исходы перечислить затруднительно или невозможно, и ещё труднее обосновать их равновозможность. Простой пример:
Штирлиц пошёл в лес за грибами. Найти вероятность того, что он найдёт подберёзовик.
Совершенно понятно, что все грибы в лесу (общее количество элементарных исходов) пересчитать практически невозможно, а значит, классическое определение вероятности не срабатывает. И даже если группа разведчиков учтёт все грибы в небольшой роще, классифицирует их по видам, то препятствием станет неравновозможность исходов. Почему? Поляна мухоморов намного заметнее, чем замаскировавшиеся подберёзовики. …Таааак, кто это там на задней парте предложил покрасить в один цвет? =)
Кстати, каверзная задачка на счёт равновозможности была в конце урока о теоремах Лапласа. Краткая суть состоит в следующем: если в городе проживает примерно равное количество мужчин и женщин (которых подсчитать значительно проще =)), то это ещё не значит, что вероятность встретить на улице мужчину либо женщину равна 1/2.
Вновь обратим внимание на шаблонные формулировки стандартных задач:
«Стрелок попадает в мишень с вероятностью 0,8»;
«Вероятность изготовления бракованной детали на данном станке составляет 0,05».
Возникает вопрос, откуда взялись эти значения? И ответ здесь один: данные вероятности могли получиться только на основе ранее проведённых опытов.
Относительная частота события и статистическая вероятность
Относительной частотой события называют отношение числа испытаний , в которых данное событие появилось, к общему числу фактически проведённых испытаний:
, или короче:
Относительная частота наряду с вероятностью является одним из ключевых понятий тервера, но если классическое либо геометрическое определение вероятности не требуют проведения испытаний, то относительная частота рассчитывается исключительно ПОСЛЕ опытов на основе фактически полученных данных.
В том случае, если серии испытаний проводятся в неизменных условиях, то относительная частота обнаруживает свойство устойчивости, то есть колеблется около определённого значения.
Пусть некий профессиональный стрелок произвёл 100 выстрелов по мишени и попал 83 раза. Тогда относительная частота поражения цели составит: .
Предположим, что тот же самый стрелок в точно такой же «форме» и в приблизительно таких же условиях снова провёл серию из 100 выстрелов. Вероятно ли, что он снова попадёт 83 раза? Не очень. Но количество попаданий вряд ли будет сильно отличаться от предыдущего результата. Пусть, например, стрелок попал 79 раз. Тогда относительная частота поражения цели составит: .
В третьей серии из 100 выстрелов, проведённой при похожих обстоятельствах, данный стрелок попал 81 раз, и т.д.
Иногда могут случаться блестящие серии более 90 попаданий, иногда «провалы», но среднее количество попаданий будет варьироваться около 80. И когда количество фактически проведённых испытаний станет достаточно большим, то речь зайдёт о статистической вероятности. Если в одинаковых (примерно одинаковых) условиях проведено достаточно много испытаний, то за статистическую вероятность события принимают относительную частоту данного события либо близкое число.
Предположим, что на протяжении нескольких лет наш спортсмен, сохраняя стабильный уровень подготовки, совершил 10000 выстрелов и попал 8037 раз. Относительная частота поражения цели составит: и за статистическую вероятность его результативности целесообразно принять , которая становится теоретической оценкой, например, перед грядущими соревнованиями.
Представьте, что во время лекции этот профессионал зашёл с винтовкой в аудиторию и прицелился. Теперь вам должен стать окончательно понятен смысл фразы «Стрелок попадает в мишень с вероятностью 0,8» =) =)
Именно так собирается богатая спортивная статистика в различных видах спорта.
Аналогичная история с утверждением «Вероятность изготовления бракованной детали на данном станке равна 0,05». Эту оценку невозможно получить с помощью классического определения вероятности – она следует только из практики! Если на станке произведены десятки тысяч деталей и на каждую, скажем, тысячу выпущенных деталей, приходится в среднем 50 бракованных, то в качестве статистической вероятности брака принимается значения .
В Задаче 2 урока Локальная и интегральная теоремы Лапласа фигурировала вероятность рождения мальчика . Откуда взялось данное число? Из многолетнего подсчёта фактически рождённых детей в определённом регионе. В указанной статье мы выяснили, что это вовсе не значит, что среди 100 новорожденных будет ровно 52 мальчика. В следующей сотне рождённых их может оказаться, например, 45, и относительная частота будет далека от истины. Но если рассмотреть выборку в тысячи и десятки тысяч младенцев, то отклонится от совсем-совсем незначительно. И это уже не случайность. Как известно, такое соотношение новорожденных сложилось эволюционно – по причине бОльшей смертности мужчин.
В учебном пособии В.Е. Гмурмана есть весьма удачный пример, в котором продемонстрировано, как при подбрасывании монеты относительная частота появления орла приближается к своей вероятности (полученной по классическому определению):
Какой можно сделать вывод? С увеличением количества независимых испытаний случайность превращается в закономерность. Однако следует помнить, что порядок выпадения орлов непредсказуем, о чём я подробно рассказывал на уроке Независимые испытания и формула Бернулли.
Вернёмся к европейской рулетке с 18 красными, 18 чёрными секторами и 1 зеро. В самом примитивном варианте игры: ставим на «красное» или «чёрное», и если шарик остановился на секторе другого цвета (вероятность ) – ставка проигрывается. В случае успеха – удваиваемся (вероятность ).
В отдельно взятом сеансе игры отдельно взятый человек может выиграть, причём выиграть по-крупному. Это случайность. Но, совершая миллионы оборотов, рулетка на протяжении веков приносит неизменную прибыль владельцам казино. И это – закономерность. Существует байка о том, что крупный выигрыш не отдадут, а если и отдадут, то «вы с ним не дойдёте до дома». Чистая «киношная» фантазия. Да, кому-то повезло, но сколько проиграется?! К тому же человек, посещающий подобные заведения, с большой вероятностью придёт снова и «сольёт» ещё больше. А чтобы он вернулся, казино, скорее наоборот – создаст максимальный комфорт и безопасность для «счастливчика».
Другой, во многом условный, пример: пусть в некой лотерее приняло участие билетов, из которых выиграли хоть какой-то приз. Таким образом, относительная частота выигрыша составила: . Поскольку билетов продано очень много, то с большой вероятностью можно утверждать, что в будущем при сопоставимых объемах продаж доля выигравших билетов будет примерно такой же, и за статистическую вероятность выигрыша удобно принять значение .
Организатор лотереи знает, что из миллиона проданных билетов выиграют около 300 тысяч с небольшим отклонением. И это закономерность. Но всем участникам лотереи достаётся…. – правильно, случайность! То есть, если вы купите 10 билетов, то это ещё не значит, что выиграют 3 билета. Так, например, выигрыш только по одному билету – есть событие очень даже вероятное, по формуле Бернулли:
А если учесть тот факт, что львиная доля выигрышей – сущая мелочь, то картина вырисовывается совсем унылая, ибо маловозможные события не происходят. Ситуацию спасают красочные телевизионные розыгрыши и различные психологические трюки.
Желающие могут самостоятельно исследовать вероятность выигрыша в различные лотереи – вся статистика есть в свободном доступе. Особо рекомендую подсчитать вероятность крупного выигрыша.
Практическая часть урока будет тесно связана с только что изложенным материалом:
Вероятность отклонения относительной частоты от вероятности
Вероятность того, что в независимых испытаниях относительная частота события отклонится от вероятности (появления данного события в каждом испытании) не более чем на , приблизительно равна:
, где – функция Лапласа.
Собственно, эта формула и выведена из интегральной теоремы Лапласа.
Итак, расклад следующий: в распоряжении имеется вероятность наступления события , которая предварительно получена с помощью классического/геометрического определения или посредством серьёзной статистической оценки. Планируется провести независимых испытаний, в которых событие может наступить некоторое количество раз, причём значение , разумеется, предсказать нельзя. Полученная относительная частота может оказаться как больше, так и меньше вероятности (поэтому нужен знак модуля).
Требуется найти вероятность того, что в серии из независимых испытаний, расхождение между относительной частотой и теоретической вероятностью , будет не больше, чем заранее заданное число, например, не больше, чем (один процент).
Начнём с самых маленьких :=)
В некотором регионе в результате многолетнего статистического исследования установлена вероятность рождения мальчика . С какой вероятностью можно утверждать, что среди следующей тысячи новорожденных, относительная частота появления мальчика отклонится от соответствующей вероятности не более чем на 0,02?
Решение: используем формулу
Таким образом:
– искомая вероятность.
Напоминаю, что значения функции Лапласа можно найти по соответствующей таблице или с помощью расчётного макета (пункт 5).
Ответ:
Каков смысл полученного результата? Если рассмотреть достаточно много групп по 1000 новорожденных в каждой, то примерно в 79,6% этих групп доля мальчиков будет находиться в пределах:
Или, умножая все три части на тысячу: от 500 до 540 мальчиков.
На самом деле рассмотренная задача эквивалентна следующей: «Найти вероятность того, что среди 1000 новорожденных будет от 500 до 540 мальчиков, если вероятность рождения мальчика равна 0,52». А эта задача как раз и решается через известную вам интегральную теорему Лапласа.
Посмотрим на правую часть формулы и проанализируем, как при прочих равных условиях рассматриваемая вероятность зависит от размера выборки?
При росте «эн», дробь будет увеличиваться, а, как вы знаете, . То есть, вероятность отклонения рано или поздно приблизится к единице. И это неудивительно – как неоднократно показано в предыдущих примерах, при росте относительная частота события всё ближе и ближе стремится к вероятности данного события, а значит, при достаточно большом количестве испытаний разница практически достоверно будет не больше наперёд заданного числа .
Наоборот – при уменьшении «эн» дробь тоже будет уменьшаться, следовательно, значение будет приближаться к нулю . Нетрудно понять, что при слишком малой выборке теорема Лапласа работать перестанет. И действительно – ведь все детей в семье могут вообще оказаться девочками. Такое бывает.
Пара задач для самостоятельного решения:
Производится некоторый опыт, в котором случайное событие может появиться с вероятностью 0,6. Опыт повторяют в неизменных условиях раз. Определить вероятность того, что в 800 независимых испытаниях относительная частота появления события отклонится от вероятности не более чем: а) на 0,05, б) на 0,03
Условие сформулировано в общем виде, как оно чаще всего и бывает. Ещё раз повторим суть задания: проводится опытов, в результате чего событие наступит раз – сколько именно, предугадать невозможно. Относительная частота составит . С другой стороны, известна вероятность события , которая установлена ранее с помощью классического/геометрического определения или путём сбора солидной статистики. Требуется найти вероятность того, что относительная частота отклонится от вероятности, не более чем на : В чём смысл? С найденной вероятностью можно утверждать, что относительная частота будет заключена в следующих пределах:
Или в абсолютном количестве появлений события :
Надо сказать, что границы достаточно вольные и вероятность должна получиться большой. Если же наперёд заданная точность составит , то промежуток сократится: , и, понятно, что вероятность данного события будет меньше.
Следующий пример для самых мудрых участников лотереи 🙂
Вероятность выигрыша в лотерею равна 0,3. Продано 600000 билетов. Найти вероятность того, что относительная частота выигрыша отклонится от вероятности выигрыша не более чем на .
Иными словами, требуется найти вероятность того, что относительная частота выигрыша будет находиться в пределах: (то есть выиграют от до билетов).
Эта информация очень важнА для корректного распределения призового фонда. Но, повторюсь, пример достаточно условный, т.к. не учитывает правила и ограничения той или иной лотереи.
Краткое решение и ответы в конце урока.
На практике не менее популярна и обратная задача:
Как определить, сколько нужно провести испытаний
чтобы с заранее заданной вероятностью обеспечить желаемую точность ?
В предыдущем примере получена довольно высокая вероятность того, что количество выигравших билетов окажется в достаточно узком интервале: билетов относительно наивероятнейшего количества .
Но, конечно же, хочется, чтобы вероятность была побольше:
Вероятность выигрыша в лотерею равна 0,3. Сколько билетов должно участвовать в розыгрыше, чтобы с вероятностью не меньшей чем , можно было ожидать, что относительная частота выигрыша отклонится от теоретической вероятности не более чем на ?
Решение: используем ту же формулу .
В нашем распоряжении находятся следующие величины:
По условию, требуется найти такое количество билетов , чтобы с вероятностью не меньшей чем разница составила не более чем . Ну, а коль скоро с вероятностью «не меньшей», то задачу следует разрулить через нестрогое неравенство:
Подставляем известные значения:
Делим обе части на два:
По таблице значений функции либо с помощью расчётного макета (пункт 5*) по известному значению функции находим соответствующий аргумент: . Таким образом:
Возведём обе части в квадрат:
И финальный штрих:
Ответ: для того, чтобы с вероятностью не меньшей чем , можно было ожидать, что , в розыгрыше должно участвовать не менее 1397844 билетов.
Но это ещё нужно столько продать =) Или же аппетит придётся поубавить. Или пожертвовать точностью, то есть увеличить .
Представим ответ в абсолютных значениях:
То есть, в 99% аналогичных розыгрышей количество выигравших билетов будет заключено в пределах от до .
Кстати, выполним проверку, решив прямую задачу:
, что и требовалось проверить.
Заключительная миниатюра для самостоятельного решения:
Проводится некоторый опыт, в котором случайное событие может появиться с вероятностью 0,4. Определить, сколько опытов нужно провести, чтобы с вероятностью большей, чем 0,9 можно было ожидать отклонения относительной частоты появления события от не более чем на 0,05
Не ленимся 😉 Ответ в таких задачах следует округлять до бОльшего натурального значения! Краткое решение и ответ внизу страницы.
Первый цикл уроков по теории вероятностей подошёл к концу и даже начал плавно переходить в математическую статистику, так, если в рассмотренной задаче значение не известно, то это уже статистическая задача об оценке этой вероятности.
И я уже хотел поставить традиционное пожелание «Везения в главном», но вдруг задумался…. Имеет ли в нашей жизни значение случайность? Безусловно! Нет, я не преуменьшаю значение системной и упорной работы, после которой следуют закономерные результаты. Однако и везение играет немаловажную роль: встретить хороших друзей, встретить «своего» человека, найти деятельность по душе и т.д. – всё это нередко происходит благодаря случаю….
Жду вас снова и до скорых встреч!
Решения и ответы:
Задача 2: Решение: используем формулу .
В данной задаче:
а) Если , то:
– вероятность, того, что при 800 испытаниях относительная частота появления события отклонится от вероятности данного события не более чем на 0,05.
Это событие является практически достоверным.
б) Если , то:
– вероятность, того, что при 800 испытаниях относительная частота появления события отклонится от вероятности данного события не более чем на 0,03.
Задача 3: Решение: используем формулу .
В данной задаче:
Таким образом:
– вероятность, того, что относительная частота выигрыша отклонится от теоретической вероятности не более чем на 0,001.
Ответ:
Задача 5: Решение: используем формулу .
В данном случае:
Таким образом:
Ответ: необходимо произвести не менее 259 опытов.
Автор: Емелин Александр
(Переход на главную страницу)
Zaochnik.com – профессиональная помощь студентам,
cкидкa 15% на первый зaкaз, при оформлении введите прoмoкoд: 5530-hihi5
© Copyright mathprofi.ru, Александр Емелин, 2010-2023. Копирование материалов сайта запрещено
Курс лекций по дисциплине «Математика и информатика». Математика
Вероятность является одним из основных понятий теории вероятностей. Существует несколько определений этого понятия. Одно из основных – это классическое определение. Это определение применимо в случаях, когда удается выделить полную группу несовместных и равновероятных событий, т.е. элементарных исходов.
Вероятностью события А называют отношение числа m благоприятствующих этому событию исходов к общему числу n всех элементарных исходов:
В группе 25 студентов. Из них 10 девушек и 15 юношей. Наугад выбирают одного студента. Найти вероятность того, что выберут юношу.
Решение. Искомая вероятность: Р (А) =15/25=3/5.
В группе 15 студентов. Из них 5 девушек и 10 юношей. Выбирают трёх студентов. Найти вероятность того, что из трёх выбранных студентов выберут одну девушку и двух юношей.
Решение. При вычислении вероятности события необходимо обратиться к разделу комбинаторики. Для данной задачи следует подсчитать различные сочетания по формуле (3.3).
Классическое определение вероятности служит хорошей математической моделью тех случайных экспериментов, число исходов которых конечно, а сами исходы равновозможны и несовместны.
Систему аксиоматического обоснования определения вероятности построил А.Н. Колмогоров в 1933 г.
Числовая функция Р(А), заданная на алгебре F – подмножеств пространства элементарных исходов – W, называется вероятностью случайного события А, если она удовлетворяет следующим свойствам (аксиомам):
А 1 ( аксиома 1). P(A)>0; » A Î F.
Аксиому 1 можно прочитать: «вероятность случайного события А всегда величина положительная для любого события, принадлежащего подмножеству F».
A2 (аксиома 2). P(W)=1.
Аксиома 2 может быть сформулирована следующим образом: вероятность достоверного события равна единице.
A3 ( аксиома 3). Если A Ç B= Æ , то P(A È B)= P(A) + P(B).
Аксиома 3 может быть сформулирована следующим образом: если события А и В несовместны, то P(A+B) = P(A) + P(B).
Как следствие из этих аксиом можно сформулировать далее:
Аксиома 4. Вероятность случайного события есть положительное значение, заключенное между нулем и единицей. 0
Аксиома 5. Вероятность невозможного события равна нулю. Р(А)=0.