Априорная вероятность

Вопрос № 38. Полная группа событий. Формула полной вероятности. Формулы Байеса.

Двух событий. Независимость в совокупности. Формулировка теоремы умножения в этом случае.

Вопрос № 37. Условная вероятность. Теорема умножения. Определение независимости

Условная вероятность - вероятность одного события при условии, что другое событие уже произошло.

P(А│В)= р(АВ)/ р(В)

Условная вероятность отражает влияние одного события на вероятность другого.

Теорема умножения.

Вероятность произведения событий определяется формулой Р(А 1 ,А 2 ,….А n)= Р(А 1)Р(А 2/ А 1) …Р(А n / А 1 А 2… А n -1)

Для произведения двух событий отсюда следует, что

Р(АВ)=Р(А/В)Р{B)=Р(В/А)Р{А)

Если одно событие не зависит от другого, если появление одного из них не влияет на вероятность появления другого, то последнее также не зависит от первого. Это дает полное основания называть такие события независимыми. Математически независимость означает, что условная вероятность некоторого события совпадает с его вероятностью (безусловной вероятностью).

1.Говорят что событие А не зависит от события В если

P(А│В)=Р(А)

Если событие А не зависит от события В то и событие В не зависит от события А.

2.Если события А и В независимы то Р(АВ)=Р(А)Р(В)-это равенство используется для определения независимых событий.

Следует различать попарную независимость событий и независимость в совокупности.

События А1,А2,….Аn называются независимыми в совокупности если они попарно независимы и каждое из них не зависит от произведения любого набора из остальных событий.

Если события А1,А2,….Аn независимы в совокупности то

Р(А 1 ,А 2 ,….А n)=Р(А 1)Р(А 2)…Р(А n).

В каждой группе какое-либо событие в результате испытания обязательно произойдет, причем появление одного из них исключает появление всех остальных. Такие события называются полной группой событий.

Определение: Если группа событий такова, что в результате испытания обязательно должно произойти хотя бы одно из них, и любые два из них несовместны, то эта группа событий называется полной группой.

Каждое событие из полной группы называется элементарным событием. Каждое элементарное событие - равновозможное, т.к. нет оснований считать, что какое-либо из них более возможное, чем любое другое событие полной группы.

Два противоположных события составляют полную группу.

Относительной частотой события А называется отношение числа опытов, в результате которых произошло событие А к общему числу опытов.

Отличие относительной частоты от вероятности заключается в том, что вероятность вычисляется без непосредственного произведения опытов, а относительная частота – после опыта.



Формула полной вероятности

(где А – некоторое событие, Н1, Н2 … Hi – попарно несовместимы, образубт полную группу, причем А может произойти вместе с H1, H2 Hi)

P(A)=P(A|H 1) P(H 1)+P(A|H 2)P(H 2)+P(A|H 3)P(H 3)+…+P(A|H n)P(H n)

Формула Байеса

Р(Нi |A)=

Замечание. События Нi называют гипотезами вероятности, р(Нi) – априорными вероятностями гипотез Нi, а вероятности Р(Нi/А) – апостериорными вероятностями гипотез Нi

Пусть известен результат опыта, а именно то, что произошло событие А. Этот факт может изменить априорные (то есть известные до опыта) вероятности гипотез. Для переоценки вероятностей гипотез при известном результате опыта используется формула Байеса:

Пример. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6 и 0,7, в мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок.

Решение. Пусть событие А – одно попадание при двух выстрелах,

а гипотезы: Н1 – первый попал, а второй промахнулся,

Н2 – первый промахнулся, а второй попал,

Н3 – оба попали,

Н4 – оба промахнулись.

Вероятности гипотез:

р(Н1) = 0,6·0,3 = 0,18,

р(Н2) = 0,4·0,7 = 0,28,

р(Н3) = 0,6·0,7 = 0,42,

р(Н4) = 0,4·0,3 = 0,12.

Тогда р(А/Н1) = р(А/Н2) = 1,

р(А/Н3) = р(А/Н4) = 0.

Следовательно, полная вероятность р(А) = 0,18·1 + 0,28·1 + 0,42·0 + 0,12·0 = 0,46.

Формула полной вероятности позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез.

Определение 3.1. Пусть событие А может произойти только совместно с одним из событий Н1, Н2,…, Нп, образующих полную группу несовместных событий. Тогда события Н1, Н2,…, Нп называются гипотезами.

Теорема 3.1. Вероятность события А, наступающего совместно с гипотезами Н1, Н2,…, Нп, равна:

где p(Hi) – вероятность i- й гипотезы, а p(A/Hi) – вероятность события А при условии реализации этой гипотезы. Формула (P(A)= ) носит название формулы полной вероятности

Вопрос № 39. Схема Бернулли. Вероятность m успехов в серии из n испытаний

С7 В этом современном виде теорема Байеса была на самом деле сформулирована Лапласом. Томасу Байесу принадлежит сама постановка задачи . Он сформулировал ее как обратную известной задаче Бернулли. Если Бернулли искал вероятность различных исходов бросания "кривой" монеты, то Байес, наоборот, стремился определить степень этой "кривизны" по эмпирически наблюдаемым исходам бросания монеты. В его решении отсутствовала априорная вероятность.  


Хотя правило выглядит очень простым, применить его на практике оказывается трудно, так как бывают неизвестны апостериорные вероятности (или даже значения упрощенных решающих функций). Их значения можно оценить. В силу теоремы Байеса апостериорные вероятности можно выразить через априорные вероятности и функции плотности по формуле Р С, Iх = Р С, (Р(х I С, / Р Су Р хI С,  

Оценивая результаты классификации по методу MDA, мы видим значительную долю ошибочных решений по компаниям-банкротам (группа 1) - одной из них кредит был бы предоставлен. Фирмы с неясным положением (группа 2) с трудом поддаются правильной классификации, потому что, в конечном итоге, они могут попасть в 1-ю или 3-ю группу. Дело нельзя улучшить, приводя априорные вероятности в соответствие с представлениями банка о вероятности принадлежности фирмы различным группам. Общий показатель правильности прогноза составил всего 56.6%, причем из 1-й группы правильно классифицированы были только 30%.  

При имеющемся уровне сложности и одновременности происходящих процессов модели, основанные на причинных связях , имеют ограниченные возможности для применения вновь происходящие события постоянно меняют спецификации всех переменных (и включенных, и не включенных в модель), а значения априорных вероятностей и размеров выплат по различным стратегиям весьма неопределенны и резко меняются вместе с изменениями показателей экономического роста , процентных ставок, обменных курсов и прибыльностью сделок, не связанных с кредитованием (например, при изменении операционных и комиссионных сборов).  

Так как в реальной ситуации нельзя знать заранее, какая часть из компаний, представленных в случайной выборке , потерпит банкротство в течение года и поскольку авторы двух рассматриваемых моделей, как можно предположить, устанавливали разделяющие уровни, исходя из каких-то конкретных предположений об априорных вероятностях банкротства и цене ошибок, мы упростили процедуру сравнения и ввели относительные разделяющие уровни. Иначе говоря, для каждой модели мы считали сигналами о банкротстве нижние 10% сигналов, выдаваемых моделью за очередной год. На деле такой подход означает общую 10-процентную априорную вероятность банкротства и такое отношение числа сигналов о банкротстве к реальным банкротствам в предыдущем тесте, которое определяется с помощью оптимизирующего порога. Кроме того, этот способ имеет то преимущество, что при этом минимизируются искажения, возникающие из-за большого разрыва во времени между публикацией Z-счета Альтмана и проведением эксперимента. Средние показатели за это время могли измениться, и поэтому разделение компаний на сильные и слабые, исходя из определенной пропорции, представляется более надежным. В табл. 9.2 приведены результаты эксперимента по прогнозированию банкротств на год вперед с указанием погрешности для каждой модели.  

Принимая априорную вероятность за факт, оцените ожидаемую прибыль в случае открытия филиала.  

Обозначим через А. событие, заключающееся в том, что q б [

Пусть, например, выбраны следующие параметры величина капитальных вложений , величина эксплуатационных затрат и цена готовой продукции , которые соответственно могут принимать значения Кь К2, К3 Эь Э2, Э3 Ць Ц2, Цз- Каждому из этих значений соответствует некоторая априорная вероятность, например, Кь Эь Ц имеют вероятность pt = 0,1, для К2, Э2, Ц2 вероятность будет р2 = 0,8, а для К3, Э3, Ц3 - р3 = 0,1.  

Пусть априорная вероятность получения в конце процесса проектирования технического решения , удовлетворяющего по-  

Если игрок 2 имеет в игре Г более одной стратегии и априорные вероятности их использования игроку 1 неизвестны или даже вовсе не имеет смысла говорить об этих вероятностях, то все только что сказанное неприменимо.  

Как мы уже ранее видели, изменения априорных вероятностей р и q зависит от настройки сигнала.  

Отсюда следует, что если мы имеем нейтрального к риску субъекта, который считает, что колл-опцион будет стоить Си с вероятностью тг и j с вероятностью (1 - тг), то этот субъект будет вычислять текущую цену опциона с полном соответствии с выведенным нами уравнением. Заметим, что мы нигде не предполагали наличия априорных вероятностей появления той или иной цены акции и, соответственно, будущей оценки опциона . Изложенный подход называется нейтральной к риску оценкой.  

Пусть тг(

Правая часть (7.53) не является плотностью в собственном смысле, так как интеграл от нее не определен, тем не менее при вычислении по формуле Байеса плотности апостериорного распределения параметров формальных трудностей при работе с (7.53) или не возникает, или они легко могут быть преодолены. Как мы увидим ниже в п. 7.3.2, выбор (7.53) удобен в аналитическом отношении и, казалось бы, хорошо отражает полное отсутствие априорных знаний о распределении параметров. Однако в нем на самом деле скрываются очень сильные предположения отсутствие корреляции между параметрами (не пу-т ть с корреляцией между оценками значений параметров, которая зависит от распределения регрессоров и величины а), пренебрежимая малость априорной вероятности того, что вектор параметров лежит в любом наперед заданном конечном объеме, какова бы ни была его величина, и т. д. Это приводит порою к серьезным трудностям с интерпретацией результатов байесовского оценивания .  

Рассмотрим содержание теоремы Байеса с несколько иной точки зрения . Для этого выпишем все возможные исходы нашего эксперимента. Пусть символы Н0, h означают исход монета не накрыта и ее верхняя сторона - герб" . Если вы оцениваете априорную вероятность осуществления  

Я как V2i то вероятность указанного исхода будет Va X х1/2=1/4- Ниже мы приводим список всех исходов и их априорные вероятности  

Так, в примере с монетой и игральной костью Р(На) - априорная вероятность, Р(На К) - апостериорная вероятность , а Р(Н На) - правдоподобность.  

Если теперь априорная вероятность Р(Н0) может быть взята равной либо 1, либо 0, говорят, что принимающий решение  

Вообразим теперь, что экспериментатор предлагает принимающему решение совершенно надежную (или полную) информацию о том, какой именно предмет не накрыт. Принимающий решение должен, однако, заплатить за услугу сообщения такой совершенно надежной информации, прежде чем он получит эту информацию. Какова была бы ценность такой информации Он может заглянуть вперед и спросить себя, что он будет делать в ответ на каждое из двух возможных сообщений, которые может обеспечить данная услуга, и вычислить свой доход, исходя из полученных ответов. Взвешивание этого дохода с помощью априорных вероятностей возможных сообщений позволило бы ему оценить сумму его ожидаемого дохода, если он уплатит некоторую сумму за совершенно надежную информацию до ее фактического получения. Так как этот ожидаемый доход был бы больше 0,5 долл., т. е. того, что он ожидает на основании одной лишь априорной информации , то прирост дохода и явился бы той максимальной суммой, которую ему имело бы смысл уплатить за информационную услугу.  

Фирма должна закупить большое количество товара либо сегодня, либо завтра. Сегодня цена товара 14,5 долл. за единицу. По мнению фирмы, завтра его цена будет либо 10, либо 20 долл. с равной вероятностью. Пусть х обозначает завтрашнюю цену тогда априорные вероятности равны  

На последнем этапе проверяется надежность выбора априорных вероятностей наступления рыночных состояний и вычисляется ожидаемая полезность от уточнения этих вероятностей. Для этого строится дерево решений . В случае появления необходимости дополнительных исследований рынка рекомендуется приостановить процесс внедрения выбранного варианта нового товара до получения более надежных результатов.  

В маркетинговой практической деятельности фирмы зачастую приходится сравнивать затраты на получение частичной (неполной) информации и затраты на получение дополнительной новой информации для принятия более качественного решения. Менеджер (ЛПР) должен оценить, насколько выгода, получаемая от дополнительной информации , покрывает затраты на ее получение. В данном случае может быть применена теория принятия решений Байеса. Исходными данными являются априорные вероятности P(Sk) и условные вероятности P(Z Sk) появления рыночного состояния Z при условии, что предположено появление состояния 5А. При получении новой информации вычисляются ожидаемые полезности каждой стратегии, а затем выбирается стратегия с максимальным значением ожидаемой полезности. С помощью новой информации ЛПР может исправлять априорные вероятности P(Sk), а это очень важно при принятии решений.  

Теперь желательно узнать, какая будет вероятность появления объективного состояния Sk при получении новой информации. Таким образом, необходимо найти P(Sk Z), где k,q = 1,п. Это условная вероятность и она является уточненной априорной вероятностью. Для вычисления P(Sk Z) воспользуемся формулой Байеса  

Итак, мы получили уточненные априорные вероятности появления объективных рыночных состояний. Весь процесс вычисления и получаемые результаты указаны в табл. 9.11 и 9.12.  

Использование бейесовского подхода (6.47) требует знания априорных вероятностей и плотностей распределения вероятностей.  

Используя полученные из АГК числовые характеристики объектов, мы провели стандартный линейный множественный дискрими-нантный анализ с одинаковыми (равными 33%) априорными вероятностями принадлежности элемента. группам. Правильно были классифицированы 41% от общего числа случаев, и это несколько лучше 33-процентной точности, которая получилась бы при случайном отнесении объекта к той или иной группе. Табл. 8.6 ниже- это таблица неправильных классификаций, которая также называется матрицей ошибок.  

Следующая проблема - это выработка стандарта для тестирования. Для оценки MDA-моделей в большинстве случаев берется небольшое количество образцов, и это увеличивает вероятность того, что модель будет слишком точно подогнана под тестовые данные. В выборках обычно содержится поровну компаний-банкротов и небанкротов, а сами данные, как правило, соответствуют периодам интенсивных банкротств. Это приводит к выводу о том, что надежными являются только результаты оценки модели на новых данных. Из табл. 9.1 видно, что даже на самых благоприятных тестах с новыми данными (когда все примеры берутся из одного периода времени и притом однородными в смысле отраслей и размера предприятия) качество получается хуже, чем на образцах, по которым определялись параметры модели. Поскольку на практике пользователи моделей классификации не смогут настраивать модель на другие априорные вероятности банкротства, размер фирмы или отрасль, реальное качество модели может оказаться еще хуже. Качество может также ухудшиться из-за того, что в выборках, используемых для тестирования MDA-моделей, бывает мало фирм, которые не обанкротились, но находятся в зоне риска. Если таких с риском выживающих фирм всего четыре-пять, то это искажает реальную долю рисковых компаний, и в результате частота ошибок 2-го рода оказывается недооцененной.  

Участвовавшие в сравнении MDA-методы были рассчитаны и оптимизированы, исходя из доли ложных сигналов 10 1 при некоторых априорных вероятностях и цене ошибок. Хотелось бы использовать в качестве ex ante критерия меньшее, чем 10-процентное, число потенциальных банкротов в популяции, но это плохо согласуется с параметрами моделей . Это также противоречит практике, когда снижение порога ниже 10-процентного уровня не приводило к банкротству. Так, когда доля ложных сигналов урезалась до 7%, Z-шкала Таффлера вообще переставала идентифицировать банкротства, а модель Datastream наталкивалась на это препятствие на отметке 8%. В противоположность этому нейронная сеть распознала два случая банкротства ниже разделяющего уровня в 4.5%, т.е. сеть способна работать в условиях, когда на одну правильную идентификацию банкротства приходится всего пять ложных сигналов. Этот показатель сравним с наилучшими результатами, которые получаются у MDA-моделей на гораздо менее требовательных тестах задним числом (ех post). Отсюда следуют два вывода во-первых, нейронные модели представляют собой надежный метод классификации в кредитной сфере, и, во-вторых, использование при обучении в качестве целевой переменной цены акции может оказаться более выгодным, чем собственно показателя банкротство/выживание. В цене акций отражает-  

В гл. 3-5 описываются методы шкалирования предпочтений (весов) будущих событий, количественные оценки степени предпочтения и, мы можем вычислить безусловную вероятность любого результата выборки  

Рассуждение, опирающееся исключительно на точные факты и точные выводы, исходящие из этих фактов, называются строгими соображениями. В случаях, когда для принятия решений необходимо использовать неопределенные факты, строгие рассуждения становятся непригодными. Поэтому, одной из сильнейших сторон любой экспертной системы считается ее способность формировать рассуждения в условиях неопределенности так же успешно, как это делают эксперты-люди. Такие рассуждения имеют характер нестрогих. Можно смело говорить о присутствии нечеткой логики .

Неопределенность , а в следствии и нечеткая логика может рассматриваться как недостаточность адекватной информации для принятия решения. Неопределенность становится проблемой, поскольку может препятствовать созданию наилучшего решения и даже стать причиной того, что будет найдено некачественное решение. Следует отметить, что качественное решение, найденное в реальном времени, часто считается более приемлемым, чем лучшее решение, для вычисления которого требуется большое количество времени. Например, задержка в предоставлении лечения с целью проведения дополнительных анализов может привести к тому, что пациент умрет не дождавшись помощи.

Причиной неопределенности является наличие в информации различных ошибок. Упрощенная классификация этих ошибок может быть представлена ​​в их разделении на следующие типы:

  • неоднозначность информации, возникновение которой связано с тем, что некоторая информация может интерпретироваться различными способами;
  • неполнота информации, связанной с отсутствием некоторых данных;
  • неадекватность информации, обусловленная применением данных, не соответствуют реальной ситуации (возможными причинами являются субъективные ошибки: ложь, дезинформация, неисправность оборудования);
  • погрешности измерения, которые возникают из-за несоблюдения требований правильности и точности критериев количественного представления данных;
  • случайные ошибки, проявлением которых являются случайные колебания данных относительно среднего их значения (причиной могут быть: ненадежность оборудовании, броуновское движение, тепловые эффекты и т.д.).

На сегодня разработана значительное количество теорий неопределенности, в которых делается попытка устранения некоторых или даже всех ошибок и обеспечения надежного логического вывода в условиях неопределенности. К наиболее употребляемых на практике относятся теории, основанные на классическом определении вероятности и на апостериорной вероятности.

Одним из старейших и важнейших инструментальных средств решения задач искусственного интеллекта является вероятность. Вероятность — это количественный способ учета неопределенности. Классическая вероятность берет начало из теории, которая была впервые предложена Паскалем и Ферма в 1654 году. С тех пор была проведена большая работа в области изучения вероятности и осуществлении многочисленные применения вероятности в науке, технике, бизнесе, экономике и других областях.

Классическая вероятность

Классическую вероятность называют также априорной вероятностью, поскольку ее определение относится к идеальным систем. Термин «априорная» обозначает вероятность, что определяется «к событиям», без учета многих факторов, имеющих место в реальном мире. Понятие априорной вероятности распространяется на события, происходящие в идеальных системах, склонных к износу или влияния других систем. В идеальной системе появление любого из событий происходит одинаково, благодаря чему их анализ становится намного проще.

Фундаментальная формула классической вероятности (Р) определена следующим образом:

В этой формуле W — количество ожидаемых событий, а N — общее количество событий с равными вероятностями, которые являются возможными результатами эксперимента или испытания. Например, вероятность выпадения любой грани шестигранной игральной кости равна 1/6, а извлечение любой карты из колоды, содержащей 52 различные карты — 1/52.

Аксиомы теории вероятности

Формальная теория вероятности может быть создана на основе трех аксиом:

Приведенные аксиомы позволили заложить фундамент теории вероятности, однако в них не рассматривается вероятность событий, происходящих в реальных — неидеальных системах. В отличие от априорного подхода, в реальных системах, для определения вероятности некоторого события Р(Е) , применяется способ определения экспериментальной вероятности как лимита распределения частот:

Апостериорная вероятность

В этой формуле f(E) обозначает частоту появления некоторого события между N -го количества наблюдений общих результатов. Вероятность такого типа называется также апостериорной вероятностью , т.е. вероятностью, определяемой «после событий». В основу определения апостериорной вероятности положено измерение частоты, с которой возникает некоторое событие при проведении большого количества испытаний. Например, определение социального типа кредитоспособного клиента банка на основе эмпирического опыта.

События, которые не относятся к взаимоисключающих, могут влиять друг на друга. Такие события относятся к классу сложных. Вероятность сложных событий может быть вычислена путем анализа соответствующих им выборочных пространств. Эти выборочные пространства могут быть представлены с помощью диаграмм Венна, как показано на рис. 1

Рис.1 Выборочное пространство для двух не взаимоисключающих событий

Вероятность наступления события А, которая определяется с учетом того, что произошло событие В, называется условной вероятностью и обозначается Р(А|В) . Условная вероятность определяется следующим образом:

Априорная вероятность

В этой формуле вероятность Р(В) не должна равняться нулю, и представляет собой априорную вероятность, что определяется до того, как станет известна другая дополнительная информация. Априорную вероятность , что применяется в связи с использованием условной вероятности, иногда называют абсолютной вероятностью.

Существует задача, которая является по сути противоположной задачи вычисления условной вероятности. Она заключается в определении обратной вероятности, которая показывает вероятность предыдущей события с учетом тех событий, которые произошли в дальнейшем. На практике с вероятностью такого типа приходится встречаться довольно часто, например, при проведении медицинской диагностики или диагностики оборудования, при которой выявляются определенные симптомы, а задача состоит в том, чтобы найти возможную причину.

Для решения этой задачи применяется теорема Байеса , названная в честь британского математика XVIII века Томаса Байеса. Байесивськая теория, в наши дни, широко используется для анализа деревьев решений в экономике и общественных науках. Метод байесовского поиска решений применяется также в экспертной системе PROSPECTOR при определении перспективных площадок для разведки полезных ископаемых. Система PROSPECTOR приобрела широкую популярность как первая экспертная система, с помощью которой был открыт ценное месторождение молибдена, что стоимость 100 миллионов долларов.

Общая форма теоремы Байеса может быть записана в терминах событий (Е) и гипотез (Н), в следующем виде:

Субъективная вероятность

При определении вероятности события применяется также еще один тип вероятности, который называется субъективной вероятностью. Понятие субъективной вероятности распространяются на события, которые не являются воспроизводимыми, и не имеют исторической основы, с помощью которой можно было бы осуществлять экстраполяцию. Такую ситуацию можно сравнить с бурением нефтяной скважины на новой площадке. Однако оценка субъективной вероятности, сделанная экспертом, лучшая, по сравнению с полным отсутствием оценки.

Искомое нами преобразование можно описать следующим образом:
, где

P(x|z) - апостериорная вероятность (wiki);
P(z|x) - функция правдоподобия (зависит от данных, т.е. текущего изображения);
P(x) - априорная вероятность (не зависит от данных).
Фактически, проблему поиска лучшего разделения можно сформулировать таким образом:
(это формула и выражает MAP), или, что тоже самое
, где
E(x) - энергия изображения.
Рассмотрим каждую часть отдельно.

Функция правдоподобия
Данная функция при x = 0 или x = 1 показывает, относится ли текущий пиксель z к нужной нам области изображения. На рисунке справа можно это увидеть.
        Для улучшения результата нам необходимо найти максимум:

        В результате должно получиться следующее:
Априорная вероятность
Этот параметр позволяет учитывать и соседние пиксели при сегментации. Соединим текущий пиксель с его соседями по вертикали и горизонтали. Тогда:
, где

- функция разделения;

- «Ising prior» (априорная вероятность Изинга, по подсказке yuriv).
При этом всем

Апостериорная вероятность
При определении данного слагаемого воспользуемся распределением Гиббса (wiki):
, где

Энергия изображения, где первое слагаемое - значение энергии текущего пикселя самого по себе, а второе - суммарное значение с соседом; w - некий вес, значение которого определяется экспериментально;

Функция правдоподобия;

Априорная вероятность.
Фух, осталось совсем чуть-чуть, самое главное.

Минимизация энергии

Как мы установили в самом начале, минимум энергии соответствует MAP. В этом случае:

(искомый минимум энергии)

Результаты

«Что это было и, главное, ЗАЧЕМ?!», спросит читатель. Вот что в итоге может получиться, с указанием разных значений веса w:

Выводы

Особая прелесть данного метода заключается в том, что формулы энергии мы можем задавать любые. Например, можно добиться выделения на изображении исключительно прямых линий, точек пересечения определенного числа прямых/кривых и многое другое. Кстати, любой счастливый обладатель MS Office 2010 может пощупать описанную технологию. Достаточно использовать инструмент Background Removal.
        Спасибо за внимание!
Уголок копирайтера
Все использованные изображения взяты из работ Carsten Rother. Формулы построены при помощи онлайн

I.Условные вероятности. Априорная и апостериорная вероятность. 3

II.Независимые события. 5

III.Проверка статистических гипотез. Статистическая достоверность. 7

IV.Использование критерия «хи-квадрат» 19

1.Определение достоверности отличия набора частот от набора вероятностей. 19

2.Определение достоверности отличия нескольких наборов частот. 26

VСАМОСТОЯТЕЛЬНОЕ ЗАДАНИЕ 33

Занятие №2

  1. Условные вероятности. Априорная и апостериорная вероятность.

Случайная величина задается тремя объектами: множеством элементарных событий, множеством событий и вероятностью событий. Те значения,которые может принимать случайная величина, называютсяэлементарными событиями. Наборы элементарных событий называютсясобытиями . Для числовых и других не очень сложных случайных величин любой конкретно заданный набор элементарных событий есть событие.

Приведем пример: бросание игральной кости.

Всего имеется 6 элементарных событий: «очко», «2 очка», «3 очка»… «6 очков». Событие – любой набор элементарных событий, например «чет» -сумма элементарных событий «2 очка», «4 очка» и «6 очков».

Вероятность любого элементарного события P(A) равна 1/6:

вероятность события – количеству входящих в него элементарных событий, деленному на 6.

Достаточно часто в добавление к известной вероятности события имеется некоторая дополнительная информация, которая меняет эту вероятность. Например, летальность больных. поступивших в больницу с острой кровоточащей язвой желудка, составляет около 10%. Однако, если больному больше 80 лет, эта летальность составляет 30%.

Для описания таких ситуаций были введены так называемые условные вероятности . Они обозначаются, какP(A/B) и читаются «вероятность события А при условии события В». Для вычисления условной вероятности используется формула:

Вернемся к предыдущему примеру:

Пусть среди больных, поступивших в больницу с острой кровоточащей язвой желудка 20% - больные старше 80 лет. Причем, среди всех больных доля умерших больных старше 80 лет – 6%(напомним, что доля всех умерших составляет 10%). В этом случае

При определении условных вероятностей часто пользуются терминами априорной (буквально – до опыта) иапостериорной (буквально – после опыта) вероятности.

Пользуясь условными вероятностями, можно по одним вероятностям вычислить другие, например, менять местами событие и условие.

Рассмотрим эту технику на примере анализа связи риска заболевания ревматизма (ревматической лихорадкой) и одного из антигенов, являющихся для него фактором риска.

Частота заболевания ревматизмом – около 1%. Обозначим наличие ревматизма как R + , тогда какP(R +)=0,01.

Наличие антигена будем обозначать, как А + . Его находят у 95% больных ревматизмом и у 6% лиц, ревматизмом не болеющих. В наших обозначениях это: условные вероятности Р(А + /R +)=0,95 и Р(А + /R -)=0,06.

На основании этих трех вероятностей будем последовательно определять другие вероятности.

Прежде всего, если заболеваемость ревматизмом P(R +)=0,01, то вероятность не заболетьP(R -)=1-P(R +)=0,99.

Из формулы для условной вероятности находим, что

Р(А + иR +)= Р(А + /R +) * Р(R +) = 0,95*0,01 = 0,0095, или 0,95% популяции одновременно и болеют ревматизмом и имеют антиген.

Аналогично

Р(А + иR -)= Р(А + /R -) * Р(R -) = 0,06*0,99 = 0,0594, или 5,94% популяции носят антиген, но ревматизмом не болеют.

Так как все имеющие антиген или болеют ревматизмом или и не болеют (но не одновременно и то и другое), то сумма двух последних вероятностей дает частоту носительства антигена в популяции в целом:

Р(А +)= Р(А + иR +) + Р(А + иR -) = 0,0095 + 0,0594 = 0,0689

Соответственно, доля людей, не имеющих антиген равна

Р(А -)=1- Р(А +) = 0,9311

Так как заболеваемость ревматизмом равна 1%, а доля лиц, имеющих антиген и болеющих ревматизмом, равна 0,95%, то доля лиц, болеющих ревматизмом и не имеющих антигена равна:

Р(А - иR +) = Р(R +) - Р(А + иR +) = 0,01 – 0,0095 = 0,0005

Теперь будем двигаться в обратную сторону, переходя от вероятностей событий и их комбинаций к условным вероятностям. По исходной формуле условной вероятности Р(А + /R +)= Р(R + иA +)/ Р(А +) = 0,0095/0,06890,1379 , или примерно 13,8% лиц, носящих антиген, заболеют ревматизмом. Так как заболеваемость популяции в целом лишь 1%, то факт выявления антигена повышает вероятность заболевания ревматизмом в 14 раз.

Аналогичным образом Р(R + /А -)=Р(R + иA -)/ Р(А -) = 0,0005/0,93110,000054, то есть тот факт, что при проверке антигена не обнаружено, снижает вероятность заболевания ревматизмом в 19 раз.

Оформим эту задачу в электронной таблице Excel:

Наличие ревматизма R+

Наличие антигена у болеющих А+

Наличие антигена у неболеющих А+

Вероятность не заболеть

P(R -)=1- P(R +)

Одновременно и болеют ревматизмом и имеют антиген

Р(А + и R +)= Р(А + /R +) * Р(R +)

Носят антиген, но ревматизмом не болеют

Р(А + и R -)= Р(А + /R -) * Р(R -)

Частота носительства антигена в популяции в целом

Р(А +)= Р(А + и R +) + Р(А + и R -)

Доля людей не имеющих антиген

Р(А -)=1- Р(А +)

Доля людей, болеющих ревматизмом и не имеющих антигена

Р(А - и R +) = Р(R +) - Р(А + и R +)

Лица, носящие антиген, заболеют ревматизмом

Р(А + /R +)= Р(R + и A +)/ Р(А +)

Лица,не носящие антиген, не заболеют ревматизмом

Р(R + /А -)=Р(R + и A -)/ Р(А -)

Можно посмотреть процесс построения таблицы картинки2\p2-1.gif