Обсуждение:Скрытая марковская модель

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Больше не сирота[править код]

Есть ссылка на эту страницу с английской статьи по Hidden Markov Model

Math31 19:05, 16 января 2008 (UTC)[ответить]

Чего-то вообще не в тему[править код]

Марковская модель это конечный автомат, каждое состояние которого выдается в результат. Скрытая - не все состояния выдаются, можно по ним поблуждать и только попадя на открытое снова выдаем "текущее" состояние. NOwiking

Ну, это частный случай того, что описано в статье — для наблюдаемых состояний положим (результат наблюдения) равным состоянию, а для ненаблюдаемых пусть будет специальным объектом-маркером «ненаблюдаемое состояние». -- X7q 02:56, 18 августа 2009 (UTC)[ответить]
Если так рассуждать каждый шпион должен носить табличку "я не шпион", а все потерянные вещи должны каким-то чудом оказываться в специальном ящичке в подвале с маркером "Потерянные вещи". В том-то и дело что этот маркер не на что вешать. Изнутри системы конечно все состояния видны, а снаружи не должно быть никакого "невидимого состояния", должно быть тоже видны все состояния, но изнутри их больше. По-английски зачем-то нарисовали число y больше чем x. Это вообще недетерминированный автомат, который может быть одновременно в двух состояниях, вообще третий вид. Вторая картинка там правильнее. Но тоже уже с Байесом скрестили, вполне отделяемую постороннюю функцию зачем-то замешали в основную. NOwiking 00:48, 19 августа 2009 (UTC)[ответить]
Хорошо, если вам не нравится получать в выходной последовательности этот маркер «ненаблюдаемое состояние», то от них можно легко избавиться — построим марковскую цепь, в которой оставим только наблюдаемые состояния, с вероятностью перехода из i-го в j-е состояние равной вероятности того, что начав с i-го состояния в исходной модели и, "поколесив" по ненаблюдаемым состояниям, в конце окажемся в j-м состоянии. С точки зрения наблюдателя эти две модели будут эквивалентны. X7q 02:13, 19 августа 2009 (UTC)[ответить]
>По-английски зачем-то нарисовали число y больше чем x.
Так это потому, что каждому состоянию, вообще говоря, может соответствовать не один результат наблюдения, а несколько, выдаваемых с определёнными вероятностями. И множества возможных результатов наблюдения могут пересекаться для разных состояний. Это часть стандартного определения скрытых марковских цепей, см. Rabiner's Tutorial on Hidden Markov Models. X7q 02:13, 19 августа 2009 (UTC)[ответить]

Сomputing likelihood using Baum-Welch (forward-backward) algorithm ???[править код]

Разве для оценки правдоподобия цепочки наблюдений используется forward-backward алгоритм? Алгоритм Баума-Уэлча предназначен для обучения HMM, для оценки правдоподобия используется forward алгоритм.

195.131.125.162 14:40, 11 сентября 2009 (UTC)[ответить]