概率论基础
- 条件概率
- 全概率公式
基本贝叶斯公式
产生式规则:
IF E THEN Hi
主观贝叶斯的基本思想
知识不确定性的表示
以下为公式V:
几率函数
取值范围为[0,+∞]
所以几率函数就是把p(x)放大了
证明关于LN的公式推导思路:
LS和LN的性质
LS和LN的关系
证明:
Conclusion:
当证据E愈是支持H为真时,则LS的值应该愈大;当证据E对H愈是重要时,则相应的LN的值应该愈小。
证据不确定性的表示
- 1、单个证据不确定性的表示方法
- 2、组合证据的不确定性的确定方法
不确定性推理计算
- 确定性证据
以上两个公式的推导过程分别如下:
相关例题:
题解:
P(H1|E1)说明了由于证据E1的发生,使得H1发生的概率由0.03增加到了将近八倍
故选C、0.2362
当然这题还可以继续做下去,如果大家愿意可以继续看下去,如果不感兴趣,可以直接看下面的不确定性证据知识点
(1)如果证据E们确定出现,就用这个公式
那么P(H1|E1) = 0.2362
在R3中,由于LS = 1,表明E3对H3没有影响,即P(H3|E3) = P(H3) = 0.3
(2)若证据E们确定不出现,则用这个公式
再看几个题
由于前面有题解过程,所以这两题很简单,故选D、A
- 不确定性证据
杜达公式
结论不确定性的合成和更新算法
- 1、结论不确定性的合成算法
相关例题:
答案:
A A A B
题解:
这就涉及到这篇文章前面的内容以及结论不确定的合成算法
解法一:合成法
解法二:更新法
这就是运用了我前面写的公式
- 2、结论不确定性的更新算法
其思想是,按照顺序使用规则对先验概率进行更新,再把得到的更新概率当做先验概率,更新其他规则,这样继续更新直到所有的规则使用完。
Conclusion
有一定难度的两道题
Pro1、
题解:
注:在R3中H1是证据,所以上图最后一个式子是P(H2) + P(H2|H1) - P(H2) / 1 - P(H1) * …
相关知识:
Pro2、
题解: