例8.1 我们用程度元组将命题“这个苹果比较甜”表示为? (这个苹果, 味道, (甜, 0.95))?
其中的0.95就代替“比较”而刻画了苹果“甜”的程度。 例8.2 采用程度谓词, 则?
(1) 命题“雪是白的”可表示为? white1.0(雪) 或 1.0white(雪)?
(2) 命题“张三和李四是好朋友”可表示为?
friends1.15(张三, 李四) 或 1.15 friends(张三, 李四) ?例8.3 下面是一个描述大枣的程度框架。 ? 框架名: <大枣>?
类属: (<干果>, 0.8)? 形状: (圆, 0.7)? 颜色: (红, 1.0)? 味道: (甘, 1.1)?
用途: 范围: (食用, 药用)? 缺省: 食用
例8.4 图8-1所示是一个描述狗的程度语义网。
例8.5 设有规则: 如果某人鼻塞、 头疼并且发高烧,则该人患了重感冒。 我们用程度规则描述如下: ?
(某人, 症状, (鼻塞,x))∧(某人,症状,(头疼, y))∧(患者, 症状, (发烧,z))→? (该人, 患病, (感冒, 1.2(0.3x+0.2y+0.5z)))?
程度规则的关键是程度函数。 一个基本的方法就是采用机器学习(如神经网络学习)。 这需要事先给出一些含有具体程度值的实例规则, 学习作为样本。
例8.6 设有如下一组产生式规则和证据事实,试用确定性理论求出由每一个规则推出的结论及其可信度。
规则:
①if At hen B(0.9)
②if B and C then D(0.8) ③if A and C then D(0.7) ④if B or D then E(0.6) 事实:
A,CF(A)=0.8;C,CF(C)=0.9 解
规则①得:CF(B)=0.9×0.8=0.72
由规则②得:CF(D)1=0.8×min{0.72,0.9)=0.8×0.72=0.576 由规则③得:CF(D)2=0.7×min{0.8,0.9)=0.7×0.8=0.56 从而 CF(D)=CF(D)1+CF(D)2-CF(D)1×CF(D)2 =0.576+0.56-0.576×0.56=0.81344 由规则④得:
CF(E)=0.6×max{0.72,0.81344}=0.6×0.81344=0.488064 例8.7 设有规则if E1 then (100, 0.01) H1 (P(H1)=0.6),并已知证据E1肯定存在,求H1的后验概率P(H1| E1)。
解 由于证据E1肯定存在,因此可用公式(4)计算P(H1| E1)。于是有
LS?P(H1)100?0.6
P(H1|E1)???0.99 1?P(H1)(LS?1)1?0.6?(100?1)
例8.8 设有规则if E1 then (100, 0.01) H1 (P(H1)=0.6),并已知证据E1肯定不存在,求H1的后验概率P(H1|﹃E1)。
解 由于证据E1肯定不存在,因此可用公式(5)计算P(H1|E1)。于是有
LN?P(H1)0.01?0.6
P(H1|?E1)???0.006 1?P(H1)(LN?1)1?0.6?(0.01?1)
例3 设有规则if E1 then (100, 0.01) H1 (P(H1)=0.6),并已知证据E1不确定,但P(E1| S1)=0.7,S1为影响E1的观察或条件,而E1的先验概率P(E1)=0.5,求H1的后验概率P(H1| E1)。
解 由于证据E1不确定,因此要用插值公式(6)计算P(H1|E1)。又由于
P(E1| S1)=0.7> P(E1)=0.5 所以应采用公式
P(H|E)?P(H)
P(H|S)?P(H)?[P(E|S)?P(E)] 1?P(E) 即
P(H1|E1)?P(H1)P(H|S)?P(H)?[P(E1|S1)?P(E1)] 1111?P(E1)
其中P(H1 )、P(E1)已知,还需要计算E1肯定存在的情况下的P(H1| E1),我们直接采用前面例1的结果,于是有
0.99?0.6P(H|E)?P(H|S)?0.6??[0.99?0.5]?0.9822 11111?0.5
例8.10 设有规则
R1: if E1 then (200, 0.02) H R2: if E2 then (300, 1) H 已知证据E1和E2必然发生,并且P(H)=0.04,求H的后验概率P(H| E1 E2)。 解 由P(H)=0.04,有 O(H)=0.04/(1-0.04) 0.04 由R1有
O(H|E1)=LS1O(H)=2000.04=8 由R2有
O(H|E2)=LS2O(H)=3000.04=12 于是
O(H|E1)O(H|E2)O(H|E1E2)???O(H)
O(H)O(H)
812???0.04?24000.040.04 从而
P(H|E1E2)?2400?0.9995835 1?2400例8.11 设Ω={a,b,c},其基本概率分配函数为 m({a})=0.4 m({a,b})=0 m({a,c})=0.4 m({a,b,c})=0.2 m({b})=0 m({b,c})=0 m({c})=0
可以看出,基本概率分配函数之值并非概率。如
m({a})+m({b})+m({c})=0.4≠1 例8.12 由例8.11可知
Bel({a,b})=m({a})+m({b})+m({a,b})=0.4+0+0=0.4 例8.13 由例8.11、例8.12可知
Pl({a,b})=1-Bel({a,b}′)=1-({c})=1-0=1
例8.14 设识别框架Ω={a,b,c},若基于两组不同证据而导出的基本概率分配函数分别为:
m1({a})=0.4 m1({a,c})=0.4 m1({a,b,c})=0.2 m2({a})=0.6
m2({a,b,c})=0.4 将m1和m2合并
m({a})?B?C?{a}?m1(B)m2(C)
=m1({a})m2({a})+m1({a})m2({a,b,c})+m1({a,c})m2({a}) +m1({a,b,c})m2({a})=0.76
m({a,c})=m1({a,c})m2({a,b,c})=0.16
m({a,b,c})=m1({a,b,c})m2({a,b,c})=0.08 例8.15 设有规则:
(1)如果 流鼻涕 则 感冒但非过敏性鼻炎(0.9)或过敏性鼻炎但非感冒(0.1)
(2)如果 眼发炎 则 感冒但非过敏性鼻炎(0.8)或过敏性鼻炎但非感冒(0.05)括号中的数字表示规则前提对结论的支持程度。又有事实:
小王流鼻涕(0.9) 小王眼发炎(0.4)
括号中的数字表示事实的可信程度。
我们用证据理论求解这一医疗诊断问题。 ? 首先, 取识别框架? Ω={h1,h2,h3}
其中,h1表示“感冒但非过敏性鼻炎”,h2表示“过敏性鼻炎但非感冒”,h3表示“同时得了两种病”。
再取下面的基本概率分配函数:
m1({h1})=规则前提事实可信度×规则结论可信度 =0.9×0.9=0.81
m1({h2})=0.9×0.1=0.09
m1({h1,h2,h3})=1- m1({h1})- m1({h2})=1-0.81-0.09=0.1 m1(A)=0 (A为Ω的其他子集)
m2({h1})=0.4×0.8=0.32m2({h2})=0.4×0.05=0.02m2({h1,h2,h3})=1-m2({h1})-m2({h2})=1-0.32-0.02=0.66
m2(A)=0 (A为Ω的其他子集) 将两个概率分配函数合并
K=1/{1-[m1({h1})m2({h2})+m1({h2})m2({h1})]} =1/{1-[0.81×0.02+0.09×0.32]} =1/{1-0.045} =1/0.955 =1.05
m({h1})=K·[m1({h1})m2({h1})+m1({h1})m2({h1,h2,h3} +m1({h1,h2,h3})m2({h1})]
=1.05×0.8258=0.87 m({h2})=K·[m1({h2})m2({h2})+m1({h2})m2({h1,h2,h3} +m1({h1,h2,h3})m2({h2})] =1.05×0.0632=0.066
m({h1,h2,h3})=1-m({h1})-m({h2}) =1-0.87-0.066=0.064 由信任函数求信任度
Bel({h1})=m({h1})=0.87
Bel({h2})=m({h2})=0.066 由似真函数求似真度
Pl({h1})=1-Bel({h1}′)=1-Bel({h2,h3}) =1-[m({h2}+m({h3}) =1-[0.066+0]=0.934
Pl({h2})=1-Bel({h2}′)=1-Bel({h1,h3}) =1-[m({h1})+m({h3})] =1-[0.87+0]=0.13 于是,最后得到:
“感冒但非过敏性鼻炎”为真的信任度为0.87,非假的信任度为0.934;
“过敏性鼻炎但非感冒”为真的信任度为0.066,非假的信任度为0.13。
所以,看来该患者是感冒了。
证据理论是被推崇的处理随机性不确定性的好方法,受到人工智能特别是专家系统领域的广泛重视,并且已为许多专家系统所采用。
例8.16 设U={0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10}, 则?
S1=0/0+0/1+0/2+0.1/3+0.2/4+0.3/5+0.5/6+0.7/7 +0.9/8+1/9+1/10?
S2=1/0+1/1+1/2+0.8/3+0.7/4+0.5/5+0.4/6+0.2/7 +0/8+0/9+0/10 就是论域U的两个模糊子集, 它们可分别表示U中“大数的集合”和“小数的集合”。
可以看出, 上面“大数的集合”和“小数的集合”实际上是用外延法描述了“大”和“小”两个软概念。这就是说, 模糊集可作为软概念的数学模型。
例8.17 通常所说的“高个”、“矮个”、“中等个”就是三个关于身高的语言值。我们用模糊集合为它们建模。 ?
取人类的身高范围[1.0, 3.0]为论域U, 在U上定义隶属函数μ矮(x)、μ中等(x)、μ高(x)如下(函数图像如图8-5所示)。 这三个隶属函数就确定了U上的三个模糊集合,它们也就是相应三个语言值的数学模型。
?1?1.65?x??矮(x)??0.15?0??1.0?x?1.501.50?x?1.651.65?x?3.0