后向归纳法的动态认知刻画*

2016-05-23 06:27崔建英
学术研究 2016年4期
关键词:决策权宣告刻画

崔建英



后向归纳法的动态认知刻画*

崔建英

[摘要]后向归纳法BI(Backward Induction)是求解动态博弈的经典算法,其认知机制的探讨多是基于静态的认知模型展开的。这样,为了给BI算法结果中具有反事实性的理性行动提供合理置信的解释,一些非平凡的条件被添加到这类认知模型中,形成多种较为复杂的条件知识(或信念)或层级式(Hierarchical)知识(或信念)系统。我们构建了一类博弈认知模型,基于公开宣告逻辑PAL(Public Announcement Logic),实现博弈认知模型的动态更新,论证了在完美信息动态博弈中,选手间的理性公共知识能够导致BI算法结果,为该算法的认知条件提供了一种新的逻辑刻画。这种刻画没有涉及选手策略等博弈概念,通过利用PAL中模型更新的动态性来描述动态博弈中的BI算法认知条件,不会受到通常BI算法认知刻画理论中所涉及的反事实(无论是主观还是客观)推理的影响,从而有效地避免了复杂的条件信念(或知识)系统或层级式知识(或信念)和信念修正的问题。

[关键词]后向归纳法理性公开宣告逻辑

*本文系国家社科基金资助项目(12CZX056)、教育部人文社会科学重点研究基地重大项目(15JJD720014)、广东省哲学社会科学“十二五”规划青年项目(GD11YZX03)的阶段性成果。

一、引论

在动态博弈中,关于选手理性选择的刻画往往是基于一类静态的认知模型而展开进行的。[1]在这类认知模型中,我们不仅需要描述出理性决策路径上选手们的知识(或信念),而且还需要说明当一个不是理性决策路径上的行动如果被对手选择到时,每个选手原有的初始知识(或信念)、在此情形下选手对于原有知识(或信念)所进行的修正以及其对手关于该选手修正后的知识(或信念)等。例如,在一个动态博弈中,选手2初始时知道(或相信)理性选手1应该选择马上结束博弈的行动,然而,他还需要知道(或相信),如果选手1让博弈继续进行,给出机会让他进行选择时,选手1所基于的知识(或信念)是什么,以引导选手2在此情形下做出理性的选择。因此,这类模型必然会涉及复杂的条件知识(或信念)系统或层级式(Hierarchical)系统和信念修正的问题。同时,基于此类模型,选手初始时理性的公共知识是不能蕴涵后向归纳法BI(Backward Induction)的结果的。[2] [3] [4]

在本文中,我们基于一个动态逻辑系统——公开宣告逻辑PAL(Public Announcement Logic),将理性选手定义为或者该选手对于当前世界所相应的结果没有绝对决策权,或者他知道参与博弈的选手在他们能够对博弈结果具有绝对决策权时总是追求其自身利益最大化,论证了在完美信息动态博弈中,基于这种理性的公共知识能够导致BI算法结果,从而为该算法的认知条件提供了一种新的逻辑刻画。由于这种刻画理论是通过利用PAL中模型更新的动态性来描述动态博弈中的BI算法的动态剔除博弈结果的过程,没有涉及选手策略的问题,不会受到通常BI算法认知刻画理论中所涉及的反事实(无论是主观还是客观)推理问题的影响,从而有效地避免了复杂的条件信念(或知识)系统或层级式信念(或知识)和信念修正的问题。[5] [6] [7] [8] [9] [10] [11] [12] [13]同时,由于我们的刻画分析是基于动态认知逻辑PAL之上,这也为未来我们研究动态模型检测动态博弈认知系统性质,提供了可行的理论基础。

二、预备知识

本文的讨论主要涉及了公开宣告逻辑和具有完美信息动态博弈的内容,因此,在本节中,我们将主要介绍与这两个内容相关的一些概念和定理,并定义一个行动函数,用于后文中博弈认知模型的构建。

(一)公开宣告逻辑PAL

借助于动态认知逻辑研究虚拟在博弈选手头脑间的交流情形与博弈进程中模型变化之间的关系近十多年得到迅速发展。本文研究所基于的PAL是一种较为简单的动态认知逻辑,主要是通过公告某个命题φ,剔除原认知模型中与命题φ不相容的状态(或可能世界),而保留原模型中主体认知择选关系不变,从而显性地描述主体间信息的互动,以及由此引发的主体认知情形变化的一种逻辑。这种逻辑的语言是通过添加一个行动模态算子[! P],即,公开宣告算子,到标准的多主体认知逻辑构成,[14]公式[! P]φ表示了真实宣告命题P后,公式φ成立,语义解释为:

因此,公开宣告一个命题为真的直接结果就是各个主体摒弃那些原先自己认为的可能为假的那些可能世界。经过这种变化后,主体的认知状态相应地发生了改变(这里,行动模态算子[! P]实质上是起到从一个模型到它的相对化子模型的动态转换功能)。值得注意的是,由于公告命题P这类认知行为的触发是基于P为真的条件,因此,公告算子是一种部分函数。

这样,借助于PAL语言,我们可以表达诸如,[!φ]Kiψ:在公开宣告事实φ后,主体i知道了命题ψ;[!φ] CGψ:公开宣告φ后,ψ成为群体G间的公共知识等认知情形。同时,van Benthem在文中,[15]定义了公开宣告某命题φ的极限模型是重复公告φ不再对其相应的初始模型M产生任何的影响(即模型不再被改变)的第一个子模型,用#(φ, M)表示。并且,van Benthem论证了当此极限模型#(φ, M)是非空的,那么,我们就获得了一个使得φ成为主体间的公共知识的模型。

后文中,证明宣告极限模型#(Ra, MG)中的元素与BI算法求解的结果之间的一致性,正是本文中一个重要的刻画定理,是我们证明理性公共知识蕴涵BI算法求解结果的基石。

(二)具有完美信息的动态博弈和行动函数

我们采用基于博弈历史来描述动态博弈模型——扩展式博弈模型(或称博弈树模型)。

设A是一个行动集合,A*表示A中一个有穷行动序列集合。如果h=〈a1,a2,…ak〉∈A*且1≤j≤k,则称序列〈a1,a2,…aj〉是h的前缀。一个具有完美信息的有穷扩展式博弈G是五元组〈H, N, A, f, {ui}i∈N〉,[16]其中,H是满足条件H⊆A*的有穷历史集,且相对于取前缀运算是封闭的(即若h∈H且h’∈A*是h的前缀,则h’∈H);N是有穷的选手集;A是有穷行动集合(Ai⊆A是可供选手i选择的行动集);函数f是给每个决策历史指派一个选手,f(h)表示在历史h上的决策者;效用函数ui指派给每个具有博弈终点的历史,对应不同选手的一个效用值。这里,我们用Ø表示空历史〈〉,它是每个历史的前缀;字母Z用以表示具有博弈终点(或称叶子)的历史,而D=H是指非终点式的历史集,A(h)表示在历史h中所包含的行动集。

考虑到在一个动态博弈中,不同选手所选择的相同行动或者同一个选手在不同时刻选择的同一个行动,由于选择人和选择时段的不同,实质上都是不同的行动,因此,我们规定对∀a,b∈A,有a≠b。同时,出于下文定义行动函数的需要,我们用符号0和⊥0表示任意一个空行动和假行动,①这里空行动是指博弈开始前选手们的行动,类似于空历史的概念;而假行动则是指当某历史的长度小于博弈进程时刻值时选手们的一种虚拟的行动。并将它们添加到每个选手的行动集中,即,0∧⊥0∈∧i∈NAi。

如果对一个有穷扩展式博弈G中的任何一个h∈H,都至多有一个选手具有一个非单元素的行动集,那么,称这样的博弈是具有完美信息的有穷博弈。进一步来说,如果对每一个选手i,若z和z’对应是不同的结果,则必有ui(z)≠ui(z’),则称此博弈是泛型的(generic)。[17]由于BI算法主要被用于求解完美信息的动态博弈,因此,本文重点考察具有完美信息的有穷泛型博弈。

为方便叙述,我们将含有叶子的历史z记为是一串不包含括号和逗号的行动序列,如,z=〈Ø, a1, a2, …,a5〉被记为z=0a1a2a3a4a5,并用符号l(z)表示该历史的长度,这里l(z)=5(空段不计入长度),lmax(G)=max{ l(z),∀z∈H}则表示博弈树G的最大长度。

在一个历史z中,博弈不同时段对应的行动是不同的,为此,我们定义一个行动函数,用于寻找博弈t时段(t∈N|t≤l(G)-1)时,历史z中的行动。而借助此函数,我们可以刻画出BI算法解集。

定义1.给定一个具有完美信息的泛型扩展式博弈G,行动函数Λz(t):Z×T→A,用于寻找在博弈t阶段时,历史z上所对应的行动。其中,Λz(0)=0,Λz(t)=⊥0(当l(z)<t时)。

依此定义,如果Λz(t)=Λz’(t)(其中z≠z’),那么,两个不同的历史z和z’在博弈t时段时具有相同的行动。并且,z和z’具有长度不大于t的相同前缀。

定义2.给定一个具有完美信息的泛型扩展式博弈G=〈H, N, A, f, {ui}i∈N〉且l(G)=m。令BI*是该博弈BI算法均衡解的集合,则BI*=∩n≥1BIn=∩n≥1(BIn-1-DBn-1)(n∈N,1≤n≤m),这里DBn表示逆推第n阶段时,被BI算法剔除的结果集,而BIn表示逆推第n阶段时未被BI算法所剔除的结果集。其中,BI0=Z,DB0= {z∈Z|Λz(m)∈Ai/{⊥0}且ui(z)<max {ui(z’)},其中Λz(m-1)=Λz’(m-1)}。对∀z∈DBn(n≥1),满足:

(i)z∈BIn-1;

(ii)Λz(m-n)∈Ai/{⊥0}且ui(z)<max{ui(z’)},其中Λz(m-n-1)=Λz'(m-n-1)。

随着博弈进程的展开,选手关于博弈结果的知识在增加:博弈开始前,每个选手都认为所有的博弈结果都是可能的,而当某个选手做出一个行动选择后,某些博弈结果一定会从选手当前的认知可能世界集中消失,从而缩减了选手的认知可能世界集,选手关于博弈结果的知识得到增加。以下,我们通过将选手关于博弈结果的知识随着博弈的进程展开而发生的这种变化,与我们所定义的行动函数一起,刻画选手关于某博弈结果的绝对决策权。进而在此基础上,将理性选手定义为能够知道具有绝对决策权的选手总是最大化他们收益的选手,并证明重复公告这种理性后所达到的、公告极限模型的可能世界集,与BI算法解集具有完全的一致性,从而提供出一个关于BI算法认知基础的完全刻画定理。

三、博弈认知模型

考虑到易读性,我们将一类符号集专门用以表达与博弈相关的命题。如符号ADi表示选手i对于历史z所相应的结果具有绝对决策权,Rai表示i是理性的,zv’≥izv表示选手i偏好的是博弈结果v’而不是v。这样,对于给定的一个动态博弈G,基于公开宣告逻辑PAL,我们构建博弈G的认知模型如下:

定义3.给定一个完美信息有穷泛型博弈G,关于G的一个博弈认知模型MG’是一个四元组〈W, T, {Ri}i∈N,V〉,其中:

T是博弈G进程时刻点集,即T={t|t∈N且t≤l(G)};

W是由博弈历史z和博弈时段值t构成的有序对,W={w|(zw,tw)∈Z×T};

Ri⊆W* W是状态集N上的二元关系,Ri(w)= {v∈W|tv=tw且Λzv(t-1)=Λzw(t-1)≠⊥0};

V: W→2W是赋值函数,指派原子命题到每个可能世界;

那么,与博弈相关的命题公式语义解释为:①因其他公式语义是标准的Kripke语义,这里不再赘述。

MG’,(zw,tw)ADi当且仅当Λzw(tw)∈Ai/{⊥0}且∀v∈{(zv,tv)∈W| zv=zw,tv≠tw,Card(Ri(v)≥2},满足Card(Ri(v))>Card(Ri(w))≥2;

MG’,(zw,tw)zv’≥izv当且仅当ui(zv’)≥ui(zv);

MG’,(zw,tw)Rai当且仅当或者∀v∈{(zv,tv)∈W|zv=zw},MG’,(zv,tv)ADi或者∃v∈{(zv,tv)∈W|zv=zw}且∃j∈N,满足MG’,(zv,tv)Ki(ADj∧(zv≥jzv’)),其中∀v’∈Rj(v)。

释义1:在上述关于选手认知择换关系的定义中,条件tv=tw确保了选手的认知择换关系具有自反、对称和传递性;而条件Λzv(t-1)=Λzw(t-1)则要求只要博弈下一阶段的决策者(或活动选手)没有做出选择,那么,任何一个属于当前阶段中的博弈结果都不会被选手排除。这是一个合理的规则,原因在于每个人在对手未做出选择前,是不可能知道哪些结果确定地不会被选择,即便下个决策者是自己,也是具有犯错误的可能性而选错了行动,从而,任何一个结果都不应该在下个选手未做出选择前,而被选手从他们的可能世界集中剔除。同时,由于我们所关注的是选手关于博弈结果知识的描述,因此,对于一个具有完美信息的博弈而言,每个选手在博弈的每个阶段,对于当前博弈结果可能性的认知都是一样的,即对∀w∈W,Ri(w)=Rj(w)。

释义2:一个选手i在某可能世界w上具有绝对决策权ADi是指,选手i不需要考虑到后续博弈阶段中参与选手行动选择的影响,而可直接决定w所相应的博弈结果是否能够成为整个博弈的最终结果。②按照定义3,如果选手只是可以直接决定某结果,并不一定具有对于该结果的绝对决策权,因为这并不意味着他不需要考虑后续阶段参与选手的影响。例如,在前述例1中,尽管在博弈第2个时段(即t=2时),选手2可以直接选择行动b3而使得博弈最终结果为z3。但是,由于在此阶段选手2需要考虑到其对手后续行动对于自己当前选择所导致的收益的影响,使得他并不能确定地知道是否此结果是这个博弈中能够最优自己收益的结果,因此,选手2在此时段,并没有此结果的绝对决策权。如前述,选手关于博弈结果的知识是随着博弈进程的展开而增加:在博弈初始阶段选手i的认知可能世界往往是较大集合。而随着博弈进程展开,某些结果会被选手摒弃,使得i关于最终博弈结果的知识在增加,相应地,他的认知可能世界集在减小。如果选手i在某世界w上拥有绝对决策权,那么,i是博弈此阶段的决策者(即,Λzw(tw)∈Ai/{⊥0})的同时,他还能够确定地知道下一阶段行动所导致结果的孰劣孰优。因此,i一定他在此阶段(tw)的认知可能世界集Ri(w),应该是所有相应于状态w上博弈结果(zw)他的那些非单元素的、认知可能世界集中最小的集合,即∀v∈{(zv,tv)∈W|zv=zw,tv≠tw,Card(Ri(v)≥2},满足Card(Ri(v))>Card(Ri(w))≥2。这里,由于只有当Λzw(tw)=⊥0或者选手在tw时已经做出了选择,其在w处的可能世界集才会是单元素集,即Ri(w)={w}。而在这两种情形下,该选手都不可能具有绝对决策权。因此,通过选手在当前世界上的认知可能世界集的基数大小,来定义其在该世界上是否具有关于该世界的博弈结果的绝对决策权,并限定Ri(v)和Ri(w)的基数值不小于2是有意义的。并且,根据定义3中关于选手认知关系Ri的说明,不难得出:命题CNADi(∀i∈N)在我们的博弈认知模型中是恒有效的,从而保证了“博弈结构是选手间的公共知识”这一经典的博弈分析原则的成立。

释义3:我们认为如果选手i在某可能世界w上是理性的,那么,或者i对于当前世界所相应的结果没有绝对决策权;或者i知道博弈选手都是偏好最大化自我效益结果并且w对应的结果zw是可以最大化未来对此结果具有绝对决策权的选手的收益。这是一种直观性较强的理性要求。同时,理性Ra也是一种“面向未来”的理性,这是因为具有这样理性特征的选手,要知道其他对手在有绝对选择权时都会选择自我利益最大化的行动,否则,如果当前世界相应的结果zw在未来不能最大化具有绝对决策权选手(如选手j)的收益,则该结果一定会被j所剔除,也因而不会使得当前世界上的决策者i欲通过选择该世界在此时段对应zw的行动而获得较好收益的愿望得到实现。因此,不同于已有文献中关于BI算法理性要求,理性的判定需要涉及关于对手的信念、偏好等众多信息,在我们的认知模型中,选手的知识信息仅包括博弈结果认知的判定,从而使得理性判定更为简单直观。

具体地说,下图1是给定某博弈G(左图)的认知模型MG’,其中,W={w1,…, w15},分别是:

这里,历史z1=a1b1和z5= a2b4a4在t=0和t=2阶段时的行动函数分别是Λz1(0)=0和Λz5(0)=b4,R1(w1)={w1,w4,w7,w10,w13}(即博弈开始前,在世界w1上,选手1认为这些都是有可能成为最终的博弈结果),R1(w15)={w12, w15}(当选手2选择行动b4后,在世界w15上,选手1认为历史z4和z5所对应的结果是有可能成为最终的博弈结果)。这样,依定义7,因为在w15上选手1具有绝对决策权,即,MG’,w15AD1,并且MG’,w15z5≥1z4,所以,MG’,w15Ra1,进而有MG’,w13Ra1和MG’,w14Ra1(因为zw13=zw14=zw15=z5);相应地,因为w12对应的结果z4不能够最大化选手1的收益,所以在w10,w11和w12这三个世界上,选手1不再是理性的。另一方面,考虑到zw1= zw2= zw3= z1并且MG’,w1﹁AD1(因为Card(w1)>Card(w2)≥2),MG’,w2﹁AD1(因为Λzw2(2)=b1∈A2/{⊥0}),MG’,w3﹁AD1(因为Card(w3)=1),所以MG’,wkRa1(k=1, 2, 3)。依此分析可得,在这个初始的博弈认知模型中,选手1只在w10,w11和w12这三个世界上是不理性的,而选手2在w4,w5和w6这三个世界上是不理性的。

考虑到公开宣告某个命题φ会导致原来模型M中φ不成立的可能世界被删除,缩减了原来的认知模型。随着模型的变小,主体的知识在不断增加。这一过程与博弈论中的重复剔除劣策略算法有很大的相似性。接下来我们将基于公开宣告逻辑PAL,通过证实理性可以作为宣告的命题,表明宣告理性Ra(记Ra=∧i∈NRai)的极限模型#(! Ra,MG’)中的可能世界集是与BI算法求解的均衡结果集是一致的。

四、BI算法的认知刻画定理

为方便起见,我们用Ra表示博弈中所有选手都是理性的,即Ra=∧i∈NRai。并将一个初始完整的博弈认知模型MG’的任一个子模型MG’|Ra称为MG’的广义博弈认知模型,并用M’G’表示。

由于在完美信息博弈中,博弈结构和选手的偏好都是公共知识,因此,在任一个广义博弈认知模型中,命题:ADi→KjADi和zw≥izv→Kj(zw≥izv)恒为真(这里,符号i, j代表任意的两个选手)。另外,由于公告算子是一种部分函数,即公告行为并不总是可以得到执行,只有真命题才能作为公告的事实,因此,下面的定理1确保了理性Ra是适合作为公开宣告的断定。

定理1: Ra在任一个广义博弈认知模型中都是可满足的。

考虑到重复宣告可以看做是博弈前存在于选手间思维中的一种虚拟信息流互动的情形,[18]下文刻画定理I表明:博弈开始前,具有理性选手推理彼此也为这样的理性特征时,选手间的这种虚拟高阶信息互动交流(即你知道我知道你是理性的选手等互动认知交流情形)的结果,迫使选手将与理性命题真值不一致的可能状态排除在外,从而化简原博弈认知模型到宣告极限模型,而最终留在此宣告极限模型中的可能世界所对应的博弈结果,则是与通过BI算法求得的博弈结果是完全一致的。

定理2(刻画定理I):给定一个完美信息有穷泛型博弈G,MG’=〈W, T, {Ri}i∈N,V〉是关于G的博弈认知模型,设w∈W,如果经过重复公开宣告命题后Ra,w仍被保留在最终稳定的某个广义博弈认知模型M’G’,即,M’G’是一个宣告极限模型#(Ra, MG’),那么,w所对应的结果也一定属于BI算法的均衡结果集,反之亦成立。形式化为:w∈#(Ra, MG’)⇔zw∈BI*

图2展示了重复公开宣告主体理性所导致的博弈结果。在公开宣告理性三次后,博弈认知模型达到宣告极限,不再发生改变,而对此博弈,这个宣告极限中的可能世界所对应的结果恰是该博弈的子博弈精炼均衡。

基于上面的刻画定理,进一步我们易得:

定理3(刻画定理II):给定一个完美信息有穷泛型博弈G,如果历史z∈BI*,那么存在一个博弈认知模型,使得对wz∈W, MG’,wzCNRa,反之亦成立。

五、结论

图2

利用动态认知逻辑研究动态博弈的思想是由van Benthem提出来[19]并进行了多次讨论[20]。本文的研究主要受益于这些成果。不过在这些研究论述中,van Benthem着眼于将逻辑作为工具,促进和深化博弈研究的思想引领,并没有给出关于BI算法认知条件的刻画理论。尽管van Benthem也提及通过重复公告理性可以得到BI算法结果,然而在这些研究中,他所描述的理性没有涉及选手的知识或信念,是一种“行为理性”。但由于公告算子是部分函数,即公告行为可以发生的前提是所要公告的事实必须为真。这样,公告这种理性的动作只能是在博弈完全结束后才能发生。因此van Benthem在这些文献中所提出的重复公告理性理论只是一种通过动态逻辑求解完美信息动态博弈的方法,并不是关于BI算法的认知刻画。本文中,我们着眼于算法本身,通过构建一类博弈认知模型,利用公告逻辑PAL动态更新认知模型,探讨了BI算法背后的认知机制并提供了一种关于此算法的动态认知刻画理论。由于刻画分析是基于一种动态认知逻辑—公开宣告逻辑PAL,这为未来我们研究动态模型检测动态博弈认知系统性质,提供了能行的理论基础。未来我们将拓展DEMO,①DEMO是由Eijck在2007年提出的一种动态模型检测工具,已被开发用于许多认知问题的解决方案正确性的检测(J. Eijck, DEMO-a Demo of Epistemic Modelling Interactive Logic,Amsterdam: Amsterdam University Press, 2007,Technology Report)。实现利用该工具验测我们理论的正确性。

[参考文献]

[1] Giacomo Bonanno,“A Dynamic Epistemic Characterization of Backward Induction without Counterfactuals”,Games and Economic Behavior, 2013, vol. 78, pp.31-44.

[2] Pierpaolo Battigalli, Alfredo Di-Tillio and Dov Samet,“Strategies and Interactive Beliefs in Dynamic Games”,[book auth.] Daron Acemoglu, Manuel Arellano and Eddie Dekel,Advances in Economics and Econometrics. Theory and Applications: Tenth World Congress,Cambridge: Cambridge University Press, 2012.

[3][7] Pierpaolo Battigalli, Marciano Siniscalchi,“Strong Belief and Forward Induction Reasoning”,J. Econ. Theory, 2002,pp.356-391.

[4][12] Elchanan Ben-Porath,“Nash Equilibrium and Backwards Induction in Perfect Information Games”,Rev. Econ. Stud.,1997, vol.64, pp.23-46.

[5] Robert Aumann,“On the Centipede Game”,Games Econ. Behav.,1998, vol.23, pp.97-105.

[6] Robert Aumann,“Backward Induction and Common Knowledge of Rationality”,Games Econ. Behav.,1995,pp.8-19.

[8] Thorsten Clausing,“Doxastic Conditions for Backward Induction”,Theory Dec.,2003, pp.315-336.

[9] Adam Brandenburger,“The Power of Paradox: Some Recent Developments in Interactive Epistemology”,Int. J. Game Theory,2007, vol.35, pp.465-492.

[10] Andrés Perea, Belief in the Opponents’Future Rationality,Maastricht University,2011,Technical Report.

[11] Andrés Perea, Epistemic Game Theory: Reasoning and Choice,Cambridge: Cambridge University Press, 2012.

[13] Joseph Halpern,“Substantive Rationality and Backward Induction”,Games Econ. Behav.,2001, vol.37, pp.425-435.

[14] A. Baltag, L. S. Moss and S. Solecki, The Logic of Public Announcements, Common Knowledge and Private Suspicious,Amsterdam University. s.l.: CWI, 1997,Technical Report SEN-R9922.

[15][18][19] Johan van Benthem,“Rational Dynamics and Epistemic Logic in Games”,Game Theory Review International,2007, vol.9,no.1,pp.13-45.

[16] A. Rubinstein, A Course in Game Theory,Cambridge, Mass.: The MIT Press, 1994.

[17] Geir B. Asheim,“On the Epistemic Foundation of Backward Induction”,Mathematical Social Sciences,2002, vol.44, pp.121-144.

[20] Johan van Benthem, Logic in Games,Cambridge, Massachusetts: The MIT Press, 2014.

责任编辑:罗苹

作者简介崔建英,中山大学哲学系、逻辑与认知研究所讲师(广东广州,510275)。

〔中图分类号〕B81-05

〔文献标识码〕A

〔文章编号〕1000-7326(2016)04-0035-07

猜你喜欢
决策权宣告刻画
决策权动态流转:国民政府初期华侨教育师资政策考察及当代启示
从一件无效宣告请求案谈专利申请过程中的几点启示和建议
雪季
Artin单群的一种刻画
刻画人物如何『传神』
刻画细节,展现关爱
论初中学校家长在家校合作中的权利
创造是一种积累
SPACE