杂志的下一篇文章
基于Agent的机构生命周期模型
期刊上的上一篇文章
海堤谈判游戏
 
 
订购文章重印
字体类型:
宋体 佐治亚州 宋体,Verdana
字体大小:
澳大利亚 澳大利亚 澳大利亚
行距:
列宽:
背景:
第条

网络学习——使用固定概念的实验研究

通过
齐格弗里德·K·伯宁豪斯
1
托马斯·诺伊曼
2,*
博多·沃格特
2
1
德国卡尔斯鲁厄D-76049,邮政信箱6980,卡尔斯鲁厄理工学院经济研究所(KIT)
2
奥托·冯·盖里奇大学马格德堡经济与管理学院,邮政信箱4120,马格德伯格39016,德国
*
应向其寄送信件的作者。
游戏 20145(3), 140-159;https://doi.org/10.3390/g5030140
收到的提交文件:2014年1月21日/修订日期:2014年7月8日/接受日期:2014年7月9日/出版日期:2014年7月31日
(本文属于特刊2013年社交网络和网络形成)

摘要

:
我们的研究分析了网络中战略互动的学习理论。参与者玩了Selten和Chmura使用的2×2游戏中的两个[1]. 每个参与者都与四个邻居比赛。作为一个独特的方面,我们的实验设计允许玩家针对不同的邻居选择不同的策略。游戏在两个网络结构中进行:一个格子和一个圆圈。我们从三个方面分析了我们的结果。我们首先将我们的结果与五个不同均衡概念(纳什均衡、量子响应均衡、行动抽样均衡、收益抽样均衡和脉冲均衡)的预测进行比较,这五个概念代表了学习过程的长期均衡。其次,我们将我们的结果与四种不同的学习模型(脉冲匹配学习、动作采样学习、自校正EWA和强化学习)联系起来,这四种模型都是基于(行为)循环学习过程的。最后,我们将数据与Selten和Chmura的实验结果进行了比较[1]. 一个主要结果是,大多数玩家对每个邻居都选择了相同的策略。作为其他结果,我们观察到均衡概念的预测成功顺序与Selten和Chmura所示的顺序不同,而学习模型的预测成功次序与Chmura、Goerg和Selten最近的一篇论文所示的次序仅略有不同[2].

1.简介

在2008年的论文中,Reinhard Selten和Thorsten Chmura(以下简称SC)[1]分析一组12个不同的2×2游戏。对于6个常量和6个非常量和游戏,他们比较了5个静态概念的预测成功率。比较的五个概念是:(1)纳什均衡(Nash);(2) 量子响应平衡(QRE)[]; (3) 动作采样平衡(ASE)[1]; (4) 有效抽样均衡(PSE)[4]; 和(5)脉冲平衡(IBE)[56]. 因为SC中详细解释了这些概念[1],我们不在这里解释。在他们的研究中,随机匹配的参与者玩了200多轮游戏,这使得“……作为动态学习模型的静止状态”的概念得到了解释([1]第940页)。在我们的研究中,我们把重点放在学习上在网络中.
我们记得在许多情况下经常提出的一点,即学习发生在社会环境中。在分析经济决策中的学习时,大多数研究涉及两个或多个随机匹配的参与者之间的重复交互。在现实生活中,网络学习似乎更自然。更准确地说,在许多应用程序中,大多数玩家大部分时间只与人口的一个子集进行交互的本地交互似乎是一种更合适的方法。因此,我们分析了与随机匹配环境中的行为(学习)相比,网络中的行为(或学习)是否存在差异。
我们首先分析了与学习过程长期均衡相关的实验结果,通过五种不同的均衡概念进行预测,以检查这种差异。我们将我们的结果与Chmura等人(以下简称CGS)最近一篇论文中测试的不同学习模型的预测联系起来[2]以阐明学习过程本身。使用的四种学习模型是:(1)行动抽样学习(ASL)[2]; (2) 脉冲匹配学习(IML)[2]; (3) 自我调节体验加权吸引学习(EWA)[7]; 和(4)强化学习(REL)[8]. 因为我们可以找到CGS中使用的学习模型的详细描述[2],我们不在这里解释。
我们将邻域从随机匹配更改为网络结构,以测试此参数的影响。作为一个独特的方面,我们的实验设计允许玩家与不同的邻居选择不同的策略。由此可知,每对相互关联的玩家都可以将每一场游戏作为一个单独的游戏来进行。这使我们的设计与大多数其他网络游戏研究不同,在网络游戏中,玩家被迫与邻居选择相同的策略。因此,玩家是否真的针对他们的网络伙伴选择了不同的策略是本研究研究的另一个主题。
虽然在随机匹配的环境中,玩家可以随着时间的推移混合策略,但在我们的网络中,他们可以通过对邻居使用不同的策略,在一段时间内额外混合策略。网络结构中的学习也通过间接邻居进行,间接邻居的决策也会影响直接邻居。1
在我们的研究中,我们设计了一个外部固定网络中的邻域游戏,玩家不能选择他们的邻居,但可以针对每个外部给定的邻居选择不同的策略。我们在一个网络中运行了两个SC用作基线游戏的不同游戏。我们提供的实验结果一方面可以分析网络结构如何影响学习,另一方面也可以分析如何控制不同均衡概念和不同学习模型的预测成功。我们的分析以四个关键问题为指导:
  • 关键问题1。 参与者(实际上)是否混合了策略?
  • 关键问题2。 网络结构是否影响游戏中的学习?
  • 关键问题3。 Selten和Chmura是否测试了平衡概念[1]网络游戏中参与者行为的良好预测因素?
  • 关键问题4。 这些学习模型是否经过Chmura等人的测试[2]网络游戏中参与者学习过程的良好预测因素?2
基于SC使用的游戏(常量和非常量和游戏),我们构造了邻域游戏,其中每个玩家有四个直接邻居。关于玩家必须决定如何与伴侣互动以及如何随时间调整行为的想法,我们实验中的参与者可以为每个邻居选择不同的策略。与大多数其他关于网络行为的研究相比,我们框架中的参与者有机会将两种策略混合使用-暂时和内部-暂时的。
以伯宁豪斯的研究结果为指导. [12]其中,玩家的行为受到不同网络结构的影响,我们使用了两种不同的结构:格子和圆圈。
我们通过分析玩家使用所提供的能力的频率来解决第一个关键问题,与邻居玩不同的策略(在一轮中混合策略)。
比较参与者在两种不同网络结构中的行为,我们回答了第二个关键问题。此外,将我们的观察结果与SC的结果进行比较,我们希望提供证据,证明网络中的学习与随机匹配环境中的学习不同。
为了回答我们的第三个关键问题,我们将实验结果与五个学习概念的预测进行了比较。Brunner在研究中对SC的结果进行了修订. [13](以下简称BCG)和Selten. [14]. 为了确保结果具有可比性,我们使用与这些研究相同的统计技术来分析我们的数据。
作为我们分析的基准,我们使用CGS报告的每个学习模型的平均频率、平衡概念预测的平均频率以及SC报告的实验中观察到的频率. [2],学习模型的平均频率来自于运行模拟。
作为我们的主要结果之一,我们表明网络中的学习不同于随机匹配中的学习。然而,我们发现这两种网络结构之间没有显著差异。根据这一结果,我们观察到五个均衡概念的预测成功顺序不同于SC给出的顺序,这意味着网络学习对网络学习过程中出现的长期均衡具有显著影响。这一结果得到了我们关于四种不同学习模型的预测结果的支持。虽然CGS显示,自校正EWA在随机匹配方面优于其他学习模型,但我们观察到,动作采样学习最能预测我们使用的网络游戏中的行为。
另一个显著的结果是,我们发现大多数玩家对每个邻居都选择了相同的策略,.,玩家并不真正混合策略。这适用于我们实验中使用的两种网络结构。此外,在圆圈网络中,没有混合策略的玩家的平均数量略高。

2.实验说明

在我们的研究中,我们使用了两个游戏(参见图1)我们使用这些游戏的主要原因是,它们对五种均衡概念产生了明显不同的预测。图2显示了这些概念对常数和游戏的理论预测,以及图3用于非恒定和游戏。图4(图5)显示了与我们的实验结果相关联的恒和游戏(非恒和游戏)的四个学习模型的预测。4
图1。常数和非常数和游戏。
图1。常数和非常数和博弈。
游戏05 00140 g001
图2。常和博弈中的理论均衡。
图2。常和博弈中的理论均衡。
游戏05 00140 g002
图3。非恒定和博弈中的理论均衡。
图3。非恒定和博弈中的理论均衡。
游戏05 00140 g003
图4。常数和游戏的学习模型预测。
图4。常数和游戏的学习模型预测。
游戏05 00140 g004
图5。非恒定和游戏的学习模型预测。
图5。非常和博弈学习模型的预测。
游戏05 00140 g005

2.1. 基线比赛

我们使用两种游戏,一种是常量游戏,另一种是非常量和游戏,作为基准游戏。正如SC所解释的那样,这两款游戏组成了一对,其特点是具有相同的最佳响应结构。5
因为我们一方面希望通过分析不同网络结构的影响将重点转向学习,另一方面参考SC和BCG的结果,我们将SC的游戏扩展到不同网络结构中的邻域游戏。

2.2。邻里博弈与网络结构

跟随伯宁豪斯. [12],我们在外部给定的固定网络结构中运行游戏,每个玩家都有四个直接邻居。为了实现这一点,16名玩家被分配到两个不同的网络结构中。中描述的2×2游戏第2.1节代表基线游戏。在这些游戏的基础上,构建了邻里游戏,使得每个玩家都能与四个直接(本地)邻居进行交互。与我们的第一个关键问题相适应,在我们的实验中,每个玩家可以在每轮比赛中对每个邻居使用不同的策略。
由于文献中众所周知,网络结构会影响玩家在游戏中的行为(参见,例如[121516])我们使用了两种不同的结构。以伯宁豪斯的研究结果为指导. [12]关于协调博弈中参与者的行为,我们使用了两种不同的网络结构:格子和圆圈。图6图7提供两种网络结构的示意图。
图6。网络结构1–晶格。
图6。网络结构1–晶格。
游戏05 00140 g006
图7。网络结构2–一个圆。
图7。网络结构2–一个圆。
游戏05 00140 g007
很明显,在这两种结构中,每个玩家都与四个直接邻居互动。这些结构之间的差异是由间接相互作用水平上的间接邻接数给出的。
在网络游戏中可能会有更多的均衡,正如我们在图2图3。由于我们想比较两种不同网络结构中玩家的行为以及SC的实验结果,因此我们使用了第2.1节作为基准。

2.3. 交互结构的示例解释

在格子中(图6),1号玩家直接与2号玩家进行交互,2号玩家作为右侧,4号玩家作为左侧,13号玩家作为顶部,5号玩家作为底部邻居6在第一级间接交互中,玩家1有六个间接邻居(玩家16、14、3、8、6和9)。在第二级间接互动中,玩家1有四个间接邻居(玩家15、7、12和10),在第三级间接互动上有一个间接邻居。
在圈子里(图7),玩家1直接与作为其左邻居的玩家8和玩家16交互,并且与作为其右邻居的玩家2和玩家10交互。在第一级间接互动中,玩家1有五个间接邻居(玩家9、7、15、11和3)。在第二级间接互动中,玩家1有四个间接邻居(玩家6、14、12和4),而在第三级间接互动上,她有两个间接邻居。

3.实验程序

为了将我们的结果与SC的结果进行比较,我们设计了尽可能与他们相似的实验。
我们在马格德堡大学的实验实验室MaXLab进行了实验。对于每个邻里游戏,我们进行了四次实验,每个实验都有16名参与者。参与者在网络中的一个位置上随机配对。我们告诉他们,配对可以(但不必)在实验过程中发生变化,而事实上,这种变化并没有发生。我们进行了100多轮比赛。在每一轮比赛中,球员可以针对四个直接邻居中的每一个选择不同的策略。每轮比赛后,球员们都会被告知每场2×2游戏的收益,即。,关于上一轮的总收益和所有轮的累计收益。7
收益以“点”表示,按四个收益点等于1欧元分的汇率换算成欧元。实验时间约为1至1.5小时,参与者的平均收入约为10欧元。我们实验中的256名参与者是使用ORSEE软件招募的[17]来自不同学院的学生。为了编写实验程序,我们使用了实验软件z-Tree[18].8

4.实验结果

为了将我们的实验结果与五个概念的理论预测以及SC的结果进行比较表1我们显示了观察到的相对播放频率向上(2×2游戏中的策略“向上”)和左侧(策略“左”在2×2游戏中),在两个不同的网络结构中玩。
表1。播放的相对频率向上左侧在底线比赛中。
表1。播放的相对频率向上左侧在底线比赛中。
常数和游戏
第1部分第2部分第3部分第4次会议平均方差
格子向上0.0320.0530.0610.0450.0480.000153
左侧0.7840.7020.5870.6920.6910.006529
圆形向上0.0360.0540.0480.0590.0490.000098
左侧0.7790.6830.7560.6410.7150.004092
非常数和博弈
第1部分第2部分第3部分第4次会议平均方差
格子向上0.0620.1380.1430.1000.1110.001425
左侧0.6770.7640.7950.7410.7440.002500
圆形向上0.1150.1070.1100.0510.0960.000901
左侧0.7240.8360.8630.6720.7740.008223
关键问题1。 参与者(实际上)是否混合了策略?
与其他研究不同,我们实验中的参与者可以在每个阶段针对每个对手选择不同的策略。因此,参与者能够在一轮中混合他们的策略。如所示表2,参与者没有经常利用这个机会。
表2。在100回合内,对每个邻居选择相同策略的平均玩家数量。
表2。在100回合内,对每个邻居选择相同策略的平均玩家数量。
在100轮比赛中对每个邻居选择相同策略的平均玩家数量
格子圆形
常数和游戏81.03%85.69%
非常数和博弈81.16%86.22%
大多数玩家为每个邻居选择了相同的策略。我们没有发现基础游戏的策略选择有任何差异,但两种不同的网络结构之间略有差异。就学习或调整行为而言,结果表明,对每个邻居选择相同策略的频率随着时间的推移而增加(参见表3).
表3。在前50轮和后50轮中选择相同策略的平均玩家数量。
表3。在前50轮和后50轮中选择相同策略的平均玩家数量。
在第1-50轮中,对每个邻居选择相同策略的玩家的平均数量
格子圆形
常数和游戏78.34%83.06%
非常数和博弈76.66%83.09%
在第51至100轮中,对每个邻居选择相同策略的玩家的平均数量
格子圆形
常数和游戏83.72%88.31%
非常数和博弈85.66%89.34%
结果1。 参与者没有在一轮中混合策略。
关键问题2。 网络的结构会影响游戏中的学习吗?
为了发现Lattice网络和Circle网络在学习方面的差异,我们首先分析了基线博弈中的策略选择。基于播放的相对频率向上左侧(请参见表1),我们发现两种网络结构之间没有显著差异(任何显著性水平的符号检验)。
我们将我们的观察结果与SC的实验结果进行比较,以分析网络与随机匹配环境在学习行为方面是否至少存在差异。表4显示了观察到的结果。
表4。比赛的观察平均值向上左侧在游戏中。
表4。比赛的观察平均值向上左侧在游戏中。
战略选择——在以下方面观察到的平均值:
晶格网络Circle网络无网络(SC[1])
常和博弈
向上0.0480.0490.079
左侧0.6910.7510.690
非常数和博弈
向上0.1110.0960.141
左侧0.7440.7740.564
正如大家所见(图8图9),我们观察到的两种网络结构的平均值与只有一个随机匹配伙伴的2×2游戏的结果不同。中的数据图9证明这对于非恒定和游戏来说尤其如此。这些发现表明,网络中的学习实际上不同于SC使用的2×2随机匹配环境中的学习。
图8。比赛的观察平均值向上左侧在恒和游戏中。
图8。比赛的观察平均值向上左侧在恒和游戏中。
游戏05 00140 g008
图9。比赛的观察平均值向上左侧在非恒定和游戏中。
图9。比赛的观察平均值向上左侧在非恒定和游戏中。
游戏05 00140 g009
结果2。 我们发现两种网络结构中参与者的行为没有显著差异。
关键问题3。 Selten和Chmura是否测试了平衡概念[1]网络游戏中参与者行为的良好预测因素?
当我们想要回答关于五个平衡概念在网络学习背景下的预测成功的问题时,我们首先说明了五个概念的理论预测和实验结果(图10图11).
图10。五个平衡概念的理论预测和常数和博弈的实验结果。
图10。五个平衡概念的理论预测和常数和博弈的实验结果。
游戏05 00140 g010
图11。非恒定和博弈五种均衡概念的理论预测和实验结果。
图11。非恒定和博弈五种均衡概念的理论预测和实验结果。
游戏05 00140 g011
根据BCG,我们使用了SC的修正理论预测。表5显示了五个平衡概念的相应数值预测。
表5。五个平衡概念的理论预测和观测到的向上左侧策略。
表5。五种平衡概念的理论预测和观测到的相对频率向上左侧策略。
纳什量化风险评估ASE公司PSE公司国际教育局Selten和Chmura的观测平均值格中的观测平均值我们在圈内的观测平均值
常数和游戏
向上0.0910.0420.0900.0710.0680.0790.0480.049
左侧0.9090.6370.7050.6430.5800.6900.6910.751
非常数和博弈
向上0.0910.0420.0900.0600.1040.1410.1110.096
左侧0.9090.6370.7050.6910.6340.5640.7440.774
为了衡量平衡概念的预测成功率,我们根据SC使用的方法分析我们的数据。该分析基于对观测和预测相对频率的成对比较。表6显示了在两个网络结构中进行的两个基本游戏的均方距离和采样方差。
表6。五个平衡概念的均方距离。
表6。五个平衡概念的均方距离。
纳什量化风险评估ASE公司PSE公司国际教育局采样方差
常数和游戏格子0.0542970.0079880.0069860.0078800.0177980.005011
圆形0.0426190.0092410.0048990.0087640.0216520.003143
非成本。总和游戏格子0.0304760.0191730.0049150.0083550.0151440.002943
圆形0.0251580.0284330.0116030.0149690.0264410.006843
基于均方距离,可以看出,从成功的角度来看,这些概念有一个顺序:行动取样均衡、支付取样均衡、量子响应均衡、脉冲平衡均衡和纳什均衡。对于非恒定和博弈,脉冲平衡均衡的性能略优于量子响应均衡。
根据SC和BCG的分析,我们将所有16个独立观测的结果一起测试,也可以分别测试常数和非常数和博弈的结果。由于理论预测与网络结构无关,因此我们对两种结构的结果进行了测试。与SC中一样,我们使用Wilcoxon配对符号秩检验来比较五个概念与观察到的相对频率之间的平方距离。表7,我们显示-检查行中的解决方案概念是否优于列中的解决办法概念的测试值。上面一行中的粗体数字是-将所有16个观测值一起使用的测试值。中间一行给出了-常量和游戏中的观察值,以及下线-非恒定游戏中的观察值。
根据BCG中的备注,我们还进行了Kolmogorov-Smirnov双样本测试,以双重检查结果的重要性(-值是中括号内的数字表7).
表7。预测性成功--有利于行概念的值,上图:共16个独立观察中:常数和游戏(八个独立观察值),下图:非常和博弈(八个独立的观察结果)。
表7。预测性成功--支持行概念的值,上图:共16个独立观察中:常数和游戏(八个独立观察值),下图:非恒定和游戏(八个独立观察)。
PSE公司量化风险评估国际教育局纳什
ASE公司不适用。不适用。2% (10%)0.001% (0.01%)
编号.编号.10% (10%)0.02% (0.02%)
不适用。不适用。10%(无)5%(无)
PSE公司 不适用。10%(无)0.05% (2%)
n.秒.编号.0.1% (2%)
不适用。不适用。10%(无)
量化风险评估 不适用。1% (5%)
编号.0.2% (2%)
不适用。不适用。
国际教育局 5%(10%)
2% (10%)
不适用。
根据波士顿咨询公司的备注,我们还进行了Kolmogorov-Smirnov双样本测试,以再次检查结果的重要性(-值是中括号内的数字表7).
在比较所有独立观察结果时,很明显,所有非纳什概念都比纳什概念做得好。9
这适用于常量和游戏,但不适用于非常量和游戏。此外,在四个非纳什概念中,我们没有发现预测成功的明显顺序。
结果3。 在四个非纳什概念中,预测成功的顺序并不明确。
关键问题4。 这些学习模型是否经过Chmura等人的测试[2]网络游戏中参与者学习过程的良好预测因素?
在分析了学习过程中的长期均衡行为之后,我们接下来将重点放在循环行为上,并将我们的观察结果与四个学习模型的预测联系起来。我们首先说明了所使用的四个学习模型(由CGS给出)的预测和实验结果(图12图13).
图12。四种学习模型的预测和常数和博弈的实验结果。
图12。四种学习模型的预测和常数和博弈的实验结果。
游戏05 00140 g012
图13。四种学习模型的预测和常数和博弈的实验结果。
图13。四种学习模型的预测和常数和博弈的实验结果。
游戏05 00140 g013
表8显示了四个学习模型预测的相应数值。我们使用CGS给出的预测。
表8。四个学习模型的预测和观察到的向上左侧策略。
表8。四种学习模型的预测和观察到的相对频率向上左侧策略。
ASL公司IML公司EWA公司REL公司Selten和Chmura的观测平均值格中的观测平均值我们在圈内的观测平均值
常数和游戏
向上0.0950.0630.4990.1210.0790.0480.049
左侧0.7100.5740.4990.3450.6900.6910.751
非常数和博弈
向上0.0940.0980.4850.1700.1410.1110.096
左侧0.7090.6370.5640.3800.5640.7440.774
基于观察到的和预测到的相对频率的成对比较,我们测量了四种学习模型的预测成功率。表9显示了均方距离和采样方差。
表9。四种学习模型的均方距离。
表9。四种学习模型的均方距离。
IML公司ASL公司EWA公司REL公司采样方差
常数和游戏格子0.0075960.0189920.1302660.2455980.005011
圆形0.0052590.0231430.1450060.2519660.003143
非常数。总和游戏格子0.0044670.0146090.1391320.1754970.002943
圆形0.0110390.0255490.1673950.2023540.006843
使用均方距离作为预测成功的衡量标准,可以得出以下顺序:动作采样学习、脉冲匹配学习、强化学习和自校正EWA。
在对(长期)均衡概念的预测成功进行分析后,我们使用Kolmogorov-Smirnov双样本检验来检验预测成功的推导阶数的显著性。我们一起测试了这两种结构的结果。表10显示了所有16个独立观测值的测试的p值,以及常量和非常量和游戏的p值。表10结构与表7,表示我们显示-测试值检查行中的学习模型是否优于列中的学习模式。
表10。预测性成功--支持行概念的值,上图:共16个独立观察中:常数和游戏(八个独立观察值),下图:非恒定和游戏(八个独立观察)。
表10。预测性成功--支持行概念的值,上图:共16个独立观察中:常数和游戏(八个独立观察值),下图:非恒定和游戏(八个独立观察)。
IML公司REL公司EWA公司
ASL公司3.5%<0.1%<0.1%
8.7%<0.1%<0.1%
66.0%<0.1%<0.1%
IML公司 <0.1%<0.1%
<0.1%<0.1%
<0.1%<0.1%
REL公司 0.3%
0.2%
8.7%
当将所有16个独立观察结果进行比较时,很明显,测试结果支持我们得出的预测成功顺序,行动抽样学习最能预测全面行为。这适用于常数和游戏,但不适用于非常数和游戏。对于非恒定和游戏,动作采样学习和脉冲匹配学习的预测没有显著差异。
结果4。 四种学习模型的预测成功率有一个明显的顺序,即:(1)动作采样学习,(2)脉冲匹配学习,(3)强化学习,(4)自校正EWA。

5.结论

在本文中,我们分析了网络学习。因此,我们在Selten和Chmura的2×2游戏中添加了网络结构[1]. 从两个不同的游戏(常量和非常量和游戏)开始,我们构建了一个具有两种不同网络结构(格子和圆)的邻域游戏,其中每个玩家有四个直接(本地)邻居。与其他研究不同,我们实验中的参与者可以针对每个邻居选择不同的策略。
由于我们的研究与SC有关,我们将我们的观察结果与它们的实验结果进行了比较,并与五个(长期)均衡概念(纳什均衡、量子响应均衡、行动抽样均衡、支付抽样均衡和脉冲均衡)的理论预测进行了比较。我们还将结果与Chmura使用的四种学习模型(动作采样学习、脉冲匹配学习、强化学习和自校正EWA)的预测联系起来. [2],以了解学习过程。
在关键问题的指导下,我们首先分析数据,以检查参与者是否真的使用了混合策略。因为大多数玩家对每个邻居都选择了相同的策略,所以我们得出结论,参与者没有在一轮中混合他们的策略。
第二步,我们考虑不同网络结构对参与者行为的影响。我们的结果与SC的实验结果之间的差异证明了网络学习与只有一个随机匹配伙伴的2×2游戏中的学习不同。与其他研究不同,我们发现在我们使用的两种网络结构中,参与者的行为没有显著差异。我们发现,在参与者对每个邻居选择相同策略的数量上只有轻微差异。
关于我们的第三个关键问题,我们表明,在我们的实验中,五个平衡概念中没有一个能够准确预测参与者的行为。我们证明了所有非纳什概念都优于纳什概念。对于常数和和非常数和博弈,四个非纳什概念的预测成功顺序不同。值得注意的是,当这两种游戏组合在一起时,行动抽样均衡和支付抽样均衡策略比脉冲均衡策略做得更好。除此之外,在这四个非纳什概念中没有明确的排名。
关于我们的第四个关键问题,我们表明,没有一个学习模型能准确预测实验参与者的前后行为。很明显,四种学习模型的预测成功顺序是明确的,动作采样学习是最好的,自校正EWA是最小的预测模型。这个顺序是在将两个游戏的数据进行比较时得出的。虽然这种预测成功的顺序适用于常数和游戏,但不适用于非常数和游戏。在这里,行动抽样学习预测效果与冲动匹配学习一样好。然而,我们推导的预测成功顺序支持了CSG使用聚合频率的一般结果。
对于未来的研究,除了进一步复制外,还有望进一步发展理论并测试不同的网络结构。

附录

书面说明(翻译)

欢迎来到我们今天的实验!下面,你可以找到实验的描述,然后你被要求做出一系列决定。请仔细阅读以下信息。如果你有任何问题,请在开始实验之前提出。请注意,在整个实验过程中,不允许与其他参与者交流。谢谢您!
总共有16名运动员参加了这个实验。每个参与者都可以作为玩家1类型或玩家2类型进行游戏。他们在整个实验过程中都保持着这个角色。
你玩游戏超过100回合。
在每一轮比赛中,每种类型的球员1与四种类型的运动员2比赛,每种球员2与四种球员1比赛。玩家的组合可以在每一轮中随机改变(但并非必须如此)。
在屏幕上,您可以看到四个矩阵(对于每对玩家,一个矩阵)和四个字段。如屏幕截图所示,在每一轮和四个矩阵中的每一个中,您可以在两种可能的策略(策略A或策略B)之间进行选择。
游戏05 00140 i001
行播放器的收益在左上角,列播放器的收益则在右下角。您的(可能的)付款将以圆形框显示。你的回报取决于你自己的选择和其他玩家的选择。做出选择后,您选择的行变为红色。选择其他玩家后,在每个矩阵中,您收到的回报字段变为黄色。
在每一轮之后,您将收到通知,告知您在上一轮中收到了哪些回报(针对每个配对/矩阵)。此外,您还将了解总回报(在已玩回合中所有已玩矩阵的累积)。您收到的回报的转换率将在屏幕上宣布。

利益冲突

作者声明没有利益冲突。

工具书类

  1. Selten,R。;Chmura,T.实验性2×2游戏的固定概念。美国经济。版次。 200898, 938–966. [谷歌学者] [交叉参考]
  2. Chmura,T。;Goerg,S.J。;Selten,R.在实验2×2游戏中学习。游戏经济。行为。 201276,44–73。[谷歌学者] [交叉参考]
  3. R.D.McKelvey。;Palfrey,T.R.正规形式博弈的量子响应平衡。游戏经济。行为。 199510, 6–38. [谷歌学者] [交叉参考]
  4. M.J.奥斯本。;Rubinstein,A.与程序理性玩家的游戏。美国经济。版次。 199888, 834–847. [谷歌学者]
  5. Selten,R。;Buchta,J.用直接观察到的投标函数进行密封投标第一价格拍卖。游戏与人类行为:纪念Amnon Rapoport的论文; Budescu,D.V.,Erev,I.,Zwick,R.,编辑。;Lawrence Erlbaum Associates:新泽西州马华,美国,1999年;第79-104页。[谷歌学者]
  6. Selten,R。;Abbink,K。;学习方向理论和赢家的诅咒。出口经济。 20058, 5–20. [谷歌学者] [交叉参考]
  7. Ho,T。;卡梅勒,C.F。;Chong,J.-K.自我调节体验影响游戏中的吸引力学习。《经济学杂志》。理论 2007133, 177–198. [谷歌学者] [交叉参考] [绿色版本]
  8. 埃列夫,I。;Roth,A.预测人们如何玩游戏:在具有独特混合策略均衡的实验游戏中强化学习。美国经济。版次。 199888, 848–881. [谷歌学者]
  9. 巴拉,V。;Goyal,S.网络形成的非合作模型。计量经济学 200068, 1181–1229. [谷歌学者] [交叉参考]
  10. M.O.杰克逊。;Watts,A.社会和经济网络的演变。《经济学杂志》。理论 2002106, 265–295. [谷歌学者] [交叉参考]
  11. Berninghaus,S.K.公司。;Vogt,B.对称2×2游戏中的网络形成。Oecon人。 200623, 421–466. [谷歌学者]
  12. Berninghaus,S.K.公司。;埃尔哈特,K.-M。;Keser,C.公约和地方互动结构:实验证据。游戏经济。行为。 200239, 177–205. [谷歌学者] [交叉参考]
  13. 布鲁纳,C。;卡梅勒,C.F。;Goeree,J.K.实验性2×2游戏的固定概念:评论。美国经济。版次。 2011101, 1029–1040. [谷歌学者] [交叉参考] [绿色版本]
  14. Selten,R。;Chmura,T。;Goerg,S.J.实验性2×2游戏的固定概念:回复。美国经济。版次。 2011101, 1041–1044. [谷歌学者] [交叉参考]
  15. Cassar,A.《地方、随机和小世界网络中的协调与合作:实验证据》。游戏经济。行为。 200758, 209–230. [谷歌学者] [交叉参考]
  16. 俄亥俄州科奇坎普。;Nagel,R.网络实验中的天真学习与合作。游戏经济。行为。 200758, 269–292. [谷歌学者] [交叉参考]
  17. Greiner,B.在线招聘系统ORSEE 2.0——经济学实验组织指南。经济学工作论文系列; 科隆大学:德国科隆,2004年。[谷歌学者]
  18. Fischbacher,《美国z树:苏黎世现成经济实验工具箱》。出口经济。 200710, 171–178. [谷歌学者] [交叉参考]
  • 1网络形成和网络学习的各个方面一直是许多研究的关注中心(参见,例如[91011])
  • 2我们感谢一位匿名推荐人提出这一分析。
  • 由于我们不估计参数,如果我们估计参数,使用自由参数的模型拟合可能会改进。
  • 4作为基准,我们使用Selten和Chmura报告的五个平衡概念的预测[1]在布伦纳等。[13]以及Chmura报告的四种学习模型的预测等。[2].
  • 5我们可以在Selten和Chmura中找到这五个概念的详细描述以及平衡的确定[1]在布伦纳等。[13].
  • 6可以看到,位于晶格边缘的玩家的邻居位于相反的边缘。
  • 7我们提供的反馈与赛尔登和Chmura实验中收到的反馈相同[1].
  • 8所有说明均以德语提供。书面说明的英文翻译见附录.
  • 9非纳什概念的表现优于纳什概念,这与SC和BCG的结果一致。

分享和引用

MDPI和ACS样式

Berninghaus,S.K.公司。;诺依曼,T。;沃格特,B。网络学习——一项使用固定概念的实验研究。游戏 20145第140-159页。https://doi.org/10.3390/g5030140

AMA风格

Berninghaus SK、Neumann T、Vogt B。网络学习——一项使用固定概念的实验研究。游戏. 2014; 5(3):140-159.https://doi.org/10.3390/g5030140

芝加哥/图拉宾风格

伯宁豪斯(Berninghaus)、齐格弗里德(Siegfried K.)、托马斯·诺伊曼(Thomas Neumann)和博多·沃格特(Bodo Vogt)。2014.“网络学习——使用固定概念的实验研究”游戏5,编号3:140-159。https://doi.org/10.3390/g5030140

文章指标

返回页首顶部