CIG 2007:美国夏威夷火奴鲁鲁
-
2007年IEEE计算智能与游戏研讨会论文集,CIG 2007,美国夏威夷火奴鲁鲁,2007年4月1日至5日。 电气与电子工程师协会 2007 ,国际标准图书编号 1-4244-0709-5
口头会议
何鸿燊 , 特莱佛·马汀 , 吉姆·鲍德温 :
斯诺克机器人球员——20年了。 1-8 Wayne Y.Chen先生 , 沙赫拉姆·帕安德 :
微型机器人曲棍球模拟器-游戏引擎设计。 9-16 马丁·里德米勒 , 托马斯·加贝尔 :
关于复杂竞争游戏领域的经验:强化学习与RoboCup相遇。 17-23 亚历克斯·芬克 , 约格·登津格 , 约翰·艾科克 :
使用计算机视觉和机器学习技术从计算机游戏中提取NPC行为。 24-31 大卫·班纳赫 , 奥利弗·阿姆夫特 , 凯斯·昆泽 , 恩斯特·海因茨 , 格哈德·特罗斯特 , 保罗·卢科维茨 :
在混合真实停车游戏中,佩戴式运动传感器记录下的挥舞真实手势给虚拟汽车和驾驶员。 32-39 汉阳雀 , Chi Keong Goh先生 :
进化和学习对反复囚犯困境策略的适应。 40-47 丹尼尔·A·阿什洛克 :
图上囚犯困境中的合作。 48-55 艾曼·戈尼姆 , 侯赛因·A·阿巴斯 , 迈克尔·巴洛 :
重复囚徒困境游戏中的信息共享。 56-62 马克·维特坎普 , 路易吉·巴龙 , 林登While :
欺骗游戏中遗传编程与查表学习的比较。 63-71 瑞安·E·利 , 苏希尔·路易斯 , 克里斯·迈尔斯 :
使用遗传算法探索a*类路径查找算法。 72-79 弗朗西克·塞勒 , 迈克尔·布鲁 , 马克·兰科特 :
通过战略模拟进行对抗性规划。 80-87 克里斯·迈尔斯 , 胡安·基罗兹 , 瑞安·E·利 , 苏希尔·路易斯 :
基于树的共同进化影响图策略游戏玩家。 88-95 马金·塞雷登斯基(Marcin Seredynski) , 帕斯卡·布夫里 , Mieczyslaw A.Klopotek公司 :
使用基于游戏的模型模拟Ad Hoc网络中合作行为的演化。 96-103 菲利普·艾弗里 , 兹比格尼乌·米切莱维奇(Zbigniew Michalewicz) , 马丁·施密特 :
共同进化系统中的历史人口。 104-111 乔尔·维内斯 , 阿兰·布莱尔 :
换位表在随机博弈树搜索中的有效应用。 112-116 理查德·卡特 , 约翰·莱文 :
使用进化算法研究锦标赛扑克策略。 117-124 罗德里克·J·S·贝克 , 彼得一世考林 :
简单扑克环境中的贝叶斯对手建模。 125-131 詹姆斯·格伦 :
纸牌游戏Yahtzee的计算机策略。 132-139 安东尼·基特尔 , 特里·博索马伊尔 , 艾伦·斯奈德 :
概念可及性是点和框的进化强化学习的基础。 140-145 威廉·杜米尼 , 安德里斯·恩格尔布雷希特 :
竞赛粒子群优化。 146-153 艾琳·J·黑斯廷斯 , 拉坦·K·古哈 , 肯尼思·斯坦利 :
NEAT粒子:粒子系统效果的设计、表示和动画。 154-160 B.约翰·奥门 , 奥勒·克里斯托弗·格拉莫 , 阿斯勒·佩德森 :
使用随机AI技术在有限玩家Goore游戏中实现无界分辨率及其应用。 161-167 菲利普·亨斯顿 :
进化中的古代游戏玩家:赫内法塔夫。 168-174 王一早 , 西尔万·盖利 :
蒙特卡洛围棋UCT和序列模拟的修改。 175-182 赫尔穆特·梅耶尔 :
神经围棋棋手通过时间差学习的棋盘表示。 183-188 荒木信夫 , 吉田和弘 , Yoshimasa Tsuruoka先生 , Jun’ichi Tsujii先生 :
使用最大熵方法在围棋中移动预测。 189-195 Kyung-Joong Kim(京重金) , Heejin Choi先生 , 宋百秋 :
奥赛罗玩家的进化和强化学习的混合。 203-209 托马斯·菲利普·鲁纳森 , 埃吉尔·奥恩·琼森 :
使用贪婪探索学习奥赛罗位置评估函数中的look-ahead搜索深度的影响。 210-215 爱德华·曼宁 :
具有共享权重的小型神经网络Othello评估函数的时间差分学习。 216-223 Sancho Salcedo-Sanz公司 , 埃米利奥·奥尔蒂斯·加西亚 , 安吉尔·M·佩雷斯-贝利多 , 安东尼奥·波提拉-菲格拉斯 , 鑫耀 :
用启发式解决日语难题。 224-231 马特·帕克 , 加里·帕克 :
用于Xpilot代理控制的多层神经网络的发展。 232-237 加里·帕克 , 马特·帕克 :
Xpilot战斗代理的演变参数。 238-243 乔治奥斯·扬纳卡基斯 , 约翰·哈雷姆 :
用于娱乐捕获的游戏和玩家功能选择。 244-251 朱利安·托盖利斯 , 伦佐·德·纳尔迪 , 西蒙·卢卡斯 :
面向赛车游戏的自动个性化内容创建。 252-259 西蒙·卢卡斯 , 朱利安·托盖利斯 :
点对点赛车:进化与时间差异学习的初步研究。 260-267 Makoto Miwa公司 , 横山大作 , Takashi Chikayama公司 :
电脑游戏玩家评估功能的自动生成。 268-275 齐亚德·科布蒂 , 什文·夏尔马 :
用于游戏的多代理架构。 276-281 马库斯·加拉赫 , 马克·莱德威奇 :
进化中的Pac-Man玩家:我们可以从原始输入中学习吗? 282-287
海报环节
Akatsuka优介 , 佐藤裕治 :
足球视频游戏学习分类器系统的奖励分配考虑角色。 288-295 安德烈斯·戈梅斯·德·席尔瓦·加尔扎 , 卡洛斯·埃米利奥·加林多·弗洛雷斯 :
推论过去:对阿兹特克牌游戏《帕托利》中可能使用的策略的计算探索。 296-303 Yi Jack Yau先生 , 杰森·特奥 , 帕特里夏·安东尼 :
Tic-Tac-Toe认知神经因子合成中的帕累托进化和协同进化。 304-311 克里斯蒂安·达肯 , 布拉德利·G·安德雷格 , 佩里·麦克道尔 :
Delta3D中的游戏AI。 312-319 约瑟夫·赖辛格 , Erkin Bahçeci公司 , 伊戈尔·卡尔波夫 , 里斯托·米库莱宁 :
通用游戏的共同进化策略。 320-327 托马斯·汤普森 , 约翰·莱文 , 吉莉安·海耶斯 :
EvoTanks:游戏代理的共同进化发展。 328-333 Hisashi Handa公司 , 诺里奥·巴巴 :
设计公共游戏规则的进化计算。 334-339 苏珊娜·穆尼奥斯·亨德斯 , 维拉特纳-萨里-维古纳 :
模糊Prolog作为RoboCupSoccer中的认知层。 340-345 托马斯·巴特 , 弗兰兹·罗特劳夫 , 约恩·格雷尔 , 托比亚斯·希尔登布兰德 , 延斯·阿恩特 :
寻找学生游戏最优策略的遗传算法。 346-351 马塞洛·罗德里戈·德索扎·皮塔 , 萨洛芒·桑帕约·马德罗 , 费尔南多·布亚尔克·德利马·内托 :
维迪亚:基于智能代理的上帝游戏,智能代理的行为是通过进化计算设计的。 352-359 钦顺翁(Chin Soon Ong) , 汉阳雀 , 陈凯(Kay Chen Tan) , 阿瑟·泰 :
通过共同进化的方法发现中国象棋策略。 360-367 洛丽·德鲁泽 , 詹姆斯唐尼 :
信息不完整的桥梁投标。 368-373 亚历山德罗·辛科蒂 , Hiroyuki Iida公司 :
同步蛋糕游戏。 374-379