×

学习注视控制和抓握的视动转换。 (英语) Zbl 1116.92014号

小结:为了接触和抓取物体,物体的视觉信息必须转化为手臂和手的运动或姿势指令。我们提出了一个用于视觉引导的伸手和抓握的机器人模型。该模型模拟了抓取的两种可选处理路径,这两种路径也可能在人脑中共存。第一条路径直接使用视网膜激活来编码目标位置。在第二个路径中,扫视控制器使眼睛(摄像机)聚焦于目标,而凝视方向被用作位置输入。对于这两条路径,手臂控制器将目标的位置和方向信息转换为适合抓取的手臂姿势。对于眼跳控制器的训练,我们提出了一种新的阶段学习方法,这种方法不需要教师提供必要的运动指令。手臂控制器使用无监督学习:它基于传感器和电机数据的密度模型。使用此密度,通过完成部分给定的感觉运动模式来实现映射。控制器可以处理给定目标的一组冗余手臂姿势的模糊性。在94%的试验中,眼跳和手臂控制器的组合模型能够在桌子上以任意方向和任意位置固定和抓取细长物体。

MSC公司:

92C20美元 神经生物学
68T40型 机器人人工智能
93立方厘米 控制理论中的应用模型

软件:

CVIP工具
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[35] Riedmiller M,BraunH(1993)快速反向传播学习的直接自适应方法:RPROP算法。摘自:IEEE神经网络国际会议论文集。旧金山,第586–591页
[42] Schenck W、Hoffmann H、Möller R(2003)《学习伸手和抓握过程中眼-手协调的内部模型》。摘自:《欧洲认知科学会议论文集》,埃尔鲍姆,马哈瓦,第289-294页
[49] Umbaugh SE(1998)《计算机视觉和图像处理:使用CVIPtools的实用方法》。普伦蒂斯·霍尔。
[51] Walter JA,Nölker C,Ritter H(2000)PSOM算法和应用。摘自:神经计算研讨会论文集,第758–764页
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。