所有提交的电磁系统将被重定向到在线手稿提交系统。作者请直接提交文章在线手稿提交系统各自的杂志。

添加语音机器人模拟器

T.Shanmugapriya1和S.Senthilkumar2
  1. 助理教授,信息技术部,SSN工程学院,钦奈,印度泰米尔纳德邦,
  2. 助理教授、电子系、仪器仪表、Bharath大学,钦奈,印度泰米尔纳德邦,
相关文章Pubmed,谷歌学者

访问更多的相关文章国际期刊的创新在计算机和通信工程的研究

文摘

我们提出一个演示显示不同级别的紧急言语行为时出现的演讲被添加到一个机器人模拟器。后显示的例子(沉默)机器人活动在模拟器上,添加语音输出使机器人给的解释自己的行为。增加语音输入允许将机器人的运动遵循语音指令。此外,机器人可以修改自己的言语行为时要求少说话或更多。机器人工具箱支持不同的行为模式,包括有限状态机。演示展示了一个示例基于状态转换的口语对话系统中实现机器人框架。其他实验组合的言论和机器人行为也会显示。

介绍

人机交互是一个最近很多工作集中的地方。有可能性时不仅展示集成技术平台对各种输入和输出模式,还提供丰富的交互功能,口语对话是人类和计算机之间的接口。
在本文中,我们专注于人机交互与沟通的水平提供反馈的行为。特别是机器人需要给解释它将向何处去,这是做什么。这种交互的上下文中重要的“社会互动机器人”[2]。这种类型的机器人需要提供一个自然的界面与用户进行交互。他们需要采用许多人类的沟通方式和社会线索,使光滑的人类之间的沟通。
几个不同级别的语言行为和互动口语演讲时都会出现添加到一个机器人系统。这些不同的行为和相互影响的水平被描述为紧急言语行为在[5],进一步讨论潜在的想法。当前论文描述了一个演示程序,展示了在实践中各种行为的例子使用机器人模拟器。
演示的结构如下。第二节介绍了机器人工具箱和显示了一些沉默的自主行为的机器人。第三节描述了语音界面,并给出例子简单的言语行为的机器人和人机交互通过语音命令从人类。机器人开始采用类似人类的行为和适应社会线索为光滑的通信发生在它修改自己的言语行为在回应被要求少说话或更多。第四节描述了一个基于状态转换的口语对话系统演示使用机器人工具箱的有限状态机模式。第五节简要介绍了一些地区正在进行的实验。

烟花机器人

演示中使用的机器人框架是烟花[1],一个开源的Python工具包在人工智能和机器人技术探索的话题。烟花可以从http://pyrobotics.org下载。优秀的教程材料可在http://pyrobotics.org/?上页面= PyroModulesContents和http://pyrobotics.org/video/的视频显示了如何开始。
虽然烟花可以用来控制一系列真实的机器人以及模拟,演示只使用模拟机器人运行在模拟世界。在图1中机器人是一个“红色先锋”和世界是世界教程。机器人传感器,可以检测障碍和其他对象在前面,后面,左边和右边。
机器人的“大脑”是一个Python程序,控制机器人的行为。在最基本的层面上,机器人可以移动前进或后退,可以自己向左或向右拐。适当的反应来自传感器的信号可以通过编程来实现,因此,机器人开始自主行为。简单的自治行为包括避免(从检测到对象)和漫步(随机决策将略向左或向右)。
一个片段的Python程序避免大脑如图2所示。这个函数决定了机器人的下一步行动通过检查信号的传感器。注意,如果等传感器检查左< 0.8和下一步的行动,如返回(0.1,3)指定在低级的数值格式。然而,随着烟花是为教学机器人,帮助诊断打印语句如#打印“对象检测到左边,慢转”了由程序员在代码中解释的评论。这些打印语句提供了依据机器人的行为在第三节。
选择世界,机器人,和大脑是由Pyrobot图形用户界面如图3所示。不同的大脑程序可以加载和改变很快使用这个控制面板。这里的修改版本避免大脑已经被加载。这个版本可以避免检测对象和短消息打印到控制台解释其运动。“清晰”是指前面的道路是明确的和机器人只是往前移动。
命令也可以输入命令行底部的控制面板。这些命令使用相同的数值格式作为大脑程序,例如robot.rotate(-0.3)小右转。面向更多的人类——第三节中描述的语音命令。

添加的演讲

演示使用Windows笔记本电脑。语音识别和合成是由微软语音引擎(演讲SDK 5.1)。烟花机器人之间的界面工具包和语音引擎pyspeech[3],它提供了方便的函数对语音合成和识别文字从一个给定的列表。
印刷如图3所示消息变成pyspeech语音文本-语音组成部分。这使机器人实现单向通信的基本水平解释其运动。然而,当不需要回避行为机器人只是重复“清晰、明确、清晰…“不断前进。这很快就会变得恼人的机器人并不是说新的东西。很容易提高机器人的言语行为不重复过去的话语。然后机器人只有说话的时候说一些有趣的事情。
语音命令,如“前进,回去,向左转,向右转”可以rec - ognized pyspeech语音识别的组成部分。这些命令可以用于人类直接控制机器人的基本水平。然而,这将是乏味的指定所有机器人的运动在基本层面上,和机器人的大脑中的程序使它来执行自己的自主行为。人类需要使用语音指令只有当机器人变得“困”,不时发生。
更重要的是,语音输入引入双向communi -阳离子的可能性。人类机器人互动演示的很好的例子是,人类可以问机器人“少说”或“多说”。这些命令改变机器人的冗长的水平。在高冗长机器人说,“清晰、明确、清晰”不断而前进。在机器人中冗长表示新事物但不重复同样的事情。如果告诉“闭嘴”机器人立即切换到最低的冗长水平继续自主思考和行动,但使其思想本身,什么也没说。

口语对话

烟花机器人框架支持几种不同的范式,包括有限状态机、强化学习、模糊决策、神经网络和进化算法。该工具包旨在允许实验不同的方法开发机器人的行为。
我们使用烟花的有限状态机模式来实现对话控制状态转换,一个众所周知的方法在口语对话系统[4]。其他用途机器人的有限状态机描述[1]。当有限状态机结合语音界面,基于状态转换的口语对话系统可以直接在烟花机器人框架实现。
这部分演示了“古典”口语对话系统飞行预订的对话控制由状态转换实现。作为演示的目的是显示状态转换机制显然,机器人的行为纯粹是语言和它不动。除了美国获得起飞和目的地地点和出发和返回的日子里,总结的演示包括州之旅(如图4),重新开始的误解。

进一步的工作

其他实验组合的言论和机器人的行为也将显示在演示。目前的工作发展open-domain会话交互使用维基百科作为知识来源是[5]中讨论。主要的思想是,机器人应该能够去执行自己的自治行为没有不必要的人力监督,但是人类应该能够干预所需的为了改变机器人的行为。机器人应该有各种不同类型的行为,和人类应该能够告诉机器人当切换到一个更合适的行为。随着烟花机器人框架支持几种不同的行为模式,并对它们之间的切换机制,结合语音界面的烟花为实验提供了良好的基础。

数据乍一看

图1 图2 图3 图4
图1 图2 图3 图4

引用






全球技术峰会