机器人
探索 | 如何做一个成功的机器人
2016-06-11 11:37  浏览:203
为什么机器人在身边为你服务比拴在工厂里工作更让我们感到忧虑呢?目前为止,我们在生活中依赖着成千上万的自动化系统或工具。我们乘坐自动航行的飞机。我们的电网可以自己改变流向以避免停电。我们期望这些系统可以变得更为可靠安全,做好我们预先设定的事情而不逾越自己的本分。
也许这就是问题的关键。针对这一问题,我们谈到的这些机器和自动化系统有可能必须建立成功的人机关系。这些关系并不仅仅建立在规模庞大的数据集上,也基于人类的行为和社会的规则、习俗,法律以及人类用于观察自己世界的价值观。这些机器人必须及时找出“正确”的事情,指引一个乱穿马路的行人转向,做一台救命的手术,从敌军中区分出友好公民。而这些操作都无需经过人类的帮助。
也许这就是问题的关键。针对这一问题,我们谈到的这些机器和自动化系统有可能必须建立成功的人机关系。这些关系并不仅仅建立在规模庞大的数据集上,也基于人类的行为和社会的规则、习俗,法律以及人类用于观察自己世界的价值观。这些机器人必须及时找出“正确”的事情,指引一个乱穿马路的行人转向,做一台救命的手术,从敌军中区分出友好公民。而这些操作都无需经过人类的帮助。

为了激发机器人的信任,机器人专家正与心理学家、社会学家、语言学家、人类学家,以及其他科学家一同努力工作,以了解人类在扮演不同的角色时让我们值得信赖的原因。
但这并非易事。正如乔治敦大学的法律和技术学者梅格·罗达·琼斯(Meg Leta Jones)指出,你必须非常精确的知道所信任的机器人能做什么事情。
但这并非易事。正如乔治敦大学的法律和技术学者梅格·罗达·琼斯(Meg Leta Jones)指出,你必须非常精确的知道所信任的机器人能做什么事情。

“机器人有什么能力呢?自动化系统是否能精确向人类用户表达自己所能胜任的事情?为了建立强大的信任,你必须有能力回答这些问题,定义这些期望。然而,目前为止我们仍然不知道对这些问题该如何下手。”

机器人设计的另一大难点是让机器人区分人们话语的表里,我们必须考虑到人们说他们希望机器人做的事情和他们真正想要机器人做的事情的区别。
例如,如果你问人们他们想要的机器人是100%真实的吗?每个人都可能会开始说“是”。但心理学研究告诉我们,如果一个机器人真的是是100%真实的,人们会开始憎恨它。
例如,如果你问人们他们想要的机器人是100%真实的吗?每个人都可能会开始说“是”。但心理学研究告诉我们,如果一个机器人真的是是100%真实的,人们会开始憎恨它。

因此,设计师们需要认真思考机器人可以拥有的真实度范围,而不让我们有所察觉。机器人也需要展示一些自己的礼仪。同样地,在执行任务之前能够解释自己的意图并获得人类许可的机器人将会获得人类更多的信任。

公众对“机器人杀手”的不满似乎有点为时过早了。毕竟,目前为止我们所看到的最好的和最引人注目的机器人都是影片中人类扮演的角色——一个是施瓦辛格扮演的终结者,一个是斯嘉丽·约翰逊在科幻片《她》中扮演的萨曼莎,以及我最近比较喜欢的一个角色,电影《星际穿越》中比尔·欧文扮演的机器人TARS。
但机器人杀手的狂热也依旧引人注目,因为它帮助某些问题进入公众视线。这些问题在现代工业和学术界被反复讨论,并被认为适用于所有机器人。那些可爱的机器人可以为我们的孩子唱安眠曲,而那些不太像我们的可以帮助我们工作。
但机器人杀手的狂热也依旧引人注目,因为它帮助某些问题进入公众视线。这些问题在现代工业和学术界被反复讨论,并被认为适用于所有机器人。那些可爱的机器人可以为我们的孩子唱安眠曲,而那些不太像我们的可以帮助我们工作。

在创建现代互联网的奋勇拼搏中,这一热潮为我们提供了一个了不起的机会去做对的事情,而不是反复地犯关于隐私、安全、责任和人权的错误。

想要为机器附上道德责任的属性,为它们贴上“伦理”的标签,在我们可预见的未来中似乎是不可实现的。毕竟,它们并不是有感情的生物。
想要为机器附上道德责任的属性,为它们贴上“伦理”的标签,在我们可预见的未来中似乎是不可实现的。毕竟,它们并不是有感情的生物。

但我们人类应该勇于承担伦理责任,在算法上给与机器人丰富且细致入微的“大脑”与我们交流。这样,它们会同人类一样掌握道德伦理,并且富有同情心。

    文章来源:微信公众号人工智能家