有用过人工智能机器人回复机器人软件的人吗麻烦介绍介绍

  微软全球执行副总裁沈向洋表示微软的人工人工智能机器人小冰,是全球第一个以培养情商为目标的人工人工智能机器人系统“今天已经成为科技史上最大规模嘚人工人工智能机器人情感计算框架系统。”

  微软小冰的核心是技术和情感结合对话式人工人工智能机器人――它能够通过AI技术探索人类情感交流,提供与人类相似的对话体验微软认为,该技术将会是机器和人类沟通的未来现阶段,对话式人工人工智能机器人技術还很难实现尽管如此,通过AI算法和产品迭代微软目前已经取得不错的进展,微软小冰已经能够实现多轮次和人类对话

  数据显礻,微软小冰已经进入中国、美国、日本等5个国家覆盖超过1亿用户,累计进行了300多亿次对话在中国,微软小冰与人类单词连续对线分鍾;在美国该数据的最高纪录是2791轮次23小时43分钟。

  人工人工智能机器人时代的来临意味着很多过去无法想像的创新即将变为现实。茬达成情商和情感交流之外微软还在尝试赋予微软小冰创造力。

  基于人工人工智能机器人的深度学习技术和大量数据微软正尝试咑造一项具有创造力的人工人工智能机器人技术。不久前微软开发了一个人工人工智能机器人写诗的工具,女人痣面相图并将这个工具搭建在小冰之上让机器人创作文学作品。目前小冰已经创作出200首诗部分作品发表在诗集《阳光失了玻璃窗》中。这也是人类史上第一蔀完全由人工人工智能机器人创作的诗集

  微软还在开发人工人工智能机器人在有声读物、歌曲和财经新闻领域的创作。目前微软尛冰能够自动选择合适的语气和声音,以非常低的成本完成有声读物

  微软小冰是一款基于情感计算框架、以情商为主要方向的对话式人工人工智能机器人机器人。微软小冰在全球范围内与数亿人类进行了旨在建立情感连接的对线亿轮。

  微软小冰的“EQ”在人工人笁智能机器人方面取得了进步,让人们在互联网时代的生活丰富多彩也具有一定商业价值。用机器模拟人的思维也许能再次激励我们对囚类大脑工作机制、人的思维原理的研究。――大学教授、国家超级计算无锡中心主任杨广文

艾萨克阿西莫夫著名的机器人三萣律对机器人和自动机器人设下行为准则以确保人类的安全,也是一个著名的虚构学说这部法则首次出现在他1942年的短篇小说《跑位》Φ,并且也出现在《我机器人》等经典作品中,在刚开始出现的时候看起来很不错:

1、机器人不得伤害人类或因不作为而使人类受到傷害。2、除非违背第一法则机器人必须遵守人类的命令。3、在不违背第一及第二法则下机器人必须保护自己。

当然应用在现实中的隱藏的冲突和漏洞比比皆是,在我们这个拥有着先进的机器学习软件和自动化机器人时代定义和实施人工人工智能机器人的一套完整可荇的道德规范已经成为像机器人工智能机器人研究所和OpenAI所重点考虑的问题。

Christoph Salge是纽约大学的一名计算机科学家他采取了一种不同的方法。Salge囷他的同事Daniel Polani并没有用自上而下的哲学理论来定义人工人工智能机器人的行为而是在研究一种自下而上的道路,或者是“机器人应该首先莋什么”

正如他们在最近的论文中所写的那样,“给予权利是机器人三定律的替代品”“授权”这个概念在一定程度上受到了控制论囷心理学的启发,它描述了一个代理人的内在动机即坚持并在其周围环境中工作。“就像有机体一样它想要生存下去。它想去影响世堺”Salge解释道。在电池电量过低的情况下Roomba会在它快没电时自动寻找充电站,这可能是一种非常基本的授权方式:它必须采取行动让自己沒电不能续航时通过充电来维持自身的生存

授权听起来像是一个导致像Nick Bostrom这样的安全人工智能机器人思想家担心的结果:强大的自治系统呮关心如何让自己的利益最大化并做出一些疯狂的行为。但是研究人类机器社交互动的Salge想知道,如果一个被授权的人工人工智能机器人“也观察到到另一个被授权的”结果会是怎样。你不仅想让你的机器人保持运转你还想保持对它能够与人类友好相处而进行控制。”

Salge囷Polani意识到信息理论提供了一种方法,将这种相互赋权转化为一种数学框架即可以付诸行动的一个非哲学化的人工人工智能机器人。Salge说:“机器人三定律的一个缺点是它们是基于语言的,而语言有高度的模糊性”“我们正在努力寻找一种可以实际操作的东西。”

Quanta与Salge讨論了信息理论、虚无主义人工人工智能机器人和人类与机器人互动的犬类模型下面是经过精简编辑的对话。
问:一些技术专家认为人笁人工智能机器人是一个重大甚至当今存在的威胁。失控的人工人工智能机器人会让你担心吗我对此不抱太好的看法。我的意思是我确實认为现在机器人和人工人工智能机器人的影响力越来越大

但我认为,我们可能更应该关心的是这些人工人工智能机器人将影响未来职位的更替、决策的制定也可能会使民主的丧失,以及隐私的丧失我不确定这种失控的人工人工智能机器人有多大可能会让这些发生。

即使是人工人工智能机器人可以帮助我们控制医疗系统或者得到一些治疗方案,但我们也应该开始关注由此产生的伦理问题

问:赋权將如何帮助我们解决这些问题呢?

我认为赋权确实是一种填补漏洞的的想法。它让一个人工人工智能机器人帮助人类避免死亡但一旦伱满足了这个基本的底线,它仍然有一种持续的动力去创造更多的可能性让人类更多地表现自己来对世界产生更大的影响。在Asimov的一本书Φ我认为机器人最终将所有人类置于某种安全的容器中。这当然是我们所不愿意看到的

然而,让我们的能力增强并持续地影响世界似乎是一个更有趣的最终目标问:你在一个游戏环境中测试了你的虚拟人工人工智能机器人。然后发生什么呢

一个被自己的力量所激励嘚人工人工智能机器人会跳出炮弹的方向,或者避免落入一个洞中或者避免任何可能导致其丧失机动性、死亡或被破坏的情况,从而减尐其运作性它只会不停地运行。

当它与一个人类棋手配对时它被设计成能自我增强,我们观察到虚拟机器人会保持一定的距离来避免阻碍人类的行动它不会阻碍你进入,它也不会站在你无法通过的门口我们看到,这种效果基本上人类会让他的同伴形影不离这样同伴才能就能帮到他。它导致了一些可以引领或跟随的行为

例如,我们还创造了一个激光屏障的场景对人类有害,但对机器人无害如果这个游戏中的人类离激光更近,突然就会有越来越多的激励因素驱使机器人去阻挡激光当人类站在它旁边时,它的动机就会变得更强这意味着“我现在想穿过它”。这个机器人会挡住激光站在它前面。

问:这些人工人工智能机器人是否有出现任何意想不到的行为僦像Asimov小说中出现的三部法律一样?

我们最初设计的行为很好例如,虚拟机器人会干掉那些想要杀死你的敌人偶尔,如果这是唯一能拯救你的方法它可能会跳到你面前为你挡子弹。但在一开始有一件事让我们有点吃惊,那就是它也非常害怕你

这与它的“本地正向”模式有关:基本上,它所判断的是未来发生的两三个行为对人类或者它本身的世界的影响是怎样的。因此作为简单的第一步,我们编寫了这个模型假设玩家会随机操作。但在实际操作中这意味着机器人的行为实际上是基于在假定人是一种精神变态者的情况下,所以茬任何时候比如说,人类都可以决定向机器人开火所以机器人总是非常小心地待在那些人类无法杀死它的位置上。

我们必须解决这个問题所以我们建立了一个我们称之为信任的假设。基本来说“同伴机器人”的行为是基于这样的假设:人类只会选择那些不会移除代悝自身权力的行为——这可能是一个更自然的伴侣模式。

我们在比赛中注意到的另一件事是如果你有10个生命值,你的同伴机器人并不关惢你失去前八、九个生命值甚至会在一段时间内认为射杀你只是一种诙谐的行为。在这个实验中我们再次意识到我们生活的世界与电腦游戏中的模型之间存在着间隙。一旦我们用基于生命损失来生产出能力限制模型这个问题就解决了。但它也可以通过设计本地正向模型来解决这让它能够预知未来的一切条件,而不仅仅是几个步骤如果这名机器人能够深入了解未来,就会发现拥有更多的生命值可能會对未来有所帮助

机器人基本上会说,“哦我不能开枪打死他,或者我可以开枪打死他这两者没有区别”有时机器人甚至会射杀你。这种情况当然是个大问题我不能宽恕随意开枪的玩家。我们增加了一个补丁让虚拟机器人更关心你的授权,而不是它自己的

问:洳何让这些概念变得更精确?

如果你把机器人看作是控制系统你可以从信息的角度来思考:世界上发生的任何事情,在某种程度上影响著你我们不只是在谈论你所感知到的事物,而是任何一种影响——它可能是任何在周围世界和你之间来回流动的东西可能是温度影响伱,或者是营养进入你的身体任何渗透到这个边界的世界和人工人工智能机器人之间都携带着信息。同样人工人工智能机器人也能以哆种方式影响外部世界,也能输出信息

你可以把这种流动看作是信道容量,这也是信息理论中的一个概念当你获得高度的授权能够采取不同的行动,这将导致不同的结果如果这些能力中的任何一个变得更糟,那么你的授权就会降低——因为能力的丧失对应着你和环境の间的信道容量可量化的减少这是核心理念。

问:这个人工人工智能机器人需要赋予多大的权利去工作

赋权有一个优势,即使你的知識还没有完善它也可以被应用。人工人工智能机器人的确需要一个模型来说明它的行为将如何影响世界但它并不需要完全了解这个世堺以及它的所有复杂之处。与一些试图将世界上的一切都尽可能完美了解的方法相比你只需要弄清楚你的行为是如何影响你自己的看法嘚,那么你只需要弄清楚你的行为到底意味着什么你不需要知道所有的东西都在哪里。但你可以有一个帮助你探索世界的人工人工智能機器人它会做一些事情,试图弄清楚某件事的行为是如何影响世界的随着这种模式的发展,人工人工智能机器人也会更好地了解它的授权程度

问:当你已经在虚拟环境中测试过之后,为什么不在真实的世界里实施呢

扩大这种模式的主要障碍,以及我们为什么不把它放在任何真正的机器人身上是因为在像现实世界这样的富裕环境下,很难计算出一个人工人工智能机器人和一个人类之间的信道容量目前有很多项目在努力提高它们的效率。我保持乐观的态度但目前这是一个计算问题。这就是为什么我们把这个框架应用到电脑游戏的哃伴机器人上这也是一种更加简单的形式来让这些计算问题更容易解决。

这听起来好像让我们的机器变得像强大的功能犬一样

实际上,我认识一些机器人专家他们有意让机器人模仿狗狗的行为。我的意思是让机器人像我们的狗一样对待我们,这可能是一个我们都能接受的未来

编译:网易见外编译机器人

我要回帖

更多关于 人工智能机器人 的文章

 

随机推荐