本篇文章1650字,读完约4分钟

雷:科技评论:日前,《连线》上的一篇文章对人工智能的发展表达了独特的看法,认为《终结者》中的情节只会发生在想象中,人类不必恐慌。雷锋。(公开号码:雷锋。《人工智能技术评论》编辑了如下文章:

Facebook的机器人会自己交流了,这并不可怕

机器觉醒是连续新闻报道中的一个常见主题。最近,脸书的研究人员遇到了让他们感到毛骨悚然的事情——他们的机器人在用自己的语言说话,这似乎是机器觉醒的标志。

Facebook的机器人会自己交流了,这并不可怕

你不必如此害怕。Facebook的实验确实生产出了会说令人困惑的句子的聊天机器人,但它没有引起恐慌。这些机器人不聪明。人工智能实验室的任何研究人员都没有恐慌,每个人都不必害怕。然而,媒体的错误报道对未来不利。随着机器学习和人工智能变得越来越流行和有影响力,了解这些技术的未来潜力和现状是非常重要的。算法将在战争、刑事审判和劳动力市场中发挥关键作用。

Facebook的机器人会自己交流了,这并不可怕

事实上,在facebook的人工智能实验室里真正发生的事情如下:研究人员开始研究可以和人聊天的机器人。他们相信,机器人有了谈判和合作的能力后,就能更接近人。他们开始慢慢训练机器人,比如让机器人玩简单的游戏:他们让两个机器人分一系列物品,比如帽子、球和书。

Facebook的机器人会自己交流了,这并不可怕

团队教机器人分两步玩游戏。首先,它们为计算机提供了许多人类游戏中的对话,使系统具有了协商语言的意识。然后,他们使用强化学习方法——试错法来不断磨练机器人的技能。这是帮助谷歌的阿尔法戈打败世界冠军李世石的训练方法。

Facebook的机器人会自己交流了,这并不可怕

当两个使用强化学习的机器人一起玩耍时,他们停止使用可识别的句子。Facebook的研究人员在技术论文中冷峻地描述了这一点:“我们发现,更新两个代理的参数会导致他们的对话不再是人类能够理解的语言。”

Facebook的机器人会自己交流了,这并不可怕

下面是两个机器人之间难忘的对话:

鲍勃:我可以,我可以,我可以做任何事情。。。。。。。。。。。。。。

艾丽斯:球对我来说是零对我对我对我对我对我对我对我对我对我

这种奇怪的对话有时会导致成功的谈判,显然是因为机器人已经学会使用重复和其他技巧来表达他们的需求。这有点有趣,但也是一个失败的实验。脸书的研究人员希望制造能和人类一起玩游戏的机器人,所以他们重新设计了训练程序,以确保机器人总是使用可识别的语言。正是方案的改变导致了恐慌的消息,即研究人员被机器人吓到了,停止了实验。

Facebook的机器人会自己交流了,这并不可怕

在《太阳报》的头条谈论facebook事件是否与《终结者》相似之前,《终结者》谈论的是机器产生的意识和与人类的毁灭性战争。

与《终结者》不同,facebook的机器人非常简单,它被设计成只做一件事:在简单的游戏中获得尽可能多的分数,机器人根据程序执行。

这不是人工智能研究人员第一次创造出可以用自己的方式交流的机器人。三月份,《连线》报道了openai的一个实验,在这个实验中,机器人在虚拟世界中开发自己的语言。facebook研究员Dhruv batra失望地说,媒体误解了他们的研究,这个类似的例子几十年前就存在了。

Facebook的机器人会自己交流了,这并不可怕

Facebook的实验并不可怕,但它证明了当今人工智能技术的局限性。当前机器学习系统中对字符的盲目使用限制了它们的有用性和能力。除非你找到一种方法来编程你希望机器拥有的功能,否则很难取得重大突破。这就是为什么一些研究者试图用人类的反馈而不仅仅是代码来定义人工智能系统的目标。

Facebook的机器人会自己交流了,这并不可怕

脸书上最有趣的实验是什么?机器人开始说英语,并证明了它与人谈判的能力。这并不坏,因为当你和西里或阿列克谢交谈时,你会发现他们不擅长经常交谈。

Facebook的机器人会自己交流了,这并不可怕

有趣的是,在某些场合,facebook机器人会撒谎说对他们并不真正想要的东西感兴趣。这是脸书实验室里发生的最可怕的事情吗?机器人会说谎!不。你根本不用担心,除了脸书的说谎机器人和天平动机器人,它们在扑克赌博游戏中轻而易举地击败了顶尖的人类玩家。这两个系统都可以在严格限制的环境中做令人印象深刻的事情,但是它们都不能将经验和知识应用到新环境中,也没有自我意识。机器学习研究很有吸引力,充满潜力,可以改变我们生活的世界。《终结者》只是一部虚构的科幻小说。

Facebook的机器人会自己交流了,这并不可怕

雷锋。技术评论汇编

雷锋原创文章。严禁擅自转载。详情请参考转载说明。

标题:Facebook的机器人会自己交流了,这并不可怕

地址:http://www.hcsbodzyz.com/hcxw/10949.html