为了控制人工智能,我们需要了解更多关于人类的信息

太保乱谈 / 2018年06月06日 00:10

互联网+

Gillian Hadfield是一个扁平世界的规则的作者以及南加州大学的法学和经济学教授。他主要研究类似:为什么人类发明了法律,以及为何全球经济如此复杂等问题。最近他写了一篇关于人工智能的文章,观点很有意思,我对全文进行了编译。

从科学怪人到自我,机器人,几个世纪以来,我们一直对创造能发展自主和自由意志的生物感到好奇和恐惧。

现在,我们正站在越来越强大的人工智能时代的尖端,我们迫切需要开发各种方法来确保我们的创意永远做我们想让他们做的事情。

对于人工智能领域的一些人,比如马克•扎克伯格来说,人工智能正变得越来越好,如果出现问题,技术将会解决这些问题。

但对于像埃隆·马斯克这样的人来说,现在是时候开始思考如何监管强大的机器学习系统了。

在这一点上,我和马斯克在一起。

不是因为我认为好莱坞喜欢吓唬我们的末日场景就在眼前,而是因为扎克伯格坚信我们可以解决未来的任何问题,这取决于马斯克坚持认为我们需要“尽可能多地学习”。

我们迫切需要了解的事情之一,不仅仅是人工智能是如何工作的,还有人类是如何工作的。

人类是地球上最精密的合作物种。

在认知和交流中,我们战胜了其他所有的动物——这些工具使我们能够分工和共同生活,而我们必须依靠他人来完成自己的使命。

这就是我们的市场经济和政府体系的全部意义所在。

但是复杂的认知和语言(已经开始使用的语言),并不是使人类在合作中如此成功的唯一特征。

人类也是唯一一个发展出“群体规范”的物种——一套复杂的规则和规范体系,规定了人们可以接受的、不可接受的行为,并通过集体努力来惩罚那些违反规则的人。

许多这样的规定可以由监狱和法院的官员执行,但最简单、最常见的惩罚是在团体中实施的:批评和排斥——拒绝在公园、市场或工作场所玩,与那些违反规范的人一起玩。

当谈到人工智能自由意志的风险时,我们真正担心的是他们是否会继续玩下去,并帮助执行我们的规则。

到目前为止,人工智能社区和捐助者资助的人工智能安全研究——像马斯克和几个基金会这样的投资者——主要求助于伦理学家和哲学家,来帮助他们思考如何构建一个能带来良好效果的人工智能。

像Nick Bostrom这样的思想家提出了关于人工智能和人工智能研究人员应该关心的重要问题。

但我们复杂的社会规范,与其说是道德选择,不如说是关于如何协调数十亿人每天在如何行为上做出数以百万计的选择。

这种协调是如何完成的,是我们无法真正理解的。

文化是一套规则,但它的改变——有时是缓慢的,有时是很快的——是我们还没有完全理解的东西。

法律是另一套规则,我们可以简单地在理论上改变,但在现实中就不那么重要了。

因此,对于我们这一群体的新成员来说,人工智能是引起怀疑的原因:他们了解和理解什么,是什么激励着他们,他们对我们有多大的尊重,他们愿意为冲突找到建设性的解决方案吗?

如果人工智能系统是用来读取和参与系统的,那么它将只能集成到我们复杂的规范系统中。

在未来,人工智能更加普及,人们将会定期与机器互动——有时甚至不知道它。

当一些汽车是自动驾驶的,并且互相交谈而不是我们的时候,我们愿意驾驶或遵守交通法规会发生什么?

我们会不会相信机器人会照顾我们在学校里的孩子,或者照顾我们年迈的父母在养老院?

社会心理学家和机器人专家正在思考这些问题,但我们需要对这类问题进行更多的研究,更多地关注系统的功能,而不仅仅是单个机器或过程的设计。

这将需要那些考虑规范系统设计的人的专业知识。

我们是否已经准备好了开始构建自己的规范系统的人工智能系统——它们自己的规则,即机器可以接受和不可接受的行为——以便协调它们自己的互动?

我预计这种情况将会发生:与人类一样,人工智能也需要有一个基础来预测其他机器将会做什么。

我们已经看到了人工智能的出现,他们通过创建自己的语言来提高他们在合作任务上的表现,从而给他们的开发者带来了惊喜。

但Facebook关闭合作的能力——开发出一种人类无法遵循的语言——未必是一种永远存在的选择。

正如人工智能研究人员斯图亚特•拉塞尔强调的那样,智能机器将会发现,如果它们死了,它们就无法完成人类的任务——因此,我们现在必须开始思考如何设计系统,确保它们继续重视人类的投入和监督。

要打造智能机器,遵循多个、冲突的、有时还不成熟的人类群体的规则,我们需要更多地了解是什么让我们每个人每天都愿意这么做。返回搜狐,查看更多

责任编辑:

1.环球科技网遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.环球科技网的原创文章,请转载时务必注明文章作者和"来源:环球科技网",不尊重原创的行为环球科技网或将追究责任;3.作者投稿可能会经环球科技网编辑修改或补充。