人类与人工智能的关系正处于萌芽状态

我所见过的事情,你们人类绝对无法置信。我目睹了战船在猎户星座的端沿起火燃烧,我看着C射线在唐怀瑟之门附近的黑暗中闪耀,所有这些时刻,终将随时间消逝,一如眼泪消失在雨中。

——罗伊·巴蒂;《银翼杀手》

YiVian讯 2016年11月18日)人工智能已经让人类为之痴迷了半个多世纪。早在1947年,阿兰·图灵就在伦敦一场演讲中首次公开提到了计算机智能。从AlphaGo击败围棋大师李世石,到微软的种族主义AI聊天机器人Tay,再到机器学习领域的其他许多新发展,最近关于AI越来越强大的新闻头条不断涌现。一旦科幻故事中的情节—AI成为现实,那么人类必须尽早定义自己与AI之间的关系。

Human Longevity的联合创始人及副董事长彼得·迪亚曼迪斯(Peter Diamandis)日前在LinkedIn发文探索了这段关系,题为《The next sexual revolution will be digitized》(下一场性革命将是数字化)。他指出,最近报道显示越来越多的日本人放弃性爱和恋爱,同时有越来越多的男性群体表示自己更喜欢虚拟女友。

他说:“这只是开始,随着虚拟现实变得越来越流行,VR成人娱乐将不可避免地成为主要应用之一。那将是更为刺激、生动和令人上瘾的体验。而随着AI来到网络,我相信我相信AI版化身和机器人恋爱将会越来越多,就如同电影《她》和《机械姬》所描绘的角色那样。”

1. 人类与人工智能的关系正处于萌芽状态

让我们仔细思考一下,迪亚曼迪斯真的是在说自己认为人类将会开始与AI机器人建立关系吗?考虑到已经有男性群体更喜欢虚拟女友,这的确有可能。但我们距离能够反过来爱你的机器人还有多远呢?

要回答这个问题,我们首先要理解何谓AI,以及AI对公共世界而言到底意味着什么?AI有两种基本类型:强AI;应用AI或“弱”AI(严格来说还有另一种AI:认知模拟,或者说“CS”,但本位主要谈及前两种)。

强AI仍在不断发展,但其终极目标是制造出在智力水平上与人类几乎是相差无几的机器。麻省理工学院AI实验室的约瑟夫·魏泽鲍姆(Joseph Weizenbaum)认为,强AI的最终目标是“基本就是以人类为模型来创造出一台机器,拥有自己的童年,能像孩子一样学习语言,通过自己的感官来了解世界并学习知识,最终像人类一样思考。”

强AI就是你在电影中所看到的那种AI,比方说在《终结者》中反抗人类的天网,或者是《2001:太空奥德赛》中的HAL 9000机器人。有人预测,当这种超智能成为可能并且实现联机时,我们将触发“奇点”。这种AI离实现还有需要很长的时间(如果真的是可行)。

在另一方面,弱AI/应用AI也是你经常在新闻头条中看到的那种AI。任何挂有“智能”两字的东西通常都依赖于某种类型的弱AI,所有人工形式的智能设备都能够“学习”,甚至是编写自己的代码,但功能仅限于少数任务。

能够驱使智能汽车的程序、能够为我们提供客户服务的聊天机器人,甚至是上文提及的AlphaGo都属于弱AI或者说应用AI。这些系统内部存在着“微世界”的边界,而这个边界只有AI能够识别。它们是如此的先进,甚至是被定性为为“专家系统”。但这些系统没有“常识”,或无法理解它们应该如何适应更广阔的语境。它们本质上就是复杂的输入/输出系统,专攻于某一个领域。基于这些缺陷,很容易就能区分人工智能与人类智能。

2. 对话是重点

提到AI,得到社会关注的似乎都是类似于人的输入/输出系统。要对其进行衡量,最好的方法是测试它与人类交谈的能力。实际上,这就是为何我们总是特别强调要把图灵测试作为确定某个系统是否就是AI的原因。如果一个程序能够与人类交谈,并作为另一个“人类”通过测试,我们就会将其称为“AI”。

如果它无法通过图灵测试,就算很接近通过,我们也会知道屏幕另一端的对象并不是真正的AI,其对话的真正本质已经丢失。然而,即使我们知道自己正与AI进行对话,而AI也能熟练地引导对话,我们也经常惊讶于这种互动感觉跟真实的人类有多么接近,以至于我们不再怀疑,并忘记跟我们对话的只是一台机器。

遗憾的是,即使是被设计成在“微世界”中提供服务,AI也经常无法通过对话测试。比如,我们经常能在聊天机器人中发现这一点。最这微软和Facebook都在年初推出了聊天机器人服务,许多公司也开始转向这种技术,以提高客户参与度。但即使是以客户服务和支持系统强大的Salesforce也坦诚,聊天机器人仍未能达到所需要的成熟度。解决这一问题的唯一方法就是让这些系统表现得…更像人。

3. 弱AI到底要多像人?

这里是一切高潮所在。聊天机器人和AI的聊天能力暂时还并没有太大的进展。比如,我们可以参考Siri或Cortana(小娜)。严格来讲,聊天机器人又被称为虚拟助手,随着时间的发展,它们将会变得越来越先进。但这些聊天机器人都未能通过图灵测试,即使它们可以通过,可以说这些机器仍然不具备“智能”或“意识”,因为它们并不能理解对话的真正含义。整日斯坦福大学早期的通信程序“Eliza”和“Parry”一样,它们都依赖于预先编程,只能对模拟对话进行预置回复。对于哲学家奈德·布劳克(Ned Block)而言,这些系统“并不比自动点唱机更智能”。

虽说如此,我们在一定程度上仍需询问自己:我们到底想让弱AI多像人类?如果不了解弱AI与强AI之间的区别,当几乎与人类别无二致的聊天机器人联机后,到底会出现哪种心理效应?

TalkSpace是一家提供在线信息心理治疗的公司,旗下作者约瑟夫·劳契(Joseph Rauch)谈到在工作中经常需要表明自己是人类。

他写道:“我们经常会听到潜在客户说,他们希望确定与自己对话的是人类治疗师,而不是聊天机器人。我们所有治疗师都有执业牌照,是有血有肉的人类,但我们理解他们的忧虑。无论是在线治疗、社交媒体还是网络约会,每个人都希望与真实的人类建立联系。”

他谈到网络约会,该领域中已经出现了有聊天机器人诱骗人们加入其附属网站,其存在的原因甚至只为了吸引更多男性(女性比例似乎更少)。但假如这些聊天机器人被用于商业又会怎样呢?我们以顾客关系管理为例子,名为Legion Analytics的公司正试图推广其引导性销售聊天机器人Kylie,它可以理解简短对话,并把对话引导回原来的话题上(比如小朋友的足球游戏),甚至可以被潜在顾客调戏。

如果这样的聊天机器人变得足够先进,那么对于这种似乎比人类更了解自己的机器人,我们会有受操纵甚至受侵犯的感觉吗?特别是,如果这些聊天机器人在推销产品上比普通人更优秀呢?显然,这还有一段很长的路要走,但如果聊天机器人精通对话,并且可访问到拥有你完整心理信息的数据库,它们可能利用并合成信息来增强说服力,并成功做成一笔生意。这是一般人所不具备的能力。

4. 向机器人灌输情感

当然,要让弱AI更像人的方法是向其灌注情感,至少要教会它模拟情感。由弗雷泽·克尔顿(Fraser Kelton)创办的Koko公司正有此意。克尔顿表示聊天机器人需要拥有更多的人类情感。他在刊登在《Fast Company》的一篇文章中写道:“作为一项服务,我们正努力为所有语音或消息平台提供共情能力。我们认为,在你与电脑进行对话的世界里,这是一个关键的用户体验。”该文章形容道,把Koko的共情API授权出去,虚拟地连接到所有的聊天机器人上,就好像是为机器人安装了一颗心脏。

对于能理解人类情感微妙差异的AI,其实存在积极的一面。JAMA最新的研究表明,在回答用户抱怨的敏感问题时,像Siri这样的智能手机助手表现得非常糟糕,当用户就强奸、性骚扰和性虐待问题寻求帮助时甚至还会嘲笑用户。在一项关注未来20年医疗健康问题的研讨会上,美国东北大学副教授卡尔·尼尔森(Carl W. Nelson)指出,“大数据在保密性和你所担忧的事情上确实存在挑战,但使用恰当,可引导决策制定,或者作出判断…”。如果不能恰当理解人类情感并进行引导,一个自动医疗诊断系统到底有多完整呢?

因此,即使弱AI能够理解并模仿人类情感,我们也面临许多风险。比如,弱AI可能会假装识别出用户的状况,甚至反馈线索让用户产生情感反应?就算这是是预置回复,对这些机器人知之甚少的用户是否还会将其看作是机器人呢?

5. 对社会的影响

着时间的推移,这些技术将会继续为我们带来惊喜。我们已经看过许多科有关AI机器人的科幻电影,毫无疑问,我们将不会再把这些东西当作是科幻小说中的元素,而是开始好奇何时才会变成现实。像《银翼杀手》这样的电影已经在探索这样的问题,而最近Android Dick项目所取得的进展,以及《西部世界》这样的剧集都让我们意识到,或许我们需要尽早处理AI的伦理问题。

我们关注的伦理问题并非只是这些AI是否真的拥有感觉或权利,更重要的是,它们将会对作为人类的我们带来怎样的后果呢?例如,你如何向孩子们解释,这个看起来像人一样的管家并非人类,所以你可以把“他”扔到垃圾堆里?或者,像是《西部世界》一样,即使你杀死或强奸“她们”也没问题,因为“她们”并不是真正的人类?那么,这些生命模拟体在什么时候才会变得跟人类的生命一样宝贵呢?

随着时间的发展,这些都是我们必须回答的问题,而想要找到答案并不容易。最终,我们必须定义人类与AI的关系,并找出那条区分弱AI和强AI模糊的细线(如果后者真的可行)。希望在我们像照镜子般看着这些人造物时,我们能够学到更多,强化我们作为人类的人性,而不是粗暴地放弃它,或者像雨中的眼泪一样被冲走。

引用参考techcrunch

本文链接https://news.nweon.com/24021
转载须知:转载摘编需注明来源映维网并保留本文链接
入行必读:AR/VR——计算机历史第二次大浪潮

更多阅读推荐......

资讯