谨慎的汽车和爱唠叨的厨房
本节核心论点:任何只能部分实现自动化的任务,都需要双方——也就是人和机器——知道对方当前在做什么,以及接下来想要做什么。
我驱车行驶在我的住所和太平洋之间的蜿蜒山路上。一侧是层叠的红杉林,另一侧是太平洋旧金山湾的美景,而路在其间急转盘旋。这样的驾驶感受多么美妙啊,汽车毫不费力地应对着这样的挑战,优雅从容地通过一个个急转弯。至少,这是我当时的感受。可是,我却发现我的妻子有些紧张,她甚至有点儿害怕了。她的双脚撑住地板,双肩耸起,手则扶着仪表板。“怎么了?”我问道,“不必紧张,我开车是没问题的,你放心吧。”
现在我们来想像一下另一种情形,我还是在同样的路上行驶,我感觉汽车在紧张,害怕。座椅开始变得僵硬了,安全带拉紧了,仪表板也朝我发出警报声。随即,我发现汽车开始自动刹车减速。“哎呀”我意识到“我最好开慢点。”
汽车受到了惊吓。你觉得这个概念是不是有点异想天开?告诉你吧,这算不上异想天开。今天的一些高级汽车已经具备了这样的功能,而且人们正计划着在越来越多的汽车上添加这些功能。如果行驶偏离了车道,一些汽车会加以纠正:比如,发出警报声、方向盘或座椅振动,或者两侧后视镜发出闪光。汽车制造商们目前正在试验一种被称为局部纠正的功能,来帮助驾驶员驶回到自己的车道上。转向信号灯的设计,原来只是用来告诉其他车辆,你准备转向或者变道,但是现在它们被用来告诉汽车你真的要转弯或者变道:“哎,别碍事”转向灯告诉汽车“我是有意要这样做的。”
我曾经担任过一家知名汽车制造商的顾问组的顾问。在顾问组里,我向其他同事描述了我对我妻子的反应和我对我汽车的反应是如何的不一样。而顾问组的另一位顾问Sherry Turkle,则问我:“为什么会有不一样的反应?”Sherry Turkle是麻省理工大学的教授,她还是研究人与科技的关系方面的权威专家。她问我:“为什么你能更容易听从汽车的,而不太容易听你妻子的?”
的确,为什么会如此呢?我得好好思考一下这个问题。当然,我可以编出很多合情合理的解释,但这些解释可能都不太到位。可是,当我们开始让身边的这些物体变得更主动、更智能、更情感化、更个性化时,我们现在不得不担心我们如何和机器进行交互。
为什么我似乎更加关注我的汽车而不是我的妻子?答案很复杂,但说到底,这是一个有关交流的问题。当我妻子有抱怨的时候,我可以问她为什么,之后可以赞同她的观点,或者也可以试图打消她的疑虑。我还可以调整一下我的驾驶行为,这样她便不会那么担心了。但是,对于我的汽车,我无法和它进行对话:我即便可以和它交流,这种交流也是单向的。
“你喜欢你的新车吗?”我问Tom,在一次大型学术会议之后他驾车送我到机场:“你感觉这部车的导航系统怎么样?”
“嗯,我喜欢这部汽车。”Tom回答道,“不过我从来也不用它的导航系统,我根本就不喜欢导航系统:我更愿意由我自己决定我要走的路线。导航系统给不出什么好的建议来。”
机器的能力不如人类,因此它们拥有更大的权力。这听起来不是有些相互矛盾吗?的确是相互矛盾的,不过,事实也的确如此。我们来想一下在商务谈判中谁会更有能力。如果你期望在谈判中达成最佳的结果,你会派谁到谈判桌上呢,是首席执行官?还是某个级别稍低的人?答案往往和人的直觉相反:通常,较低级别的职员往往能够协商到较好的谈判结果。为什么会这样?因为无论对方提出多么有力的反对论据,较弱的代表都不可能敲定谈判的结果。即使是面对最有说服力的论据,他或者她也只能说:“对不起,我必须征求我老板的意见,之后才可以给你答复。”而拥有更大权力的谈判者则可能相反,他可能会被说服,并同意对方的条件,虽然后来他可能会后悔不已。
谈判高手了解这种谈判策略,而不会让对方这样轻易地逃离现场。我的一个朋友是位成功的律师,当我和她谈及此事时,她笑道:“哎,如果对方采用这种伎俩,我会立即点破。我才不会让他们的这种游戏得逞。”机器会和我们玩这种游戏,我们却无法摆脱。当机器介入的时候,我们别无选择,只好被它们控制。它们会说:“就是这样的了,或者什么都没有。”什么都没有?这根本就是别无选择。
我们再来看看Tom的烦恼。他向汽车索要行车路线,汽车则给出了行车路线。这听起来挺简单,人和机器在交互,产生了美妙的对话。但我们注意到Tom的抱怨:“它根本给不出什么好的建议来。”新技术的设计师们在所设计的产品中加入了“交流能力”,这一点让设计师们非常得意。但是,我们仔细分析一下,便不难发现,这实际上是用词不当:这里根本就没有交流,这种一来一往的讨论根本不具备真正对话的特点。相反,这其实是两个独白。我们发命令给机器,机器反过来命令我们。两个独白无法构成对话。
在这个例子中,Tom还有一个选择。他可以关掉导航系统,汽车仍然可以正常运转,既然导航系统无法给出有价值的建议,他就干脆把它关掉。不过,汽车上的一些其他系统却不会这么幸运:你如果不想使用这些系统,就只能不开车。原因是这些系统是非常必要的,尽管有些系统可能并不完美,但它们会在关键的时刻救人一命。所以,这里的问题是,我们如何改善我们与机器交互的方式,从而较有效地利用它们的优点和长处,而避免它们烦人的缺陷,以及一些甚至是危险的动作。
尽管人类的科技在不断进步,然而科技以及科技产品在协作和交流方面的缺陷也越来越凸显出来,这是个很严重的问题。协作意味着要和一个人的行动同步,同时要做出解释并给出原因。这意味着彼此信任,但信任只能通过经验和理解来形成。在自动化的、所谓的“智能”的设备中,双方的信任有时是不完全的,或者说是有所保留的,这样的信任便是不适当的。因此,Tom才会决定不去信任他车上的导航系统的指令。但有的时候,拒绝科技可能会带来危险。例如,如果Tom关掉了汽车的防滑制动系统或者稳定控制系统,情况会怎么样呢?许多驾驶员都认为,和汽车的自动装置相比,他们自己能够更好地控制汽车。但是实际上,即使是最专业的驾驶员也远远达不到防滑和稳定系统的效果。这些系统已经挽救了很多生命。可是,驾驶员怎么知道哪些系统才是可以信任的呢?
设计师往往把注意力放在科技的运用上,企图尽可能地将安全和便利都自动化。他们的目标是完全自动化,除非存在着技术上尚有限制或者成本过高等制约因素。这些制约意味着一些任务只能部分地自动化,因此需要人来监控机器的行动,并且需要在机器无法正确运行时,人应该可以接手它的工作。任何只能部分实现自动化的任务,都需要双方——也就是人和机器——知道对方当前在做什么,以及接下来想要做什么。