也许你能找到所有关于人工智能的内容,都有一个共性:它们都是在用人类的视角看待人工智能,对其评头论足,前瞻后顾。
有没有想过把镜头彻底调换过来,站在人工智能这边看看人类?
那些长有四肢和头颅,总是有各种情绪、想法、意见的奇怪生物到底是什么样的?人类在与人工智能打交道的漫长历史里,展示出了怎样的自己?
于是我们策划了这个新系列《AI窥人》。在三篇故事里,我们希望把AI当作一面镜子,从中查看一下那些日常被视而不见的人类自我。
问题或许在于,AI是一面反射镜,透光镜,还是黑镜呢?
人工智能发展至今,已经经历了三次技术浪潮和两次技术低谷。而现在我们正深处在人工智能第三次技术浪潮之中。
关于人工智能的一片繁荣景象,难免让我们产生一种过分的期待。我们仿佛正在一往无前地迈向那个实现通用人工智能(AGI)的“智能时代”。
这种期待之下,我们对AI技术产生了两种截然不同的情绪。
一种是对AI技术的普及欢欣鼓舞,把AI技术视为全新的生产力工具,AI将大幅改善人类的生产效率,改善人类的生活,可以将人们从繁重、重复的体力劳动和那些枯燥、机械的基础性脑力劳动中解放出来。
另一种则对AI技术的发展忧心忡忡,甚至一些科技产业大佬也在亲自站台告诫大众,“担心人工智能的失控”。而在大众舆论中,也不时地传递出对于“工作被AI替代”“遭遇AI偏见歧视”,以及被科幻片洗脑担心我们人类被具有“自我意识”的AI所控制和奴役的终极担心。
似乎每一次一个AI的噱头话题都能引起人们的“细思极恐”。除了媒体用“标题党”赚取眼球,那么这一群体认知的背后一定暗合了大众的某一种共通心理。
上世纪的1970年,日本机器人学家森昌弘,根据人类对高度拟人化的人性机器人在某个相似度区间产生从喜爱到极端厌恶的一个心理变化。这一心理现象被称为“恐怖谷”效应。
事实上,人们对于那些高度仿真但是面目生硬的人形机器人或者电脑特效CGI人物、人与动物合成的怪诞形象等,会触发人类的一种对“似人非人”之物的生理性厌恶,其根源可能在于人类将对病态、死亡的恐惧投射到这些形象身上的本能防御机制。
显然,“恐怖谷”效应不仅于此。不仅是外在形象这一维度,在内在心智中人们一旦意识到有着人类智能的非生命体(如AI)出现,也会同样产生这种或类似“恐怖谷”的心理作用,其背后根源可能就在于发生了过度的心理投射。
我们究竟是如何产生这种内在心智层面的“恐怖谷”心理,我们又如何能够打破这种过度的心里投射,这是回答人类和AI在未来长期相处的一个关键问题。
AI“恐怖谷”:人类对“异己”的本能畏惧
去年,一段“波士顿机器人反抗人类”的视频曾一度引发人们的恐慌。在视频中,实验人员对机器人进行了一系列故意且恶劣的攻击,一开始机器人则似乎对这种攻击毫无反应,但随着攻击越来越严重,机器人突然做出了反抗动作,到最后开始直接反击人类。
如果不是事后澄清这是用CGI技术做的假视频,很多人甚至以为自己看到了一场“终结者”的现实版本。
我们到底在害怕什么?
一直以来,无论是那些科幻影视作品,还是我们自己的想象,我们对AI最大的恐惧就是害怕其产生“自我意识”。因为按照人类的生存法则推演,一旦具有“自我意识”的AI出现, AI一定就会首先控制或者消灭人类这个能够掌握AI生存权利的“他者”主体。
当然,目前的所谓第三代人工智能仍然处在模拟人类最初级的感知智能的阶段,正在向具有分析推理能力的认知智能阶段艰难演进,而更高层次具有综合推理判断能力的通用人工智能更是遥遥无期,而具有自我意识的超级人工智能则更是一件没有影子的事情。
但是尽管我们知道这一事实,我们也仍然会不由自主地产生“AI终将崛起,从而将人类取而代之”的逻辑推演,其根源就在于我们对威胁到自己生存的要素的本能恐惧。
这些恐惧存在于数百万年的进化史当中,包括我们对“外星生物”的恐怖想象,也包括我们对“非我族类,其心必异”的先验判断。
而这一次,恰好轮到与我们“似像非像”的人工智能而已。
格式塔效应:我们对AI投射了过多的爱和怕
对于“AI终将超越人类”的恐惧想象,其实只是我们对于AI进行过度心理投射的一种极端状态,因为话题过于刺激,已经到了撩拨起我们的生存本能的地步。
但实际上,我们对于AI的种种心里投射,其实是普遍存在的。
记得在一部讲述人类和AI进行精神恋爱的电影《her》当中,当男主陷入对AI沙曼萨的迷恋之时,AI坦诚地告诉他,自己正在同时跟8316个人交流时,还同时和641个人恋爱。深陷其中的男主对AI产生了仿佛被背叛的愤怒,以及陷入无力扭转局面的失落感当中。
现在,这样的情形,已经越来越多发生在现实当中。比如,有一次,我爱人想通过电话客服急于解决一个问题,再跟电话那头的客服解释、争论半天之后,突然意识到电话那头只是一个AI客服,立刻感到莫名的羞恼和一种被冒犯的感觉。
同样,我们也会对那些具有高超模仿能力的AI软件所生成的文本、图像和视频,也会投入很多真实的情绪和想象,即使我们知道这些东西是“伪造”而成的,但我们同样将这些东西视为一种“智能”的产物。
但实际上,无论是AI创作的音乐、绘画,还是写出的报道、诗歌,制作的图像和视频,其背后并无任何目的性,其所产生的“智慧”或者“意图”,不过是我们的心理投射。
而这种投射来自于我们的一种难以破除的被称为“格式塔”的心理效应。
也就是我们的认知容易给任何看起来陌生的事物以补全我们熟悉的东西,也就是我们总爱做心理上的完形填空。
其中,我们非常擅长从非生命的物体上面看出属于人的形象特征,尤其是人脸,这也许是人类对于自我过于迷恋的一种外化功能。同样,我们也总想从其他动物、植物和各种物理现象中解读出属于人类意志的东西,比如古代的“祥瑞”“河图洛书”之类的玄学。
如今,我们只是再一次把这种天生的认知方式投射到了人工智能,这个天然就是要仿照人类认知能力去构造的系统上面。一旦再给人工智能配上人形身材和眼耳鼻嘴这样的面孔,人类就更加无法从这种对智能的过度投射中抽身而出了。
通常在大多数时候,产生这种“格式塔”效应的心理投射是无伤大雅的,甚至还能给我们的生活带来许多的乐趣,比如,调戏AI机器人一直是很多人生活中快乐的源泉。
当然,凡事皆有度,一旦我们产生对于AI的过度乐观或者过度悲观的心理投射,对于我们人类自身和AI的发展来说,未必是一件正常的事情。
打破过度投射:AI的归AI,人类的归人类
对于AI技术的过度心理投射,会产生这样两种完全不同的相处心态。
一种是对AI技术过于信任,从而过于依赖AI提供给人的信息和答案。这种时候人们往往并不太理解人工智能的技术原理和能力范围,很多人会高估AI的发展水平,陷入到对AI的狂热崇拜中,比如去相信什么AI彩票、AI算命等毫无根据的事情,也有可能过于依赖AI的意见进行决策,而忽视AI算法可能存在的歧视、偏差等问题。
另一种是对AI技术过于怀疑,从而失去跟AI协同工作和生活的意愿。这些人们同样会陷入到对AI技术的不切实际的判断中,但是他们通常把AI视为一种威胁,认为AI技术正在无时不刻地窃取人类的隐私,干扰你的意图,并最终控制你的一切喜好和消费。
前面一种容易陷入到假AI的“小白鼠”套路里,而后一种则更容易陷入到被迫害的“妄想症”当中。那么,我们该如何打破这种对AI的过度心理投射呢?
历史上,基督教在处理世俗权力和精神权力纷时,提出了“上帝的归上帝,凯撒的归凯撒”这样的高级智慧。依样画瓢,现在我们在处理人类和AI的相处关系之时,也可以用“AI的归AI,人类的归人类”的解决方案。
在AI技术开始影响我们日常生活的各种决策的时候,我们需要分辨清楚哪些是影响我们的事实判断,哪些会影响我们的价值判断。
比如,AI会给我们提供更加合理的路线规划、更加严谨的外文翻译,给出更准确的搜索数据,但同时AI也会给我们推送我们更符合我们偏好的新闻、视频、社交好友、商品等,而我们需要对后者保持高度警惕。
而在我们在对各种AI应用,进行心理投射时,我们也要有主动意识地分辨出哪些是基于事实的理性判断,哪些是基于情感的非理性判断。
比如,对于今天的AI技术发展,我们可以大胆放心地将其视作人类可靠的实用性工具,而不必担心那个将要“取代人类”的邪恶AI的出现。再比如,我们可以对众多AI应用产生一种信赖但又能宽容其出错的心态。就像在开车时,面对一个在前面小心翼翼行驶的自动驾驶汽车,我们自然不会产生过多的不满情绪。
另外,随着人工智能的持续演进,以脑机接口、机械外骨骼为典型代表的人机交互技术也在逐步走向现实世界。越来越多的人可能成为兼具生物属性和人工智能属性的赛博格(Cyborg)人类。
显然,按照人类所普遍具有的这种过度投射心理,我们自然会对这些跨物种的新型人类产生这种“恐怖谷”的情感反应,人类种群也必然要掀起一场对于究竟何种程度的赛博格人类可以与主流人类社会共存的讨论。
那么,如何将这些讨论限制在可以和平对话,合理合法推进的轨道,而不是沦为非理性的情感纷争,甚至无端的仇视敌对,这可能也是今天我们就需要对于这种心理投射的弱点展开主动的练习的原因之一吧。
区分事实和评价,区分理性和情感,让自己足够配得上AI时代的心智水平,这或许是我们能够在未来飞跃“恐怖谷”的一门必修课。
本文来自投稿,不代表消费最前线立场,如若转载,请注明出处:https://www.xiaofei001.com/16806.html