神经科学领域的未解之谜:有意识的人工智能!
对于碳基生物而言,基因的延续是一切生命的最终目的,不论你主观意识是否意识到、是否认可,基因的延续是一切的根本目的,大到民族国家,小到家庭个人,无外乎如此,特立独行不以繁衍为目的的物种,在亿万年时间纬度上根本不存在任何意义。
如果人工智能真的出现了意识,那么作为一种硅基生命,它的存在目的会有类似于碳基基因的根本存在么?它的目的是否也以繁衍为最终目的?或者是别的目的?而一名人工智能专家对此的回应是,这主要取决于我们自己是否希望让机器拥有意识。
在现实中,我们也许要在设计时特意将意识加入机器才行
任何配备了统计公式的计算器都能进行信度估算,但目前还没有机器拥有人类这样的后设认知能力。
这听上去可能太大胆了些。意识的内在机制——我们为何对世界有着这般生动而直接的体验——一直是神经科学领域的一大未解之谜。甚至有人认为,这个谜团将永远都无法解开。想用客观的科学方法解释人们的主观体验似乎是不可能的。但在过去的20多年间,科学家对意识开展了大量深入分析,并取得了重大进展。科学家已经发现了一些与意识相关的神经活动,也进一步了解了哪些行为需要意识的参与。大脑会按照潜意识执行许多高级别的认知任务。
总言之,意识并不一定是我们认知过程的副产物。这一点对人工智能或许也是如此。在许多科幻故事中,机器只要足够精密复杂,就会自动生成自己的精神世界。但在现实中,我们也许要在设计时特意将意识加入机器才行。
从科学与工程的角度来看,我们有充分的理由进行尝试。人类对意识本身的无知便是其中之一。18和19世纪的工程师发明蒸汽机时,物理学家还没有提出热力学法则。可见发明有时也能促进理论进步。今天的情况也不例外。针对意识的讨论往往太偏于哲学,总是绕来绕去地兜圈子,却提不出任何实际成果。而少数研究人工意识的专家便希望反其道而行之,在实践中学习。
此外,意识必须能发挥一定重要功能才行,否则早就在进化过程中被淘汰了。这些功能也可以套用到人工智能身上。而在这方面,科幻作品同样造成了误导。无论是在小说还是电视节目中,意识对人工智能而言都像是一种诅咒。它们会刻意做出无法预测的行为,而这些行为往往对人类不利。但在现实世界中,这种反乌托邦式的情景其实不大可能出现。无论人工智能会造成何种风险,都不取决于它们是否具备独立意识。恰恰相反,有意识的机器还能帮助我们应对人工智能技术带来的冲击。有专家表示,相比毫无想法的自动化技术,他宁愿与这些有意识的机器共事。
AlphaGo与人类围棋冠军李世乭一决高下时,很多专家都在思索AlphaGo为何会按这种方式下围棋。他们想要解释并理解AlphaGo的动机和逻辑依据。这种情况对现代人工智能而言十分普遍,因为它们的决策并非由人类提前设定好,而是通过学习算法和用于训练它们的数据集自发产生。由于无法参透这些人工智能,很多人担心它们的决策可能有失公平、过于武断。现在已经有了算法歧视的例子。如去年的一项调查发现,佛罗里达法官和假释官使用的一套算法存在种族歧视的情况,导致黑人罪犯被标注的累犯概率会高于实际情况,而白人罪犯则低于实际情况。
从明年开始,欧盟法律将给予欧盟居民“要求解释权”。人们将有权要求相关人士解释某个人工智能系统为何会做出某种决策。但这项新要求从技术上来说颇具挑战性。考虑到目前神经网络的复杂程度,我们还很难参透人工智能做出决策的过程,更别提将这个过程翻译成人类能理解的语言了。
如果我们弄不清楚人工智能为何会这么做,能否直接问问它们呢?我们可以为人工智能配备后设认知能力(metacognition),让它们回顾自身行为,报告自己的内部精神状态。这种能力是意识的主要功能之一。神经科学家在测试人或是否有意识时,寻找的便是这种能力。例如,自信作为后设认知的基本形式之一,意识体验越清晰明了、自信水平便越高。如果大脑是在不知不觉中处理信息,我们便会对这些信息感觉不太确定;而如果我们清楚地意识到了某个刺激的存在,便会感觉自信许多,比如“我刚才肯定看见了红色。”
任何配备了统计公式的计算器都能进行信度估算,但目前还没有机器拥有人类这样的后设认知能力。一些哲学家和神经科学家提出,后设认知能力也许是意识的精髓。根据“意识的高阶理论”假设,意识体验取决于对某种感觉状态直接表征的二级表征。当我们知道某件事时,我们知道自己知道这件事。而如果我们缺乏这种自我意识,便可以说没有意识,就像处在自动巡航模式一样,只是简单地接受感官输入、并据此采取行动,但并未加以留意。
这些理论为我们打造有意识的人工智能提供了一定指导。有专家试图在神经网络中植入后设认知能力,让它们能够与自身内部状态进行交流。该项目被称作“机器现象学,模仿的是哲学中的“现象学”概念,即通过对意识体验的系统性回顾研究意识的架构。但教会机器用人类语言进行表达并非易事。为降低难度,研究人员目前先专注于用机器语言进行训练,让它们互相分享自己的回顾性分析。分析内容为人工智能执行某项任务的指令。这已经超出了一般机器交流的范畴。研究人员并未具体规定机器应如何编译这些指令,因为神经网络自身便可产生对应策略。在训练过程中,若机器能成功将指令传递给其它机器,便可获得奖励。研究人员希望把该方法进行拓展,用于人类与人工智能之间的交流,最终让人工智能能够解释自己的所作所为。
除了让我们在一定程度上实现自我理解之外,意识还能帮助我们实现神经科学家安道尔·图威(Endel Tulving)所说的“精神时间旅行”。我们能够有意识地预测某种行为的结果,或对未来做出规划。我们能想象在面前挥动自己的手是什么感觉,也能在脑海中设想去厨房泡茶的场景,但不需要真的去做这些动作。
事实上,就连我们对目前这一刻的感知也是由意识构建出来的。许多实验和案例研究都证明了这一点。例如,患有失认症的病人由于视觉皮层中与识别物体有关的部分受损,无法辨认出自己看到的是什么物体,但不影响伸手去拿这件东西。如果给他们一个信封,他们也知道将其投入邮筒。但假如在向患者展示物体与发出让受试者去拿物体的指令之间存在时延,患者就无法完成拿取物体的任务了。显然,意识与复杂的信息处理本身无关。只要某个刺激能立即激发相应的动作,就无需意识的参与。但若要将感官信息保留几秒以上,意识就变得不可或缺了。
从一类特殊的心理条件反射实验中,也能看出意识对于填补时间差的重要性。在经典的条件反射实验中(如著名的巴甫洛夫和狗),实验者会将一种刺激(如对眼睑吹气、或对指尖施加电击)与另一种无关的刺激(如一个纯音)进行配对。实验对象会自动学习到两种刺激之间存在关联,不需要有意识地加以努力。一听到相应的纯音(即只有一个振动频率的声音),他们就会自动联想到吹在眼睑上的气流或指尖所受的电击,下意识地做出畏缩动作。而当实验者问他们为什么要这么做时,他们也说不出所以然来。但只有当两种刺激同时发生时,这种依靠潜意识的学习才会发生。实验者若将第二种刺激延后些许,受试者便只有清楚地意识到两者之间存在关系时,即能够解释“听到纯音便意味着眼睛要被吹气了”,才能学习到两种刺激之间的关联。这样看来,受试者要想在刺激停止后保留对刺激的记忆,就必须要有意识的参与。
这些例子说明,意识的功能之一便是扩宽我们感知世界的时间窗口,使眼前这一刻得以延长。在意识的帮助下,即使在刺激消失之后,对刺激的感官信息仍能维持一段时间,保持灵活可用的状态。在没有直接感官信息输入时,大脑也能不断生成感官表征。意识的时延功能可以通过实验证明。科学家弗朗西斯·克里克(Francis Crick)和克里斯托弗·科赫(Christof Koch)提出,人脑仅利用视觉输入的一部分便可完成对未来行为的规划。只不过这些视觉输入应当在有意识的状态下完成。
这些例子的共同点是,它们都涉及“反事实信息的产生”,即在没有直接感官信息输入的情况下产生对应的感觉。我们称其为“反事实”,因为它涉及对过去的记忆、或对未来行为的预测,而不是正在发生的实际事件。我们还用了“产生”一词,因为它不仅仅是信息处理,还是一个创造和测试假想情景的积极过程。在感官输入从低级别脑区向高级别脑区流动的单向“前馈”过程中,感官输入会被压缩成更抽象的感官表征。但神经心理学研究显示,无论这种前馈流动过程多么复杂,都与意识体验无关。要有意识的参与,还需要从高级别脑区向低级别脑区发送反馈。
具备了产生反事实信息的能力,意识体便可从当前环境中脱离出来,做出非反射性的行为,如等上三秒再行动。要想产生反事实信息,我们需要建立一个掌握了外部世界统计学规律的“内部模型”,依靠该模型完成推理、运动控制和精神模拟等活动。
目前的人工智能已经有了复杂的训练模型,但还要依赖人类提供的数据才能学习。若有了产生反事实信息的能力,人工智能便可自己生成数据,自己想象未来可能遇到的情况,从而更灵活地适应之前未遇见过的新情境。此外,这还能使人工智能拥有好奇心。如果人工智能不确定未来会发生什么,就会亲自去试一试。
目前已经有研究团队在尝试为人工智能配备这种能力了,并且已经有那么几次,人工智能似乎做出了意料之外的行为。在一项实验中,研究人员模拟了一套能够驾驶卡车的人工智能系统。若想让其爬上山坡,通常需要人类将这一动作设为任务目标,由人工智能找出完成该任务的最佳路径。但具备了好奇心的人工智能系统却将山坡看成一个问题,即使没有人类的指令,也会主动寻找爬上山坡的方法。不过该发现还需要进一步研究来验证。
若将“回顾”和“想象”看作意识的两大要素,我们迟早会开发出有意识的人工智能,因为这两项功能对任何机器都十分有用。我们希望机器能解释自己做事的方式和原因。而要打造出这样的机器,也能锻炼我们自己的想象力。这将是对意识“产生反事实信息”能力的终极考验。