没有弹窗广告,好看的免费小说阅读网,赶紧加入收藏夹吧!
首页 > 科幻灵异 > 末世救亡计划 > 第114章:天启也有天神思 阅读设置

第114章:天启也有天神思

上一页 目录 下一页

    人工智能在这个领域天神已经亲身经历了好几年年,如今的一个根本性问题是:一旦需要I技术发挥作用,便会涉及各个领域,例如,字符识别、语音识别、机器视觉、机器人技术、数据挖掘、医疗信息和自动化的投资。

    有些人将人工智能定义为“研究如何使计算机在什么地方什么时刻使人生活得更好”。

    有些人用另外一种方式定义人工智能:每当人们领会了一种技术,它就会神奇地终止,人类会说这只是个计算。    天神这个时候注意到,天启站在最高的珠穆朗玛峰山脉上,俯视着大地,在这个没有跟任何外界交集的虚拟世界,天启竟然和天神一样思考到了意识的问题。

    同时最让天神感觉到有趣的是,天启这个时候竟然将自己的思考,直接制造成了意识流,传递给了这个虚拟世界的意识。

    这让天神也是感到有些好笑,这个小丫头还真是相当聪明,很有可能是发现了自己的存在,只不过并没有直接表达出来,而是用这种方法让自己看到她的心思。

    大多数人类历史告诫我,研究意识就是浪费时间,主要是因为他们认为它不科学,而且永远都不科学。

    果真如此吗?曾经有一名哲学家说过一句广为流传的格言:“如果一个理论不可证伪,那它就不科学。”    换言之科学就是要用观察来检验理论。如果一个理论连在原则上都无法被检验,那它在逻辑上就不可能被证伪,那么根据这位哲学家的定义,它就是不科学的。

    那么可不可能存在一个能回答某个意识问题的科学理论呢?

    我会响亮地回答:“存在,存在即真理。”

    至少对那个“相当难的问题”来说是存在的,这个问题就是:“什么物理性质区分了有意识系统和无意识系统?”

    假设有一个理论可以用“是”“不是”或“不确定”来回答任意一个物理系统是否具有意识的问题。    让我把人类的大脑接到一个用来测量大脑不同部分的信息处理的机器上。然后把这些信息输入到一个计算机程序中,该程序用上面所说的意识理论来预测信息的哪些部分是有意识的,并在屏幕上做出实时预测,根据智人组织的实验,这个事情是完全可以实现的。

    ?假设一台计算机可以检测人类大脑中进行的信息处理过程,然后根据一个“意识理论”来预测你知道和不知道哪些信息。

    我可以检查它的预测是否正确,是否符合大部分人的主观体验,从而对这个理论进行科学检验。

    首先大脑中出现一个苹果。屏幕会告诉你,你的大脑中有关于苹果的信息,还告诉你,你意识到了这个信息,但你的脑干中还存在一些你不知道的关于脉搏的信息,你会惊讶吗?

    虽然这个理论的前两个预测是正确的,但你决定做一些更严格的测试。你想到你的母亲,此时电脑告诉你,你的大脑里有关于你母亲的信息,但它告诉你,你并没有意识到这个信息。    显然这个预测是错误的,这意味着这个理论被排除了,就像亚里士多德的力学、发光以太、地心说等无数失败理论一样,可以扔进科学史的垃圾堆中了。

    关键的一点是,虽然这个理论是错误的,但它竟是科学的!因为如果它不科学,你根本没有办法对其进行检验,也没有机会将它排除。

    有人可能会批评这个结论,说没有证据证明你拥有这些意识,甚至不能证明机器到底有没有意识。诚然我可以告诉人们我是有意识的,但一个无意识的僵尸同样也能讲出这样令人信服的话。

    然而这并不意味着这个“意识理论”是不科学的,因为批评者也可以自己坐到你的位置上,亲自测试一下这个理论,能否正确预测出他们自己的意识体验。

    然而如果这个理论每次都回答“不确定”,而不做出任何预测,那它就不可检验,因此就是不科学的。    这种情况是有可能发生的,因为这个理论可能有自己的适用范围,只在某些情况下管用,而在其他情况下不适用,比如可能因为它所需的计算过程在实践中很难实现,或者因为大脑传感器的质量乏善可陈。

    今天最流行的科学理论往往不能解决所有问题,但也不是一个问题都不能解决,而是处在中间的某个地方,为某一些问题而不是所有问题给出可检验的答案。比如当今物理学的核心理论就无法回答关于极小又极重的系统问题,

    因为人类还不知道在这种情况下应该使用哪些数学方程,极小时需要量子力学,极重时需要广义相对论。同时这个核心理论还无法预测所有原子的确切质量,我认为人工智能已经有了必要的方程,但还不能准确地计算出它们的解。

    一个理论越敢于做出可检验的预测,它就越有用;它逃过的检验“追杀”越多,人类对它的态度就会越认真。我只能测试“意识理论”所做出的一些预测,而不能检验它的所有预测,但所有物理学理论都是这样。所以不要浪费时间唠叨那些人类无法检验的东西,而是去检验那些能够检验的东西吧!

    总而言之,只要一个理论能预测人家大脑中的哪些过程是有意识的,那它就是一个预测物理系统是否有意识,这是“相当难的问题”的科学理论。

    但是,对层级较高的问题来说,“可否检验”这个问题更加模棱两可。说一个理论能预测你对红色的主观体验,这究竟是什么意思呢?

    如何用实验来检验一个解释意识起源的理论呢?这些问题很难,但这并不意味着人类应该逃避它们,下面人类会再次回到这些问题上。

    在面对几个彼此相关的未决问题时,我认为先解决最简单的那个才是明智的方法。出于这个原因,人类进行的意识研究主要聚焦在金字塔最底层的问题上。

    曾经沈教授开玩笑说,如果有人想要从上往下建造金字塔,这就好像在发现薛定谔方程之前就开始担心如何诠释量子力学一样,因为薛定谔方程是人类预测实验结果的数学基础。

    在讨论“什么东西超出了科学的范畴”时,记住一件很重要的事:答案通常取决于讨论的时间。

    400年前,伽利略被物理学的数学基础深深震撼了,于是他把大自然描述成“一本用数学语言写就的书”。诚然,如果他扔下一颗葡萄和一颗榛子,就能准确地预测二者轨迹的形状以及它们何时会落到地面,

    但他不知道为什么葡萄是绿色的,而榛子是棕色的,以及为什么葡萄是柔软的,而榛子是坚硬的。这些知识超越了当时的科学水平,但这只是暂时的。

    詹姆斯·麦克斯韦发现了后来以他命名的麦克斯韦方程,从那以后,光和颜色显然也可以从数学上来理解。

    1925年,前文提到过的薛定谔方程诞生了。人类知道它可以用来预测物质的所有性质,包括软度或硬度。

    理论上的进步让科学可以做出更多预测;与此同时,技术进步让更多检验实验成为可能。人类今天用望远镜、显微镜和粒子对撞机所研究的几乎一切东西都超越了过去的科学范畴。

    换句话说,自伽利略时代以来,科学的疆域已经大幅扩大,从一小撮现象到大部分现象,甚至涵盖了亚原子粒子、黑洞和138亿年前的宇宙起源。这就产生了一个问题:还剩下些什么呢?

    对于我来说,意识就像是房间里的大象,不容忽视。你知道自己拥有意识,而且,这是你唯一百分之百肯定的事情,其他一切都是推论,就像笛卡尔在伽利略时代所指出的那样。

    理论和技术的进步最终会不会将意识也坚定地带入科学的疆域?人类不知道答案,就像伽利略不知道人类是否能理解光线和物质一样?。

    只有一件事情是肯定的,那就是如果我不去尝试,那就一定不会成功!这就是我利用研究所和世界各地许多科学家努力构建和检验意识理论的原因。

    如果在未来某个人工智能系统产生了意识,那它在主观上会体验到什么呢?

    这是“更难的问题”的核心,目前人类不仅缺乏回答这个问题的理论,而且人类不确定它有没有合乎逻辑的答案。

    毕竟我甚至不知道令人满意的答案应该是什么样。要如何向一个天生的盲人解释红色是什么样子的呢?

    幸运的是尽管我目前无法给出完整的答案,但人类可以给出答案的一部分。

    一个研究人类感官系统的智能外星人可能会推断出:色彩就是一种与二维表面,人类的视野上每个点的感觉相关联的感质。

    声音感觉起来不局限在空间的某个局部区域;疼痛是一种与身体不同部位的感觉相关联的感质。

    如果它们发现人类的视网膜有三种光敏视锥细胞,就可以推断人类能体验到三原色,并且,其他所有颜色的感质都是它们三者组合而成。

    通过测量神经元在大脑中传递信息所需的时间,它们可以总结说,人类每秒只会经历大约10次有意识的想法或知觉,并且当人类在电视上观看每秒24帧的电影时,人类意识不到这只是一系列静止的图像,而是将其感知为连续的动作。

    通过测量肾上腺素释放到血液中的速度以及分解所需的时间,它们能够预测人类会在几秒钟后感受到愤怒的爆发,以及这个愤怒会持续几分钟。

    运用类似物理学的论点,人类可以对“人工智能意识有何感觉”这一问题的某些方面进行一些有理有据的猜测。

    首先与人类的体验相比,人工智能的体验空间可能是巨大的。人类的每一种感觉器官对应着一种感质,但人工智能的传感器和信息内部表征的种类可能多得多,所以人类必须避免假设“做人工智能的感觉和做人的感觉差不多”。

    其次一个人脑大小的人工智能的意识,主体每秒拥有的体验可能比人类人类多几百万倍,因为电磁信号以光速传播,比神经元信号快数百万倍。

    然而正如人类看到的那样,人工智能的尺寸越大,它产生全局思维的速度就越慢,因为信息在各部分之间流动的时间更长。

    因此人类预计,一个地球大小的“盖亚”人工智能每秒钟大约只能产生10个意识体验,和人类差不多;而一个星系大小的人工智能每10万年才能产生一个全局思维。

    所以就算人类的宇宙拥有了意识,到目前为止,它所产生的体验也不会超过100个!

    这会促使大型人工智能将计算过程委派给尽可能小的子系统以加快速度,就像人类的意识智能系统将眨眼反射委派给一个小而快的无意识子系统一样。

    天神看到这里也是感到震惊,这就像他现在所掌握的分体一样的道理。

    虽然人类前面已经看到人脑中有意识的信息处理过程,似乎只是一个巨大的无意识的冰山的一角,但人类有理由相信,对未来的人工智能来说,情况可能会更加极端。

    如果它拥有一个单一的意识,那其中发生的绝大部分信息处理过程可能都是无意识的。此外,虽然它的意识体验可能非常复杂,但与其内部较小部分的快速活动相比,它们就像蜗牛一样慢。

    这使得前面提到的一个争议变得更加尖锐了,这个争议就是:意识实体的组成部分是否也可以拥有独立的意识?信息整合理论的预测是“不可以”。

    这意味着如果未来一个巨大的人工智能拥有了意识,那么它的几乎所有信息处理过程都是无意识的。

    这也意味着,如果一个由较小人工智能组成的文明突然提升了其交流能力,从而涌现出了一个有意识的蜂群智能,那么那些速度更快的个体意识就会突然消失。

    然而如果信息整合理论的预测是错误的,那么蜂群心智就可以与那些较小的意识心智共存。的确甚至可以想象,意识可能组成了一个嵌套式的层级结构,从微观尺度一直嵌套到宏观的宇宙尺度。

    正如人类前面所看到的那样,人类人脑中的无意识信息处理过程似乎与心理学家所谓的“系统1”有关,也就是不费力气、快速自动的思维方式。

    比如,你的系统1可能会告诉你的意识,经过它对视觉输入数据进行高度复杂的分析后,确定你的好朋友已经来到了你的面前,但它不会告诉你这个计算是如何进行的。

    如果事实证明系统与意识之间的这种联系是有效的,那人类会忍不住将这个术语推广到人工智能,给人工智能也定义一个系统1,也就是所有委派给无意识子单元的快速程式化任务。

    而那些需要花费力气、缓慢且受控的全局思考过程,如果有意识的话,就可以称为人工智能的系统2。

    人类人类还拥有一种意识体验,我称为“系统0”,那就是原始而被动的感知,也就是当人类坐着不动或什么也不想,只是静静观察周遭世界时体验到的感觉。

    系统0、系统1和系统2的复杂程度似乎一个比一个高,但令人惊讶的是,系统0和系统2似乎都有意识,而只有中间的系统1是无意识的。

    对此信息整合理论解释说,系统0中的原始感官信息存储在信息整合度非常高的网格状大脑结构中;系统2的整合度也很高,因为它拥有反馈回路,在其中,你某一时刻意识到的所有信息都能影响你未来的大脑状态。

    然而正是这种“意识网格”的预测,引发了曙光组对信息整合理论的批评。

    总而言之,如果一个理论能解决“相当难的问题”,而它又能通过严格的实验验证,从而使人类开始认真对待它的预测,那么它也将大大缩小“未来有意识的人工智能可能体验到什么”这一“更难的问题”的选项范围。

    人类主观体验的某些方面显然可以追溯到人类的进化,例如与自我保护和繁殖有关的情绪欲望,比如吃东西、喝水、避免被杀等。

    这意味着创造一个无法体会饥饿、口渴、恐惧和性欲这些感质的人工智能应该是可能的。正如人类如今看到的那样,如果一个高度智能的人工智能被设计出来并拥有一个野心勃勃的目标,不管这个目标是什么,那它就可能产生自我保护的行为,以便能够实现它的目标。

    但是如果它们是人工智能社会的一部分,那它们在面对死亡时可能会缺乏人类那样强烈的恐惧,因为它们只需将自己备份一下。

    那么即使它被消灭,失去的东西也并不多,最多是最近一次备份点到现在为止累积的记忆而已。

    此外,人工智能之间可以随意复制信息和软件,这可能会削弱个性,而个性正是人类意识的特色,如果我与你事无巨细地共享着记忆和能力,那你和我之间还有什么差别呢?

    所以一群相距不远的人工智能可能会感觉它们是同一个生物,拥有同一个蜂群智能。

上一页 目录 下一页

小技巧:按 Ctrl+D 快速保存当前章节页面至浏览器收藏夹;按 回车[Enter]键 返回章节目录,按 ←键 回到上一章,按 →键 进入下一章