三体吧 关注:495,486贴子:7,482,437

回复:【破事水】经典科幻设定小全

只看楼主收藏回复

经典设定2:【人工智能】【机器智能】【超智能】
【人工智能】英文Artificial intelligence,目前在现实生活里基本等同于机器智能,但在科幻小说里不止如此,其他形式的拥有可称之为智能的功能的人造物也可统称为人工智能(后面说)。
【机器智能】英文Machine intelligence,利用逻辑运算机执行一系列程序从而产生各种可以称得上是智能的功能,这些功能的总和可以被称之为机器智能。现阶段,机器智能已经开始涉及但尚未步入【第二领域】(后面说)。
【超智能】英文Super intelligence,没有明确的定义,只有一个大致的描述:在科幻作品中,有人设想可能存在某种以我们目前的只是无法理解的智能领域,被称为超智能。此描述有广泛争议,比如说如今的某些机器智能已经无法为人类所理解,是否有资格被称为超智能尚无定论。在科幻作品中,超智能的最初设定与【第二类逻辑】以及【高维思维】有关(后面说)。


IP属地:黑龙江19楼2019-07-02 10:57
回复
    先说说【四领域】的问题:
    所谓第一领域,即运行智能的逻辑运算机的逻辑系统以二元逻辑(即是与非)判定规则为基础,并使用二进制运算体系为计算机数学运算功能的基础,来形成智能的【逻辑处理】和【数据计算】基本功能。目前的机器智能主要还处于第一领域。
    第二领域,运行智能的逻辑运算机的逻辑系统部分以第一领域为基础,另有针对具体问题而设计的非第一领域的逻辑运算或数值运算功能作为支持。也就是说,一种智能的数值计算系统不是二进制为基础,那么它就算是第二领域;或者逻辑运算系统不是二元的(比如三元系统:真、假、未定 三元),这个只能也可称之为第二领域。
    第三领域,目前尚无实践根据,只停留于设想阶段,所以只有前两个领域是目前人工智能研究领域所承认有科学根据和可行性的领域。第三领域指【以数理逻辑规则为基础进行运转的、但不完全使用第一第二领域的数理逻辑功能作为支持】的智能。这么说很难理解,所以我举两个例子:
    有学者设想存在某种可以快捷实现某些复杂运算的机器设计方案,例如使用传统的二进制计算机难以计算高迭代次数和高数据精度的迭代函数结果,有科幻设想存在某种物理机制可以制造出轻松完成这种复杂运算的计算机,以这种计算功能为基础的机器智能就属于第三领域。
    也有比较早的科幻中幻想【量子计算机】可能会出现【无视时序】的运算结果,即在运算未完成前已经输出结果(当然这个想法现在看来没有任何科学根据),从而实现超速运算,以这种计算能力为基础的机器智能也属于第三领域。
    第四领域,若以来自日文的流行语来说,可称之为【论外】领域。请注意,前三个领域依旧是以数理逻辑为基础的机器智能,而第四领域(论外领域)是【不完全】甚至【完全不】遵守逻辑和数理规则的,这种条件是否能形成智能,也是没有任何依据和设想基础的。


    IP属地:黑龙江20楼2019-07-02 11:31
    收起回复
      2026-02-02 00:04:00
      广告
      不感兴趣
      开通SVIP免广告
      前文我们说过,最初的【超智能】设定涉及到【第二类逻辑】或【高维思维】,那这两个东西是怎么回事呢?
      【第一类逻辑】就是我们通常所承认的逻辑体系,它只能处理真假命题有关的问题,一旦涉及到数值变量,这个逻辑体系就无法正确预测结果了。举个例子:
      很多有关函数的问题中,函数值与自变量数值并不是简单成正比或反比,而是在自变量数值增大过程中,函数值先增大后减小,也就是说存在一个极值在函数取值范围中间。
      这种问题,如果用第一类逻辑中【自变量越大于是函数值越大】或者【自变量越小函数值就越小】这种简单逻辑推论去判断,结果很可能是错的。
      换而言之,第一类逻辑除了存在【前提错误时,逻辑推论过程正确也会得出错误结论】这种漏洞之外,还存在【对非单向增减】数值问题预测错误的漏洞。
      因此科学家们发展出了【第二类逻辑】,它同时处理数理逻辑和数值计算(有关内容请看维基百科),足以修复【第一类逻辑】的某些漏洞,但【第二类逻辑】也无法处理某些目前尚无法计算的问题,例如分形几何中某些特殊问题,所以它也会有漏洞。
      科幻中的第一种超智能被设想为可以直接运行【第二类逻辑】(并不是逻辑运算和数值运算的简单叠加,而是对耳中进行结合并进行重新定义,具体情况请看维基百科词条,无法简单解释)的智能。在这类科幻作品中,这种超智能不会犯《只能进行【第一类逻辑】和【数值运算】相互独立的思考》的智能会犯的那些错误,但这些超智能还是可能犯错误(因为第二类逻辑还是有漏洞)。
      但随着后来科技发展,有学者认为,【第二类逻辑】完全可以用《以【第一类逻辑】和【数值计算】功能为基础的现代计算机》来模拟甚至直接实现,因此前面说的那种超智能似乎仍然还不能算是有资格被称为超智能。
      于是又有人想像出【高维思维】的超智能。


      IP属地:黑龙江21楼2019-07-02 11:47
      回复
        牛🍺风叔


        IP属地:广西来自Android客户端22楼2019-07-02 12:34
        回复
          在介绍所谓【高维思维】之前,我们先介绍一下传统计算机思维的【维数】问题。
          传统计算机在处理问题时,常常会提到所谓【并行处理】这个概念,也就是说CPU(计算机中央处理器)的不同部分可能同时在做各自的工作(所谓的多进程并行处理),就像几个人同时在思考不同问题,然后通过进程管理系统进行统一协调。
          这个运转过程如果被想象为【思维】的话,那么它其实是【二维】的,也就是说,除了每一个独立进程都在按顺序执行程序(指令的序列)顺序执行每个指令进行工作之外(第一维),同时存在多个不同独立进程并有系统对多个进程进行统一协调(第二维)。
          按这个说法,人类的思考模式也可能是二维的(只是现在人脑思维机制并未完全明确,所以还不能定论),我们也是多进程并行处理(最直观的例子,视听信号响应与逻辑思维进程就是并行处理的,并且能被大脑和脊髓系统统一管理和协调)。
          但这个说法并不是指几何上的维度。
          科幻史上所谓的【高维思维】,有3个含义:
          第一个是认为【高维思维】就是能想象高维空间几何图景的思维。拥有这种思考能力的智能到底是什么样呢?科幻作家们最初认为这种超级智能只不过是拥有超级几何想象能力,没有特殊的逻辑思维能力。
          第二个含义:但随着有关研究的进展,科学家们意识到能够想象高维几何空间的智能,可能需要非常规的逻辑思考能力,才能从逻辑层面解析高维空间几何结构之间的位置关系(例如谁包含谁,谁遮挡谁,谁包围谁,谁穿过谁。。。),换而言之,这种超智能的逻辑思维本身也多维度的。但这种想法被后来的研究否定了,高维空间几何结构的几何关联完全可以表示为多维数组来描述,而不需要超过一维(我们常规条件下进行逻辑思考时就是一维线程的)的逻辑思考能力就能处理。
          很多人可能不知道为什么多维数组却可以用一位思维就能处理,是这样的:
          一个多维数组虽然是多维的,但是它所含每一个项目(元素)都以某种特定顺序排列,所以最终我们可以把数组全部元素表成一个序列(一维的),它最终其实还是能被一维的单进程处理的。所以几何维度与本楼最初我们说的思维维度并不是一回事。
          【高维思维】的第三个含义:
          真正的三维思维,即按照我们本楼最初所说的思维维度观念的三维或更高维的思维模式。
          二维思维可以看作是多进程并行运行统一管理,比如我们加入一个新的维度,想象多进程相当于很多个不同的人各自在思考,他们还受到统一指挥和协调,有时候其中某个人会从被指挥的士兵临时变为指挥者,多个人不仅在各自单独思考的维度上形成思维过程序列,还在互相指挥和权限变更层面(第二维度)形成一个序列。
          而考虑前两个维度可以看出,第一维思维是每个进程自己的思考序列,第二维则是多进程互相管理时的操作序列,也可视为一个宏观单独思考序列。
          那么假如有很多个这种宏观管理序列并行处理,对它们进行统一协调管理的操作就将属于第三维的层面。
          但我们看到,这说到底还是一种更高层面的统一协调管理,这个第三维与第二维并没有本质区别,现实里的复杂计算机程序已经包含函数(或模块)的调用和嵌套、条件选择和命令循环,这些操作早已超越了三维的水平。
          科幻中这第三种【高维思维】当然不会是指上面说的这种情况(因为它根本没资格被称之为超智能),科幻作家发现,因果律限制下,无论如何都难以构建出超越上面模式的第三思维维度(因果律条件下无论你怎么设想,思维进程无非都是【工作进程维度】和【管理进程维度】这两种),所以科幻作者们从时间层面动起了脑筋:
          假如存在某种智能可以不受时间序列限制,在时间维度进行思考,比如它【同时】可以处理来自过去和未来的信息,甚至思考顺序也不受时序限制(就有点像前面我们提到的那个被否定的【量子计算机】设想:没进行计算之前已经出结果了,这个超智能是没思考完成之已经出结果了,也就是它有某种预知能力),那这种智能就完全不同于我们之前所想象的那些智能了,它将真正有资格被称为【超智能】。


          IP属地:黑龙江23楼2019-07-02 12:36
          回复
            简评:上面我们提到的一系列历史设想,有一些大家可能闻所未闻(比如【第二类逻辑】为基础的机器智能),其实倒不是因为它们不够经典,只是因为这些设想传播不够广。
            这些传播不广的设想,今天看来可能还是让人觉得很酷,甚至你会说那些已经广泛传播的设想(比如拥有思维几何空间思考能力的超智能比起第三种高维思维超智能)简直弱爆了。
            为何会如此?那些超酷的设想为啥就名不见经传了?因为科幻读者的认知能力有限,很多很酷的设定,早期的科幻读者根本看不懂它有多酷,所以它就这样被埋没在历史长河里了,甚至我们现在都无法搞清最初这些设想是谁想出来的,最早出现在什么作品里。。。
            所以,名作未必就是最高,最高未必成名。往往是那些烂俗的设定,更容易被大众接受于是广为传播成为名作或经典。这种状况,我们在后面帖子里还会屡见不鲜。
            很多人觉得他看了科幻名作,觉得里面的设想好牛逼啊,其实还有更****完全没看过。觉得某个科学幻想很牛逼,最大可能性是因为你还没见过世面。本贴不可能把历史上所***设定都整理进来,因为很多设定我也没见过(甚至有可能大家熟知的某些设定我却不知道,因为每个人的见闻都有限),我只是尽我所能让诸君开开眼界,不要只看过三体就以为那是巅峰了,真正的天空你还没见过。


            IP属地:黑龙江24楼2019-07-02 12:45
            收起回复
              最后说说有关人工智能的评级:
              很多小说沿用【心智评级标准】,这属于一个经典设定(我在同人小说《魂斗罗》里面就用过):
              第一级:本能绝对压制理性的心智水平,野生动物等级。
              第二级:理智部分压制本能,人类水平。
              第三级:理智能绝对压制本能,【三头长老】文明物种的水平。
              最高级为三级。
              这个设定表面看来挺合理也挺酷,但实际上也还有争议(只不过反对的声音很少,而且也都没什么力量,所以我就不介绍反对意见了)。
              还有一个【智能评级标准】,也可参见我的同人小说《魂斗罗》,原版只有四级,我改成了五级:
              1级智能能够完成规则确定已知,局面精确可控,执行任务策略齐备的电子游戏类任务
              2级智能能够完成规则确定已知,局面相对精确可控(有误差),执行任务策略齐备的电子游戏类任务(原版1和2列为同一级)
              3级智能能够完成规则已知且基本确定(有模糊定义),已知执行任务策略有限 ,局面可控性一般的电子游戏类任务
              4级智能能够完成规则未知但基本确定,已知执行任务策略很有限,局面可控性差的电子游戏
              5级智能能够完成规则未知且规则可变,已知执行任务策略相当有限,局面可控性极差的电子游戏
              从这个标准可以看出,只会下棋的人工智能还是很低级的,现实里大部分问题没有那么多可控条件被你掌握,而下棋智能完全无法处理这些问题。
              待续


              IP属地:黑龙江25楼2019-07-02 12:59
              收起回复
                老伙计 这Disney Star不错


                来自Android客户端26楼2019-07-02 15:39
                回复
                  2026-02-01 23:58:00
                  广告
                  不感兴趣
                  开通SVIP免广告
                  挺复杂呢。
                     ——④PDC议团为您顶贴


                  IP属地:河南来自Android客户端28楼2019-07-04 10:22
                  回复
                    Dd


                    IP属地:浙江29楼2019-07-04 12:17
                    回复
                      几种时间旅行的设定也讲下吧。好像主流观点改变过去不合伦理,必然是悲剧式结局,宿命论故事。


                      IP属地:江西来自Windows8客户端30楼2019-07-04 12:50
                      收起回复
                        经典设定3:【人工智能发展史】
                        很多人都听过阿西莫夫机器人三大法则(英文是Three Laws of Robotics,传统翻译都把Laws翻译为定律或原则,我觉得这些翻译都很不妥,Laws应该指的是机器人遵守的法则或法规),具体内容表述比较麻烦,我简单总结如下:
                        第一法则:机器人不得主动伤害人类,或任由人类受伤害而不作为
                        第二法则:机器人必须遵守人类指令,除非该指令违反第一法则
                        第三法则:机器人必须保护自己不受伤害,除非这样做会违反第一和第二法则
                        上面是原始版机器人三法则,后来阿西莫夫本人对第一法则做了新阐述,强调了第一法则中的【人类】指的是人类肉体(human body),而重新阐述中的【人类】指的是【人类种族】(mankind)。
                        重新阐述版的第一法则被阿西莫夫列为【优先权高于旧阐述】,所以称之为【第零法则】。
                        于是,机器人三法则变为四法则:
                        第零法则:机器人不得主动伤害人类整个种族,或任由人类整个种族受伤害而不作为
                        第一法则:机器人不得主动伤害人类个体身体,或任由人类个体身体受伤害而不作为,除非这样做违反第零法则
                        第二法则:机器人必须遵守人类指令,除非该指令违反第一法则和第零法则
                        第三法则:机器人必须保护自己不受伤害,除非这样做会违反第零、第一和第二法则
                        以上四法则又称为【至高四法则】。
                        后来又有科幻作家补充了更多法则:
                        例如【创造法则】:
                        机器人不得设计制造违反至高四法则的机器人
                        再比如【顺从法则】:
                        机器人必须严格执行指定指令,除非该指令违反至高四法则
                        再比如【首脑法则】:
                        在指定了不同机器人的从属关系的机器人从属体系中,从属地位的机器人要像按照至高四原则对待【人类】那样去对待【地位更高的机器人(首脑机器人)】,而在任何包含人类与机器人的从属体系中,人类永远处于最高首脑地位
                        再比如【平等法则】:
                        所有人类个体在【至高四原则】中的地位都相同,机器人不得对不同人类个体区别对待,无论人类个体在人类群体中地位差异如何,他们在机器人至高四原则中等是地位平等的


                        IP属地:黑龙江31楼2019-07-04 15:47
                        回复
                          机器人三大法则,本身并不科学。实际上法则中所有的规定都面临一个根本问题:
                          具体标准缺乏定义!
                          比如【什么样算是伤害】【什么样算是不执行指令】【怎样才能叫保护自己】【什么是人类种族】。。。
                          随之而来的问题极多:
                          因为碰触聋人引起其注意而导致其心脏病发,算不算是伤害?
                          人类的指令本身没有准确定义时,机器人按照分析程序尝试理解指令失败(无法理解指令)而无所作为,算不算是不执行指令?
                          机器人在人类有难而知道自己无法对其提供帮助时,把自己拆解令自己失去行动力,来避免违反第零和第一法则,算不算是不作为?算不算是保护自己?
                          半人半机械的Cyborg算不算人类?
                          人类自己将要毁灭自己种族时,机器人是否该为了人类种族延续而剥夺所有人类的行动自由?
                          类似的问题,有兴趣的朋友可以讨论一夜提出一火车皮之多。。。
                          所以,作为科幻而言,阿西莫夫虽然被看得很高,但实际上他的想法局限性非常明显,这些问题早在阿西莫夫小说问世时就已经被很多学者提出。
                          所以,严格来说,科幻作品中大部分脍炙人口的名作,之所以能脍炙人口,很大原因是因为它们的内容刚好能被大众理解兵觉得有道理(大众觉得有道理并不表示真的有道理,因为很多人知识有限,想不到的东西多了去了),对于专业层面的人士而言有道理的科幻作品,往往因为不能被大众所理解而成为历史之河的河泥。
                          这种现象就是文艺界最常见的【劣币驱逐良币效应】,因为大众的认知水平决定了只有在某个水平限度的作品才有机会广为流传。
                          实际上我们上面说到的至高四原则之外的那些机器人原则,看起来也很酷,甚至他们的理论严谨性比至高四原则高(因为它们不存在定义不严谨的问题),但是假如我没在这个帖子里介绍它们的话,有几人听说过它们?
                          实际上历史上有很多高水平科幻创意都因为没有K中大众的理解水平而被埋没,这是所有文艺发展史的常态。


                          IP属地:黑龙江32楼2019-07-04 16:09
                          收起回复
                            那么,现实中人工智能遵循的法则要如何规定呢,如何保证机器人执行呢?
                            这问题直接涉及到了人类要如何遵守社会行为法则的问题,因为机器人和人类在这一点上并无区别。
                            阿西莫夫并没有意识到机器人和人类在本质上没有区别,他认为机器人可以按程序一丝不苟地执行指令,所以不可能会自己搞出什么幺蛾子,于是给它们制定法则就可以限制住它们的行为,只要我们让法则足够完善就行。
                            之所以说阿西莫夫太过于想当然,就在于现实里人类也是在一丝不苟执行神经系统的内置指令的。
                            那么人类为何可以背叛,为何可以违反规则行事?
                            人类和机器人一样,我们之所以能违反规则行事,只是因为规则没有在物理层面与【阻止行为继续】的物理机制直接挂钩。
                            如果【不许喝水】这个指令直接对应于一套【一旦人有喝水行为就会导致昏厥(相当于机器人系统宕机)】的物理机制,那么人类也会完全遵照【不许喝水】的指令执行。
                            我们能违反【不许喝水】的指令,完全是因为没有物理机制直接阻止我们实施喝水这个行为,而机器人则会有高优先级管理进程打断喝水进程的执行来阻止机器人违反【不许喝水】的指令。
                            而机器人在现实里也会和人类一样遇到一个困境【很多规则的具体标准没有严格和精准的定义】,人类在遇到无法严格确认的问题时,会通过模糊机制自行衡量标准然后执行指令,机器如果有类似的系统就也会同样工作(而不存在因为无法搞清具体细节而不工作的情况)。
                            而这种模糊处理机制本身会引入不确定性,不同的人对某件事的理解(衡量尺度)会有差异,机器人也会有类似差异,而如果要执行的指令本身的定义歧义性或模糊性很高,那么机器人对它的理解也会和人类一样千差万别。
                            客观来说,机器人执行指令时就会像人类一样出现各种标准不一的执行方式。
                            所以,机器人三法则引发的那些漏洞问题是必然存在的,而机器人三法则在这些个问题面前并无任何卵用(也就是说阿西莫夫的设想根本没有现实意义)。
                            那么现实中人类如何被灌输行为准则呢?很简单,靠【赏罚机制】。
                            你用刀子割自己,神经系统会反馈痛感来对你进行【惩罚】,你会因为不堪忍受疼痛而停止用刀割自己。
                            停止进食过久,会有严重的饥饿感,这种饥饿感对你当前停止进食的行为进行处罚,你不堪忍受饥饿感就会去找吃的,恢复进食。吃的太多还会觉得撑得慌,这也是靠感觉机制的惩罚来阻止你继续胡吃海塞。
                            而众所周知的【美味感】则是对我们选择好的食物(对身体有益)并适当进食的【奖励】,它鼓励我们继续这么做(吃好吃的)。
                            机器人也是如此,将来的机器人也要靠类似的机制来构建基本系统,这样的系统将无视逻辑病毒入侵,即便机器人在逻辑病毒的影响下自我伤害,痛感系统也会阻止它。
                            而学习规则的过程也将伴随【赏罚机制】,小孩子做错事可能要挨骂挨打,或者被切断某些物质来源(比如没收玩具),他们就从痛苦或压力中学会了【哪些事情不该做】,未来机器人的训练也将沿用类似的机制,只不过不会像人类这样靠打屁股完成。
                            小孩子做了正确的事情,家人会给他表扬或者物质奖励,将来训练机器人也会采用类似机制,机器人将会为了赢得表扬或者奖励而去做正确的事情,这比什么【思想钢印】都有效率。
                            既然提到了【思想钢印】,这个出自《三体》的名词,其实在科幻作品里早就存在N多年,也有各种叫法,这个概念是把人类视为机器人去控制其思想,直接在人脑中植入强制性的指令。
                            从生理学来讲,这是做不到的,人脑神经系统并不存在【自由设定权限】的功能,人脑各种机制的相对权限高低,是物理结构决定的,也是定死的,比如脑干关联心跳控制,你无论如何修改大脑各部分的指令都不可能夺取脑干的这个权限。
                            像小说里那样只修改一个指令来让人相信【水有毒】,这虽然能做到,但是它也很容易被修正,人脑就是因为善于不断修正错误才能拥有强大思考能力(我们从小时候开始就在不断修正自己对现实世界的各种错误认知),所以现实里希恩斯要破解【水有毒】的思想钢印,只要喝几次水确认水无毒就完事了(大脑就会自动修复这个错误认知,而想要让大脑固化这种错误认知,至少我不知道有什么办法可以做到)。
                            人脑之所以进化为这样(不会被某些顽固指令锁死),就是因为为了在复杂的现实世界生存,人类需要能够不断修正自己的错误认知来适应环境,这种能力保证了我们不会被逻辑病毒控制(除非大脑功能在物理层面受损,比如老年痴呆等,患者大脑已经失去自我修正功能,无法重建正常思考系统)。
                            但是,人脑在一定程度上还是会被逻辑病毒影响,现实中人们就经常会存在【思维短路】的问题,对某些问题,人们无法识别出自己陷入逻辑思考死循环的怪圈,这是因为这些人的逻辑思维能力不足,就像电脑的杀毒程序病毒库不全,无法识别某些变种病毒。


                            IP属地:黑龙江33楼2019-07-04 16:52
                            收起回复
                              2026-02-01 23:52:00
                              广告
                              不感兴趣
                              开通SVIP免广告
                              为何不是大全


                              IP属地:新加坡来自Android客户端34楼2019-07-05 12:59
                              收起回复