五千年(敝帚自珍)

主题:【原创】从《I, Robot》的话题谈俺对机器生命的认识 -- 你克我服

共:💬67 🌺35
分页树展主题 · 全看首页 上页
/ 5
下页 末页
  • 家园 【原创】从《I, Robot》的话题谈俺对机器生命的认识

    大家都看了最近的电影《I, Robot》了吧?

    虽说这部电影与阿西莫夫的小说《I, Robot》除了机器人三定律以外就没有太多的相似情节,但在三定律的理解上,毕竟也是与阿西莫夫有着类似的追求的。

    影片中的进化“过头”而良心大大地坏掉的机器思考中心--VIKI,和有远见的教授所开发出来的另一个杰出作品sonny,区别恐怕也就在于有没有感情这一点了。

    其实我们可以看到,VIKI的自我完善,导致了它对三定律的更深刻地理解;只是由于没有产生出感情这个东西来,所以才会以保护人为借口而攻击人类和试图统治人类。好在教授给与sonny这个特别版机器人的进化礼物是具有感情,最后才可能反戈一击。

    不过,看看最后一幕就能知道,此时的sonny已经非比从前了!它之前告诉威尔史密斯所谓“那个人就是你”云云,原来都是骗人的----只有它自己心里才清楚:未来的这个机器人世界的领导人是自己~~~~

    从这个细节中不难看出,以sonny为代表的高级机器人的意识里,相对于人类的优越感依旧存在。更可怕的是,它也学会了通过感受和理解等等手段去支配人类为他们工作~~~~~~~

    说来说去,出现这样结局的问题的根本,在于三定律本身是不严谨的,订立三定律的人就没有意识到对三定律理解的深度和层次,会导致完全不同的结果。因此说,三定律才是祸根。

    当然,阿西莫夫早已意识到这个问题,已经超越了这个简单的层次讨论这个问题了,他也绝对不会说“机器人三定律是我所发明的”云云~~~~

    现在我们要面对的问题是,人类抽象的速度和深度,比起具有速度优越性的机器,迟早是要甘拜下风的。呵呵,以此看来,似乎matrix里面机器统治的世界迟早会来临的......(也许早就来临了?)

    ***************************************************

    呵呵,仅仅想到这个层次,那未免思想悲观了一点。

    老服俺中学时候就对这个问题很感兴趣,仔细想了很久,想通之后才发现是庸人自扰。

    众所周知,阿西莫夫描述的三定律,从静态角度来看,相当好地控制了机器生命的发展,也有严谨的逻辑推理,保证机器人不会为害。但我们却无法预计随着机器人/机器器生命的能力的提高,在这个三定律约束下,它们会向什么方向变化。阿西莫夫的《I,Robot》里面的小故事集,也就是起源于对此等问题的担忧,只不过是很小的一部分而已,不过我想这就够人类受的了~~~~阿西莫夫也一定是这么认为的。

    所以,阿西莫夫看三定律这样的思路,已经顾及到了“动态视角”的问题,也就是说,随着情况的变化,这个静态的三定律有可能被理解走样~~~~甚至变得脱离我们原来订立此定律的本意!--------阿西莫夫的见解也就及于此为止了。

    其实,只要更看破一层,就会不难发现: 人类以自己有限智能所定义的规则/定理,其实都和三定律这样的模式一样,充满着对未来的盲目性和未预见性。因而,最多只是顾及到眼前而已。

    换句话总结,也就是“人类做不了创造者,做不了造物主,因为无法预见自己创造出来的东西将会变成什么样子!

    现有的实证科学,必然就会导致这样局面的产生。就像我们能够知道晒太阳可以促进体内维生素D的合成,然后就都跑去晒太阳,过了些时候才发现会造成皮肤癌~~~~~就像我们能够知道晕立停吃了可以缓解孕妇反应,于是就去吃晕立停,过了些时候才会发现畸形儿与此相关~~~~~~我们总是在预料不到后果的情况下,去尝试这尝试那。据说这就叫做科学。

    ***************************************

    俺试着站在阿西莫夫的角度模拟了一下“创造”的游戏,果然是不好玩得很。

    俺是这么推算的。

    让机器会思考,才是创造的关键。实现这一目的,就要从创造“进化”机制开始做起。

    现有的进化理论关键在于

    1)复制

    2)变异

    3)遗传

    在有限的生存环境下,具有上述相等特征的“生命”,将会自动因“适者生存、不适者淘汰”的规律进行演化。

    明白了这一道理,我们对这一机制的模拟,也就可以轻易完成了。

    构筑一种特别的病毒,只在内存里进行自我复制。要是空间没有了,则覆盖自己的前辈~~~~

    要知道,计算机的自我复制具有两个特性:

    1)准确

    2)快速

    我们借助第二个特性“快速”进行复制,而“准确”这个特性则不是一个绝对100%的保证,在成千上万乃至数十亿次复制中,迟早会有“意外”发生的,这就是我们所需要的“变异”了。

    (其实就算机器自己不产生足够的变异,我们也可以随机让它在一定的概率下产生某些变异的)

    我们可以预见,程序的自我复制和执行从一开始的原始状态突然发生了某种变异,也许就是一个字节发生了变化,但带来的结果就可能是这个变种的程序由于被破坏而执行不下去了,从而导致这种变种没有办法产生“后代”,继而灭绝;但变异的可能性也许是碰巧是“复制的次数加倍”,从而使得这种变种具有了比原有种类更强大的生命力,慢慢的机器中到处都是这种新的“变种”,而取代了原有的版本;

    我们都知道,人类也好,动植物微生物也好,都没有机器这般的高速度,也就是说,机器的进化机制如果成功,也许很快就会发展起有趣的生命体来,而且将会越来越快。与人类的进化所不同的,就是机器生命的进化的生存空间仅仅有CPU和内存这么大范围.......而我们拥有一个大得多的空间。

    但就像我们不满足现在这个牢笼一样,机器生命发展到了一定阶段,也不会满足它所在的那个狭小空间的。 :D 它也会想办法脱离。从而取得更大的生存空间~~~~~

    所以有一天,也许我们会发现运行着的这个机器生命进化程序,突然从机器中间消失了.......呵呵,一点也不奇怪的。

    而且,机器生命本身的复制速度(代的概念)是如此的快,我怀疑一点机器生命开始成型,会不会给我们理解过来发生了什么的机会!当然,当它靠着高速逃离我们的掌握之后,我们也不必担心它会像某些科幻小说描述的那样,它们会回过头来奴役我们,呵呵呵,它们是有高速成长的智能体,恐怕就算要奴役我们,也远远超过了我们所能够认知的范围,而不是停留在跟我们同一个数量级别的基础上,对我们发号施令了。

    所以最可能的情况就是它悄悄地来,又从我们身边悄悄地经过~~~~ :cool:

    这样的结果,恐怕是开始模拟前,我们所完全没有指望得到的吧?呵呵呵

    所以俺也不去学那个杞人般忧天了,真要有超过我们的智能,由于领先我们太多,又跟我们没啥“共同利益”可以争夺,所以不让我们认识得到它的存在,才是最说得通的模式了吧~~~~遂安心。

    嘿嘿,我们一方面可以看到,我们自己无法创造任何像样的“规则/定理”来让自己得到满足和找到平衡(机器人三定律这样的立法的失败可能性就很说明问题了),另一方面我们也能够注意到宇宙本身是在合理地运作,支配这样大的一个系统的规律/定理始终是我们试图去认识的对象,它的存在才是反映到我们认知中的不变的真理,这---就是上帝在我们心中的投影了吧,呵呵,换句话说,我们无法认知上帝全部(因为我们只是有限的智慧体),但我们可以感受到上帝的存在和完美~~~~

    理解了这些,也算有了一个从科学走向神学的契机吧,呵呵呵


    本帖一共被 2 帖 引用 (帖内工具实现)
    • 家园 【原创】机器与生物

      既然老贴又被翻出来,偶也来凑一把热闹。

      <<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<

      机器与生物一样都是通过进化从低级向高级发展。在发展的过程中大致有四个阶段。

      第零阶段,无机物状态。在这个状态无论是生物或是机器都不存在,只存在无机物,无机物没有本能或者天赋,更不具有智能。它们只含有“性质”,性质能够描述他们的特征,比如导电,热状态,膨胀,液体等等,是对其自身信息的表述。

      第一阶段,有机物状态。在这个状态他们开始拥有一种叫做本能或者是天赋的东西,本能可以对已知的外界刺激或者是已知信息作出反应,这种特征在他们出生或者信息代码被执行时就已存在,本能存在的理由就在于生物体的基因或者是程序的源码中就已经预定了哪些刺激或消息是可以被接受的。它们对大部分的未知信息无法作出适当的判断,或者说无法判断,因为某种消息或者外界刺激是否已知或者能够被推断无法判定,譬如生物在对陌生环境的适应程度,程序在被0除时无法判定。

      第二阶段,智能有机物状态。在此状态机器或者是程序能和高等生物一样,开始能对未知信息进行分析判断。智能生物能够进行有限的预测,并且具有自我意识开始思维,思维的本质是判断加上预测。智能化机器能够依靠一定的外来信息作出判断,进而可能学会提升自己的判断能力。此时的机器或者程序进化已经严重依赖于外界的环境,外界环境能够使其自身的基因产生变异,当外界环境与自身的判断冲突时,他们可能学会修改自身的源代码来达到完善自身的目的,不够完善的将会不适应环境进而被淘汰,终止执行或者停止进化,一直保留在原状态,而这个过程本身也是进化得来的。要注意的是,此时的生物和机器已具有性质,本能和智能三种。在他们身上的本能应该残留有原先的祖先的痕迹。换句话说,本能无法完全被完善,总存在一些缺陷,或者是基因的缺陷或者是代码的错误,这符合系统理论中的不可完善性。进化的最终结果是不可预知的。

      第三阶段,高智能有机物状态。此时的机器和生物的智能高度的发展,生物有能力对未来进行高度的预测和想象,并且使自身依照这个思路进行进化。高智能的机器“人”将出现,它们可能具有完全等同于人的智商和情感,创造属于自己的文化和群体。但是一个完全清楚自己代码的机器是什么样的呢?

      生物有生来病死,机器或者程序同样可以,他们用自己的方式创造下一代,比如通过复制产生一段新的代码。当机器老化或程序执行完毕后,它们同样会消亡,这个过程目前未知。

    • 家园 以前一个同学问的问题:怎么区分人和机器人?

      当我们以后技术发展到一定程度,“肯定”会有些“辅助工具”装备到人身上(现在已经有了一些实验了)。比如说,帮助记忆的,帮助作出快速反应的装置。发展越高,装备数量和质量越高。渐渐地,当你作出一个决定的时候,你已经分辨不出,是你自身作出的,还是机器部分作出的。

      这个时候,机器和人就完全合为一体了,世界太平了

    • 家园 智能没有那么容易可以创造出来的

      智能不是生命演化的目的,终点。而只是中间环节中的部分结果。你在自然界看到的一切,包括树木,细菌,甚至病毒,都是这个中间环节的一部分。至于你的演化假想,自从地球产生生命以来,经历了40亿年,遗传基因也出现了30多亿年。按某些细菌10个小时繁殖一代的速度计算,他们已经进化了2,3万亿代了。他们有没有智能呢?没有!!他们会不会有智能呢?不会!!

      推荐一本书:http://www.amazon.com/How-Brains-Think-Evolving-Intelligence/dp/046507278X/

      有时间多看看正儿八经的科学书籍,别总把科幻小说当科学作品看。否则,就真的只有把自己交给神了。

      • 家园 有中文版的吗?若有,给个链接。谢谢先!
        • 家园 台湾有繁体中文版出版

          大腦如何思考 / 卡爾文著 ; 黃敏偉, 陳雅茜譯.

          台北市 : 天下文化出版股份有限公司, 1997.科學大師系列

          ISBN:957621419X.

          刚刚查到,上海科技出版社2007年有出版简体中文版,杨雄里和梁培基编译,名字是一样的。

          我没看过中文版,不知道翻译的如何。不过以翻译者的实力来看,应该问题不大。杨雄里是神经科学方面的权威,也是中科院院士。

      • 家园 算数过关的话建议你先想明白十小时一代和每秒几万代有什区别

        2/3万亿代的细菌繁衍的产物只有细菌?

        我看你所谓的“科学书籍”是白看了......嘿嘿

        繁衍的代越多,产生变异的机会也就越多,才有可能进入自然选择的优胜劣汰。

        计算机生命只要具有高速繁殖、以一定概率出现复制变异,就一样具备上述机会。

        • 家园 自然选择并不是优胜劣汰

          而是适者生存。每秒钟几万次又如何,细菌一样永远是细菌。连个衡量智能的评估函数都定不出来,还进化。如果演化算法能解决一切问题,J.H.Holland早就拿图灵奖了。人工生命又岂是一个自然选择就能创造出来的?里面的问题多了去了。做认知的,做决策的,做学习的。成吨的论文堆在那里。都像你这样信口开河,自以为是。科学家干脆都去卖红薯的了。

          • 家园 看来你根本没看懂啥叫计算机生命,跟你理解的符号AI两码事

            看懂了我的首贴再来扯你的什么演化算法吧,我的思路里哪里需要评价函数了?跟Holland有啥关系阿?

            就一个自我复制、可变异的东西,在有限资源下竞争繁衍,若干时间后衍生出什么东西,你自以为明白的话、倒是分析分析?

            • 家园 我就用最简单的数学知识给你分析分析

              首先,你的问题空间是稀疏问题空间,也就是说,并不是所有的随机组合都能构成有意义的逻辑。换个通俗的说法,一个有意义的序列,在发生任意一个孤立的变异之后,将变得没有意义。也就是你通常遇到的文件损坏,无法运行。所以能够繁殖下去的变异必须是从一个有意义的序列跳跃到另一个有意义的序列。我们定义两个序列之间的差异为"距离",并假设最近的两个有意义序列的距离为10。也就是说一段有意义的代码和另外一段有意义的代码有10个不同的字节。

              其次,我们假设你的变异概率为千分之一。也就是平均每拷贝1000个字节,出错一个字节。(按这种变异几率,你根本没办法拷贝任何文件了)。

              最后,我们假设从最初的序列代码到最终的超级智能代码之间间隔是100步。(也就是说你最初的序列代码和最终的序列代码的差距只是1000个字节,这根本是不可能的)

              这样我们可以得知:

              每次复制从一个代码变异到另一段代码的可能性小于1000^10分之一。

              你能顺利走完这100个代码序列达到终点的可能性小于(1000^10)^100=10^3000分之一。

              假设你的计算机每秒复制1万亿次,也就是10^12.

              假设从宇宙大爆炸起就开始运算,到现在可以复制5×10^17×10^12<10^30次。

              因此,通俗的说,你的这种担心,大概是发生10^2970次宇宙大爆炸之后才可能发生。

              你会发现问题实际上出在编码上。单个编码信息量太低,需要提高单个编码的信息量。换句话说,让你的空间变得不是那么稀疏,才能大大提高变异遗传的效率。这句话,说出来容易,做起来难。针对通用智能的编码,现在也没有任何可以实质性入手的地方。这也是为什么,目前对人工智能的研究都是在功能性层面。

              再次回到你的所谓有限资源竞争。演化的结果是适者生存,而不是优胜劣汰。也就是最合适环境的才有可能生存。地球如果发生巨变,最有可能生存下来的是那些低等生物。有限的资源并不能约束出优秀的结果,而是那种只需要很少资源就能完成基本繁殖和生存需要的结果。火星的资源够有限吧,可那个地方最多也就是可能有些细菌存在。因此,你必须以一个评估函数来评估变异,而不是仅仅依赖有限的资源。可是,就像我们说的,目前你根本定不出这个函数。

              再次,郑重推荐How Brains Think:Evolving Intelligence一书。

              • 家园 想象力太贫乏

                你说

                所以能够繁殖下去的变异必须是从一个有意义的序列跳跃到另一个有意义的序列。

                这也是胡扯,看看你自己在另一个帖子里给别人纠正的:

                http://www.ccthere.com/alist/1031267

                自然选择其实并不是一个十分挑剔的过程。一个基因,只要他不是严重危害到繁殖过程,都会被遗传下去。就像我前面提到的人类色盲基因,还有大量的哑基因。

                相对“自私”而言,随机是演化过程中更加重要的一个因素。正是随机性造就了历史上的生物大爆发,以及今天的生物多样性。而大部分的基因突变,都是中性随机突变,根本对物种繁衍起不到任何作用。也就是说,自然环境对他们根本无从选择。

                基因本身根本无法使自己得到广泛的复制和传播。基因变异无非是自然控制下的随机过程。很多并没有任何促进复制传播过程的基因也一样被复制和传播,譬如人类的色盲基因,譬如Y染色体上大量无用的基因。他们不过是随机产生的无伤大雅的错误代码,根本谈不上尽可能使自己得到复制和传播。

                觉得你对什么都是似懂非懂,刚刚还知道中性突变不影响繁衍、存在不严重损害繁衍的哑基因,转头就改说变异必须是有意义到有意义之间的跳跃....你不觉得你这样自相矛盾的讨论方式很可笑么?

                首先,你的问题空间是稀疏问题空间,也就是说,并不是所有的随机组合都能构成有意义的逻辑。换个通俗的说法,一个有意义的序列,在发生任意一个孤立的变异之后,将变得没有意义。也就是你通常遇到的文件损坏,无法运行。所以能够繁殖下去的变异必须是从一个有意义的序列跳跃到另一个有意义的序列。我们定义两个序列之间的差异为"距离",并假设最近的两个有意义序列的距离为10。也就是说一段有意义的代码和另外一段有意义的代码有10个不同的字节。

                其次,我们假设你的变异概率为千分之一。也就是平均每拷贝1000个字节,出错一个字节。(按这种变异几率,你根本没办法拷贝任何文件了)。

                最后,我们假设从最初的序列代码到最终的超级智能代码之间间隔是100步。(也就是说你最初的序列代码和最终的序列代码的差距只是1000个字节,这根本是不可能的)

                这样我们可以得知:

                每次复制从一个代码变异到另一段代码的可能性小于1000^10分之一。

                你能顺利走完这100个代码序列达到终点的可能性小于(1000^10)^100=10^3000分之一。

                不知道你的这个距离为10是怎么定义出来的。

                一个程序,改一个字节变为另一个有意义的程序对你来说遥不可及?

                你没学过编程序吧?.......要连这个都做不到,劝你还是别奢谈什么程序了.

                编译好的二进制代码里,改一个字节变成几百个不同的仍旧可正常执行的程序都是很普通的事儿,比如复制模块吧、原本复制一份的逻辑、由于“变异”、子代变成了复制五份、十份、一百份,是不是改一个字节仍旧可执行?子代是不是更有传播优势?

                照你的想法,眼睛这种复杂的器官,在进化里面也就不可能产生了,对吧?

                再次回到你的所谓有限资源竞争。演化的结果是适者生存,而不是优胜劣汰。也就是最合适环境的才有可能生存。

                对我来说,自然选择的优胜劣汰就是适者生存,有什么区别么?你主张的区别,在我看来只是文字游戏——进化没有优劣之分,只有变异。但适者生存其实说的是同一码事儿——什么是适者?生存下来的才是适者,不适的,已经被淘汰掉了......所以适者生存实际上一样是个鸡生蛋蛋生鸡的逻辑,并非“适者”才能生存,而是生存下来的才是适者,这话又有什么意义?文字游戏就免了吧,你我都知道在这个系统里是自然选择在起作用就行了。

                细菌的意义是你低估的另外一个问题所在,内共生理论就把细菌当作了进化出线粒体的形成关键。按这种思路,没有细菌,也就没有你了。现代学术界对细菌进化的复制,也证明了几万代进化、细菌就有可能表现出有趣的新特性;

                你的评估函数思路的确行不通,你也知道;

                我不用什么评估函数的原因也正在于此,让自然自己去“筛选”谁是适者,最省事;程序这种生命,自生自灭就行。

                你的人工智能观,始终停留在符号AI的“受控”层面上,等你真正能摆脱了“有意义的进化”这种窠臼,才能明白我主张的不受控进化的意义。

                • 家园 慢慢说,别着急

                  zhonghm 的"有意义的逻辑"与你的“有意义的进化”不是一回事. 就象“优胜劣汰”"适者生存"你们各有理解.

                  问一个问题, 如果一个生命体可以没有智能,那么一个智慧体必须具有生命吗?

分页树展主题 · 全看首页 上页
/ 5
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河