主题:【原创】AI对人类社会影响能有多大? -- 真理
人类的科学体系是不知道多少人一代一代,一点一点积累起来的。牛顿、爱因斯坦也是“站在巨人肩膀上”做出的进步,并不是哪个科学家就能“灵光一闪”、“苹果一掉”就能发现新理论的。
至于你说的“新的氨基酸,蛋白质,基因,或者新的材料。” AI还真是擅长这个,甚至可以说,AI就是生化环材等天坑专业的救星。
远的不说,华为的盘古大模型刚刚就新发现了一个抗生素,看见没?是抗生素哦,传统药学已经十几年拿不出新抗生素了,因为药物筛选成本越来越高,导致能抵抗所有传统抗生素的超级细菌的传播愈演愈烈。而华为盘古大模型一出手就是王者级别的发现,时间之花了一个月。
AI制药的原理可以说一点神秘性都没有。就是把不知道多少万个化合物输入系统,将其分子式、特性、涉及到的化学反应、药物功能一一标注清楚。AI全部学习一遍,就学会了药学并且可以告诉你任意一个你认识或不认识甚至数据库里没有的分子式可能会有怎样的药用价值。你把这些有可能的分子式优先拿去做实验,就可以更快地得到新的药物。
同样的,如果你吧一大堆材料的分子式和其各种物理性能输入系统,AI就有可能告诉你什么样的材料更可能有更高的强度、延展性、导电性……,最终新材料的发现也会变的更容易。
至于蛋白、基因等生物学问题也是同样的。比如说你把大量基因、蛋白质的DNA或者氨基酸序列输入系统,再用AlphaFold把结构也列进去,再将已知的功能和表达数据也输入进去,肯定也会加快分子细胞生物学的研究。
数学和物理学倒是难一些,但这更多是目前还没人往那个方向作而已(因为不怎么挣钱),但早晚也会的。
本次大火的Chat AI的技术都有一个致命的弱点:幻觉,或者说输出结果即不确定也不保真。对此,杨立昆是铁口直断,这个缺点是无法克服的,这条技术路线已经到头了。因为杨立昆的江湖地位,OpenAI公司的人也很快大声争辩,他们预计在5年内解决幻觉这个问题。所以这事情有看头,短期内是无法解决的。所以这也是Chat AI不能和生产力相关的设备,比如机器人、设备控制器等等,直接相连的原因。要是使用过程中出现幻觉,机器人把产线砸了,控制器把设备炸了,什么事情都有可能发生。
就我使用的经验,现在这几个Chat AI的幻觉比3个月前严重很多。我猜测是因为这些公司内部将一些GPU挪给其它项目使用,于是提供给外部使用的模型就不再做更深度的搜索,于是错误增多。
上周我让Chat AI给我讲解并推导一个数学公式。这个公式是李群的一个基本性质的简单公式,大概在100多年前就已经有人证明好了。因为我是临时学的,所以没有证明经验,就想让Chat AI给我讲解并推导。结果这些Chat AI都出现很多大错误,基本上是公式乱写,敢明着骗你那种。最后是GPT4推导出来了,是在我多次的纠正之下,终于把路找对了。也就是,Chat AI会乱试证明路径,而对于怎么证明这条公式我虽然没有思路,但对于一些矩阵运算和级数运算还有些感觉,能判断对错。我验证过后就对Chat AI说从A推导到B错了,公式写错了,或者是和前面条件自相矛盾了,然后Chat AI给我道歉以后,又换另一条路径尝试。最后是GPT4证明出来了,当然只是我找不到错误了,但是否是正确的证明,我还不敢保证。后来用Claude & Bard时,感觉错误更多,我经常看到不对劲的地方就不自己验证了,直接贴给GPT4判断,基本上是错得离谱。后来是因为错误太多,并且也一直没有找到正确的路径(GPT4判断它们两个所选的技术路线推导不出该公式,而我选它们两个就是想找第二种证明方法),最后只好放弃。
从这个例子可以看出,这些Chat AI的运行方式不是简单的知识库搜索,如果是知识库搜索,它们只需要把很多人写过的作业题抄给我就好了。Chat AI自有它们的运行方式,但就是这些我们无法控制的黑箱子会产生幻觉,而我们无能为力。前一段时间,陶哲轩借助GPT4(他可以使用完全版本的GPT4)新证明了一道数学题,为此还写了文章介绍经验。这文章有中文翻译版,建议大家找来看看。他的主要观点是:
* 不要试图让AI直接回答问题,因为这几乎肯定会得到一些看起来专业的废话。
* 让AI扮演合作者的角色,而后让它提供策略建议。
* ChatGPT数学能力虽然不咋滴,但对做学术研究的人来说是个发散思维的好工具。
* 既然ChatGPT在具体数学问题上给出的答案是不完全正确的,那不如索性发挥发挥它生成答案部分正确的特性。简而言之,就是让它帮你找灵感。
---x8---8x---
所以对于这些Chat AI,我还是强烈建议有条件的人去试一试,多使用感觉一下。但是使用时不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,那样做毫无价值。要对话就从自身的专业或自己最擅长的地方开始,明明白白地交流。多使用几次以后,就会发现这些Chat AI擅长的地方,它们能在哪些方面给我们提供价值,同时也会发现它们在深度专业领域很容易产生幻觉。
我其实也对“AI是否有可能发展出抽象提炼能力”存疑。但是还有一个想法。“抽象提炼归纳总结的能力”如果不是解决问题的必要条件呢?我是说因为人的算力有限,所以需要这个能力,从复杂的事务中归纳出来简单的规律。这个是很厉害。如果AI算力可以轻松达很多,对于它来说,任何神经网络学习出来的拟合模型,就是一个公里。无需证明,也不能被证明的公里。我想到可能适用的两个证据。一是韩国人通过AI指挥自己下棋。AI没有总结出来可以被学习的棋谱,但是可以赢。对于拿奖,这就够了。还有一个,智商高(算力高)的人认可的公里,给智商低的人是讲不清楚的,智商低的人也理解不了。比如雨人的弟弟没办法学会如何计算赌局,但是这不妨碍他利用雨人赢钱。如果顺着这个思路往下想,还有一个有意思的事情。从适者生存的角度出发,环境是人的决定因素。一个人算力的大小决定了他能适应环境的复杂程度。如果一个人(AI)的算力足够大,那么它可以适应所有的环境。反过来说,两个适应所有环境的人,其实是一个人。所以,如果把人传到网络,且允许自由迭代,算力会让所有的人变成一个人。这里也有两个列子,比如RICKY的情人UNITY,比如EVA中人类最终完成补完的形态,或许都是AI可以实现的。如果顺着这个思路再往下想,还有一个更有意思的事情。对于解决问题来说,相对与算力,感受环境的变化或许是更重要的环节。神经系统本身就是从感知环境变化的细胞演化来的,而不是单纯负责算力的细胞。这里就不得不感叹人体的精妙,感受非常多,但算力只是刚刚够用。
就是个暴力,不算什么智能。AI能短时间内破解你的银行卡密码,这是智能么,我觉得不是,六的十次方一个一个试就行,优化一下算法,先试六个零、六个八、生日数字…效率提高一千倍。
围棋棋盘上任何一个落子都会造成其他位置的“气”的变化,设计一个公式计算“气”就可以了,让我四个子,整个盘面的“气”完全变了,我或许可以挑战世界冠军。它看起来很智慧只是因为它一秒钟可以进行百亿次计算,实际上气的计算与逐个试密码一样,都是很笨的办法,就是靠暴力,大力出奇迹。
由于人类的语言其词汇本身具有高度的抽象性,词汇的空间也是很稀疏的,这么复杂的代号,chatgpt也能“像模像样”地处理,至少看上去不傻,的确是个很大的突破。但也就是”不傻“而已,不要期望太多。
但是让chatgpt 变得比较正确,其实也”容易“,就是清洗喂给它的材料,把大量,或者说绝大多数是错误的,或者摸棱两可的训练材料修改成正确的,那么chatpgt也会比较正确。这个在轻度编程领域,得到了验证。由于编程这部分使用的训练材料质量很高,是历年来大量程序员”清洗“过的,因此回答的质量也是比较高的。在其他一些领域,清洗涉及到大量的人力物力,并不是一个容易的工作。
chatgpt 提供了一种基础,真正有用,还必须特化。我认为华为的使用方式:通用大模型,然后在各个领域的特化,才是正确的方式。
以真善美三个层次来分析,人工智能还仅仅处于“真”这一代表确定性的单一层次,的确人工智能的复杂度已经超出了人脑的理解能力,但也要看到人工智能需要人类提供“善”来作为“真”的初始化条件。人类提供给人工智能用以初始化“真”的“善”,这个“善”是人类投射出的“善”,而非属人的“善”的本体。“善”的本体与人类投射出的“善”,两者之间的关系可以借用海德格尔的存在与存在者来理解。
现在可以从两个方向追问。保持人工智能的属人性,人工智能是否能把握到属人的“善”的本体;破除人工智能的属人性,人工智能是否能把握到属己的“善”的本体。直白地说,人工智能可以做的仅仅是依据人类投射出的某一具体的“善”作为一个价值尺度,以此发展出一套对应的工具性的“真”,不管这些工具性的“真”有多复杂,多令人难以理解,人工智能都缺失一个属人的或属己的生生不息的价值体系。本质上人工智能与一辆启动了的汽车并没有区别,工具性的“真”再复杂,甚至也不如一只蚊子在真善美层次上的体系完备。
不能提炼规律就只能像破解银行卡密码那样逐个排列组合去试,也就是几秒钟解决问题,这也是一种思路,可能永远只能这样,大脑算力相对于AI算力,就相当于手臂相对于挖掘机。
看过一个纪录片《神奇的合金》,金属的排列组合会带来奇异的崭新的特性,比例改变都大相径庭。例如
61%的铁+2%的碳+0.3%的镓+4.39%的钨……
地球上有金属元素90种(包括硼、硅、砷3种半金属),那么这个运算量非常大,而且还远远不止,例如如果不是偶然发现,谁知道“橡胶+硫”以后,会性能大幅度优化?那这样看来就不是90种物质的排列组合了,是几万几十万种物质的组合。还有温度湿度淬火要不要用催化剂这些工业know-how,不找到“规律公式”一个一个试得试到天荒地老。
这依赖于给阿尔法狗写程序的人的思路。是人命令机器作如此思考的。
哪怕是暴力试错法,也是人写的命令。于是AI就开始一个一个试,当然速度极快。
但是数学有插值法,能提高试错的效率,不需要一个一个试。这样AI做起来更快。
所以苹果砸在AI头上会怎样?看那个软件设计师如何给AI对于此事件的程序。
有可能该AI坐在那里不动。没有反应。它又不疼😁。
也有可能该AI一跃而起,倒拔垂杨柳,把苹果树给掀了😄:它发现了敌人,准确判断敌人的存在形式,完美地实行了斩草除根的杀敌。
AI对人类社会的影响无非三类:
1、人类利用AI铲除人类。这个不难理解,已经在发生。
2、AI直接铲除人类,或利用人类铲除人类。
3、AI替代人类。
关于3,是不可能的。人类和AI是两个不同的事物,不可能相互替代,这个不难理解。
可讨论的就是2。前者就是《终结者》所表现的状况,后者就是《骇客帝国》所表现出的状况。
只是这些电影里跳过了一关:电活动是如何产生意识的。目前人类自己都还没搞清楚这个问题,电影更说不清。
现在发现新抗生素的一个路子就是研究噬菌体怎么干掉细菌的,有各种各样的途径。
从新的途径出发可以避免旧药的耐药问题。gp46蛋白只是其中的一个“新”靶点。刘冰很好地论证了gp46蛋白抑菌的原理,但是gp46是一种蛋白,当药物不方便。
必须筛选出某种小分子化合物,其作用类似于gp46蛋白。此时,AI的大力算法才派上用场,节约了筛选成本。真正离临床适应还远着呢。
整个过程真正牛逼的还是分子生物学。西安交大与华为联合起来吹牛逼,估计和融资有关系。
AI在可计算的应用中表现出比人脑更强大的能力。例如,在可以进行规则计算的情况下,AI在天气预报等领域能够提供更准确的结果。
然而,如果AI的计算能力不足(这个时候人脑的算力也肯定不够用),就需要通过其他方法来解决问题。这个时候人的优势就体现出来了。例如,在围棋等有限规则的竞技中,AI可以获胜。但在无限维度的竞争中,就无法通过简单的计算来解决问题。现实情况比目前可以模拟的要复杂得多,许多复杂的情况无法通过模拟来完全理解。在生物医药领域,AI的大数据分析仍无法替代具有尽可能均一环境变量的动物实验,更不用说临床试验。想到一个生物领域的例子,比如组成DNA序列的碱基对也很多,把这些可能性完全穷举出来的计算量,可能不输90种金属元素的组合。但是通过其它检测方式,也可以找到疾病发生的原因。
说到模拟,AI目前存在一个重要缺陷,即缺乏自主感知器官。它的感知完全依赖于数据输入,一旦缺少关键维度的数据,计算结果就变得无效。典型的反射弧包括感受器、传入神经、中间神经元、传出神经和效应器。从这个流程顺序来看,感受器是首要的。根据已知的演化过程,感受器的演化优先级高于其他部分。例如,视觉细胞的出现先于处理视觉信号的神经元。此外,大多数动物的感受器官(或细胞)的总体数量在体积和重量上都超过负责计算的神经细胞。这是演化的结果,它提示我们解决问题的首要任务是增加感受器,从实际情况出发,实事求是地解决问题。
电影《雨人》中的主角就是一个反面例子,尽管他的计算能力很强,但其他方面的感知能力却被削弱了,因此不能自理。如果按照算力和感知力在社会分工中的优化方向来划分人群,劳心者(高层)可能更偏向于算力优化,而劳力者(底层)则更偏向于感知力优化。但如果只优化算力而缺乏感知力的辅助,问题仍然无法解决,类似于明末的情况。同样,如果只优化感知力而缺乏算力的辅助,组织形式将很低效,也无法解决问题,类似于太平天国。所以,三个裨将可以胜过诸葛亮。我觉得,AI目前的发展趋势,首先可以代替掉的是偏算力优化的职位,如果底层可以掌握算力的话。
有可能秦始皇时期就制造出了常温超导体,嬴政命令工匠们打造坚硬锋利不易折断的刀剑,工匠们各种尝试,在公元前240年的一个极其平常的上午,一个普通工匠研制出来一段常温超导材料,结果由于硬度与韧性不过关,超导体被扔掉了,该工匠还被痛打了一顿。
这段我模拟编写的万艾可诞生的故事,充分证明AI不能胜任超出人类认知能力的工作。两千年前的人不理解超导性这个概念当然也就不会去监测这个指标,那现在的人们呢,显然也是一样。
看看本贼的世纪预言吧,果然常温超导体在秦始皇时期就有了制备条件。
LK-99的制备几乎没有难度,专业的词汇这里就不讲了,你可以简单粗暴地理解为,只需要将铅、磷等多种材料按一定比例进行混合,然后放进高压锅中煮几天,就可以得到铅磷灰石,也就是LK-99。
整个过程简单到高中生都可以完成,复现难度为0,没有甩锅空间。
但是, AI对人类社会的影响不会是首先在 AI与人类之间展开,而是先在掌握 AI的人与不掌握 AI的人之间展开的。
强人工智能分两类,一类是类人的,一类是非类人的。
对第一种,目前还看不到迹象。人类的身体是经过几亿年进化产生的,除了最基本的生物需求如吃喝拉撒呼吸等等之外,还进化出丰富的情感,这才能驱动人类去做事情。柏拉图说过,人类的感情(感性)就像拉车的马,为人类的行为提供动力,而人类的理性则为行动提供方向。反观AI,他从哪里得到行动的动力?目前看还没有,AI现在还没有感性,没有爱恨情仇,没有恐惧,仍然停留在人让干啥就干啥的地步,所以像楼下提出的“苹果砸AI头上会怎样”的问题,我的看法是啥也不会发生,因为他没动力去做没让他做的事。当然也不会有“消灭人类”之类的“想法”。
对第二种,目前看也没有迹象。就像前面说的,人类的身体是经过几亿年进化而来的,最基本的特征就是新陈代谢。而现代计算机虽然复杂,但和生物比起来还是简单的很,而且没有自我更新的能力,远达不到产生像人类这样的感性和理性的程度。别的不说,现阶段光模拟一个单细胞生物都还不成熟,而人体细胞数是万亿级,而且相互之间还有交互。
最重要的是,AI是基于计算的,而人类的感性和理性有可能是不可计算的,所以理论上AI可能永远产生不了人类这样的强智能。彭罗斯等人的观点就是人类的行为可能受到量子级别现象的影响,所以才有“自由意识”。
https://zhuanlan.zhihu.com/p/453853172
人体量子装置揭开——微管,人类细胞携带作为灵魂存在的量子信息
.
.
.
P.S.《银河系漫游指南》的机器人马文就可以看成是第一类强人工智能,因为他除了能和人对话,还经常罢工,发牢骚,最重要的是有“忧郁症”。他表达不爽的时候会说“我左半边身体的二极管疼”。听起来虽然很搞笑,但仔细想想要达到他这个程度现有AI还远远不够。
无论是在离体的实验还是在活体的实验中,眼睛的单光子级感知灵敏度都得到确认。而且,人眼似乎可以直接用来验证贝尔不等式,感知两个光子是否处于量子纠缠态:
.
.
.
对大脑产生的这种纠缠的实验检测将足以证明大脑的非经典性;实验证据表明,这种纠缠的产生是生理和认知过程的一部分。
...
量子大脑过程可以解释为什么我们在遇到不可预见的情况、决策或学习新事物时仍然可以胜过超级计算机。
.
.
.
如果量子力学理论是正确的,那么就意味着CHSH不等式不成立,也就是说“局域实在性”和“自由意志”不能够同时成立;反之,如果我们坚信“局域实在性”和“自由意志”,那么量子力学的理论就不会是正确的。
...
真随机性也挽救了自由意志,只有客观世界本质上是随机的,我们人类才有可能具有自由意志,我们的思想才不会被远古时期的某些因素所决定。