五千年(敝帚自珍)

主题:【原创】AI对人类社会影响能有多大? -- 真理

共:💬62 🌺368 🌵6
分页树展主题 · 全看首页 上页
/ 5
下页 末页
          • 家园 你可以看看清华的课表

            生物系的数学、物理课程不比计算机系少。死记硬背是数学物理之外的要求。拐玲能滑雪不意味着不能做题。考虑到颜宁的年龄,那会生物系招生正火,真爱的应该不少。

            • 家园 我特意看了清华生物的官网,没有多少数学物理课

              也就是跟所有本科生一样的大学物理基础课,数学老三篇:微积分线性代数概率统计,没了。

              连化学内容也不多。我本科时候旁听过生物化学课,那就是大段大段文字,无方程无推导,这也是整个生物学的通病,到今天还根本没有解决。

              在这种情况下,谈何揭开世界的奥秘?无非是头痛医头脚痛医脚,肤浅之极,如何能够吸引有才华的年轻人的热情?颜宁所谓生老病死的奥秘,跟选美小姐热爱世界和平有多少区别?

              说句政治不正确的话,你只要看大学生物系有那么多女生,就知道这门学科离成熟还远着呢。

              通宝推:颐颢山庄,
    • 家园 AI好像还不能创造一个体系

      比如推动物理的发展,找到新的氨基酸,蛋白质,基因,或者新的材料。

      不过人类虽然能干点类似的活,但是也不是很擅长。比如物理也大概停滞60年了。

      可能需要人类和AI结伴而行。

      内科医生肯定是AI的下一个取代对象。现在各个医院都是AI15分钟看片了,原来最起码需要两天。AI最厉害的是可以复制,只要有一个成功了,立马就所有都成功了。

      • 家园 你说的好像人脑就保证能创造体系似的

        人类的科学体系是不知道多少人一代一代,一点一点积累起来的。牛顿、爱因斯坦也是“站在巨人肩膀上”做出的进步,并不是哪个科学家就能“灵光一闪”、“苹果一掉”就能发现新理论的。

        至于你说的“新的氨基酸,蛋白质,基因,或者新的材料。” AI还真是擅长这个,甚至可以说,AI就是生化环材等天坑专业的救星。

        远的不说,华为的盘古大模型刚刚就新发现了一个抗生素,看见没?是抗生素哦,传统药学已经十几年拿不出新抗生素了,因为药物筛选成本越来越高,导致能抵抗所有传统抗生素的超级细菌的传播愈演愈烈。而华为盘古大模型一出手就是王者级别的发现,时间之花了一个月。

        AI制药的原理可以说一点神秘性都没有。就是把不知道多少万个化合物输入系统,将其分子式、特性、涉及到的化学反应、药物功能一一标注清楚。AI全部学习一遍,就学会了药学并且可以告诉你任意一个你认识或不认识甚至数据库里没有的分子式可能会有怎样的药用价值。你把这些有可能的分子式优先拿去做实验,就可以更快地得到新的药物。

        同样的,如果你吧一大堆材料的分子式和其各种物理性能输入系统,AI就有可能告诉你什么样的材料更可能有更高的强度、延展性、导电性……,最终新材料的发现也会变的更容易。

        至于蛋白、基因等生物学问题也是同样的。比如说你把大量基因、蛋白质的DNA或者氨基酸序列输入系统,再用AlphaFold把结构也列进去,再将已知的功能和表达数据也输入进去,肯定也会加快分子细胞生物学的研究。

        数学和物理学倒是难一些,但这更多是目前还没人往那个方向作而已(因为不怎么挣钱),但早晚也会的。

        通宝推:潜望镜,
        • 家园 盘古大模型发现新抗生素就是夸大其词,作不得AI牛逼的论据

          现在发现新抗生素的一个路子就是研究噬菌体怎么干掉细菌的,有各种各样的途径。

          从新的途径出发可以避免旧药的耐药问题。gp46蛋白只是其中的一个“新”靶点。刘冰很好地论证了gp46蛋白抑菌的原理,但是gp46是一种蛋白,当药物不方便。

          必须筛选出某种小分子化合物,其作用类似于gp46蛋白。此时,AI的大力算法才派上用场,节约了筛选成本。真正离临床适应还远着呢。

          整个过程真正牛逼的还是分子生物学。西安交大与华为联合起来吹牛逼,估计和融资有关系。

    • 家园 想象是美好的,目标是明确的。

      但是以目前的技术路线来说,是很难到达这个目标的。

      比如,机器人和AI相结合,是资本市场上很热门的话题。但实际上是做不到的。又比如AI法律顾问,米国有个老律师用了AI助手,结果AI给出的4个案例全是编造的,然后老律师被罚款,真是多年打雁反被雁琢了眼。这一切的根源就在于幻觉和不确定性,这是目前的技术路线无法根除的毛病。

      通宝推:GWA,
    • 家园 目前的ai就是统计,无限拔高成智能就是骗局

      退一万步,假设现在的ai确实就是智能,那么

      1.人自己就是标准的ai,你生一个娃就是生了一个ai,别人家每家生个娃就是生了n个ai。人家生再多ai,会把你家的工作机会都抢光么?

      2.你提到的这些ai的问题,人类社会本身就存在,只要你把其他人都理解为ai,那你提到的这些ai问题不就是其他人给你带来的问题么。

      • 家园 ai的发展很快

        hinton老爷子说现在ai的智商大概在 八九十,但是如果发展下去,以后看人类的智力就像是成人看三岁小孩,那时候他怎么对待人类是很难预料的

      • 家园 看来对AI没什么了解的人还是很多啊

        这个回复和尚未被批准的回复都是。

        AI虽然源于统计,这没错。但这么说话的人没说的一点是神经网络可以拟合一切函数。因此任何可以量化的过程都可以用神经网络模拟,而人类能想到的东西,无论是语言,还是动作、图片、音乐都是可以量化的。人类自己做事情需要的数据也就是三维的视觉、听觉、身体体态的感觉以及对肌肉的控制而已。AI现在综合能力还不行,但是在单项上已经超过。

        有人说AI说的东西不准,说美国法律AI在胡说,那只是暂时缺点训练而已,这连障碍都不算。用不了几年一切学科的AI都会上线,能把人从小教到大。除了实际上手的如实验课不行别的都没问题。

        至于就业方面,反正是现在能想到的职业都能拿机器来做。但因此是否会产生新的职业呢?应该能,就是积极应用AI提升人类生活水准的岗位。

        要说AI的能力还有什么疑问的话,那也是我说的第二阶段是否能达到的问题,第一阶段毫无压力。

        通宝推:潜望镜,
        • 家园 教学恐怕不行,学生不学咋办

          其实教育行业类似健身教练,主要还是督促。否则你学生不听讲,人工智能还能骂他不成?惩罚机制如何建立?请家长?

          要是把一个学生逼得,不要说跳楼,哪怕抑郁症了,那肯定又要全面禁止了。这可不比人类教师,学生跳楼就是停职一个,学校都不会停课。要是人工智能教师呢,哼哼,最轻也是温州动车事故那种,几年重启不了。

          类似的医疗行业,医生可以代替,护士只怕很难。

        • 家园 对这波AI行情,恐怕是太乐观了。

          本次大火的Chat AI的技术都有一个致命的弱点:幻觉,或者说输出结果即不确定也不保真。对此,杨立昆是铁口直断,这个缺点是无法克服的,这条技术路线已经到头了。因为杨立昆的江湖地位,OpenAI公司的人也很快大声争辩,他们预计在5年内解决幻觉这个问题。所以这事情有看头,短期内是无法解决的。所以这也是Chat AI不能和生产力相关的设备,比如机器人、设备控制器等等,直接相连的原因。要是使用过程中出现幻觉,机器人把产线砸了,控制器把设备炸了,什么事情都有可能发生。

          就我使用的经验,现在这几个Chat AI的幻觉比3个月前严重很多。我猜测是因为这些公司内部将一些GPU挪给其它项目使用,于是提供给外部使用的模型就不再做更深度的搜索,于是错误增多。

          上周我让Chat AI给我讲解并推导一个数学公式。这个公式是李群的一个基本性质的简单公式,大概在100多年前就已经有人证明好了。因为我是临时学的,所以没有证明经验,就想让Chat AI给我讲解并推导。结果这些Chat AI都出现很多大错误,基本上是公式乱写,敢明着骗你那种。最后是GPT4推导出来了,是在我多次的纠正之下,终于把路找对了。也就是,Chat AI会乱试证明路径,而对于怎么证明这条公式我虽然没有思路,但对于一些矩阵运算和级数运算还有些感觉,能判断对错。我验证过后就对Chat AI说从A推导到B错了,公式写错了,或者是和前面条件自相矛盾了,然后Chat AI给我道歉以后,又换另一条路径尝试。最后是GPT4证明出来了,当然只是我找不到错误了,但是否是正确的证明,我还不敢保证。后来用Claude & Bard时,感觉错误更多,我经常看到不对劲的地方就不自己验证了,直接贴给GPT4判断,基本上是错得离谱。后来是因为错误太多,并且也一直没有找到正确的路径(GPT4判断它们两个所选的技术路线推导不出该公式,而我选它们两个就是想找第二种证明方法),最后只好放弃。

          从这个例子可以看出,这些Chat AI的运行方式不是简单的知识库搜索,如果是知识库搜索,它们只需要把很多人写过的作业题抄给我就好了。Chat AI自有它们的运行方式,但就是这些我们无法控制的黑箱子会产生幻觉,而我们无能为力。前一段时间,陶哲轩借助GPT4(他可以使用完全版本的GPT4)新证明了一道数学题,为此还写了文章介绍经验。这文章有中文翻译版,建议大家找来看看。他的主要观点是:

          * 不要试图让AI直接回答问题,因为这几乎肯定会得到一些看起来专业的废话。

          * 让AI扮演合作者的角色,而后让它提供策略建议。

          * ChatGPT数学能力虽然不咋滴,但对做学术研究的人来说是个发散思维的好工具。

          * 既然ChatGPT在具体数学问题上给出的答案是不完全正确的,那不如索性发挥发挥它生成答案部分正确的特性。简而言之,就是让它帮你找灵感。

          ---x8---8x---

          所以对于这些Chat AI,我还是强烈建议有条件的人去试一试,多使用感觉一下。但是使用时不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,那样做毫无价值。要对话就从自身的专业或自己最擅长的地方开始,明明白白地交流。多使用几次以后,就会发现这些Chat AI擅长的地方,它们能在哪些方面给我们提供价值,同时也会发现它们在深度专业领域很容易产生幻觉。

          元宝推荐:加东, 通宝推:透明,加东,潜望镜,达雅,菜根谭,北纬42度,心有戚戚,
          • 家园 你这显然是把杨立昆的话断章取义

            可能是上了某些新闻标题的当吧

            原文是这样的:

            7月6日,2023 世界人工智能大会开幕式上,2018 年图灵奖得主、Meta AI基础人工智能研究院团队首席人工智能科学家杨立昆(Yann LeCun)直言,不喜欢AGI(通用人工智能)这个名词。

            他解释称,每一个智能都是专项的,人类智能也是非常专业、专项的,但LLM(大语言模型)只基于文本训练,不是利用视频训练,因此它们不理解物理世界,没办法规划、推理,就没办法实现目标。

            在近期关于AGI的辩论中,杨立昆多次表示,类ChatGPT产品并不能真正理解现实世界,更无从谈起实现人类智慧。

            杨立昆认为,现在还没有一个足够智能的系统来处理各种事情,所以人工智能系统需要一个世界模型(World Model),这个模型主要通过观察来训练,并通过少量交互处理不确定性。

            对于如何实现AI的治理和规范,杨立昆称,他认为可以通过可控的方法,设置安全护栏等使它们不会出现欺骗和支配人们的行为。

            杨立昆最后表示,他完全不同意“因为任何人可用人工智能做任何事,情况可能会非常危险,所以需要严格监管人工智能”的说法。

            他认为,严格监管人工智能发展并不能保证AI安全,长远看开源才能让AI保持安全、良善。

            如他所说,他只说了ChatGPT这类语言模型的局限,而不是说人工智能整体的局限。实际上,他说的“人工智能系统需要一个世界模型(World Model),这个模型主要通过观察来训练”,刚刚已经出现了。

            斯坦福的李飞飞团队刚刚发布了新的机器人,这个机器人同时接入了ChatGPT语言模型和Midjourney视觉模型,可以不经训练直接执行人的指令。比如打开抽屉,拿起手机,关门等。机器人可以自行理解人的指令,并且从周遭空间中认出相应的物体加以操作。

            点看全图

            未来已经到来,我们的区别只在于什么时候认识到这一点。

            • 家园 其实我怎么误解不重要,重要的是OpenAI公司怎么应对。

              对于这些Chat AI,如果有人只说好得很却不谈幻觉问题,我都会怀疑他到底深度用过这些Chat AI没有。不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,这除了增加谈资,别无用处。要对话就在某个自己擅长的领域和Chat AI明明白白地交流。基本上都是还没碰到自己的边界,Chat AI就先出现幻觉了。

              OpenAI公司认为需要5年解决幻觉问题,大家都很期待。我用Chat AI解释过算法,解释过数学公式,尝试设计过代码,也尝试重构过代码。无一例外,都碰到过丢失记忆和幻觉问题,都没有能完全地完成任务。我现在还把这些Chat AI当成一个有用的工具,但对话频次少很多。一般先用编辑软件里修改好问题后再对话,提示词尽力做到明确表述问题,每个可能不清楚地方都会有解释。对话一些内容后,感觉不对头就立刻停止,然后回头再一条条地验证,或者用google/bing来搜索。花费的时间不少,但总体比直接用google/bing来搜索文章后再理解的学习效率要高,相应的,单位时间里用脑程度也要高。

              我现在都不敢让Chat AI提供相应的论文和参考项目了。论文或书籍的ISBN都能编造出来,网址也编出来,全是假的。AI法律助手也会碰到类似问题。一段信息,我们不知道AI是怎么分解形成链接并存储到哪里,也不知道再次聚合时AI会怎么做加工处理。将原有信息原原本本的输出反倒成了不确定的事情。很容易就发生张冠李戴,互相掺杂的问题。

              前面那位“热河蛮子”河友解释得很好,要把Chat AI当成语文老师看待,而不能当成数学老师看待。我的经验,让Chat AI进行精确的符号推导确实有问题,包括编码也是类似问题,但是让它们用文字讲解基本的数学概念,错误的地方并不多。不过它们的输出内容和教科书的组织方式和关注侧重点也不一样,从来就不是教科书的复制。把它们当成语文老师,这就很容易理解了,它们是把相应知识进行内部“理解”后(所谓的“理解”,基本是根据大多数资料的概率分布进行组织),以它们的方式进行输出。因为自然语言的容错性或模糊性,我们会认为新组织的内容也表达了类似的意思,也是对的。但这时候想要像数学老师那样精确输出,进行精确的符号推导,就没有模糊性可言,这方面Chat AI就不擅长了,很容易就出错。类似地,不需要它们自己的“理解”,从链接里聚合原文并一字不错地输出,对它们也是困难的。以前读书时,哪位同学要是自己理解了,以自己的组织方式回答问题,而不是死记硬背,老师会直夸好好好。现在Chat AI的情况正好相反。

              未来现在还没有来。先把眼前幻觉这道坎解决了,再谈下一步。 就目前的状况,是“文科生”有用还是“理科生”有用,还可以争吵5年。

              • 家园 你是在纠结一个一点都不重要的问题

                如果看你最前面那个帖子的话,还以为是杨立昆说了这个“幻觉”的问题呢。然而他压根没有,你对他的话的解读也是错误的。这是不是你自己也产生了某种“幻觉”呢?

                很显然,这种程度的“幻觉”对你不重要,对Open AI也不重要。既不影响你参加工作,也不影响人工智能应用到各行各业。至于什么是重要的,你回去再好好看看杨立坤说什么就行了。我上面已经贴出来了。

          • 家园 不要找语文老师问数学题

            chatGPT是一个语言模型,如果有困惑把这句话重复十遍,困惑就解决了。

分页树展主题 · 全看首页 上页
/ 5
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河