五千年(敝帚自珍)

主题:【原创】AI对人类社会影响能有多大? -- 真理

共:💬62 🌺368 🌵6
全看分页树展 · 主题 跟帖
家园 对这波AI行情,恐怕是太乐观了。

本次大火的Chat AI的技术都有一个致命的弱点:幻觉,或者说输出结果即不确定也不保真。对此,杨立昆是铁口直断,这个缺点是无法克服的,这条技术路线已经到头了。因为杨立昆的江湖地位,OpenAI公司的人也很快大声争辩,他们预计在5年内解决幻觉这个问题。所以这事情有看头,短期内是无法解决的。所以这也是Chat AI不能和生产力相关的设备,比如机器人、设备控制器等等,直接相连的原因。要是使用过程中出现幻觉,机器人把产线砸了,控制器把设备炸了,什么事情都有可能发生。

就我使用的经验,现在这几个Chat AI的幻觉比3个月前严重很多。我猜测是因为这些公司内部将一些GPU挪给其它项目使用,于是提供给外部使用的模型就不再做更深度的搜索,于是错误增多。

上周我让Chat AI给我讲解并推导一个数学公式。这个公式是李群的一个基本性质的简单公式,大概在100多年前就已经有人证明好了。因为我是临时学的,所以没有证明经验,就想让Chat AI给我讲解并推导。结果这些Chat AI都出现很多大错误,基本上是公式乱写,敢明着骗你那种。最后是GPT4推导出来了,是在我多次的纠正之下,终于把路找对了。也就是,Chat AI会乱试证明路径,而对于怎么证明这条公式我虽然没有思路,但对于一些矩阵运算和级数运算还有些感觉,能判断对错。我验证过后就对Chat AI说从A推导到B错了,公式写错了,或者是和前面条件自相矛盾了,然后Chat AI给我道歉以后,又换另一条路径尝试。最后是GPT4证明出来了,当然只是我找不到错误了,但是否是正确的证明,我还不敢保证。后来用Claude & Bard时,感觉错误更多,我经常看到不对劲的地方就不自己验证了,直接贴给GPT4判断,基本上是错得离谱。后来是因为错误太多,并且也一直没有找到正确的路径(GPT4判断它们两个所选的技术路线推导不出该公式,而我选它们两个就是想找第二种证明方法),最后只好放弃。

从这个例子可以看出,这些Chat AI的运行方式不是简单的知识库搜索,如果是知识库搜索,它们只需要把很多人写过的作业题抄给我就好了。Chat AI自有它们的运行方式,但就是这些我们无法控制的黑箱子会产生幻觉,而我们无能为力。前一段时间,陶哲轩借助GPT4(他可以使用完全版本的GPT4)新证明了一道数学题,为此还写了文章介绍经验。这文章有中文翻译版,建议大家找来看看。他的主要观点是:

* 不要试图让AI直接回答问题,因为这几乎肯定会得到一些看起来专业的废话。

* 让AI扮演合作者的角色,而后让它提供策略建议。

* ChatGPT数学能力虽然不咋滴,但对做学术研究的人来说是个发散思维的好工具。

* 既然ChatGPT在具体数学问题上给出的答案是不完全正确的,那不如索性发挥发挥它生成答案部分正确的特性。简而言之,就是让它帮你找灵感。

---x8---8x---

所以对于这些Chat AI,我还是强烈建议有条件的人去试一试,多使用感觉一下。但是使用时不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,那样做毫无价值。要对话就从自身的专业或自己最擅长的地方开始,明明白白地交流。多使用几次以后,就会发现这些Chat AI擅长的地方,它们能在哪些方面给我们提供价值,同时也会发现它们在深度专业领域很容易产生幻觉。

元宝推荐:加东, 通宝推:透明,加东,潜望镜,达雅,菜根谭,北纬42度,心有戚戚,
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河