五千年(敝帚自珍)

主题:下半场开踢 -- 方平

共:💬5008 🌺38273 🌵370
全看分页树展 · 主题 跟帖
家园 理解是个相对的问题

类似图灵试验,理解本身是个黑洞,我们判断理解的唯一途径其实还是看输出。

算法本身类似人类智力或任何动物智力的情况,你了解了算法的机理不代表就可以信任这个算法的结果。对于智能形成来说,这个从算法到结果的逻辑才是人类智能可以接受的所谓“理解”,但这可能永远是一个黑洞。这也类似人与人之间的沟通,同样的问题也存在,沟通能不能顺畅主要也是看输入与输出,通过受体的事后输出去判断理解了什么。

看到过一个爱因斯坦名言,大意是说世界上只有两种无限探索的事物,一个是宇宙,另一个是人类的愚蠢😂。但也说明人类的智力是如何形成某些结论的原理,对于外界来说经常就是一个黑洞,这其实也是智力的本质。只有那些写成书,具备严格数学推导的科学方法论,才属于彻底透明的方式。但绝大部分情况下人类的智能都是不可知的,只能靠沟通,也就是大量高质量的输入输出去缓解这个问题。

当然目前AI在输出方面很有迷惑力,往往让人判断不了这个输出是不是建立在理解的基础上,但我想说的是这是一个不仅仅存在与AI身上的问题,毕竟人类的理解也是一个黑洞,我们人类之间比如西西河里大家争论对话等,也经常出现驴唇不对马嘴情况,但好在人与人之间可以通过辩论,彼此推理,摆逻辑证据等方式建立一个对彼此的理解形成大致了解的平台。

所以AI现在的问题是还没有办法建立与人之间这样一个平台,虽然可以通过问题提示让AI展露一部分逻辑推理,但与人之间的沟通比起来,这个方面还很有限,估计也是AI尤其语言模型类AI下一步发展的重点。

同样类似人类,大模型也有一个基础知识储备,基本逻辑概念,基本数字概念,物理世界理解,比如羽毛比金属轻,质量密度小,甚至语言中涵盖的世界基本原理。这些是通过大模型pre-train实现的,包括从基本语言使用甚至到一些高等教育的内容,论文科研,医学法律等都可以包括在内,这也是大模型可以直接回答一些复杂问题,或对输入分析总结的能力来源。

但搜索就要面临知识更新的问题,所谓AI搜索无非就是从抓取到的结果直接通过大模型去分析总结找相关知识,代替人力这部分工作。 比如我如果要在西西河里找swell的所有发帖,或西西河中所以去年以来有关AI的讨论,虽然铁手的设计可以让你一键到位,用关键词找出来,但去从这些帖子中找到观点,或者我们叫的知识点,目前就是一个力气活了,你只能一篇一篇的去读。那么让大模型去做这个工作,然后直接给你一个观点列表,自然就是一个很令人省力的事情了。

当然这方面目前还不完美,一方面是大模型做了这个工作之后并没有同时更新自己的知识储备,做完就完了,训练与工作能不能兼顾是一个发展方向,另一方面,比较复杂的知识点上你能不能信任AI的智力,比如我要找出所有胡锡进的“横跳”自媒体发帖😂,这显然目前是只有人类能升任的,一些在西西河中经常要实践的脑力活动,比如哪个是话术,哪个是假消息,哪个是带节奏,目前看对AI都是一个极限挑战😂。

所以AI的使用是需要大量引导,校正,并在一个有限的期待值内的,至少目前是这样。而其潜在危险也同样与AI这个目前的有限能力有关,比如一个本来训练好的AI,再经过小量训练,fine tune可以很容易被洗脑,自带敏感词限制,或者八股套话成灾,误导省略关键逻辑节点与证据链,变成了一个话术套路大师,这些反而是目前AI能力下相对容易做到的😂。比如造一个网红带货AI,从视频到话术套路,只要是单向输出,这种技术现在基本上实现起来没有障碍了😂,一般社交网中大V发帖就不更用说了。按Sora那个进度,以后流媒体都得革命了,短剧自媒体视频,应该是首先陷落的一批😂。其他什么高级黑低级红就更简单了。

所以今年美帝竞选是个非常紧张的年份,大家都等着看四年之后,高科技狠活的新发展这次怎么收拾民主竞选制度呢😂

最后说一句,大家经常在河里有疑问,这个是AI那个是AI,其实目前AI被识别很容易,就是双向的输入输出,互动回帖几论下来就不攻自破了。 但只要是单向的输出媒体,AI就很不容易识别了。当然再过上几年恐怕就彻底分不清了。

通宝推:Swell,唐家山,
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河