主题:对ChatGPT的几点思考 -- 唐家山
就是GBT的回答水平与使用的深度非常依赖提问者/使用者自身的知识水平。 不同于常说的“没有愚蠢的问题,只有愚蠢的答案”,在GBT的使用上,如何提问可能才是得到正确答案的决定因素。比如,一个医生使用GPT应该就会比普通人使用GPT得到的帮助大得多。从一个侧面也说明为什么网上使用过GBT的人的之后的反应参差不齐,一方面是被媒体掀起的期望值,而另一方面也与每个使用者自身的话题与知识水平有关。
GBT的这个问题虽然目前已经被逐渐广泛认识到,但也带出了另一个问题,就是GBT自身没有目标(goal)这个概念,自身不会去给自己制定复杂的goal,为了回答问题可能内部有一些简单的比如去哪里搜索额外的信息等事先规范过的目标,比如曾有新闻说GBT靠撒谎获得某系统使用权限但无法证实。 而人包括动物的行为特点是一切活动都是有目标的,虽然有点自我有意识有的完全无意识,比如情绪控制下的举动是无意识的,而骗子的话术是有意识,所以如果担心GBT对人类社会产生危害,或担心涌现出自我意识,这个goal目标的底层行为模式是前提。 动物与人进化出这个行为模式是自然界适者生存的结果,而GBT没有这样的生存压力,大模型本身实际是个知识模型,其唯一的行为设计是输入与输出,虽然具备能力接受一个目标提问,但只能输出一个相关的计划与推理过程,但是没有自己执行这个计划的能力。
比如你提问要求去网上爬虫抓数据,GBT可以给你写一段程序,但不会自己去运行这段程序然后提供给你答案,甚至我不管GBT如何去获得数据,只管要答案,GBT自己决定使用什么手段或自带工具去完成。至少我还这样试过,也许有人这样用过我还不知道。
当然从AI广义上去说,自主意识与自主指定目标的能力是分不开的,而这也是AI最危险的能力。从底层上从基本设计上限制这个能力自然应该是所有AI产品团队的一个必备常识,相关立法很快出现也不奇怪。 这个限制同时也解决了AI取带人这个人们最关注的问题。话句话说,一切人类目前在做的伪装成脑力劳动的体力活,即没有复杂目标而且范围很窄但深度不小的脑力劳动,包括科研与分析工作中的很大一部分,行政管理,制造流程,产品市场,教育与医疗中的大部分都应该会被GBT直接冲击到。当然最经典的可能就是对应试教育下的做题家的冲击,这虽然是网上的蔑称但说明一定问题而且是个比较普遍的现象。
类似我们从小都会背诵的小九九乘法口诀,可以在完全无意识中只依赖肌肉记忆流畅运算。 人类现代教育很大一部分是注重在培养这些无意识条件反射的基本能力上。 网上经常被开玩笑的知道分子与知识分子的称号,互联网的兴起也带动了大量的”知道分子“的广泛出现,甚至给人感觉只要依赖搜索引擎,大学本科教育都可以不需要了,大量工作的存在也是吸收这样的教育培养出来的”人才“的源头。 那么,GBT至少在这个角度重塑社会劳动的组成,重新思考教育的重点,在未来几年到几十年中会有很大波及。当然更深度的对社会的冲击肯定也可以开脑洞引发更多思考与展望,至少是键政的一个兴奋点。
- 相关回复 上下关系8
🙂国内3甲 1 赢大奖 字0 2023-04-11 16:55:27
🙂川崎病....太吓人了 1 向前向前 字60 2023-04-10 05:35:20
🙂我觉得ChatGPT实际要解决两类问题, 5 桥上 字923 2023-04-10 00:59:13
🙂你这里点到一个很关键问题
🙂赤脚医生为贫下中农服务 4 潜望镜 字48 2023-04-09 21:34:13
🙂希望能用在中医上,开发我们伟大的宝库。 3 赢大奖 字0 2023-04-08 23:16:51
🙂最近看了三篇文章,对GPT的看法有了改变 28 唐家山 字7102 2023-04-05 07:04:43
🙂又看了三个微信公号的文章 11 唐家山 字610 2023-04-08 20:55:57