五千年(敝帚自珍)

主题:【原创】货币锚定国债,不是建金融防火墙,而是建金融抽水机 -- nobodyknowsI

共:💬222 🌺617 🌵15
分页树展主题 · 全看首页 上页
/ 15
下页 末页
                        • 家园 是的,运用法律和制定法律 是两个层面的事情

                          Chatgpt搞运用这块是很有前途和钱途的。

                          但是制定法律这块,牵扯到法学理论的,gpt根本用不了,因为人家就不是朝着这个方向设计的。

                          • 家园 为啥局限在法官律师作用法律呢,这种应设想在十八世纪十九世纪

                            法律人已经设想过了,当时最典型的设想是,把载有案件情况的纸输入有人工智能的电脑里面,运算后就会出现有判决结果的纸。

                            就好像和葡大提到的难题,如何设立数据定价权,实际就是创设新的权利,其难度和创设法律是一样。如何在新的经济模式下建立新规则,比如ai和大数据作为经济要素,如何影响经济模式,如何确权、定价、交易、维权等,都是需要研究的。这才是少壮派们想干的事,不是简单的在旧规则下提高判决准确性和效率。

                            此外,现在天朝法科学生这么泛滥,分分钟卷出来的成本比ai还便宜。天朝不像英美,大部分法学毕业生也就是计件工人,没有提高gdp的能力。

                          • 家园 不仅是chatGPT,我们领域所有的生成模型的本质都是模仿

                            都是根据大量已有数据,学习规则,然后生成一个符合规则的实例。可不能凭空生成,凭空生出规则这件事太“原创性”了,生成模型的本质是模仿。

                            另外,你给了大量数据,它学习规则的时候,也能告诉你,那些案例的判决存在冲突,然后让你能够去修改发条,但它也没办法告诉你怎么去修改发条,这同样太过“原创性”了。

                            一句话,生成模型的本质是“模仿已有规则”,而且你还没办法人工定义这些规则,通常你需要给它大量判例,让它自己从这些判例中去“模仿已有规则”;

                            只有它学习到了一套规则,能够对新的案件产生合理的判例,你才能对这些规则做出一些微调(也就是,你没办法直接把法律条文倒给它,就让它去判案了,它的真实模仿对象永远是判例,而不是理解了你的法律条文)。

                            --

                            初心老哥,我这么说,你能明白chatGPT和所有生成模型的上限吗?本质上是在模仿判例。

                            • 家园 是的,现在这些基于统计的生成式AI就是模仿人类行为

                              美国之所以拿这个赛道往资本市场吹,主要是模仿人类语言这个”行为“其实需要的参数量已经够了,效果也非常唬人,市场效果拉满。至于AI理不理解内容,那不是资本市场所关心的。他们这波主要关心能不能把NV炒起来然后让中国接盘,好续上美元和美股的命,可惜中国不跟。

                              • 家园 了解下谷歌

                                无论是当年打败柯洁的AlphaGo Master,还是后来谷歌AI在生物化学方面的创新应用,其本质更多的是基于元规则的演绎而不是基于统计。

                                ChatGPT如果真的只能拼大模型,拼算力的话,那前途是有限的。

                                • 家园 没什么元规则的演绎,那个在机器学习中叫强化学习

                                  (1)统计学习通常用于各种与人类相关的领域,利用人标注的数据,然后完成人能够完成的任务。

                                  (2)强化学习(对抗学习)在算法中属于强搜(brute-force暴力搜索)的变体启发式搜索。完全可以用最基本算法中的“剪枝”来说明,整个解空间是一个多叉树,然后用一些概率性算法来剪枝——这种概率性算法与统计学习是没有区别的。

                                  --

                                  强化学习和常规的统计学习的区别不是在算法上,而是在输入输出上面:常规的统计学习是需要人为标注的,但对抗学习不需要,就像alpha-zero和alpha-master,两个机器棋手,只需要终盘点目准确,就能判断输赢。强化学习就是这样,没有标注,通过两个机器棋手+最终点目程序,就可以自动不断迭代模型。

                                  严格说来,从第一代狗到第三代狗:

                                  (1)ahpha-go是统计学习,有标注,也就是人类棋谱。

                                  (2)alpha-go是强化学习,无标注。

                                  (3)alpha-master是上述两者的混合,既有人类棋谱,也有两个机器棋手的对抗学习。

                                  最后,所有从deep learning(深度学习)开始都是三拼:拼大模型,拼算力,拼数据——没有任何例外。

                                  即使是alpha-zero顶多是因为强化学习,不需要人工标注数据,用两位机器棋手不断自己对弈产生棋谱,在这个过程中自己就能产生大量的数据,然后用点目给这些棋谱标注胜负,才有一种“没有拼数据”的错觉,但实际上对局数也海了去了。

                                  通宝推:铁手,
                                  • 家园 受教了

                                    我对AI基本不懂。

                                    记得alphaGo对李世石的时候是几十台的cluster。后来对柯洁的时候,黄博士说他们只用一台4TPU的服务器来允许程序,并且介绍了新版本不需要人工干预,只要教给它规则,它就可以自行学习,听起来就是基于公理的演绎体系。

                                    至少在算法上是大大提高了。

                                    我的理解是AlphaGo Master/Zero基于强化学习后的输出具有极高的可信度,有别于ChatGPT的不着调,其中有着本质的不同。

                                    推广到现在热门的自动驾驶上,其实AI需要解决的问题可以分解为几个问题:

                                    1. 设备的自我管理

                                    2. 道路/车道识别

                                    3. 信号灯识别

                                    4. 障碍物识别

                                    5. 根据以上反馈执行

                                    其中1,2,3,5基本可以算是有限规则限定,4比较开放,单纯拼算力不是好办法,还是要加一些规则约束才容易收敛。

                                    我感觉,答案还是在类似AlphaGo的路径,而不是ChatGPT。

                                    • 家园 自动驾驶主要难点是计算机视觉,当然最终决策也是难点

                                      你看你列的五点,三点都是“XX识别”,这个都是最初的深度学习——计算机视觉,图像领域一定是基于大模型、人工标注海量数据、训练的大规模算力、预测时候高性能AI芯片。

                                      最终决策的难点是其实不是技术上的,因为技术上的局限性但最终导致的是伦理上和法律责任上的问题:第一、危机处理,事故的时候自动驾驶如果判断错误带车往人身上撞的伦理问题。第二、上述问题的法律责任问题。

                                      --

                                      李世石对弈的是alpha-go,柯洁对弈的是AlphaGo-master,但【一台4TPU的服务器来允许程序】一定不是训练,而是对弈,具体我已经忘了。

                                      【ChatGPT的不着调】ChatGPT之外的绝大多数AI都是靠谱的,问题只是准不准。ChatGPT是特殊的,ChatGPT的不着调是因为:

                                      它是一个基于语言模型的聊天机器人,即使ChatGPT因为大模型表现得多么令人震惊,它的本质依然是聊天机器人,而不是问答机器人,你要明白这两者的区别。

                                      下面直接抄我之前写过的一个回复:https://www.cchere.net/article/5020474

                                      (1)划重点,聊天机器人就是话术机器人,特点就是——谎话连篇、胡编乱造一流,这一点ChatGPT也不例外。

                                      (2)语言类大模型因为融合了大量的资料,让你可以自己从这些资料中获得想要的答案,并不代表模型能够理解问题或得出答案。

                                      (3)所有的语言类大模型都不负责理解问题,也不负责生成答案,真正学习的是问题和答案之间的统计关系,也就是共现性,而对于自然语言领域,最常见的共现性就是各种话术,例如百度体、小编也想知道……

                                      各种零信息量的话术,才是语言类大模型最最擅长的领域。

                                      (4)语言类大模型使用的时候,好坏的标准在于是否糊弄住用户,注意是糊弄——如果是一个网上已有问题和正确回答,它就给你复述一遍,这种情况下你当然很满意;如果是一个相对陌生的问题,它就利用话术根据相对熟悉的问题给你编一个。

                                      (5)前者是搜索,后者是糊弄,但大多数人看不懂其中的区别,对于糊弄的警觉性也不高。事实上,大多数糊弄的话术,只要不涉及你专业领域,你就拆穿不了。更何况,大多数用户根本没有所谓的“专业领域”,他们的提出的问题大多数时候只会触发前者,也就是“搜索”。

                                      @唐门凤去 老哥,你能够意识到这一点,一定是有自己的专业领域。所有AI相关的人对chatGPT的看法跟你是一样的,chatGPT的不靠谱是因为话术机器人的特征,它就是用来跟你聊天的,chatGPT能够融合很多资料的特性带来很多惊喜,但它依然不是真正的问答机器人。

                                      真正的问答机器人,现在AI还做不到——在特定领域可能实现,但像聊天机器人有这么高的普适性,当前是绝对不可能的,还有太长太长的路要走。

                                      聊天机器人的普适性来自于它不需要真正理解问题,不需要真正回答问题,所以它才会带来惊喜;一旦你要求它的准确性,它对于绝大多数问题就只能回答不知道,然后帮你搜一堆不知道是否准确的参考资料,这就退化成搜索引擎了。问答机器人要求准确性,所以它会把它的能力明明白白告诉你,包括它只是人工智障这一点,所以,就不像先今那些聊天机器人,被媒体赋予人工智能等各种吹嘘之词而出圈了——这是一个娱乐至死的时代。

                                      ps:键政时谈到建国后,我对那些马恩派的肉喇叭特别讨厌的,也是因为他们本质上是一些话术机器人,他们真的很“普适”,普适性远远超过了技术官僚,道理一摸一样:只要不真正解决问题,谁都能做到普世性。

                                      通宝推:川普,唐门凤去,
                                      • 家园 昨天看了个自动驾驶过限宽墩测试

                                        当然限宽墩是纸糊的,仅模拟。场景是两车道左右两侧放置了长方形限宽墩,车辆需要从正常行驶车道跨实线通过限宽墩。测试结果是只有华为智驾顺利通过(全程未减速),如此拙劣的表现再次确认了你的AI是人工智障的判断。再读你的科普,发现L5的路确实遥遥无期。

                                        我之前提到自动驾驶要解决的几个问题,确实2,3,4都可以归于一个问题——环境感知。只是从拟人的角度去看问题就更直观,而且从人类驾驶的感受看,2. 道路/车道识别 3. 信号灯识别 4. 障碍物识别,这三个问题其实等级难度都差不多,决策执行的优先级差不多,而且从算法剪枝处理来看要简单许多。一个大问题(通用性的问题)分解为几个小问题(区域性场景)计算量应该削减很多,甚至很多小问题可以得到近乎100%的答案。

                                        回到限宽墩的场景,首先要解决障碍物识别测量问题,这个领域,没有安装前置激光雷达,毫米波雷达(最好是高精度4D毫米波雷达)的基本上先pass掉了,纯视觉方案理论上可行,但实际应用智障的厉害,也列在失败行列;另外虽然安装了这些传感器,但是无法做好信号融合处理的也失败了。障碍物识别测量做好后,决策执行控制车辆调整姿态通过就相对容易。意外的是,好几辆车子表现得是因为不愿意压实线而失败,决策系统看上去都非常智障。

                                        初步了解了一下自动驾驶常用的几种传感器特征参数后,我大致的判断是自动驾驶传感器起码需要配置4D毫米波雷达,激光雷达和双目(或更先进)摄像头才有可能实现。然而如你所言,哪怕配齐了这些传感器,设备算力也足够大,对于一些非常longtail的障碍物识别依然是巨大的挑战,比如一些细小的东西,如钉子,碎玻璃,钢丝类物体,一些飘动的如塑料袋,飞絮类物体如何界定,感觉蛮怀疑的。因为一旦亚毫米级识别精度的激光雷达都无法识别,而重新借助视觉辅助判断的话,那又回到了听天由命的概率中去。我猜测现在敢给萝卜快跑放行,应该是基于AI的识别/决策能力足够避免恶性事故(可能好于人类驾驶),虽然不免出现各种智障场景。

                                        感觉上,相比纯开放环境的L5级自动驾驶,似乎封闭场景机器人应用的实现短期内更值得期待。

                    • 家园 路线怕明确不了

                      我认为后30年的人有个很大的困惑:为谁搞经济建设?类似最近的金融宽松问题就是为谁而宽松?“谁”的不一样,做法也不一样,很多时候甚至是相反的。

                      7月的三中全会,我对于能明确路线,不乐观,因为力量对比没有明显变化。估计还是糊稀泥是主纲。“理直气壮的做大做强国企”十来年好象没有明显进展。混改我认为从以公混私的角度看是失败了,从以私混公的角度看,反倒有点小进展。按黄奇帆的说法,国有经济比例已经低于美国。如果黄奇帆说的是真话而我又没理解错,那么十八大其实就是中共的最后一次和平手段纠错的机会了。

                      我很不喜欢故前总理开始流行起来的“顶层设计”一词,这词字面的意思就是上面的人脑袋一拍就好了,下面的跟着来,“难道还需要几个处长来把关?”。原来的“制度安排”“政策制定”之类的词不好吗?制度安排政策制定内含了调研讨论的传统。


                      本帖一共被 1 帖 引用 (帖内工具实现)
                      • 家园 文斗不行,最终会演变成武斗的

                        文斗解决不了,最终只能武斗。武斗的代价很惨烈,但是解决问题的效果更彻底。

                      • 家园 “人民算法”作为一种治理模式,

                        引用某教授的话:在某种话语体系中,“人民”这一核心概念具有抽象性和整体性的特点。在治理过程中,“人民”一般会指向特定群体,呈现出分层分类和差异化特征。

                        由于人民群体的异质性,实现以人民为中心的治理需在特定情境中清晰界定不同类型的人民群体及其需求。“人民算法”作为一种治理模式,旨在将以人民为中心的价值理念融入算法治理过程中,通过对不同人民群体的需求进行精确识别和优先级排序,实现对复杂需求及时且有效的回应。

                        • 家园 人民是被拿来喊口号的,政策安排里面施舍给人民的不多

                          密切联系群众,还存在吗?都要搬出乡贤了,还要请回儒教了。口头上喊一下都是为了人民,实际上上层建筑里面还有代表人民的力量吗?

                          我们做最好的期待,也不过就是如今的上层建筑,能够给普通人一点太平犬的恩赐了。乱世一来,上下根本没有可能在一条心了。哪怕是用民族主义,也动员不了最广大人民了。

                          清醒的核心层,万不可抱有革命主义浪漫了。目前我们的上层建筑及其依赖的经济基础,根本和无产阶级没有关系了。你再去赎买工农社畜,也是一锅夹生饭。能保证矛盾不尖锐到引起社会震荡就很好了。

                          还有,关于集权和分权的争议。有什么好争议的,几十年对新中国立国基础乃至中国传统政治文明结构的毁灭性的摧残,由此建立起来的买办、亲资本、封建复辟混合型的上层建筑,肯定是分权占据主要力量啊。花那么大的力气进一步集权,内耗会很吓人的。

                          我们现在这个上层建筑,有很大的可能性往世家门阀那一套蜕化,靠一两代明主不计生前生后名,也难以扭转的。这就是大势不可违,这股逆流势头已经形成,人力已经不可为了。

                          通宝推:史料推理,青青的蓝,曾经是铅笔,
                          • 家园 我倒比你乐观一点

                            现在的问题,分三个方面:

                            一个是客观存在的经济问题,包括这个被债务搞得进退两难的现状;

                            一个是民众对体制和领导信心的问题;

                            一个是顶层的能力问题,包括对公务员体制的管理,以及对外的外交。

                            这三条里,后面两条都可以通过换人来解决;第一条,很难解决,但不换人必然解决不了,换了人要是真找出开宗立派级别的大能,反而还有一丝希望。

                            那个人,毫无疑问,现在已经是压在全国老百姓心口的一块石头,尤其是对信心的影响,是非常严重的。难道一定要等到那个人把我党全部的民望都败光了,才让他走人吗?

                            -

                            有那人在,我们的确是在向世家门阀的路线上狂奔。

                            原因也很简单:因为那人手底下都是一群庸才酷吏,体制内,能人难以上位;体制外,大家都带着恐惧和鄙视的眼光看着他们,捂紧了自己的仨瓜俩枣。这就是世家门阀路线最好的土壤。

                            如果换个人,提拔几个真正的人才,把吏治的死水重新弄活,到时候不缺愿意为了国家利益而“折腾一下”的人们。

                            通宝推:史料推理,
                            • 家园 【讨论】批评拜吨

                              你这还是青天大老爷思想。

                              你这么反对那个人,只不过因为他不是你心目中的青天大老爷。

                              (比如本屁股 - 屁股决定脑袋-不感冒稻宗,最大的原因是他没带我发财)

                              你要多唱几遍国际歌。

                              PS:联储主席前段时间发牢骚,说了句唐宋以来都不重视普罗大众(大意如此),希望当前困境能倒逼肉食者重视起来。唉, 又想起主席人人为尧舜的宏愿。

分页树展主题 · 全看首页 上页
/ 15
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河