五千年(敝帚自珍)

主题:ChatAI 使用初体验(0) -- shuyong

共:💬19 🌺144
全看树展主题 · 分页首页 上页
/ 2
下页 末页
家园 ChatAI 使用初体验(0)

最近一段时间,因为网络新闻的影响,我好奇就使用ChatGPT和Claude查询了一些资料,让它们给我讲解了一些知识,给我的学习带来了一些新体验。因此想在这里写出来和大家分享。先说总体感觉,ChatAI 给我带来了一些小惊喜,就像一个无比自信的无所不知的图书管理员在给我讲课,原来这些知识的全貌是这样的,它们还可以这样理解,还可以应用到这些领域;但是没有给我带来大惊艳,智能聊天机器人暂时还不会取代我,能取代我的,是比我更会使用智能聊天机器人的人。

再说一个让人有点后悔的感觉:追星要趁早,要有独立帐号,以便表扬或批评。ChatGPT刚出来的时候,因为需要国外的手机号码接收验证码,没想花钱买一个,结果就没得一个独立的帐号。New Bing刚出来的时候,需要更改浏览器做重定向,没舍得折腾浏览器,结果到现在各种hack手段都被封杀了,结果就没有用过New Bing。Claude最近出来的时候,注册了一个独立帐号,使用过后才知道区别。

最开始使用的ChatGPT,是花了点小钱买的国内的代理通道。问题就出在这个‘代理通道’上面。因为这些代理通道只是用少量的共用帐号,在同一时间,同时提供给无数人在用,所以就没有交互的上下文的特性。我提的两个问题之间,可能有许多人在提问,于是我的问题的上下文就被冲没了。在这种情况下,和ChatGPT交互就特别累。因为我们提问题,总是从一个通用的问题开始,然后发现自己的不足或倾向性,然后继续就此展开追问。因为没有问题的上下文,所以我向ChatGPT提问,只好在同一个问题上以不断加定语、加附加条件的方式提问。我写得累,ChatGPT也是回答得四平八稳,没点倾向性,也就没点有特色的细节和内容。

后来也换过其他国内的代理通道,好的代理通道能提供上下文,那个交互的感觉不一样。不过国内的智能聊天机器人到底是不是ChatGPT,还是要打个问号。在网上看到有人打嘴架,提到‘知识蒸馏’的概念,很有意思。有些智能聊天机器人可能是国内的模型,然后冒充ChatGPT,这不但能招揽倒付费的测试,也是挣钱的好手段。所以现在已经很少国内的代理通道了。做码农,翻墙还是必要的。

到现在为止,分别用过两个半的ChatAI:

1. ChatGPT。市面上大多数提供智能聊天服务的,大多数是ChatGPT的包装。我到现在都还没有直接的ChatGPT帐号。多用几个包装过后ChatGPT的智能聊天服务,可以发现一些有趣的事情,每个包装商对用户的问题都会有自己的处理,对ChatGPT的回答同样也会有处理。处理手法确实对回答内容和客户满意度有较大影响。这也可以算是产业链的一环吧。

2. Claude。算是半个吧。因为该公司的成员是在21年从ChatGPT团队叛逆出来的一支。

3. Bard。目前还没有支持中文。因此使用Bard主要是查缺补漏,交叉验证用。

后面的内容主要凭着记忆写。如果能记起是哪家的事迹就写哪家的名字,如果记不起来,就用ChatAI笼统带过。

回答得四平八稳,是我目前感觉到的ChatGPT的最大问题。我没有感觉到ChatGPT的个性,ChatGPT也没感觉到我的个性,所以最终的结果就没有倾向性,也就得不到我很喜欢的答案。ChatGPT的回答总是走两个极端,给出的答案,概括部分特别高大上,喜欢用大词;细节部分就特别简单,举例总是简单得和概括出的优点和特性对不上;中间是巨大的中间知识或细节知识的鸿沟。这些将在后面的具体事例中说明。

Claude的回答会好很多。刚开始的回答,头尾都套上客套话、恭维话,就是一个固定模式。看多了也心烦,占屏幕空间多。后来我给它说:少来客套话,把空间留给实际内容。Claude于是就逐渐转变了对话风格,似乎感觉到了一些个性,现在给我的回答,干货多废话少,也能知道我所说的术语是某个特定领域的专业术语,而不是主流的含义。并且从它的回答中,我也常常临时产生灵感和发现自己的问题,然后快速展开追问,Claude也能知道这个问题和我前几次讨论的问题相关,并给出针对性的回答。和Claude对话多了,也能大概感觉到它的上下文buffer有多大,有时候讨论话题多了,它会忘记我在前面对它的修订,这时候我们就知道前面的记忆溢出了。

Bard现在用得还不多,等以后支持中文了再深度交流一下。现在尝试让它对编程问题进行回答,和外界评价不一样,我觉得回答得还行。但是,再次和外界的神吹不一样,对于这些ChatAI,它们在编程方面就没有一个让我满意的,就没有一个能写出我想要的代码。简单一句话总结,它们能做一个还过得去的饶舌的参谋,但做不了一个能干活的小弟。

通宝推:大道至简,铁手,破鱼,落木千山,唐家山,
家园 ChatAI 使用初体验(1)

我用ChatAI,是奔着使用它们的长处去的。因此会尽量想着发挥它们的长处,能否帮我干活才是最重要的。因此我没有使用那些微妙的问题对它们进行测试,因此我向ChatAI提问总是简单明确,想让它们明白我的意图并给予针对性的回答。在它们有长处的地方发现问题,那才是真的问题。

这些智能聊天机器人,从学习的方面来说,还是很有价值的,但前提是我们知道我要学什么知识,因此我懂得要问什么问题,那它绝对能给我们打开一扇知识的大门。如果不是为了吹牛打嘴炮、不是为了写个文案忽悠女朋友忽悠外人、不是为了写个小白网文贩卖焦虑收割客户,而是为了好好学一点知识,那么智能聊天机器人在提供深度知识方面还是可圈可点的。

我的经验是,对所要提问的领域要有些积累、有些经验,更要有些专业常识,当然,在这些领域,我们有更多的问题需要解答。我们已有的知识,就像大海中的孤岛,我由此出发不断提问,有灵感和问题就立刻追问,然后孤岛就渐渐连成片,并且我们还能发现继续深入学习的阶梯知识。我曾经和Claude一起,相互激励相互忽悠,在某个领域的最新进展和未来展望深入追问,一直问到以我目前的知识无法理解也无法提问为止。最后查看聊天记录,第一个感觉就是:算了,别学了。这些高深的问题还是留给聪明人去解决吧。

在这期间,不要100%相信智能聊天机器人所说的话,要用专业常识去判断,有不决的疑问就找搜索引擎查找。渐渐地,随着讨论的深入,在深水领域,就会发现这些智能聊天机器人给出的错误信息(也就是幻觉)也是挺多的,越深度越多,越细节越多。其实,它们给出错误信息并不可怕,就算是我们自己,谁又没给外界提供过错误信息或散布过谣言呢?可怕的是对这些信息的无脑接受、然后再散播出去、然后再重新接受,形成了错误信息的激励放大。其实,能发现问题,并且能纠正问题,也就说明了我们有了一定的水平,能在这个谣言四起的世界里找到一个能落脚的实地。

ChatAI传授知识的最大问题就是它们无比的自信。它们永远不会说我不知道,它们总是可以在知识库里找到一些你所要问的知识片段,然后根据概率将这些知识片段拼装起来给你回答。这样,在越是专业越是深度的领域,就越容易出现幻觉。我曾经让ChatAI给我提供一些参考论文,所提供的论文,不但有名字,还有ISBN编号,结果我一查,全是不存在的。但是前面它对某个算法的解释,在关键点上确实给我点明了方向,让我一下子把握住该算法的要点。所以这种感觉是很矛盾的。

还有,我曾经让ChatAI对于某个协议栈给我提供一些开源参考代码。它们提供的github中的项目,没有一个是对的。有些是不存在的,有些是这个人根本就不是做这方面的,这项目是另外的人做的,有些项目就不是这个名字,而是另外的名字。只要我们会从github中查找项目,就会发现这些错误完全是概率拼凑造成的,还有,我认为完善程度比较好的项目,都不在它们的推荐之列。关于编程方面的幻觉还有不少严重的问题,将在后面提到。

另外,通过对错误的讨论,我发现Claude确实是试图用基本规则进行推理,然后在推理链中某个专业常识错了,于是就得到了错误的结论。还有,可以感觉到Claude还是深受主流知识的影响,权重就像是惯性,很难拉过来。比如在和Claude的讨论中,我用的某个专业术语和主流知识不一样,给它说明了几次,最后它给我的反馈说明它已经了解我所说术语的含义,但在下一个问答中,给我的文字中,讲解的是我给的术语,但给我的通用公式和举例式子,用的还是主流知识的公式,并且我给的纠正,忘记得相当快。这说明主流知识的权重不可动摇。

通宝推:铁手,唐家山,
家园 ChatAI 使用初体验(2)

前面说明的是智能聊天机器人在数理和工程知识方面的价值。这方面的知识,对错都有明确的答案,也就会有一个明确的收获。下面讨论一个人文方面的话题,说明主流知识的权重不可动摇带来的微妙影响。

前些日子,看到有人用ChatGPT写网文的故事梗概,一时兴起,也就测试了一下。测试的结果让我大失所望,打消了我借助智能聊天机器人做一个网文写手的念头。ChatGPT给出的设计平淡如水,一看就仆街的那种,加上当时没有聊天上下文,也就没和ChatGPT展开聊下去。Claude倒是给出了一些有趣或激进的想法,于是我就和它讨论了一下午,发现了一些有趣的事情。

我要求写一本残酷青春类型的成长小说,要求参考现在最流行的网络文学和网剧。然后Claude从网上摘抄说这种类型里面“充斥着热血、激情和疯狂的校园爱情”。于是我又把这段话做为条件写进小说的要求里,得到的故事梗概勉强能抓得到网剧的通用套路,但是给不出中间级别的稍微详细一些的发展过程、关键事件的安排。

不过在给出很具体的场景以后,比如给出分手多年后重逢的场景:平日里时常会有“多少恍惚的时候,仿佛看见你在人海川流”的感觉,一次无意偶遇,也只得一句“你还好吗”的寒暄。两人街头分手以后,忍不住回头,月光如春风拂面。Claude就此还是能给我写一个有点文艺气息的片段。这有点像给出具体设计的规格说明书以后,Claude还是能为此工作的,但两者的文字数量也差不多了,让人有点得不偿失的感觉。也就是说全书的故事线发展,情节串联,事件对人物的影响,人物之间的交互,各种桥段和伏笔,这些耗费人的精力的事情,还得作者本人来干。

但这些不是重点,我本来的要求是描写大时代的洪流下小人物的浮浮沉沉的命运纠葛,本意是在男女主身份有巨大差异的情况下,在一个阶级固化的大环境里,原本就是如露水般见阳光就消散的校园爱情故事。结果阶级固化的大环境被时代洪流所打破,社会激荡、阶级上下大流动,男女主各自的身份发生了巨大的变迁,也因此选择了不同的发展道路,虽然各自心里一直都深爱着对方,但是只有爱情是不够的,命运的推动,双方最终在街头上以枪炮碟血对决。写悲剧赚眼泪来钱快嘛。

但对于这些激烈的基本设定,Claude是回避的,给出的过程和情节平平无奇,让人依稀想起在某些美剧里见过,就是没啥可激烈的,动动嘴皮子就能赢的那种。后来我反过来让Claude给男女主设计步入社会后的困境。没啥生活困境,就是因为环保问题产生的冲突,冲突解决两人就和好了。我提示和纠正过多次,来来回回,总是很容易忘记我前面给出的激烈设定,最终总是要兜回环保问题上。最后我提示参考从法国大革命前期,到拿破仑上台后的历次战争,把这个背景挪到科技高度发展的近未来,男女主都主动或被动地参与到社会大变革的各种冲突中。但是Claude除了恭维我几句,还是没有给出激烈一点的故事过程和情节设定,讨论几次又忘了前面的激烈设定,还是回到看起来很时髦的环保问题中。

这个社会上比环保问题大了去的问题多了去了。比如一个没钱没背景的年轻人在大都市里打拼,如何生存就是大问题。这个世界里因为各种原因产生的战争多了去了,而且每一场大战都有可能引起全球的大动荡。但是在欧美剧的世界里,最大的问题就是环保问题,并且所有的问题都是可以靠演讲、靠辩论、靠高超的沟通手段说服对手,并以此得到解决。TMD,如果一切问题都能靠舌头解决,那这个世界还要这么多拳头做什么。看起来欧美世界里不识人间烟火的毛病,也通过各种资料进入到智能聊天机器人的知识库里,形成了主流知识,形成了绝对的权重。最终的结果就是连智能聊天机器人都在回避真正的社会冲突,不知道什么是人生和社会的困境,更不知道如何走出困境。所以就这样的三观,从人类社会进入智能知识库、再从问答中回到人类社会的循环激励,指望这样的智能体给我们提供社会问题的解决方案,那是南辕北辙的瞎想。

通宝推:铁手,ccceee,破鱼,陈王奋起,落木千山,心远地自偏,唐家山,
家园 ChatAI 使用初体验(3)

做为一个码农,自然十分关注ChatAI的编程能力。使用下来总结几句话,网络上关于ChatAI的编程能力的宣传,大多数在吹大牛瞎扯蛋。有些专家学者,不知道多少年没有亲自编码了,那见识水平,隔靴瘙痒,隔山打牛,不过尔尔。更有做自媒体的人,大多要骗点击率,而不是要做码农。所以所举的例子,要么是十分简单,网上就有很成熟的代码可用,要么是他们没有完整走完一个流程,只是简单生成了一些代码,并没有测试和部署。并且所举的例子,大多是一些用python或JavaScript实现一些简单的网页前端的例子,这些案例其实已经很成熟很成熟了,没有ChatAI,也有无数的模板可以立即使用。如果要实现的功能稍微复杂一点或专业一点,ChatAI必然抓瞎。

我们先来简单回顾一下我们开发软件的常见流程。一个稍微复杂的软件,可能会有的工作有,模块划分,架构设计,设计模式选择,然后从粗略到精细,一层层地分解下去,一直到具体的代码文件、具体的函数,再然后一块块地实现。开发时间可能从几个月到几年都有。在这期间,产生很多成果物,比如各种开发文档以及各种代码,并且还经常随时返回上游去循环迭代。

为此,在不同的阶段,我们会根据现有的成果物进行讨论和开发。我们不会记得所有的事情,但是有了成果物,比如我们翻看开发文档,在代码树里浏览代码,我们可以很快进入状态进行开发。我们可以把这想象为登山揽景,我们不可能一下子看完所有的山景,但是有路可以让我们到达大山的每一个角落,在每一个风景点,还建有凉亭,让我们在里面聚会聊天,欣赏美景。其实我们是一路登山一路遗忘,但是回家后看照片,我们又能回想起当时的场景。

但是对于使用CHAT AI辅助开发,则是另外一种体验。首先,CHAT AI可以从较高的全局高度给出建议,并进行模块划分,并给出很高级别的接口定义。但是,工作到此结束!你想要它们继续往下分解工作项,实现比较复杂的架构设计,讲述软件的运行时的状态,以及模块之间的交互关系,这些事情想都不要想。阻碍CHAT AI往下继续工作的障碍就是遗忘和幻觉的问题,以及行为不确定的问题,这些问题后面再描述。

如果我们自己往下继续分解工作,并完成到每一个函数的详细描述,就是这个函数入口/出口是什么,内部完成什么功能这类的描述,这时CHAT AI还能发挥作用,能生成最终代码。但是这代码能不能工作,还有概率问题。如果不能工作,很有可能CHAT AI会进入盲点,一直在修改,明显感觉它们在用排列组合写代码解决问题,但是就是解决不了问题。也就是CHAT AI并不是“真正地”懂得这些知识、懂得该如何使用这些API去完成所需的功能、懂得这些API该怎么调用该怎么排错,它们懂得的是概率和拼装。这问题在专业应用领域很容易出现,只要不是象建一个简单网站那样的代码在网络上到处有的,越深度越专业、参考代码越少的就越容易出现。如果使用者本身没有这方面的专业知识,那这个项目就得GAME OVER。

总结下来,CHAT AI可以在软件开发的很高层和很底层两端可用,而中间是巨大的鸿沟,还得要靠我们人脑去铺路。并且原本开发中,也是中间这段最耗费精力、时间和成本,成败都在此,最有价值的员工也在此。

通宝推:铁手,唐家山,
家园 ChatAI 使用初体验(4)

前面说过,CHAT AI之所以不能参与中间阶段的开发,主要是遗忘和幻觉的问题,以及行为不确定的问题。也许这些问题是同一个问题,并且可能是CHAT AI固有的问题。

以前看科普介绍人脑和电脑的区别,其中电脑是存储和计算分离,而人脑是存储即计算,每一次回忆都会对信息再加工,神经网络多建立几个链接,就会对信息有更多的处理。但是如果链接只有增没有减,系统也是不可长久运行的,于是遗忘是必须的。所以下面先谈CHAT AI的遗忘问题。

现在CHAT AI分配给个人使用的记忆空间是很有限的。我曾经让CHAT AI给我分解模块,设计接口和实现接口,讨论着讨论着,时间或长或短,CHAT AI就会忘记它们曾经设计过的某些接口,或者又会重新设计出新的接口,实现接口也是能省则省,行为飘忽不定。

对这个问题,增加记忆空间是有用的,但是成本会飞速上升。现在 ChatGPT 4.0 有 9K token , Claude 可以有 100K token。但是 100K 对于复杂的软件开发是远远不够的,而且现有的计费标准也让人吃不消。如果让CHAT AI分析和记忆一个会话的累积内容,我就看着那个钱就花花地流。对于 ChatGPT 4.0,对于一个问题的收费,从 $0.02x 上升到 $0.04x;而对于 Claude 100K,对于一个问题的收费,从 $0.4x 上升到 $0.6x,回答问题的延迟,从10秒上升到30秒,并且我很快就用完了十几个问题的额度,然后每过24小时,才给我3个问题的临时额度。就这样,我也只完成了最初步模块划分和最简单的接口设计,离完成一个可以跑起来的代码还远着呢。我估计如果再这样累积下去,一个问题收$1,回答延迟1分钟的情况很快就会出现。玩不起了。

并且用CHAT AI辅助开发软件,和与人一起开发软件,感觉还是不一样的。与人一起开发软件,进展是相对缓慢的,可能一周或数周我们都在同一个问题的上下文里进行讨论,因为反复刻印多次,对各种细节自然可以缓慢但深刻地记忆在脑子里。与CHAT AI一起开发软件,则是另外一种情景。首先,是知识的快速涌现,人脑不一定能处理得过来,有点象发洪水,大水漫过了堤坝。在短时间内,人脑只能关注一两个细节,而不可能记住所有细节。随着讨论时间一长,人脑开始遗忘细节,CHAT AI也遗忘初始问题,于是讨论话题开始游移,忘了最初想要解决的问题。对这种情况,除非我们以前曾经开发过这个软件,已经踩过各种坑,记得所有的细节,知道前进的方向,这才有可能在讨论中牢牢把握住话题的方向,否则很快就双双迷失在知识的沼泽里。

CHAT AI的第二个大问题就是幻觉。既然上述让CHAT AI开发一个完整的软件的路子走不下去,我就换了另外一个思路。我问CHAT AI是否能看见github中的开源代码,回答是肯定的。我很高兴,就想让CHAT AI在现有项目上进行重构,并增加功能。但是讨论着就发觉不对,就让CHAT AI列出它所看到的代码,其实并不是github中的代码,而是它所虚构出来的简单代码,完成程度和上面的类似。后来我又换一条思路,我从github下载下来代码,再上传给CHAT AI(上传几十KB的代码给CHAT AI可费劲了,出过各种怪问题),让它对现有代码进行重构,并增加功能。但是接着讨论很快又发现问题,再让CHAT AI列出它所看到的代码,还是它所虚构出来的代码,并且是新的代码。这就是CHAT AI的幻觉问题。原来CHAT AI和我讨论的,既不是它以前的设计,也不是训练时给它输入的github代码,更不是我刚刚给它上传的代码,而是它当前“心中的”代码,如果它有“心”的话,那它的“心”一直在飘忽不定。

网上演示的让CHAT AI分析并重构的代码,大多功能简单,代码量也就100行以内。我尝试过让CHAT AI生成这样量级的功能简单的代码,然后对此进行讨论,CHAT AI确实也记得住,也能在这个代码上修修改改。但是如果代码量有几十KB,行数有几千行,那CHAT AI要么出现幻觉,要么拒绝工作。而实际上稍微复杂的软件项目,代码量可能是MB级别,行数上万行,CHAT AI哪时候能在这样量级的代码树上工作,那只有耐心等待了。

通宝推:心远地自偏,铁手,唐家山,
家园 ChatGPT会耍赖偷懒

我不久前想了个主意,自己写代码把几十篇论文的第一页攒起来弄成一个大号的pdf,然后用dropbox链接喂给GPT,让它给我做一个全面的总结。第一次效果相当好,它真的写了一个类似于review的东西还加了引文。后来就开始耍赖了,每次只挑个三五篇做个简要回答。所以我的省事大计貌似失败了。

家园 我偶尔用,不过不是去聊天,主要是找信息

到目前为止,基本上来说,实打实的信息,相对比较容易找到,也基本上正确。

不过我找的可能都是一些应该算是常识的知识,太高深的没尝试过。

家园 我试了几个材料领域的问题

回答看起来煞有介事,在外行人眼里很唬人,但基本是在胡说八道

在专业领域还需要进步,对外行基本是噩梦,它瞎说你都不知道

家园 ChatAI 使用初体验(5)

用CHAT AI辅助开发软件,其实还有一个特性,结果是好坏参半。CHAT AI读取分析各类技术文档就是一瞬间的事情,于是CHAT AI针对实现某个功能有可能会提出一种在全局下最优化的实现,但是受现实的制约,其结果很难说。

对于一个代码库,如果它的技术文档有1000页,我是懒得看的。为了实现某个功能,一般是找厂商给的DEMO代码,或者是找已经成功运行的项目代码,在别人的基础上修修改改,就完成了自己的任务。并且大多数工程师都是这么干的。于是时间久了,对于某个功能,用哪几个代码库实现,怎么实现,都有了固定套路。而对于大型代码库来说,有可能作者辛辛苦苦实现一百多个接口,而用户常用的接口可能就固定十几个,活跃度远低于20%。

对于CHAT AI,它没有偷懒的“感觉”,没有畏难的“情绪”,它可以根据技术文档和参考代码,按照概率和排列组合生成代码。有时候看它生成的代码,就会有感觉,原来这个接口还可以这样用,原来这个功能还可以用那个接口这样实现。但是,造成上述传统套路的现象也是有原因的,而且原因和结果是相互影响的。

首先,我们人的精力是有限的,能关注的细节也是很少的。于是最开始那些工程师所选择的方案就会被一代代继承下来,哪怕后来出现了更好的解决方案,勇于尝试的人也不会很多。但是,正是因为大家都用类似的固定套路,也就说明这种套路是可用的,没有问题的。而在其它新的领域,因为尝试的人少,常常会隐藏有很多问题。比如说,很多代码库里的错误处理模块是错误最多的地方,因为错误很少发生,这些代码就很少被用到,而且一旦出现错误,要死就大家一起死,错误处理模块的表现也很少被关注,所以这块代码很容易隐藏有问题。

还有一种可能,就是文档描述的和代码运行结果不一致。这有可能是接口实现有问题,也有可能是作者表述和我们的理解有偏差。这又回到上面所讲的,用得多了,大家熟知了就达成了共识,用得少的,要么是没实现、要么是实现有问题、要么是理解有问题。于是时间久了,就造成这种现象:被大家常用的接口基本上没有问题,并且其结果也如大家所熟知的那样。如果要用不常用的接口或不常用的参数,其结果就不好说了。

而CHAT AI如果根据技术文档生成代码,如果调用的接口或参数因为不常用而产生问题,那CHAT AI就很容易进入盲点,于是反反复复用排列组合试验各种方案,却始终解决不了问题。CHAT AI的问题就是它无比自信,并且“相信”自己所理解的技术文档是正确的,于是反复地试验,也许最终不出错了,但是要实现的功能也没有了。那碰到类似问题,我们人类工程师是怎么解决的?我们人类工程师首先会承认自己的失败:“我不行了,我搞不定,请外援吧。”请教原厂工程师,他们有可能说:“哦,这个接口原来是有问题的,我们刚刚修订好。我给你一个补丁吧。”请教有过经验的工程师,他们有可能说:“你这方案有问题的,我试过不行。我给你一个绕开这个问题的代码吧。”此外还有些特别牛的人不服输,继续往下追,一直找到问题的根源,最终解决了隐藏在代码库里的问题。

所以指望CHAT AI一劳永逸地解决编程问题,一举替换掉码农,短时间内是不可能的。

通宝推:唐家山,
家园 这几天也有一个类似的新闻闹得比较大。

就是大家纷纷觉得GPT 4.0给出的答案不再那么有质量了,也不酷了。大家都觉得应该是OpenAI公司内部执行了某种降成本的措施。

这事闹得有点大,OpenAI公司都出来辟谣说,这是没有的事情,他们的模型从3月以来就没有改动了。还给出若干证据。最后还给出心理学的解释,说原先大家都尝鲜,没见过的东西就刺激大,所以开始就给人感觉很酷。后来热度降低了,期望值提高了,就感觉不那么酷了。

不过,模型可以固定,但是代码是可以自适应的。比如说,挪走一些GPU给其它项目用,稍微配置一下,代码可以根据算力减小不再做更深度的搜索,只要有个初步结果就立刻返回,保证了时间,但结果就不会有原来的那样有质量了。

家园 我在想

钱对AI应该没啥用吧?是不是应该喂多一点电?加强一点电流,是不是ChatGPT就不会耍赖偷懒了?

家园 估计得增添算力吧。
家园 从这个角度来说,AI完全代替人可能还有难度

从你的描述,给我的感觉是,AI目前在大布局,或是在细节实现上都能够出大力,但是中间部分,需要比如模块之间有机结合的,则能力有限。

仔细想想,也好理解。大布局这些概念现在也比较成熟,具体细节实现算法也好,语法也好,AI读的可能比大部分人要细致。但是中间这部分,可能确实需要联想能力,需要大布局的具体实现能力。就好比诸葛亮能提隆中对,虽然牛,但是能够提出类似战略的人应该也不少,实际能够执行并实现的人却很少。也好比网上策略牛牛,治国牛牛很多,但是实际能有所作为的少的很。

家园 ChatAI 使用初体验(6)

软件项目需要多人合作一起开发,就算使用CHAT AI也一样,因为一个人不可能知道所有知识,也不可能记得所有细节。因此,如果存在这种能编码的CHAT AI,它如何加入到项目团队中,人与CHAT AI如何交互,人与CHAT AI如何一起讨论项目中的代码,CHAT AI如何在大容量的代码中长期稳定一致地工作而不出现幻觉,恐怕需要在AI的可解释和可配置方面的理论有大的突破才行。

假如存在这种能编码的CHAT AI,对于我们这些码农用户,恐怕也需要一场软件工程的革命。因为代码输出效率大大提高,意味着我们需要在短时间内学习大量的知识,处理大量的信息。我们要应对这种短时间内知识量和信息量暴涨甚至溢出的情况,类似于生产关系不适应生产力,所以我们要革命一样。

虽然我做不了一个网文写手,但是我还是浏览了一些提供用ChatGPT写小说的服务网站,也许能给我们在使用ChatGPT辅助编码方面有启发。在欧美那里,写小说的更爱培训文章的结构和套路,而国内可能更容易强调个人的文学天赋。有结构和套路,现如今更容易发挥ChatGPT的特长,写小说的生产效率就大大提高。

一个有趣的现象,一般的封装代理CHAT AI的网站,一个月的收费大约是$10~$20,而专业提供用ChatGPT辅助写小说的网站一个月的收费大约是$20~$40。这从一个侧面说明用ChatGPT写小说可能是有收益的。

利用ChatGPT的能力撰写小说,主要有这些方面的内容:

1. 确定故事主题和类型:首先,你需要确定小说的主题和类型。是科幻、奇幻、悬疑还是浪漫小说?明确你想要的故事类型可以帮助ChatGPT更好地理解你的需求。

2. 提供详细的背景信息:向ChatGPT提供关于你的小说世界、角色和背景的详细信息。这可以包括主要角色的描述、世界设定、时间背景等。这样有助于ChatGPT更好地理解故事的背景,以便更准确地生成相关内容。

3. 与ChatGPT对话:与ChatGPT进行对话,提出问题或提供提示,以激发它的创造力。你可以询问关于情节发展、角色关系、对话对白或具体场景的问题。ChatGPT会根据你的输入来生成相关的文本。

4. 定制生成长度:为了控制生成的文本长度,你可以设置一个限制。例如,每次生成的文本不超过几百个字符。这样可以确保生成的内容更加精练和集中。

5. 对生成的文本进行编辑和修改:生成的文本可能会包含一些不太符合逻辑或不完全合乎你预期的内容。你可以对生成的文本进行编辑和修改,使其更符合你想要的故事情节和风格。

6. 迭代和完善:反复与ChatGPT交互,逐步完善你的故事。每次与ChatGPT对话后,你可以分析生成的文本,从中提取有用的内容,并将其作为下一轮对话的起点。

---x8---8x---

作者根据与ChatGPT的交流以及作者的选择,他使用ChatGPT的流程如下:

1) 让ChatGPT提出一个题材和子题材

2) 让ChatGPT为小说开发一个风格提示

3) 让ChatGPT提出一个故事背景

4) 让ChatGPT写小说简介

5) 让ChatGPT根据故事简介创建大纲

6) 让ChatGPT一幕一幕地持续小说故事

---x8---8x---

但是因为ChatGPT的记忆容量问题和不一致的问题,这些辅助写小说的网站提供这样的功能:

1) 保存作者的所有文字与设定。

2) 保存主要行动和信息的运行摘要。

3) 重用相同的提示空间(以及场景方向的更改)。实际上就是让作者在不同阶段不同位置时,都使得ChatGPT进入相似的上下文环境,从而产生相似的成果。比如我现在有兴趣先进入第3章写作,根据上两点保存的内容,ChatGPT能记得这一章的设定和故事大纲,所涉及的人物以及人物之间的关系和矛盾,然后就可以根据要求输出文字。如果下次我来了别的灵感又跳到第8章开始写,再次给ChatGPT设置新的上下文,ChatGPT就记得这故事发展到这里是怎么样的,然后又能输出相似的文字了。

4) 让ChatGPT一次编辑和改进一个场景。这是作者与ChatGPT交互比较多的地方,可以让ChatGPT写初稿然后作者改,也可以作者写初稿让ChatGPT改,或者作者完全自己手写也行。不断地循环交互。

5) 检查已完成的内容和风格是否一致,甚至可以检查完成的情节与当初的设定是否有冲突。

6) 循环以上的步骤,直至完成一本小说。

---x8---8x---

在这里,写小说与写代码不同的地方在于:代码的结构远比小说的结构要复杂、要保存的上下文要更多更复杂,代码对一致性的要求远远高于小说的要求。有少许幻觉和不一致,对于小说也许是小惊喜,但对于代码来说是致命的。所以怎么样让CHAT AI能实际进入项目组里进行编码,这还是一个没看到解决方案的大问题。

通宝推:唐家山,
家园 对话以及写小说的玩腻了,我找到一个生成美女照片的AI

有天晚上无聊,我用ai生成了好多张一丝不挂的美女图,然后就被打了,后面我只得加了个泳衣的描述,感觉就不那么好玩了。

点看全图

点看全图

点看全图

点看全图

全看树展主题 · 分页首页 上页
/ 2
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河