五千年(敝帚自珍)

主题:【原创】我的chatGPT的使用体验 -- Swell

共:💬285 🌺1764 🌵12 新:
分页树展主题 · 全看
/ 19
下页 末页
  • 家园 【原创】我的chatGPT的使用体验

    我应该算是chatGPT比较早的用户了,大概十二月份就听说了,过年前后就一直在用。我的体验是:很震撼,真的很厉害。我认同它差不多是搜索引擎之后的又一个里程碑的事件。

    前几年也跟风学了机器学习,当然断断续续,水平很差。就算小小入个门吧。我对机器学习的粗浅理解就是:

    往最简单了说,就是假设一组变量和另一组(或者另一个)变量之间存在着线性关系。这个关系的具体系数通过和实验数据(真实世界的数据)拟合(比如最小二乘法)的方法进行确定。这东西念书的时候就有,叫做神经网络。做材料学实验,特别是一些疲劳相关模型的时候常用的方法。

    但是后来机器学习对其的改良,从我的角度,主要就是从一层到多层,这样可以用几个简单的线性关系去拟合一个非常复杂的非线性关系。严格来说只要层足够多,变量足够多,我可以去描述一个异常复杂的关系。但是相对的,计算量也是指数的上涨。搞计算的人都懂,所谓的只要计算能力足够,我可以解决任何问题。这个说法本身就是毫无任何意义。 所以传统的机器学习,虽然说的很多,但是大多数还是应用在“聚类”上。比如图形识别,对你喜好的归类等等。已经深刻的改变了我们的生活,但是总感觉这个机器学习离人脑还是有一定的距离。

    后来的强化学习和监督学习,我没有深入去了解。但是大概机理我认为就是对参数的拟合过程中加上大量的限制条件。换句话说,不再让你在整个空间进行搜索了,而是限制在很小的一个空间里。好处当然就是更加的高效,而高效在计算领域等同于问题的复杂度可以进一步提升。而且代价可能是微乎其微,因为本来大量的搜素本来就是无效的。这渐渐的机器学习就露出獠牙了,比如我听说的蛋白的三维构行问题就是一个好的机器学习问题。

    chatGPT我的体会:最近经常写一些python。由于不是很熟,所以试试用chatGPT去找bug,基本八九不离十。特别对我这个好多东西记不住的人来说非常好用。 我看了别人举的一些例子比如生成一些表格,甚至我觉得未来可以问一些比如我该如何保税,哪里的房子你建议投资等问题,应该都不成问题。换句话说,过去的google或者百度智能帮助你找到你想知道的内容,现在机器学习可以进一步的帮助你理解这些内容之间的联系。这就和人脑的距离大大拉近了。

    今后要把灌水的时间多用在学习机器学习上面了。

    通宝推:strain2,本嘉明,履虎,桥上,漂漂2号,脑袋,宝特勤,不远攸高,无竞,
    • 家园 小明的爸爸是大明

      我对”生成式“的粗浅理解:

      金庸打算写一本叫《天龙八部》的小说,然后在novelGPT上输入”写一部名字叫《天龙八部》的小说“,然后一部《天龙八部》就诞生了。

      这个比喻实际上是来源于公司内的一个玩笑:10几年前公司写过一个代码生成系统,当时某大佬开玩笑说最好只要把软件名称输入进去就把整个软件生成了。

      玩笑归玩笑,当然我们都知道这是不可能的。仅凭一个书名很难生成一本和自己想象中差不多的小说,所以要提供更多的信息,比如:

      第一步输入:书名叫《天龙八部》

      第二步输入:男主叫段誉,虚竹,乔峰

      第三步输入:段誉是大理国王子

      .....

      这样一步一步下来,得到理想中的小说。

      这里用小说来说明,还有一个用意:小说是虚构的,chatGPT的输出也是虚构的,也就是”一本正经的胡说八道“,AI并没有真正的理解小说想表达什么。当然有些人认为算法中的Transformer的注意力机制已经属于意识,然而也有可能是反过来:”智能/意识“的标准又一次提高了,就像”计算“现在已经不被认为是”智能“的一部分。维特根斯坦晚年就认为,哲学不过是”语言游戏“,chatGPT等大模型的出现可能印证了他的这种说法。

      举个简单的”一本正经的胡说八道“的例子:

      输入:小明的爸爸是大明。

      输出:小明的妈妈是大红,大红的丈夫是大明。

      这里”大红“,”妈妈“,”丈夫“都可以看成是”生成“出来的,而且逻辑上也是完美的。但是,”大红“这个人可能是虚构出来的,实际上对AI来说”大红“替换成任意人名逻辑上都是正确的,然而如果没有明确输入这个信息而是靠系统生成的话,就成了”一本正经的胡说八道“。

      前不久美国有个律师打官司,chatGPT一下给出6个案例,然而拿给法官一看,6个案例包括引用都是虚构的。这也说明chatGPT真的不是”搜索“而是”生成“。

    • 家园 我问ChatGPT

      给我写段标准查新的代码,他告诉我没有相关知识。

      简单输入标准查新,他给出了标准查新的定义和方法,由此应该可以猜出,它还是基于知识库的搜索

      • 家园 现在整个GPT外围工具高速发展中

        写程序,编瞎话这些问题都可以很不错的解决了。 你可以去找找AutoGPT, LangChain这些工具,好多开源的。 Vector 数据库也沾光GPT一炮而红。现在做大模型不是重点了,如何使用大模型已经开始出现产业链了,一大堆新的startup,整个社会都动起来了,今年之内所有公司都有上马项目使用大模型的计划,没人敢被拉下 😁

        反而最近大众公开的OpenAI的GPT越来越傻了,已经闹到成新闻了,可能是配合社会上的呼唤监管,OpenAI国会作证等一系列动作。

        • 家园 AI究竟能不能干点正事

          最近想到轻微交通事故的钣金喷漆快速处理。

          钣金喷漆是门技术活,很难被机器代替,从钣金、到打腻子、到调漆喷漆,这一系列流程,真正能做到的还得靠人工。

          由于变形的不确定性、变形力度不均、轮廓失圆等机械化操作无法通过同一编程设计处理,也就是说同一个事故车,有多处变型,如果通过机械化操作需要很多次编程,就这一点就不可能实现,所以钣金方面实现机械化作业是不可能实现的。

          • 家园 格局啊,兄弟

            吸取日本人一而再再而三被甩下的教训吧。工匠精神应该学没错,但也不能仅限于此。解决问题可以是问题本身,也可以是产生问题的来源。 封贴删帖的行为早就对此有了深刻理解,做实事的人怎么可以一根筋呢。

    • 家园 华为的盘古语言大模型即将发布

      据说参数量超过了gpt3.5

      看看水平怎样吧。

    • 家园 强化学习和监督学习不在一个分叉上

      最初,深度学习和强化学习是分开的。

      深度学习就是搞一个训练数据集,通过回溯算法把一堆(可能分好几层)参数算出来。如果,提前给训练数据集做了标注,那就是监督学习。

      强化学习是另外一条路:首先对问题的搜索空间给予数学定义,然后在搜索空间中通过试错的方式寻找(最)优解,每步迭代时,大概率是采用以前搜索时找到的当前最优解,小概率是在没有搜索过的空间中去碰运气。因为是大概率采用当前最优解,所以叫强化学习,也因此容易掉进局部最优解的陷阱中。

      到阿尔法狗的时候,是在强化学习的基础上,用了深度学习。每对局一盘就是强化学习的一次迭代,迭代的目的就是搜索棋盘每个格点的价值。同一个空间点位,有没有旗子算不同的格点

      通宝推:方平,Swell,
      • 家园 确实不是一条线上的

        监督学习一般和非监督学习比,通常指训练数据有没有标定(Label)。而强化学习实际上类似仿生,通常是AI智能体和环境交互的过程中学习知识。

        深度学习是指一种技术上实现方式,本质上是为了减少计算量。是的,虽然深度学习看起来系统庞大无比,但和全连接方式比,计算量其实是减少了。计算量和时间允许的话,全连接实际上更简单。但实际上像chatGPT这样的大模型用全连接是不可能的,只能采用一些简化模型,而简化模型深度不够则模型精度就上不去,然而深度一大计算误差累计到后面就造成梯度消失,算法就运行不下去了。近几年在减少累计误差方面有了突破,造成神经网络深度大大增加,远远超过之前的想象,这才能在当前算力水平下支持chatGPT这样的大模型。

        通宝推:唐家山,
      • 家园 一段话把我对程序员的崇拜降低了很多 -- 有补充

        构建元宇宙的主要方法和做影视特效、游戏这些行业几乎一摸一样:设计、建模、贴图、绑定、做表情、动画、配音配乐……最后小区别是影视特效渲染成视频文件,游戏用引擎做成可执行文件,你看到的所有元宇宙相关的视听元素,背后都是大量人力堆出来的………一群996技术民工吭哧吭哧用人力在电脑上填出来的。也就是意味着元宇宙的内容生产是劳动密集型产业,一点都不高科技而且重资产。

        ————

        关于深度学习,如果最终不能总结出来规律,我看题海战术也是白搭。

        作者 对本帖的 补充(1)
        家园 学到一招如何随心所欲地出尔反尔 -- 补充帖

        马斯克批评OpenAI从开源变成了闭源,ChatGPT 成为了微软的赚钱工具,违背了他创立OpenAI的初衷。

        引进一个股东。然后就可以理直气壮的说这是新股东的新要求,不关我事没办法不怪我。

        好像还没有人从这个角度看问题。。。是我太阴谋论了吧,以此类推,所有曾经承诺开源的东西都可以这么玩,包括安卓系统那些。

      • 见前补充 4863546
    • 家园 请问chatGPT的答案是搜索结果还是自生成结果

      看你的描述,意思是它的结果是搜索而来的吗?有网友说:

      真的理解了编程手册,是生成的,不是网上搜的

      如果他是优化的搜索引擎,那么中国同行一两年内就可以赶超

      如果是真的生成式AI技术,那么这就真的是迈出了“一大步”,国内同行得使劲追赶了。

      几个问题:

      一,目前国内AI到什么程度了?能战胜围棋专业九段选手了吗?

      二,chatGPT对辉瑞P药功效的解读,它对这个药的了解只是来自于P药的说明书吧?以此类推,这里将来是个大bug

分页树展主题 · 全看
/ 19
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河