五千年(敝帚自珍)

主题:chatGPT是我朝面临的巨大挑战!应鼓励天才和尖子,刻不容 -- 玄铁重剑

共:💬92 🌺484 🌵17
分页树展主题 · 全看首页 上页
/ 7
下页 末页
    • 家园 才3个月时间,GPT-4能力进化很快。 -- 有补充

      2个月前,GPT还要靠文字说明来生成程序,现在给张图就可以生成程序了。

      GPT-4王者加冕!读图做题性能炸天

      https://finance.sina.cn/tech/csj/2023-03-15/detail-imykxazi3575366.d.html

      要求GPT-4解出巴黎综合理工的一道物理题,测辐射热计的辐射检测原理。值得注意的是,这还是一道法语题。

        

      GPT-4开始解题:要回答问题 I.1.a,我们需要每个点的温度 T(x),用导电棒的横坐标x表示。

        

      随后解题过程,写公式,全程高能。

        

      Greg直接在纸上画了一个潦草的示意图,拍个照,发给 GPT说,给我按照这个图写代码,就写出来了。

      通宝推:exprade,
      作者 对本帖的 补充(1)
      家园 值得担心的是AI用于军事,我们没有太多时间可以浪费了 -- 补充帖

      现在AI能力进步很快,2月前需要文字仔细说明才能写程序,现在给张框图就可以写程序了。

      我们不能忽视AI在军事上的应用,比如说AI用于空战,

      一旦成熟,在兵种协同、战术配合、后勤补给上,中间层级指挥调动自动化数字化,无缝衔接,对于不采用这种系统的对手来说,可能会做到碾压态势。

      希望国家赶紧理顺科研机制,没有太多的时间可以浪费了。

    • 见前补充 4874036
    • 家园 聊天狗屁通就一个市场营销

      主要是为了圈钱和为微软的 Office+Bing 续命的。没必要“我陷思”+“定体问”。

      类似聊天狗屁通的,中国早就有。“九歌”写的诗词比聊天狗屁通好。“彩云小筑”写的小说比聊天狗屁通好。真用聊天狗屁通来搞科研,可能我们会见证历史上第一位 AI 民科的诞生😁

      通宝推:张新泉,大胖子,
      • 家园 你们不是搞科研的,根本不知道这玩意有多强

        这玩意完全打通了成山成海的论文和科研工作者之间的距离。

        我再也不需要去一个个翻文献一篇篇文章读过去了。

        只要是人类科研里有过的东西,我只要问他简单的问题,他就可以给出相关的答案附带理论分析附带原始文献。

        综述?再也没有什么综述了!

        国内再TMD靠综述刷引用的文章都死定了。

        再想想人类平时搞科研的数据库都是哪里来的,再想想国内的杰出工作都是在哪些国外期刊上发表的,再想想各种数据的质量对比。

        这就是Wikipedia打百度百科

        ACS/RSC/爱思唯尔/Springer/Wiley这些出版社打中国知网!

        • 家园 国外期刊中国读不到吗

          莫名其妙

        • 家园 只会让科研变得更难

          目前这个所谓人工智能好处很多人都是没根据瞎设想,但坏处是明显可见的,其自动化批量拼凑内容,将导致将来要从事科研的人,将花费比之前更大的时间和精力来筛除掉虚假部分,将让科技研究变得极其低效。就如我们今天面对垃圾信息刷搜索引擎排行,导致我们找信息需要消耗极大精力去消除这种影响,现今搜索引擎已经远不如十五年前好用。

          至于说现在要相关搜索多难,将来只会更难,现在你只需要面对真实的期刊文章,将来要面对的就是海量虚假信息+现有的期刊文章,为了分辨真假,同样要一篇篇过去。

          通宝推:潜望镜,澹泊敬诚,杨微粒,孟词宗,
          • 家园 这对美国科研可能影响更大

            你说得非常对,GPT将极大地增加科研垃圾的产出。科研本来是一个进入宝库找法宝出来用的事情,现在宝库变成了垃圾堆,你得先进去翻来翻去找出宝贝,然后还得检验一下它是不是宝贝,最后才能拿来用。

            但荒谬的是,这事可能对美国的不利影响更大。因为中国科研本来就有一个超级碳基分布式GPT在,大家都习惯了,反而影响不大。中国也有更多的人力去翻垃圾。

            历史真是没有终结啊。

            通宝推:菜根谭,
          • 家园 似乎你说反了

            对付虚假信息怎么操作,不是应该考据党么。 这个GTP的最大本事就是信息量大的基础上还会逻辑推理,话说这个能力倒是一个迷还不理解是怎么做到的。能够总结归纳外推反推,加上海量信息,再多的虚假信息也禁不住一个执着的考据党兼具备严谨逻辑能力的GPT。

            当然,如果控制GPT的人故意制造虚假信息,比如在复杂推理过程中使用错误逻辑,人类则更较难防范,毕竟以前对手是人,现在是人与GPT,鉴别对方虚假信息能力高下立分。 所以你的结论需要看对象,对于GPT支持的科研是如虎添翼,对于GPT反对的科研则事倍功半,这是一个很可怕的前景。

            GPT必须要有对应级别的对手来维持恐怖平衡。

            • 家园 gpt并不会逻辑推理

              他的思路和stable diffusion非常像,都是抠掉一部分信息让AI来猜。

              GPT的预训练过程是通过训练大量文本数据来实现的,它使用了一种叫做masked language model(MLM)的技术,即在训练过程中,模型会被要求预测一些被mask掉的词,从而学习到文本的语义特征。在训练完成后,模型就可以用来处理文本,如文本分类、问答等。

              让他做个鸡兔同笼,可能就瞎做。

              通宝推:唐家山,
            • 家园 人工智能判断的标准恰恰是可以杜撰的

              人工智能的判断标准,开始是人为判断的,就是最古老的搜索引擎,只要关键字对,就全给上,不管是否真的有关。

              接着,就是新型的搜索引擎,典型的是谷歌,利用关联连接,这和学术文论的引用率是一致的,使得信息的关联度大涨,信息正确率大幅提升。然而,后来的搜索引擎优化技术,使得这个方法也失效了,就是海量的无关垃圾信息,靠人造的关联度,使其占据了主要的搜索位置。

              现在,基于新一代人工智能出来的这个,是可以学习进化的,除了原先的自带模式,也可根据多个行为关联而学习。这也是有漏洞的,就是反复错误学习,可以令其失能。而这用机器自动批量做,比人类强得太多了。

              就比如中文论坛里出现的海量1450,其只是几个关键词触发的批量处理程序,就已经造成了整个中文互联网海量信息失衡,舆论方向乱窜,比如去年河里的新冠讨论,自动处理程序不间断发帖回帖,全是一个讨论各种角度反复说,让真人辩论得不亦疲惫乎。如果其再加入学习进化模式,那原先反复刷固定文本片段的行为,将进化为自动演进文本,到时人类和人工智能辩论,绝对可以被气死。

              考据?你要考据过就知道寻找一条谣言的信息来源有多难了,何况人工智能加了几道弯,相当于加了密。

              换到学术领域,同理。现在的人为制造的垃圾引用关联,已经造成了很大的精力浪费了。楼上那位从事学术的,说他只需提交需求描述,人工智能就能给他提供有效的建议,这是 幸存者偏差,他刚好遇到几个他平时没注意的情况,他是如何判断是有效的?当然是平时自己的经验积累,其实他用原来的搜索引擎用合适关键词也是能做到的。但如果是一个学业未精的呢?其如何判断人工智能提供的意外建议是有启发性还是虚假的?实际上还是要经常遍历论文,积累到足够的经验了,才能做到楼上所说的效果,但当经验积累够的时候,有时候仅凭片段描述或者无关的一些信息,也能获得巨大的提示,这是人的能力提升,不是人工智能的能力提升。

              另外,围棋人工智能,上个月就被一个业余棋手用不断下无理手的办法,14:1,给干翻了。

              对其模式的优点和缺陷足够了解,才能知道其能力有多强,而不是瞎激动。

              通宝推:方平,心远地自偏,脑袋,青青的蓝,青青的蓝,唐家山,桥上,孟词宗,
              • 家园 有这回事?

                围棋人工智能,上个月就被一个业余棋手用不断下无理手的办法,14:1,给干翻了

                是谷歌的alfa?还是腾讯的绝艺?

                • 家园 AI:KataGo

                  只要对人工智能有充足了解,就知道这不是什么意外,只是有没人闲得无聊去真的这么做而已。

                  报道时间:20230220

                  基于AlphaGO和AlphaZero,由哈佛大学AI研究员David J. Wu开发的顶级开源围棋AI:KataGo。

                  在实际对局上,Pelrin 通过时不时将棋子落在棋盘其他角落的方式,成功分散了 AI 的注意力,让它忽略了越来越危险的局势,最终输掉比赛。

                  在2016年李世石唯一赢下AlphaGo的一局棋,就向人们揭示了AI棋手的弱点。

                  在那场对局中,李世石在第78手走了一步超出AlphaGo计算的棋,这似乎导致了AI出现Bug,在之后频繁失误,最终输掉比赛。

                  而从后来AI研究人员的研究来看,寻找AI棋手的盲点,通过针对性的战术将其击败确实是一个行之有效,并能够复现的策略。

                  但讽刺的是,这一战术可以击败顶尖的围棋AI,但却无法击败任何一名有一定经验的业余棋手。

分页树展主题 · 全看首页 上页
/ 7
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河