五千年(敝帚自珍)

主题:如果要走向强人工智能,openai的路线根本就是错的 -- 亮子

共:💬91 🌺314 🌵1
分页树展主题 · 全看首页 上页
/ 7
下页 末页
              • 家园 好像出来了个Claud

                拼写不保证对,已经开始向——知道为什么这么做,还要知道为什么这么做就能得出还算满意的结果——方向进化了。

                我以上说的是不是对,我不知道,还得向您请教。

                • 家园 谈不上请教 -- 有补充

                  不也不是搞AI算法本身。直觉无论谁家(你说这家是aws)出的,都是同一代理论水平,工程上和数据源的差异而已。

                  另外一个感觉,现在大模型已经把ai搞成一个贵族运动,昂贵的贵,换句话说参与的门槛越来越高,小圈子游戏,也就很难有创新,这波浪潮快到顶结束了,而不是很多人期望的AI大杀四方,取代人类。

                  通宝推:桥上,
                  作者 对本帖的 补充(1)
                  家园 大佬在博鳌的看法很合我胃口 -- 补充帖

                  【AI领域专家:现在人工智能方向是错误的、不可持续的-哔哩哔哩】 https://b23.tv/TwqwHqk

                  3月27日,在博鳌亚洲论坛年会——《AIGC改变世界》分论坛上,《人工智能:现代方法》作者、加州大学伯克利分校计算机科学系教授斯图尔特·罗素表示,当前的人工智能是错误的方向。中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤表示,不改变现在的算法,AI是不可持续

                • 见前补充 4972365
      • 家园 其实我们人类只能理解线性

        现代数学的发展,线性理论比较完备,线性代数,线性规划,线性算子,线性泛函,都研究得通畅,然而一到非线性领域,各种不通。一般的研究思路,就是局部线性化,或者近似。

        所以说人脑有什么高级功能,有多么先进,恐怕真不见得。很多人什么察言观色,其实跟打架一样,观察和快速预测,快速反应。而打架是动物普遍的技能,不需要多么高级的大脑。

        蚊虫叮人的过程,快速盘旋,定位,攻击,撤离,而耗能量极小,这不应该说是智能的范围。蚊虫有多少大脑容量?

        • 家园 与其说线性化,不如说抽象化

          只是线性的东西最容易被抽象和理解而已。

        • 家园 我倒是觉得,因为我们只会线性

          所以拿着这把锤子把所有问题都用敲来解决,敲一次解决不了的,就继续敲…世界的门还没有摸到。世界不是线性的是显然的,不然数学就不会被迫打补丁从整数系扩到复数系,从多项式到超越函数,虽然现在还远远不够解释世界。

          现在的AI计算量这么大,都是因为线性代数这个锤子不一定是最合适的工具。猜想最合适的应该是高斯算从不1到100连续整数和的那个方法和公式。

          最近听了不少王德峰讲中西哲学,刚好也在断断续续读《量子之谜--物理学遇到意识》这本书,参杂在一起,极大挑战了从小到大的科学唯物主义观点。深觉意识的不可琢磨和深邃。

          神经元产生意识这种机械唯物主义解释太原始,中式思想有很多可以参考,甚至未来被证明是正确的。为啥意识不可能只是附体到神经元,神经元就想起一个基站的意识电磁波接收器?

          蚊虫叮人的过程,快速盘旋,定位,攻击,撤离,而耗能量极小,这不应该说是智能的范围。蚊虫有多少大脑容量?

          比如蚊虫的大脑只是通过OTA下载属于这种型号大脑意识的嵌入式系统,所以只需要基本的inference,所以计算量不大?

          王德峰说过中西哲学的区别在于,西方去研究外界自然(客观实在),星辰大海;中国研究人生,价值体验。

          我隐约感觉量子理论的方向走向是中国式的唯心体验思维。研究微观世界到了一个光子都能影响被观测对象从而创造结果,已经无路可走了。也许找到意识的起源和本质能帮助人类知识突破,不锁死在目前这一步。

          我期待几百年后,人类的知识教科书会写到,科学发展400多年后,终于又回到东方,中国的心学,理学传统帮助量子理论完备,人类知识进入下一阶段。

          • 家园 量子力学和人的一大共同点:观测方法会改变观测目标

            所以传统用来研究刚体运动的方程组是不适用的,需要的是引入随机变量的动力系统。神经网络迭代训练就是在构造这个动力系统。

            通宝推:翼德,
      • 家园 当年就是一种模仿

        本质上是数学和神经科学相结合发展起来的。人们发现虽然大脑很复杂,但是神经元却很简单。于是提出了一个简单的模型,每个神经元简化成一个变量,加权平均之后用来得到一个是或者否的结论。后来把它变成2层,又引入非线性。但的确没有更深的理论基础。

        有没有可能跨层的传导,有没有可能每层之间它们也要互相影响。只能说即使这种非常简单的结构,已经非常接近于智能了。 假如人类突然灭亡了,硅基生物统治地球了,可能这种结构就变成智能的本质了。它们的课本上就是:世界就是线性的。

        通宝推:偶卖糕的,唐家山,
        • 家园 这是我的疑问点

          本质上是数学和神经科学相结合发展起来的。人们发现虽然大脑很复杂,但是神经元却很简单。于是提出了一个简单的模型,

          我基本是神经科学盲,没有了解过这个理论的建立过程,到底神经元真的很简单,一个简单模型就完全解释了?还是盲人摸象一样,抓到一个特征,这个模型刚好解决了一个问题,勉强能用,就一直用着。

          我直觉不愿相信能产生意识的神经元这么简单。意识只是一个简单的加法效应。

          • 家园 连你想的这些都没有

            纯粹就是神经学比一抹黑强了一点,数学上找了一个最简单的模型。凑一块攒一篇文章就完了。根本没想解决什么问题。

            后来说你这也太简单了。咱们加上一个中间层吧。也不知道中间层有啥道理,先加上再说。结果被数学家证明你还是绝对的线形,连一个稍微复杂点的行都分不出来。这东西其实慢慢都式微了。

            奈何大数据,大计算量,开始大力飞砖了。

            我是觉得神经不应该这么简单。

        • 家园 基本上都赞同

          除了最后一句话。

          深度学习的本质似乎是对非凸函数的一种模拟。

      • 家园 神经网络的数学基础尚未建立,有点像牛顿时代的微积分。

        神经网络里,网络结构和节点之间连接的权重比节点自身的运算能力更重要。

        在同样资源消耗下,单个节点越简单,就可以拥有更多的节点组成网络。通过调整网络而非节点自身,达到函数拟合的效果。

        • 家园 完全同意

          有意思的是我也以这个为对比:现在的以神经网络为基础的深度学习就像当初极限理论还没出来时候的微积分。那时候只知道无穷小能管用,但是不能理论上完备,现在深度学习也主打一个不可解释性。

          我对深度学习为基础的AI的态度,和爱因斯坦对量子理论一样:我能理解现在是你的高光期,但不相信这是星辰大海的终极真理。早晚需要一个说法。

          通宝推:广宽,桥上,
分页树展主题 · 全看首页 上页
/ 7
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河