五千年(敝帚自珍)

主题:辛顿,李飞飞,和AI之问 -- qq97

共:💬35 🌺176
全看树展主题 · 分页首页 上页
/ 3
下页 末页
家园 按辈分,这个人是这个人的侄子。

杰夫-辛顿的用英伟达的GPU训练Alexnet模型赢得2012的imagenet竞赛冠军,他发现英伟达的GPU比其他公司的快3倍?10倍?,并推荐大家使用英伟达GPU。辛顿顶着深度学习教父的头衔,这一推荐,让英伟达GPU完成了今天AI领域的生态占领。

寒春:我曾以为科学超越社会最为崇高

通宝推:qq97,
家园 这可真是个冷知识

因为寒春,对辛顿的敬意又增加了一分。

家园 李飞飞的贡献在于

李飞飞的贡献在于,她主导的项目在基于神经网络深度学习技术路线上取得了临界点上的突破,从此产业界可以照葫芦画瓢式地将图像识别技术大规模地应用于产业界,基于神经网络的人工智能在发展了60多年后终于在产业应用上取得突破,获得了可观的产业回报。

而辛顿一直致力于研究人脑运作模式和人类认知模式,并用计算机算法来模拟仿真这个过程,可以说当前的AI整个赛道都是辛顿奠定的,辛顿被称为AI教父当之无愧。

通宝推:偶卖糕的,
家园 昨天听了AI团队的汇报

昨天AI团队汇报了他们在大模型应用上的一些进展,他们找到了基于图形生成大模型的应用场景,看了一下结果还可以,对我们来说这算是找到了产业应用,虽然远不如第一代AI图像识别的突破那么惊艳,但也有它自己的优势。

AI团队也汇报了他们在文字生成方面的尝试,将我们行业的一些资料喂给国内的一家大模型,也能产生一些看上去还行的内容。但我问了他们一个问题,作为一个商业公司,你们产生的这些内容先不管是否有用,能保证绝对正确么?回答是不能,但行业的人类专家们也会出错。我回答说,人类专家是用他自己的专业信誉为他的回答背书,我们这样的商业公司也得用信誉为我们的产品生成的内容正确与否背书,如果生成的内容错了,那就是我们在行业、在客户端的专业形象受到损害。除非我们也加上一句免责声明,“以上内容由AI生成,其生成内容的准确性和完整性无法保证,不代表我公司的态度或观点”。 所以,这一块,我们暂时还没找到合适的应用场景。

通宝推:广宽,青青的蓝,闻弦歌,
家园 哪个标志性事件啊

我想到的标志性事件,是12年的alexnet在imageNet上的优异成绩,向人们展示了神经网络还是有很好的效能的。imagenet是李菲菲的数据集合,更复杂更加接近现实问题,不被当做玩具式的科研工具。其实也是相对的,现在看做玩具的mnist也原本是lecun给邮政做的项目。

alexnet也不是李菲菲组的啊,反而是hinton手下的。这个网络本身是lenet改进、规模化,最具启发性的反而是工程角度,使用了nvidia的显卡进行神经网络的计算,算力的突破带来了试错,或者说网络训练的更大的自由度。而Alex Krizhevsky也是从GPU进行矩阵乘法运算的论文想到了用于神经网络的执行的。

李菲菲最终算是挖坑的,但是不是填坑的。挖坑方面,往往都是有人以填坑闻名,然后挖坑说这个坑怎么填啊太难啦,而这个李菲菲,似乎没有以填坑闻名,反而是挖了个坑说你们谁会填。我甚至想过,以学术掮客来形容是不是太刻薄了

通宝推:qq97,
家园 媒体关于她的贡献报道

一般都是她第一个了众筹标图像注的办法?

但这种事情很难说是灵光一现还是专业技术能力。

家园 说点容易理解的,从宇树科技王兴兴的观点说起

近日,宇树科技CEO王兴兴发表了这样的观点:

“具身智能是实现AGI的最有效途径,OpenAI的大方向大概率是错的。”

王兴兴表示,对于具身智能而言,能够理解时间、空间以及物理规律的世界模型非常重要,“现在的大语言模型等很像活在梦里”,AGI需要有实物机器人的物理交互才能加深模仿和强化学习,同时也需要参与到人类的生活中,来体验和理解人类的情绪和性格。

这与主帖的观察视角有点相近——

所以大模型是对人类“建模世界”的学习,而人类是对“真实世界”的学习,这里有着不可逾越的鸿沟。

也许,王兴兴认为在他的人形机器人面前,这道鸿沟未必是不可逾越的。

由此联想一下,武汉上线的萝卜快跑被称为勺萝卜,自动驾驶虽然不是基于大模型,而是基于上一代的深度学习的技术,但同样有类似的问题。

人类的驾驶,不仅基于在汽车上路行驶时的学习,更基于人类在无数的各种各样的日常生活的场景中的学习,各种目标的识别,甚至于后者的重要性远远超过前者,那些在马路上不停地巡游训练的算法,能做到吗?

一点题外话:王兴兴对大模型OpenAI的点评,颇为戳了一些奉美国人OpenAI为圭臬的自媒体的肺管子,挺有意思。

家园 也许还需要自身的内部激励体制
通宝推:qq97,
家园 首先机器人自己也要有情绪和性格
通宝推:qq97,
家园 为啥?

机械力取代人力的时候,也没要求蒸汽机“要有情绪和性格”。

家园 上文说要“参与到人类的生活中”

则机器人要有自我,这就会包含情绪之类,当然首先要有自己的好恶或者说欲望,这才谈得上自我,才有交流的前提,而不是都是别人的东西。

以上表达不知说明白了没有。

家园 以前某些右派骂我们左派没有人性,没有人情,到了AI这里就哈哈

啦?

这么信任AI吗?哈哈哈哈。

家园 一篇侃AI的文章,覆盖了很多侃点

一篇侃AI的文章,覆盖了很多侃点,算是个正式出版物吧。

AI侃点大全

虽然挂着MIT的大招牌,但还是个侃派的,网上已经能找到不错的中文译本了。

要是有耐心把这个看完,而且对段落大意中心思想能理解个大概的,以后侃AI转移话题的能力基本够用了。要是对段落大意中心思想基本不能理解,以后网上辩论AI就基本无敌了😂

通宝推:广宽,
家园 很有意思,已经通过站内短信联系,请回复
家园 在真实世界学习的起点需要基础价值观或本能价值观

首先机器人自己也要有情绪和性格

也许还需要自身的内部激励体制

“具身智能”(暂且就用王兴兴的这个定义吧)与当下的AI(深度学习和大模型)的本质区别,就是AI在人类的“建模世界”中学习,而具身智能与人类一样,是在“真实世界”的学习,(当然,具身和人类也能在“建模世界”中学习。)

要在真实世界中学习,具身智能首先要行动能力,能在真实世界中移动,否则只能学习一个局部,还有具有感知系统,比如视觉、听觉、嗅觉、触觉、力的感觉,可以感知周边的真实世界。

但这还只是必要条件,具身和人类(或其它生物)要在真实世界中学习,还有具有对错判断、好坏判断等基本的价值观,这种对错判断优劣判断的能力,在AI中是以人类对学习材料进行标注来实现的。

而真实生物(包括人类),一般都具有保全自己身体完整性、保证自己生存的本能(基础)价值观(根据进化论,不具备这样价值观的生物早就灭绝了),这样它就能学会如何躲避让自己缺胳膊少腿的危险,就能学到真实世界的一些特性,如更凶猛的动物、锋利的石头、高耸的悬崖、不能呼吸的水下、高空坠落的石头、补充能量的美食。。。

而生物(包括人类)还应该有保证交配繁衍以及进化后代的基础价值观,同样,不具备这样价值观的生物种群也无法延续,有了这样的价值观,它就能学会选择或争夺优秀者而交配、如何展现自己的魅力。。。

有了这些价值观和对错判断、好坏判断能力,生物就能具备情绪,遇到好的就高兴,经历坏的就悲伤。。。

但具身智能一开始具备这样的基本价值观吗?如果不具备,那它就学不会什么叫“痛”,什么叫好和坏,腿断了就断了,脑袋扁了就扁了,电池没电就没电了,因为不知道“痛”,不知道“伤”和“死”,也就不知道这是“坏”。

所以,我认为具身智能的这种基本价值观,还是需要靠人类注入,具备了这样的基本价值观,具身智能才可能趋利避害,在这个过程中学习真实世界。

由此想到了阿西莫夫提出的机器人三大定律。

人类可以除了给具身智能注入一般生物的生存优先价值观,这样它可以学习成为一只普通的具身智能,

人类也可以给它输入“利人”优先的价值观,这样就能打造出道德高尚的具身智能,

而如果输入了“损人”优先的基本价值观,打造出来的当然是邪恶的具身智能。

。。。咦,写着写着就歪了,终究还是落入了俗套。

通宝推:桥上,
全看树展主题 · 分页首页 上页
/ 3
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河