五千年(敝帚自珍)

主题:辛顿,李飞飞,和AI之问 -- qq97

共:💬20 🌺87新 💬4
全看分页树展 · 主题 跟帖
家园 这个辛顿好像就是把英伟达市值抬上天的那个

万年看客河友翻译的那篇李飞飞的演讲稿也提到了他。

李飞飞那篇主要讲的计算机视觉,认为计算机视觉已经超过人类视觉。确实如此,购物的时候我看每个收款码看起来都是一样的,计算机却能区分这是5块的、那是十块的。还有人脸识别的应用,临床上计算机读病理切片等应用……这些都说明计算机对图像数据的分析超过了人脑对眼睛看到的数据的分析。

玩电脑游戏的朋友都知道游戏要玩得丝滑,就得买块高级点的英伟达显卡GPU。当年英伟达发明了一种分割式图像显示的算法,让英特尔CPU干脆把图像显示的任务全丢给了GPU。后来英伟达把“图像显示分割”的理念进一步发展到“任务分割”,进而把GPU从图形加速器打造成了今天的AI计算加速器。

杰夫-辛顿的用英伟达的GPU训练Alexnet模型赢得2012的imagenet竞赛冠军,他发现英伟达的GPU比其他公司的快3倍?10倍?,并推荐大家使用英伟达GPU。辛顿顶着深度学习教父的头衔,这一推荐,让英伟达GPU完成了今天AI领域的生态占领。

====

回到李飞飞那篇演讲稿。她提到了一个150毫秒的读图实验。对于实验结果的解读,不知道是老万翻译的问题还是李飞飞本身的认识问题,我觉得那个150毫秒的意义是——光子达到视网膜产生刺激需要150毫秒,而不是文中认为的“光子落在视网膜上到大脑做出准确决定”大约需要150毫秒。

文中这段话包含了视觉在大脑中的形成。这是人类认知的未知领域,虽然视觉、听觉、嗅觉等只是人类意识最具像化的一部分。

今天AI领域所谓的神经网络,只是一种形似的比喻。当年曾是异端邪说,辛顿在当初的论文中不得不把它叫做深度信念网络。处理器几个输入端口、一个输出端口的设置,很像人类神经元——几个刺激传入的树突、一个冲动传出的触突。

但是,100亿个大脑神经元到产生意识,中间这个飞跃,连真正的神经生物学、生理学家都没搞清楚,何况计算机领域的冒牌神经网络😄😄😄

所以,我同意楼主“现阶段还没有”的看法。

据说现在的生成式AI这个词是投资者给取的,是为了区别于分析式AI。因为分析式AI已经把该赚的钱都赚了,二维码、面部识别、自动驾驶……应用得如火如荼。如果不给新的AI取个好名字,如何赚钱?今天,看看黄仁勋身价有多高就知道。

全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河