五千年(敝帚自珍)

主题:独立显卡业的明天 -- songcla

共:💬16 🌺22
分页树展主题 · 全看首页 上页
/ 2
下页 末页
  • 家园 独立显卡业的明天

    nv发布了它的新一代显卡gtx280。

    http://www.anandtech.com/video/showdoc.aspx?i=3334

    一大新的卖点是cuda ,于是在一片吹捧声中有硬件发烧网站甚至提出了gpu战胜cpu的口号。可独立显卡的明天真的有这么风光么?

    摩尔定律说明愈来愈多的晶体管将被集成到一片芯片上,于是通用芯片计算能力会快速发展,功能也会愈来愈多样,(曾经风靡一时的独立声卡已经变得默默无闻,创新不得不向外设和MP3发展。)各种各样的独立芯片会变得愈来愈少,这是大的趋势。

    cup集成内存控制器已经是intel和amd的共同行动。gpu需要巨大的带宽和小的延迟,所以它应该被设计的靠近内存。因此将cpu和gpu坐在同一枚芯片上对于共享内存的显示架构是最好的选择。由于x86的技术壁垒,以及cpu的ic设计需要与制成紧密结合,需要拥有自己的fab工厂,硕果仅存的独立显卡商nv很难进入x86的市场。而大部分日常领域并不需要高端的图形加速能力,可以预见中低端的独立图形卡市场会消亡,被集成gpu的intel或amd的cpu取代。

    nv的技术实力很难更amd或intel竞争,虽然现在其利润超过amd。很多人被gtx280巨大的晶体管规模所迷惑,以为gpu的技术含量和设计难度已经超过了cpu。事实上gpu是由软件生成的电路,而且一个核心是由多个重复单元组成。现代的乱序执行cpu则是手工定制电路,这反映了cpu执行环境的复杂。作为一个通用处理器,并不是单纯增加执行单元就有好的效果的,有很多算法是不能靠并行加快的,这就要求cpu在频率,执行单元数目,复杂的指令控制和缓存之间走钢丝。其复杂程度非gpu可比。当然,顺序处理的cpu设计难度已经不是高不可攀了,所以nv也有自己设计的amr类的cpu共给手持设备。但是这个市场门槛不高,竞争激烈,同时其cpu效能上无法同主流的乱序cpu竞争。

    cuda很难成为标准,就像cg,ms是不会容忍的。

    gpgpu从本质上就是大规模并行计算,由于每个执行单元很简单,一个芯片就可以有原来集群的并行性,但是它的调度缓存单元太简化,会给编程带来意想不到的麻烦。http://www.pcinlife.com/article/graphics/2008-06-04/1212575164d532.html

    如果cpu厂商开始在一个芯片上大规模的集成多个简化过的通用cpu,gpgpu很难竞争。而这样的产品已经在地平线上了。

    在这种种不利的情况下,nv的高调和intel的低调耐人寻味。

    • 家园 顺路请教个问题。

      一台PC上最多可以装几块显卡?很多年没装机器了。跟不上趟了。

    • 家园 DirectX 和 OpenGL 的技术壁垒也一样高

      计算机发展很大程度上是由于娱乐产业的需要!!!

      任何领域都是有技术壁垒的~ 只是高低不同而已,而后来者总是有些技术优势的~

    • 家园 非常不看好NV这一代的GTX200核心

      点看全图

      外链图片需谨慎,可能会被源头改

      核心大,耗能高,良率太低,成本太高,加上性能对比ATI新一代的HD4800核心高出有限。

      最近市场已经对其表现做出了反应,股价2天爆跌了47%。

      也许NV今年只能吃老本了,幸好前两年趁对手打盹攒了不少本钱。

    • 家园 其实 nVIDIA 的前途确实很渺茫

      GT200大概是它所制造的最后一个 Mammoth 了吧,下一代还这么堆就真的无可救药了。TSMC 的同学们大概都快被这个1.4B 晶体管,面积超过500m^2,良品率低得吓人的玩意给逼疯了。RV770 这次在 C/P 值上获得了彻底的胜利,nV只守住了单核性能王,但是代价昂贵,无人喝彩,刚铺货两个星期就跳水 $150 的结果大概是它怎么都无法想象的。

      CUDA 其实在 nV 的摇旗呐喊下还是获得了一些关注,至少 Adobe 这种重量级企业用自己主打产品 PS 的支援就相当有价值,但 CUDA 想要成为标准,面对的是 MS Intel 还有 AMD-ATi 的联合绞杀,这种情况下的生存几率,实在是难以乐观。

      如果我们看看 Intel 的 Larrabee,就会发现,nV 最最缺乏,也是最致命的,就是 x86 授权,没有这个,GPGPU 的应用面和软件支持就存在着先天的巨大劣势,而 AMD 就毫无此后顾之忧,Fusion 也好,Larrabee 也好,业界的风向怎么转,AMD 与 Intel 都可以拿出方案,而 nV , 它只有CUDA

    • 家园 不管怎么样,昨天收到从LA寄来的GTX280

      外观上和我的9800GTX几乎一样,巨大,沉甸甸的,一个厚实的铁皮壳

      将整个显卡牢牢罩住,只有一个风扇露在外面。不过我的500w电源带不动。出现了一些相关故障,正在考虑是去买个800w还是把两个手头电源并起来使用....

      我是一直比较相信GpU这个概念的,至少在实际使用上,我现在用的cpu依然是10元一块的AMD 3500+,

      连双核都不是,但在CRYsis,messeffect里开全高效,可以流畅运行。至于常用的图文视频处理,3500+足可以胜任...

      所以从实用角度讲,我还是支持GPU这个概念的。

      PS,虽然如此,我对显卡也没有那么疯狂,GTX280不是我买的。

    • 家园 从人体工学看,独立显卡没戏

      我们的眼睛中的视网膜神经是大脑的直接延伸,光学信号经过简短处理直接进入大脑中心运算。同时看看我们的听觉,嗅觉和味觉也是集中在头部,接近大脑。

      由于对高等生物生存,视觉是最重要的,信息量也是最大的,将视觉同大脑直接连接是很合理解释。对计算机人机对话来讲,光学显示是最重要的,所以显卡的要求越来越高,如同lz说说:

      gpu需要巨大的带宽和小的延迟,所以它应该被设计的靠近内存。因此将cpu和gpu坐在同一枚芯片上对于共享内存的显示架构是最好的选择。

      随着cpu运算能力的进展,将视听运算直接由cpu管理是更有效的安排。

      • 家园 我觉得GPU之所以叫GPU,

        是因为它在相当大的程度上取代了一部分大脑CPU的功能,尤其在三维图像相关效果处理上,GPU将运算结果输出,不再经过CPU,要说大脑,GPU也是大脑的一部分。

        说到独立,我觉得对于老百姓来说,可以有更多的选择,像我喜欢大型3Dgame,喜欢在MAya里玩特效,我就会选择一个大型GPU,有些人没这种要求

        ,选一个普通显卡就好了

        就算CPU显卡做在一起,,面临n种性能搭配选择,而且到头来估计高低端市场都不会讨好

    • 家园 显卡的未来有可能被CPU所替代

      CPU的功能越来越强大,已经超过我们对于平常工作生活需要。那么多余出来的能来有可能向兼容方向发展

    • 家园 关于CUDA的一点愚见

      窃以为,NV目前狂吹CUDA,其着眼点放在了并行上面。

      游戏里的并行是比较容易实现的。比如游戏里面有两棵树A和B,在串行的时代,需要先渲染好A,然后再去渲染B,而后整合画面。而在并行时代,渲染时可以让一个核心去渲染A,同时让另外一个核心去渲染B,然后再把A和B整合到画面里就可以了。很明显,这样效率就提高了很多。这里面有个前提,就是A和B是相互“独立”的,彼此没有影响,因此并行就容易实现一些。

      但是在科学计算方面恐怕就没有那么简单,鄙人也看过一些并行计算方面的书,书里面介绍的算法也只是在某些特定的场合下才能用,换句话说,不是所有的程序都能并行化。

      例如下面一段程序:

      1 INPUT A;

      2 INPUT B;

      3 C = A * B;

      4 D = C ^ 2;

      5 E = D * A;

      6 OUTPUT E;

      7 END

      抛开输入输出不谈,只看第4、5这两行代码。

      第4行:要得到D,就必须等到第3行计算完成。

      第5行,要得到E,就必须等到第4行计算完成。

      这样的话,要并行就比较麻烦。假设有两个计算核心甲、乙,我让甲计算第4行,乙计算第5行,这样貌似“并行”了,但是如果没有甲算出来的D的结果,乙只有等待;甲计算完毕,把D传给乙,乙才能开始计算。如此看来,并行的优势(也就是同时计算的优势)根本发挥不出来。如果再算上甲和乙通信的时间(也就是计算结果传递的时间),这样的“并行”反而没有串行快。

      还有一点要说明的是,NV图形芯片里的“流处理器”是单精度的,这可能是NV的一大硬伤。

      一点愚见,欢迎方家斧正

      • 家园 AMD 已经有双精度的GPU

        编程的模型是BROOK+.

        说到并行和串行,这取决于应用。GPGPU之所以热门是由于业界预测未来大量的应用是data intensive:数据量和运算量都非常大。如果数据之间的依赖少的话,GPU是不错的平台。Intel也有相应的项目:Larabee.有兴趣可以查查。

      • 家园 既然你有2个CPU,就应该相应的改变算法。并行的核心是减少时间

        ,与大家的想象相反,在并行计算的时候,在大多数情况下计算量是增大的,只有很少的一部分情况下,计算量与单处理器相同。

        在你的例子中,如果我做算法,每个CPU有3个输入

        从3-5行就是

        PARADO

        3 C=A*B, E=A*B

        4 D=C*E, E=C*E*A

        END PARADO

        另外,你给的例子比较偏颇,在图像处理中,大量的计算是矩阵的乘法,如果你学过矩阵乘法的并行计算,就能知道多个CPU还是能够减少很多时间的。不过,就显卡的2-4个计算单元来看,根本算不上什么真正的并行计算,他目前工作的重点应该不是矩阵的乘法,而是如你所说,用于物体的独立渲染。

        即便如此,也是能够节约很多的时间的。

        现在大家越来越追求视觉的享受, 我个人认为GPU的发展还是很有前途的。

        另外,目前的办公软件中的计算,完全可以用GPU来做,不过,软件就要重新写了。

    • 家园 从目前显卡的块头和价格来看

      cpu整合高端一些的gpu似乎不容易。现在的高端显卡比cpu都贵,块头也够大的,要和CPU整合在一起,估计难得不会小。现在的集成显卡似乎都是集成在主板上,和CPU还是相互独立的吧。

      GPU巨大的晶体管数量的确是让人惊讶。之前还以为是和现代的软件一样,冗余的东西实在是太多。看来还不是这样。

      从市场角度来看,专门的GPU估计还是会有继续风光的日子。用户是越来越依赖,越来越看重视觉效果了。就手持设备来说,感觉上在GPU中加入部分CPU的功能似乎要比CPU中加入GPU来的更有效一些。手持设备的视觉效果(意味着对图像功能的需求)对手持设备的被接受度相当重要。个人看法,象IPHONE这样的,功能固然重要,但是IPHONE的多媒体能力,特别是视频方面的功能,是它一时风靡的一个主要原因。

      以上是外行从用户的角度讲。最近被IPHONE 3G给轰炸了,心里很痒啊。

分页树展主题 · 全看首页 上页
/ 2
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河