www.138139.cn

返回总目录 上一页 目录页 下一页

别让评测数据欺骗了你的眼睛


      本文所要描述和讨论的并不是测试成绩究竟是否含有水分,而是评测过程的本质。

  阅读拙作之前您先回答一个问题,两块显卡在同样平台、同样条件下运行游戏,一个平均速度是150帧/秒,另一个是160帧/秒,这两块显卡有区别么?也许您会回答有区别,因为这两块显卡的速度相差6.666667%。或许您会回答没有区别,因为无论是120帧/秒还是130帧/秒或者更高,我们在游戏中感觉到的速度都是一样的。但是无论如何,作为DIYer的我们还是都热衷于讨论各种显卡的评测数据。

  由于种种原因,无论是厂家、经销商还是国内外媒体、用户,对显卡3D性能(注意,2D画质和显卡做工不在本文讨论范围之内)好坏最直接的评价都是通过各种标准化的评测数据获得的。评测方式不外乎以下三种。

  方法一,基准测试软件。基准测试软件在选定条件下运行几款覆盖面较大的实际3D游戏,获得平均帧数,然后通过自有运算方式进行加权平均后,给出平台的3D性能得分作为测试成绩。这种方法的典型代表是经典的3DMark03和3DMark05等。

  方法二,游戏软件中自带的帧数测试程序。某些游戏软件自带性能测试程序,通过运行相同DEMO获得平均帧数作为测试成绩。例如常见的DOOM3、Half-Life2、FarCry等。

  方法三,实际测试帧速度。使用第三方软件纪录游戏实际运行时的平均帧速度作为测试成绩。这种方法由于随机性较大,一般通过多次测试取数值平均的方式减少误差。

  也许看过太多的评测数据后,您和笔者一样已经麻木了。但是眼花耳热之后,您是否也曾仔细想过,这些评测数据合理么?或者说这种评测方式合理么?也许您会习惯性的觉得这些很合理,也许您不会同意笔者以下的观点,也许您通读本文后仍旧不会找到更好的评测显卡的方法,甚至不知笔者所云。这里需要强调的是,笔者本文中仅对目前流行的标准化显卡评测方式作技术性探讨,而不存在任何针对媒体或厂商的攻击,由于没有足够的证据,文章中涉及到的厂商和产品品牌均用化名。

  上述三种评测方法从本质来说是相同的,都是通过使用显卡运行各种3D程序,然后通过处理平均帧数数据获得显卡性能评价,那么这种非常流行的以平均帧数作为显卡性能唯一标准的标准评测方式是否合理呢?笔者在经历了许久的麻木后产生以下疑问。

  回到本文最初的那个问题,两块显卡在同样平台、同样条件下运行游戏,一个平均速度是150帧/秒,另一个是160帧/秒,这两块显卡有区别么?实际上对于多数人来说,这是没区别的,因为人眼最大分辨速度大约50~100ms,也就是说,当图像连续速度超过30帧/秒的时候,人眼就会认为画面是连续的,所以包括电视画面在内大多数视频的连续播放速度都是30帧/秒。此外,对于CRT显示器来说,其刷新速度最多100Hz,也就是说每秒最多显示100张画面,而对于LCD显示器来说,这个速度降为60MHz。那么是不是对于显卡来说,30帧/秒的速度就足够了呢?需要注意的是,这里笔者提到的是连续播放速度,而不是平均速度。对于实际3D游戏来说,由于不同画面渲染工作量差别极大,不可能像播放媒体流那样速度均一,所以对显卡的品均运行速度来说30帧/秒并不代表最佳性能。

  其实,对于不同类型的游戏,平均帧速度的要求并不是完全相同的。例如对于CS-S这类激烈的第一人称3D对战游戏,根据笔者多年的经验,45帧/秒的速度已经基本能够保证流畅运行,而当速度达到60帧/秒的时候,我们的感觉已经是非常流畅了。笔者可以负责地告诉您,无论您是多么专业的玩家,无论您的水平有多高,您永远不会发现120帧/秒和110帧/秒之间所谓“庞大”的速度差别,即使您认为您能够分出它们之间的差别,这也将是纯粹的心理作用。但是尽管所有人都明白这个道理,一些别有用心的媒体或是厂商,总是如此炒作,经常会看到这样的比较:“A卡的测试成绩是98.4帧/秒,比测试成绩为91.5帧/秒的B卡快出7.5%之多。”但是这样的比较在实际游戏中是没有任何意义的,因为在实际游戏中,两者之间的差距我们无法用肉眼感觉到,也就是说,这两款显卡的“性能”是完全相同的! 址163164.cn 微信1631640 QQ3149886


  也许您会说,的确这个差距我们无法认知其存在,但是这两块显卡如果运行在更苛刻的条件下,性能差距就会被我我们感知啊。对的,是这样的!但是这里出现了概念偷换。别忘了,在这里,测试条件已经被改变了,也就是说原来九十多帧/秒的测试条件是不合理的,那么为什么测试者不选择一个更加合理并能够反映出显卡性能差距的测试条件呢?!您还会强调,一般来说性能差异会随着测试条件改变而成比例的改变。但别忘了,这句话中“一般来说”这四个字是无法省略掉的。也就是说,有(至少理论上有)这种可能,一块显卡在分辨率1024*768@32bit时的测试成绩会达到100帧/秒,但当测试条件提升至分辨率为1280*1024@32bit时,测试成绩仅为2帧/秒(当然这是笔者有意的夸张)。所以,如果您认为测试的平均帧数或其加权品均作为显卡是及性能的反映是合理的话,那么至少这个测试成绩的差别是您能够观察到的。

  平均帧速度也有其重要性,因为对于目前显卡来说,平均帧速度较大的差距还是能够基本体现出性能差异的,例如运行某游戏,平均速度45帧/秒的显卡一定要比平均速度15帧/秒的显卡快。但是,笔者要强调的是,这种差异一定要产生在合理范围内,我们可以认为平均45帧/秒和平均15帧/秒速度相差很大,但是我们(至少是笔者)可以认为平均450帧/秒和平均150帧/秒在速度上是完全相同的,因为它超过了感知的极限。

  既然110帧/秒和120帧/秒是没有区别的,那么平均帧速度40帧/秒和40帧/秒之间是否有差别呢?可能很多读者或多或少都会有这样的疑问,只是在各种标准化评测数据的攻势下,不能或不愿提出这样的疑问而已。其实,平均帧速度40帧/秒和40帧/秒之间不仅有区别而且有非常大的区别。

  一些有心的玩家也许会和笔者有相同的感觉,基于同样级别的1号品牌图形芯片和2号品牌图形芯片的显卡尽管在各种以平均帧速度作为唯一依据的标准化评测成绩(指前面所述的三种评测方法)中,尽管测试成绩几乎完全一样,但实际运行各种游戏时,基于2号品牌图形芯片的显卡运行游戏时明显有停顿的感觉,但基于1号品牌图形芯片的显卡运行游戏时却令人感到非常流畅,它们运行游戏时各种条件都相同。需要注意的是,这里笔者强调的是各种游戏,而不是我们津津乐道的1号品牌图形芯片比较适合运行DOOM3而2号品牌图形芯片适合运行Half-Life2。为什么主观上强烈的速度差异却无法体现在标准化测试成绩中呢?这只能归结为标准化测试的方法不够科学、不够合理,因为标准化测试的成绩唯一取决于平均帧速度!注意,这里笔者要强调的是“平均”二字。很多情况下恰恰是这样的,对于2号品牌图形芯片来说,尽管在资源消耗量比较小的时候,速度会大于1号品牌图形芯片,但是当游戏中突然出现极为复杂的图像时,较大的资源占用量会大大降低显卡效能,从而使其速度大幅下降,而1号品牌图形芯片尽管在处理简单图像时速度比2号图形芯片略慢,但其性能在较大资源占用量的时候下降较少,这时给人的感觉就是比较平稳,从而获得更好的主观感觉。

  下面笔者将举一个比较恰当的例子,一个游戏的某10秒钟片断,其中9秒图像都非常简单,但只有一秒却非常消耗资源,分别给基于1号图形芯片和2号图形芯片的显卡进行渲染。对于前者来说,前9秒钟的运行速度都是42帧/秒,而另一秒的速度是22帧/秒,这时该显卡的平均帧速度是40帧/秒;而对于后者,前9秒钟运行速度较快,是44帧/秒,但由于后一秒由于资源消耗较大,速度仅为4帧/秒,但是由于前9秒的速度较快,其平均帧速度也是40帧/秒。通过这个比较极端的例子,相信读者很容易判断出,前者在实际游戏过程中,给玩家的主观感觉是明显比后者流畅,尽管这两块显卡的标准化测试成绩是相同的。其实这就是经典的“木桶效应”,一个木桶究竟能装多少水,并不是由其最长的木板长度决定的,也不是由其一周木板的平均长度决定的,而是由其最短的一块木板长度决定的。对于显卡来说,用户对其速度的主观感觉并不取决于其平均帧速度,而主要取决于最低帧速度。

  看到这个结论,您也许会眼前一亮,那么是不是只要我们确定了显卡的最低帧速度是多少就可以简单比较其性能了呢?当然不是,因为最低帧速度的随机性很大,可能某显卡其他大多数时间都正常工作,但只在某个时间点内出现跳帧,这种现象并不罕见。笔者认为,多数情况下,取显卡最慢的1/10时间平均帧速度往往比整体平均帧速度更能够清晰反映用户使用时的主观感觉。

  笔者看过很多标准化测试报告,一般来说3DMark03、3DMark05给出的测试成绩得分精确到1/1000,而各种平均帧速度测试给出的结果至少精确到1帧/秒或者0.1帧/秒,有些甚至精确到0.01帧/秒。我想问的是,这样的精度差异我们能够分辨出么?或者说,依靠人类的分辨率,什么样的误差是在允许范围内?

  结合笔者多年显卡使用、评测经验,笔者认为至少在5%之内显卡性能的区别人类是无法通过肉眼观察所能区别出来的。也就是说,显卡测试的精度只要能够达到5%以内就完全符合实际需求。换而言之,对于类似3DMark之类的标准化评测软件来说,尽管其精度可以达到1/1000甚至更高,但采用百分制完全足以满足精度需求。也就是说,3DMark能够测试出得分为3950和4000分显卡之间的速度差异,但这两块显卡对于用户来说性能是完全没有区别的!您不同意笔者的观点,没关系,回顾一下

址163164.cn 微信1631640 QQ3149886

返回总目录 上一页 目录页 下一页