望麓自卑—湖南大学最具潜力的校园传媒

 找回密码
 注册

QQ登录

只需一步,快速开始

查看: 1188|回复: 8

初学者的超级福音!老玩家们的进阶天堂,必看哦~整理很辛苦的说 zzzzz

[复制链接]
发表于 2006-3-28 00:12:47 | 显示全部楼层 |阅读模式
很长很长,先说明是我从很多地方转来的,很辛苦的说!类型写原创是因为其中也有我的个人说法和个人理解在内,好吧,下面一起来看吧

======================================起跑的分割线

CPU的主要功能参数详解

===================================================华丽的分割线


一,CPU主频:
这是一个最受新手关注的指标,指的就是CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某款CPU是多少兆赫兹的,而这个多少兆赫兹就是“CPU的主频”。在学校经常听见一些人问,XXX网吧的CPU2.66G!XXX网吧的才2G,有人用2.66G的赛扬与2.0G-2.66G的P4比,这是无知的表现,和他们争是无意义的:)。主频虽与CPU速度有关系,但确对不是绝对的正比关系,因为CPU的运算速度还要看CPU流水线(流水线下面介绍)的各方面性能指标(缓存、指令集,CPU位数等)。因此主频不代表CPU的整体性能,但提高主频对于提高CPU运算速度却是至关重要的。主频的计算公式为:主频=外频*倍频。

================================================换行的分割线

二:外频:
      外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。

================================================换行的分割线

三:倍频咯:倍频
    CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。  原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 === 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。

================================================换行的分割线

================================================个人言语的分割线

主频因素说完了,现在让我们来看看别的影响CPU速度的“东西”请允许我称他为东西,说功能现行

================================================换行的分割线
四:
流水线:
        这东西学地理的应该懂,高一下册地理书有说,他相当于一个公程的一部分一部分,我自己打个比喻!比如:就拿跑步和走路来说,就分为2级流水线,即左脚,再右脚,再一直循环下去,一级的话就可以说成是双脚一起跳,这样效率当然低,对吧。。。。。。这就是生活的流水线,当你左脚走出去之后,如果发现前面有一堆大便,只好重来了(设一次一定走2步)这就是流水线级别上去之后跟随的错误一出来CPU就要重新计算。。。。。。。。也许我说得不太明白,下面引用别人的话来说,转自网友“毛笔小新”

===================================================引用的发割线

在制造CPU的过程中,除了硬件设计之外,还有逻辑设计,流水线设计就属于逻辑设计范畴,举个例子来讲,比如说一家汽车工厂,在生产汽车的过程中采用了四个大组分别来完成四个生产步骤:1组生产汽车底盘,二组给底盘上装引擎,三组给汽车装外壳及轮胎,四组做喷漆,装玻璃及其他,这就叫做一条四级的流水线.(现在的大型汽车生产厂也的确是按照类似流水线来提高生产效率的). 假设每个步骤需要1小时,那么如果我们让1大组在做完1辆车的底盘后马上开始生产下一辆的底盘,二大组在做完一辆车的引擎后立刻投入下一辆车引擎的组装,以次类推三,四组的工作也如此,这样一来,每一小时就会有一辆奔驰或宝马被生产出来,这就相当于是CPU的指令排序执行. 但如果我们还想提升工厂的生产效率,又该怎么办呢?那么我们就可以将上述的每个大组在分成2个小组,形成一条8级的生产流水线,这样就形成每个小组(注意是\"小组\")只需要半小时就可以完成自己的工作,那么相应的每半小时就会有一辆汽车走下生产线,这样就提高了效率(这里不太好理解,请大家仔细想想就会明白).
根据这个道理,CPU的流水线也就不难理解了,只不过是把生产汽车变成了执行程序指令而已,原理上是相通的。

=================================接上的分割线

那么这里可以想到,如果再把流水线加长,是不是效率还可以提高呢? 当人们把这个想法运用到CPU设计中时才发现,由于采用流水线来安排指令,所以非常不灵活,一旦某一级的指令执行出错的话,整条流水线就会停止下来,再一极一级地去找出错误,然后把整条流水线清空,重新载入指令,这样一来,会浪费很多时间,执行效率反而十分低下,为了解决这个问题,科学家们又采用了各种预测技术来提高指令执行的正确率,希望在保持长流水线的同时尽量避免发生清空流水线的悲剧,这就是经常看到的Intel的广告\"该处理器采用了先进的分支预测技术....\",当你明白了上面我所讲的后,你就知道了吹得那么玄乎,其实也就不过如此.
还有不得不说的就是:长流水线会让CPU轻易达到很高的运行频率,但在这2G,3G的频率中又有多少是真正有效的工作频率呢? 而且级数越多,所累计出来的延迟越长,因为工作小组在交接工作时是会产生信号延迟的,虽然每个延迟很短,但20甚至30级的流水线所累计出来的延迟是不可忽视的,这样就形成了一个很好笑的局面,流水线技术为处理器提升了频率,但又因为自身的缺陷产生了很大的效率空白,将优势抵消掉,高频率的CPU还会带来高功耗和高发热量,所以说流水线并非越长越好

====================================接上的分割线
近年来Intel的奔四处理器经过了三个阶段的发展,最早的奔四采用的是(威廉)核心,该核心只有13级的流水线,普遍频率未上2G,速度一般,第二代的奔四采用的(northwoog北木)核心,这个核心有20级流水线,由于流水线级数比较合适,所以大副提升了奔四的速度,但又未影响执行效率,当时的奔四2.4A是一款经典产品,将AMD的速龙XP系列一直压制住,Intel因此尝到了甜头,很快就推出了Prescott(波塞冬)核心,这个长达31级流水线的新核心将奔四带入了近3G的速度,这个数字是AMD可望而不可及的,但人们很快发现新奔四的实际运行效率还不如老核心奔四,然尔频率却那么高,发热和功耗那么大,Intel凭借这块新核心\"光荣\"地获得了\"高频低能\"的美名,这个时候AMD适时推出了\"速龙64\"系列,全新的架构,20级的流水线,不高的发热与功耗,最重要的是低频高效,一举击败了新奔四,获得了很高的评价,Intel也吞下了自己造的苦果:被迫停止了4G奔四的开发,失去了不少的市场份额,连总裁贝瑞特也在IDF05上给大众下跪以求原谅.

=============================================换行的分割线

CPU缓存:
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。

二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高

=============================================换行的分割线

前端总线:
前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。
因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

================================================分割线!!!

再说说CPU的核心类型
Athlon XP的核心类型
Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。
Palomino
这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。
Thoroughbred
这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。
Thorton
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。
Barton
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。
新Duron的核心类型
AppleBred
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。
Athlon 64系列CPU的核心类型
Clawhammer
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。
Newcastle
其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。
AMD双核心处理器
AMD推出的双核心处理器
分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。
AMD推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。
双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。
与Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。
对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明显优于Pentium D架构。
虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。
AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。
英特尔CPU核心
Tualatin
这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。
Willamette
这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。
Northwood
这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。
Prescott
这是Intel最新的CPU核心,目前Pentium 4 XXX(如Pentium 4 530)和Celeron D采用该核心,还有少量主频在2.8GHz以上的CPU采用该核心。其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,目前生产的全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),最高有1066MHz的Pentium 4至尊版。其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB或2MB,封装方式采用PPGA,Prescott核心已经取代Northwood核心成为市场的主流产品。
Intel双核心处理器
目前Intel推出的双核心处理器有Pentium D和Pentium Extreme Edition,同时推出945/955芯片组来支持新推出的双核心处理器,采用90nm工艺生产的这两款新推出的双核心处理器使用是没有针脚的LGA 775接口,但处理器底部的贴片电容数目有所增加,排列方式也有所不同。
桌面平台的核心代号Smithfield的处理器,正式命名为Pentium D处理器,除了摆脱阿拉伯数字改用英文字母来表示这次双核心处理器的世代交替外,D的字母也更容易让人联想起Dual-Core双核心的涵义。
ntel的双核心构架更像是一个双CPU平台,Pentium D处理器继续沿用Prescott架构及90nm生产技术生产。Pentium D内核实际上由于两个独立的2独立的Prescott核心组成,每个核心拥有独立的1MB L2缓存及执行单元,两个核心加起来一共拥有2MB,但由于处理器中的两个核心都拥有独立的缓存,因此必须保正每个二级缓存当中的信息完全一致,否则就会出现运算错误。
为了解决这一问题,Intel将两个核心之间的协调工作交给了外部的MCH(北桥)芯片,虽然缓存之间的数据传输与存储并不巨大,但由于需要通过外部的MCH芯片进行协调处理,毫无疑问的会对整个的处理速度带来一定的延迟,从而影响到处理器整体性能的发挥。
由于采用Prescott内核,因此Pentium D也支持EM64T技术、XD bit安全技术。值得一提的是,Pentium D处理器将不支持Hyper-Threading技术。原因很明显:在多个物理处理器及多个逻辑处理器之间正确分配数据流、平衡运算任务并非易事。比如,如果应用程序需要两个运算线程,很明显每个线程对应一个物理内核,但如果有3个运算线程呢?因此为了减少双核心Pentium D架构复杂性,英特尔决定在针对主流市场的Pentium D中取消对Hyper-Threading技术的支持。
同出自Intel之手,而且Pentium D和Pentium Extreme Edition两款双核心处理器名字上的差别也预示着这两款处理器在规格上也不尽相同。其中它们之间最大的不同就是对于超线程(Hyper-Threading)技术的支持。Pentium D不能支持超线程技术,而Pentium Extreme Edition则没有这方面的限制。在打开超线程技术的情况下,双核心Pentium Extreme Edition处理器能够模拟出另外两个逻辑处理器,可以被系统认成四核心系统。
 楼主| 发表于 2006-3-28 00:12:47 | 显示全部楼层 |阅读模式
很长很长,先说明是我从很多地方转来的,很辛苦的说!类型写原创是因为其中也有我的个人说法和个人理解在内,好吧,下面一起来看吧

======================================起跑的分割线

CPU的主要功能参数详解

===================================================华丽的分割线


一,CPU主频:
这是一个最受新手关注的指标,指的就是CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某款CPU是多少兆赫兹的,而这个多少兆赫兹就是“CPU的主频”。在学校经常听见一些人问,XXX网吧的CPU2.66G!XXX网吧的才2G,有人用2.66G的赛扬与2.0G-2.66G的P4比,这是无知的表现,和他们争是无意义的:)。主频虽与CPU速度有关系,但确对不是绝对的正比关系,因为CPU的运算速度还要看CPU流水线(流水线下面介绍)的各方面性能指标(缓存、指令集,CPU位数等)。因此主频不代表CPU的整体性能,但提高主频对于提高CPU运算速度却是至关重要的。主频的计算公式为:主频=外频*倍频。

================================================换行的分割线

二:外频:
      外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。

================================================换行的分割线

三:倍频咯:倍频
    CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。  原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 === 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。

================================================换行的分割线

================================================个人言语的分割线

主频因素说完了,现在让我们来看看别的影响CPU速度的“东西”请允许我称他为东西,说功能现行

================================================换行的分割线
四:
流水线:
        这东西学地理的应该懂,高一下册地理书有说,他相当于一个公程的一部分一部分,我自己打个比喻!比如:就拿跑步和走路来说,就分为2级流水线,即左脚,再右脚,再一直循环下去,一级的话就可以说成是双脚一起跳,这样效率当然低,对吧。。。。。。这就是生活的流水线,当你左脚走出去之后,如果发现前面有一堆大便,只好重来了(设一次一定走2步)这就是流水线级别上去之后跟随的错误一出来CPU就要重新计算。。。。。。。。也许我说得不太明白,下面引用别人的话来说,转自网友“毛笔小新”

===================================================引用的发割线

在制造CPU的过程中,除了硬件设计之外,还有逻辑设计,流水线设计就属于逻辑设计范畴,举个例子来讲,比如说一家汽车工厂,在生产汽车的过程中采用了四个大组分别来完成四个生产步骤:1组生产汽车底盘,二组给底盘上装引擎,三组给汽车装外壳及轮胎,四组做喷漆,装玻璃及其他,这就叫做一条四级的流水线.(现在的大型汽车生产厂也的确是按照类似流水线来提高生产效率的). 假设每个步骤需要1小时,那么如果我们让1大组在做完1辆车的底盘后马上开始生产下一辆的底盘,二大组在做完一辆车的引擎后立刻投入下一辆车引擎的组装,以次类推三,四组的工作也如此,这样一来,每一小时就会有一辆奔驰或宝马被生产出来,这就相当于是CPU的指令排序执行. 但如果我们还想提升工厂的生产效率,又该怎么办呢?那么我们就可以将上述的每个大组在分成2个小组,形成一条8级的生产流水线,这样就形成每个小组(注意是\"小组\")只需要半小时就可以完成自己的工作,那么相应的每半小时就会有一辆汽车走下生产线,这样就提高了效率(这里不太好理解,请大家仔细想想就会明白).
根据这个道理,CPU的流水线也就不难理解了,只不过是把生产汽车变成了执行程序指令而已,原理上是相通的。

=================================接上的分割线

那么这里可以想到,如果再把流水线加长,是不是效率还可以提高呢? 当人们把这个想法运用到CPU设计中时才发现,由于采用流水线来安排指令,所以非常不灵活,一旦某一级的指令执行出错的话,整条流水线就会停止下来,再一极一级地去找出错误,然后把整条流水线清空,重新载入指令,这样一来,会浪费很多时间,执行效率反而十分低下,为了解决这个问题,科学家们又采用了各种预测技术来提高指令执行的正确率,希望在保持长流水线的同时尽量避免发生清空流水线的悲剧,这就是经常看到的Intel的广告\"该处理器采用了先进的分支预测技术....\",当你明白了上面我所讲的后,你就知道了吹得那么玄乎,其实也就不过如此.
还有不得不说的就是:长流水线会让CPU轻易达到很高的运行频率,但在这2G,3G的频率中又有多少是真正有效的工作频率呢? 而且级数越多,所累计出来的延迟越长,因为工作小组在交接工作时是会产生信号延迟的,虽然每个延迟很短,但20甚至30级的流水线所累计出来的延迟是不可忽视的,这样就形成了一个很好笑的局面,流水线技术为处理器提升了频率,但又因为自身的缺陷产生了很大的效率空白,将优势抵消掉,高频率的CPU还会带来高功耗和高发热量,所以说流水线并非越长越好

====================================接上的分割线
近年来Intel的奔四处理器经过了三个阶段的发展,最早的奔四采用的是(威廉)核心,该核心只有13级的流水线,普遍频率未上2G,速度一般,第二代的奔四采用的(northwoog北木)核心,这个核心有20级流水线,由于流水线级数比较合适,所以大副提升了奔四的速度,但又未影响执行效率,当时的奔四2.4A是一款经典产品,将AMD的速龙XP系列一直压制住,Intel因此尝到了甜头,很快就推出了Prescott(波塞冬)核心,这个长达31级流水线的新核心将奔四带入了近3G的速度,这个数字是AMD可望而不可及的,但人们很快发现新奔四的实际运行效率还不如老核心奔四,然尔频率却那么高,发热和功耗那么大,Intel凭借这块新核心\"光荣\"地获得了\"高频低能\"的美名,这个时候AMD适时推出了\"速龙64\"系列,全新的架构,20级的流水线,不高的发热与功耗,最重要的是低频高效,一举击败了新奔四,获得了很高的评价,Intel也吞下了自己造的苦果:被迫停止了4G奔四的开发,失去了不少的市场份额,连总裁贝瑞特也在IDF05上给大众下跪以求原谅.

=============================================换行的分割线

CPU缓存:
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。

二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高

=============================================换行的分割线

前端总线:
前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。
因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

================================================分割线!!!

再说说CPU的核心类型
Athlon XP的核心类型
Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。
Palomino
这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。
Thoroughbred
这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。
Thorton
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。
Barton
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。
新Duron的核心类型
AppleBred
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。
Athlon 64系列CPU的核心类型
Clawhammer
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。
Newcastle
其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。
AMD双核心处理器
AMD推出的双核心处理器
分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。
AMD推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。
双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。
与Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。
对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明显优于Pentium D架构。
虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。
AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。
英特尔CPU核心
Tualatin
这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。
Willamette
这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。
Northwood
这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。
Prescott
这是Intel最新的CPU核心,目前Pentium 4 XXX(如Pentium 4 530)和Celeron D采用该核心,还有少量主频在2.8GHz以上的CPU采用该核心。其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,目前生产的全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),最高有1066MHz的Pentium 4至尊版。其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB或2MB,封装方式采用PPGA,Prescott核心已经取代Northwood核心成为市场的主流产品。
Intel双核心处理器
目前Intel推出的双核心处理器有Pentium D和Pentium Extreme Edition,同时推出945/955芯片组来支持新推出的双核心处理器,采用90nm工艺生产的这两款新推出的双核心处理器使用是没有针脚的LGA 775接口,但处理器底部的贴片电容数目有所增加,排列方式也有所不同。
桌面平台的核心代号Smithfield的处理器,正式命名为Pentium D处理器,除了摆脱阿拉伯数字改用英文字母来表示这次双核心处理器的世代交替外,D的字母也更容易让人联想起Dual-Core双核心的涵义。
ntel的双核心构架更像是一个双CPU平台,Pentium D处理器继续沿用Prescott架构及90nm生产技术生产。Pentium D内核实际上由于两个独立的2独立的Prescott核心组成,每个核心拥有独立的1MB L2缓存及执行单元,两个核心加起来一共拥有2MB,但由于处理器中的两个核心都拥有独立的缓存,因此必须保正每个二级缓存当中的信息完全一致,否则就会出现运算错误。
为了解决这一问题,Intel将两个核心之间的协调工作交给了外部的MCH(北桥)芯片,虽然缓存之间的数据传输与存储并不巨大,但由于需要通过外部的MCH芯片进行协调处理,毫无疑问的会对整个的处理速度带来一定的延迟,从而影响到处理器整体性能的发挥。
由于采用Prescott内核,因此Pentium D也支持EM64T技术、XD bit安全技术。值得一提的是,Pentium D处理器将不支持Hyper-Threading技术。原因很明显:在多个物理处理器及多个逻辑处理器之间正确分配数据流、平衡运算任务并非易事。比如,如果应用程序需要两个运算线程,很明显每个线程对应一个物理内核,但如果有3个运算线程呢?因此为了减少双核心Pentium D架构复杂性,英特尔决定在针对主流市场的Pentium D中取消对Hyper-Threading技术的支持。
同出自Intel之手,而且Pentium D和Pentium Extreme Edition两款双核心处理器名字上的差别也预示着这两款处理器在规格上也不尽相同。其中它们之间最大的不同就是对于超线程(Hyper-Threading)技术的支持。Pentium D不能支持超线程技术,而Pentium Extreme Edition则没有这方面的限制。在打开超线程技术的情况下,双核心Pentium Extreme Edition处理器能够模拟出另外两个逻辑处理器,可以被系统认成四核心系统。
 楼主| 发表于 2006-3-28 00:13:03 | 显示全部楼层
===================================================分割!!

CPU工艺:
指在硅材料上生产CPU时内部各元器材的连接线宽度,一般用微米表示。微米值越小制作工艺越先进,CPU可以达到的频率越高,集成的晶体管就可以更多。目前Intel的P4和AMD的XP都已经达到了0.13微米的制造工艺,明年将达到0.09微米的制作工艺。

从上面我们了解了CPU的逻辑结构以及一些基本技术参数,本文将继续全面的了解影响CPU性能的有关技术参数。

===============================================================分!

下面又说说CPU的技术吧
CPU扩展指令集:
CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为CPU的指令集。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE3也是最先进的指令集,英特尔Prescott处理器已经支持SSE3指令集,AMD会在未来双核心处理器当中加入对SSE3指令集的支持,全美达的处理器也将支持这一指令集。

===================================================我分!!!

指令集:
(1) X86指令集要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU—i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加的X87芯片系列数学协处理器则另外使用X87指令,以后就将X86指令集和X87指令集统称为X86指令集。虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到今天,但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。
(2) RISC指令集RISC指令集是以后高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。而且RISC指令集还兼容原来的X86指令集。

==========================================狂分!!!!!!!!!!

字节:
电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。当前的CPU都是32位的CPU,但是字长的最佳是CPU发展的一个趋势。AMD推出64位的CPU-Atlon64。未来必然是64位CPU的天下。

======================================================分呀分呀!!!!

流水线与超流水线:
虽然流水线之 前说过了,但是在这再说说超流水线
流水线(pipeline)是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5~
6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5~6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。超流水线(superpiplined)是指某型CPU内部的流水线超过通常的5~6步以上,例如Pentium pro的流水线就长达14步。将流水线设计的步(级)其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。

======================================================分!~!!

封装形式:
CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。

======================================================分

HT(超线程)
说说INTEL大展的HT技术吧,我们班每个同学都懂得HT,但不知道HT是什么东西:)
Intel正式发布了“Hyper-Threading Technology(超线程技术)”这项技术将率先在XERON处理器上得到应用。通过使用该技术,Intel将提供世界上首枚集成了双逻辑处理器单元的物理处理器(其实就是在一个处理器上整合了两个逻辑处理器单元),据说能够提高40%的处理器性能,类似的技术似乎也将出现在AMDK8-Hammer处理器上。
何为Hyper-Threading:
 楼主| 发表于 2006-3-28 00:13:44 | 显示全部楼层
===================================================分割线!

延迟描述(CL):
CL反应时间是衡定内存的另一个标志。CL是CAS Latency的缩写,指的是内存存取数据所需的延迟时间,简单的说,就是内存接到CPU的指令后的反应速度。一般的参数值是2和3两种。数字越小,代表反应所需的时间越短。在早期的PC133内存标准中,这个数值规定为3,而在Intel重新制订的新规范中,强制要求CL的反应时间必须为2,这样在一定程度上,对于内存厂商的芯片及PCB的组装工艺要求相对较高,同时也保证了更优秀的品质。因此在选购品牌内存时,这是一个不可不察的因素。
还有另的诠释:
内存延迟基本上可以解释成是系统进入数据进行存取操作就绪状态前等待内存响应的时间。

打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的速度也就越快,进而电脑其他的性能也就越高。

这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。

通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。

如图所示,我们可以看到Crucial DDR333内存的延迟图表。通过这张图表,我们可以看出延迟数字所表示的含义。以最上面的CL===2的内存为例,图中分别有CAS2,CAS2.5以及CAS3三种延时。注意垂直的虚线,它表示的是时钟信号的上升沿或下降沿。由于这是一款DDR内存,因此,一个时钟周期内含有两个点。

CAS latency是注册读取命令到第一个输出数据之间的延迟。CAS latency的单位是时钟周期。

一块延迟设置为2-2-2-5的DDR内存,其性能要高出延迟为3-4-4-8的DIMM。这是因为前者接收到一条指令,找回数据以及送回数据的延迟要比后者要短。

体现在BIOS设置里,还有很多相关的选项:


在BIOS主界面的 Advanced Chipset Features 选项子界面中大家可以看到:
SDRAM Frequency
Configure SDRAM Timing by SPD
SDRAM CAS# Latency 简称CL
SDRAM RAS# Precharge 简称TRP
SDRAM RAS# to CAS# Delay 简称TRCD
SDRAM Precharge Delay 简称TRAS
SDRAM Burst Length 简称BL

具体在选项的描述上可能有差异,更多详细请参考附录1。

其实内存延迟的调节一定意义上也是超频的一种手段,但是它是在最低危险程度下根据内存的自身条件做出的调节,也就是说,在内存的反应程度上调节内存的工作的状态,叫它少休息,多工作,所以长期调整内存延迟对内存本身还有一定伤害的。事先声明,并非延迟越小内存性能越高,因为CL-TRP-TRCD-TRAS这四个数值是配合使用的,相互影响的程度非常大,并且也不是数值最大时其性能也最差,那么更加合理的配比参数成为了我们至关重要的一个环节。

=======================================分

ECC:
内存延迟基本上可以解释成是系统进入数据进行存取操作就绪状态前等待内存响应的时间。

打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的速度也就越快,进而电脑其他的性能也就越高。

这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。

通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。

如图所示,我们可以看到Crucial DDR333内存的延迟图表。通过这张图表,我们可以看出延迟数字所表示的含义。以最上面的CL===2的内存为例,图中分别有CAS2,CAS2.5以及CAS3三种延时。注意垂直的虚线,它表示的是时钟信号的上升沿或下降沿。由于这是一款DDR内存,因此,一个时钟周期内含有两个点。

CAS latency是注册读取命令到第一个输出数据之间的延迟。CAS latency的单位是时钟周期。

一块延迟设置为2-2-2-5的DDR内存,其性能要高出延迟为3-4-4-8的DIMM。这是因为前者接收到一条指令,找回数据以及送回数据的延迟要比后者要短。

体现在BIOS设置里,还有很多相关的选项:


在BIOS主界面的 Advanced Chipset Features 选项子界面中大家可以看到:
SDRAM Frequency
Configure SDRAM Timing by SPD
SDRAM CAS# Latency 简称CL
SDRAM RAS# Precharge 简称TRP
SDRAM RAS# to CAS# Delay 简称TRCD
SDRAM Precharge Delay 简称TRAS
SDRAM Burst Length 简称BL

具体在选项的描述上可能有差异,更多详细请参考附录1。

其实内存延迟的调节一定意义上也是超频的一种手段,但是它是在最低危险程度下根据内存的自身条件做出的调节,也就是说,在内存的反应程度上调节内存的工作的状态,叫它少休息,多工作,所以长期调整内存延迟对内存本身还有一定伤害的。事先声明,并非延迟越小内存性能越高,因为CL-TRP-TRCD-TRAS这四个数值是配合使用的,相互影响的程度非常大,并且也不是数值最大时其性能也最差,那么更加合理的配比参数成为了我们至关重要的一个环节。

=============================================分割线

SPD:
SPD(Serial Presence Detect),笔者翻译为“配置(存在位)串行探测”,而不是“连续存在探测”,如果单从字意上理解,后者的翻译并没有问题,但从其真正用意与工作方式来看,前者更准确一些。为什么呢?下面具体说说。
SPD是一组关于内存模组的配置信息,如P-Bank数量、电压、行地址/列地址数量、位宽、各种主要操作时序(如CL、tRCD、tRP、tRAS等)……它们存放在一个容量为256字节的EEPROM(ElectricallyErasableProgrammableReadOnlyMemory,电擦除可编程只读存储器)中。
实际上在SPD中,JEDEC规定的标准信息只用了128个字节(还有128字节,属于厂商自己的专用区)。一般的,一个字节至少对应一种参数,有的参数需要多个字节来表述(如产品续列号,生产商在JEDEC组织中的代码)。
其中,一个字节中的每个bit都可能用来表示这一参数的具体数值。由于SPD的信息很多,在此就不一一列出了,有兴趣的读者可以参阅相关文档。
SPD内的时序信息由模组生产商根据所使用的内存芯片的特点编写并写入至EEPROM,主要用途就是协助北桥芯片精确调整内存的物理/时序参数,以达到最佳的使用效果。如果在BIOS中将内存设置选项定为“By SPD”。
那么在开机时,北桥会根据SPD中的参数信息来自动配置相应的内存时序与控制寄存器,避免人为出现调校错误而引起故障。当然,对于DIYer来说,也可以自由调整时序与控制参数(物理参数仍要借助SPD或北桥自己检测来确定)。

=======================================分割线

DDR:
以往的SDRAM都只是单面取数据,而现在的DDR可以实现双面存取,速度当然快多啦,简单地说就是双通道内存的意思。
DDR内存现在已成为内存市场中新的宠儿,因其合理的性价比从其诞生以来一直受到人们热烈的期望,希望这一新的内存产品全面提升系统的处理速度和带宽,就连对Rambus抱有无限希望的Intel公司也向外界宣布将以最快的速度生产支持DDR内存的新一代P4系统。不难看出,DDR真的是大势所趋。
近来市场上已闻诸多厂商开始陆续推出自己的DDR内存产品,国际上少数内存生产商之一的金士顿公司(Kingston)其实在去年年底就已完成了批量生产DDR内存的生产线的建设,现在金士顿公司(Kingston)已准备开始向全球接受订单开始大量供货了。
那么究竟什么是DDR内存呢?其技术优势又在何处呢?请让我们先了解一下这样新的事物。
DDR是Double Data Rate SDRAM的缩写(双倍数据速率)。DDR SDRAM内存技术是从主流的PC66,PC100,PC133 SDRAM技术发展而来。这一新技术使新一代的高性能计算机系统成为可能,包括台式机、工作站、服务器、便携式,也包括新的通信产品,如路由器。DDR内存目前被广泛应用于高性能图形适配器。
DDR DIMMs与SDRAM DIMMs的物理元数相同,但两侧的线数不同,DDR应用184pins,而SDRAM则应用168pins。因此,DDR内存不向后兼容SDRAM,要求专为DDR设计的主板与系统。
DDR内存技术是成熟的PC100和PC133SDRAM技术的革命性进步。DDR内存芯片由半导体制造商用现有的晶圆片,程序及测试设备生产,从而降低了内存芯片的成本。Kingston能够利用其现有的制造与测试设备在全球范围内提供DDR模块。
主要的技术及芯片公司,包括Intel, AMD, Via Technology, Acer Labs (Ali), Silicon Integrated Systems (SiS), nVidia, ATI,及ServerWorks都已宣布支持DDR内存。主板及系统支持DDR内存在2000的Q4中已获引进,在2001年将被大量采用。
DDR DIMM的规范由JEDEC定案。JEDEC是电子行业联盟的半导体工业标准化组织。大约300家会员公司提交行业中每一环节的标准,积极合作来发展符合行业需求的标准体系。Kingston是JEDEC的长期会员,并且是JEDEC的理事会成员

======================================================

DDR2:
简单地说就是双通道内存的意思。
DDR内存现在渐渐成为内存市场中新的宠儿,因其合理的性价比从其诞生以来一直受到人们热烈的期望,希望这一新的内存产品全面提升系统的处理速度和带宽,就连对Rambus抱有无限希望的Intel公司也向外界宣布将以最快的速度生产支持DDR内存的新一代P4系统。不难看出,DDR真的是大势所趋。
近来市场上已闻诸多厂商开始陆续推出自己的DDR内存产品,国际上少数内存生产商之一的金士顿公司(Kingston)其实在去年年底就已完成了批量生产DDR内存的生产线的建设,现在金士顿公司(Kingston)已准备开始向全球接受订单开始大量供货了。
那么究竟什么是DDR内存呢?其技术优势又在何处呢?请让我们先了解一下这样新的事物。
DDR是Double Data Rate SDRAM的缩写(双倍数据速率)。DDR SDRAM内存技术是从主流的PC66,PC100,PC133 SDRAM技术发展而来。这一新技术使新一代的高性能计算机系统成为可能,包括台式机、工作站、服务器、便携式,也包括新的通信产品,如路由器。DDR内存目前被广泛应用于高性能图形适配器。
DDR DIMMs与SDRAM DIMMs的物理元数相同,但两侧的线数不同,DDR应用184pins,而SDRAM则应用168pins。因此,DDR内存不向后兼容SDRAM,要求专为DDR设计的主板与系统。
DDR内存技术是成熟的PC100和PC133SDRAM技术的革命性进步。DDR内存芯片由半导体制造商用现有的晶圆片,程序及测试设备生产,从而降低了内存芯片的成本。Kingston能够利用其现有的制造与测试设备在全球范围内提供DDR模块。
主要的技术及芯片公司,包括Intel, AMD, Via Technology, Acer Labs (Ali), Silicon Integrated Systems (SiS), nVidia, ATI,及ServerWorks都已宣布支持DDR内存。主板及系统支持DDR内存在2000的Q4中已获引进,在2001年将被大量采用。
DDR DIMM的规范由JEDEC定案。JEDEC是电子行业联盟的半导体工业标准化组织。大约300家会员公司提交行业中每一环节的标准,积极合作来发展符合行业需求的标准体系。Kingston是JEDEC的长期会员,并且是JEDEC的理事会成员

===================================================分

DDR3与DDR2的区别:
1、逻辑Bank数量
DDR2 SDRAM中有4Bank和8Bank的设计,目的就是为了应对未来大容量芯片的需求。而DDR3很可能将从2Gb容量起步,因此起始的逻辑Bank就是8个,另外还为未来的16个逻辑Bank做好了准备。
2、封装(Packages)
DDR3由于新增了一些功能,所以在引脚方面会有所增加,8bit芯片采用78球FBGA封装,16bit芯片采用96球FBGA封装,而DDR2则有60/68/84球FBGA封装三种规格。并且DDR3必须是绿色封装,不能含有任何有害物质。
3、突发长度(BL,Burst Length)
由于DDR3的预取为8bit,所以突发传输周期(BL,Burst Length)也固定为8,而对于DDR2和早期的DDR架构的系统,BL===4也是常用的,DDR3为此增加了一个4-bit Burst Chop(突发突变)模式,即由一个BL===4的读取操作加上一个BL===4的写入操作来合成一个BL===8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。
3、寻址时序(Timing)
就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2至5之间,而DDR3则在5至11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0至4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数===写入延迟(CWD),这一参数将根据具体的工作频率而定。
4、新增功能===重置(Reset)
重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界已经很早以前就要求增这一功能,如今终于在DDR3身上实现。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有的操作,并切换至最少量活动的状态,以节约电力。在Reset期间,DDR3内存将关闭内在的大部分功能,所以有数据接收与发送器都将关闭。所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。
5、新增功能===ZQ校准
ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(ODCE,On-Die Calibration Engine)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令之后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。
6、参考电压分成两个
对于内存系统工作非常重要的参考电压信号VREF,在DDR3系统中将分为两个信号。一个是为命令与地址信号服务的VREFCA,另一个是为数据总线服务的VREFDQ,它将有效的提高系统数据总线的信噪等级。
7、根据温度自动自刷新(SRT,Self-Refresh Temperature)

为了保证所保存的数据不丢失,DRAM必须定时进行刷新,DDR3也不例外。不过,为了最大的节省电力,DDR3采用了一种新型的自动自刷新设计(ASR,Automatic Self-Refresh)。当开始ASR之后,将通过一个内置于DRAM芯片的温度传感器来控制刷新的频率,因为刷新频率高的话,消电就大,温度也随之升高。而温度传感器则在保证数据不丢失的情况下,尽量减少刷新频率,降低工作温度。不过DDR3的ASR是可选设计,并不见得市场上的DDR3内存都支持这一功能,因此还有一个附加的功能就是自刷新温度范围(SRT,Self-Refresh Temperature)。通过模式寄存器,可以选择两个温度范围,一个是普通的的温度范围(例如0℃至85℃),另一个是扩展温度范围,比如最高到95℃。对于DRAM内部设定的这两种温度范围,DRAM将以恒定的频率和电流进行刷新操作。
8、局部自刷新(RASR,Partial Array Self-Refresh)
这是DDR3的一个可选项,通过这一功能,DDR3内存芯片可以只刷新部分逻辑Bank,而不是全部刷新,从而最大限度的减少因自刷新产生的电力消耗。这一点与移动型内存(Mobile DRAM)的设计很相似。
9、点对点连接(P2P,Point-to-Point)
这是为了提高系统性能而进行了重要改动,也是与DDR2系统的一个关键区别。在DDR3系统中,一个内存控制器将只与一个内存通道打交道,而且这个内存通道只能一个插槽。因此内存控制器与DDR3内存模组之间是点对点(P2P,Point-to-Point)的关系(单物理Bank的模组),或者是点对双点(P22P,Point-to-two-Point)的关系(双物理Bank的模组),从而大大减轻了地址/命令/控制与数据总线的负载。而在内存模组方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本电脑)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。不过目前有关DDR3内存模组的标准制定工作刚开始,引脚设计还没有最终确定。
除了以上9点之外,DDR3还在功耗管理,多用途寄存器方面有新的设计,但由于仍入于讨论阶段,且并不是太重要的功能,在此就不详细介绍了

======================================================呼好累的分割线

显卡了到

显卡对于显示性能有很大的影响,比如你用FX60,但是如果用在MX440上,那FX60就成了鸡肋了,是说在游戏方面成鸡肋。。。

=============================================分

显卡容量:
   显卡容量也叫显示内存容量,是指显示卡上的显示内存的大小。显示内存的主要功能在将显示芯片处理的资料暂时储存在显示内存中,然后再将显示资料映像到显示屏幕上,显示卡欲达到的分辨率越高,屏幕上显示的像素点就越多,所需的显示内存也就越多。而每一片显示卡至少需要具备512KB的内存,显示内存可以说是随着3 D加速卡的演进而不断地跟进。而显示内存的种类也由早期的DRAM到现在广泛流行的SDRAM及DDR,甚至DDR2/DDR3。 显存与系统内存一样,也是多多益善。显存越大,可以储存的图像数据就越多,支持的分辨率与颜色数也就越高。以下计算显存容量与分辨率关系的公式:
所需显存===图形分辨率×色彩精度/8
例如要上16bit真彩的1024×768,则需要1024×768×16/8===1.6M,即2M显存。
对于三维图形,由于需要同时对Front buffer、Back buffer和Z buffer进行处理,因此公式为:所需显存(帧存)===图形分辨率×3×色彩精度/8
例如一帧16bit、1024×768的三维场景,所需的帧缓存为1024×768×3×16bit/8===4.71M,即需要8M显存。


======================================================分

显存的种类:
显存的种类有EDORAM、MDRAM、SDRAM、SGRAM、VRAM、WRAM、DDR等许多种。EDO显存曾用在Voodoo、Voodoo 2等显卡上,但目前已消声匿迹。SGRAM显存支持块写和掩码,可以看作是SDRAM的加强版,曾流行一时,但由于价格较SDRAM稍高,现在也已甚少采用。目前显卡上被广泛使用的显存就是SDRAM和DDR SDRAM了。SDRAM可以与CPU同步工作,无等待周期,减少数据传输延迟。优点是价格低廉,在中低端显卡上得到了广泛的应用。DDR是Double Data Rate是缩写,它是现有的SDRAM内存的一种进化。在设计和操作上,与SDRAM很相似,唯一不同的是DDR在时钟周期的上升沿和下降沿都能传输数据,而SDRAM则只可在上升沿传输数据,所以DDR的带宽是SDRAM的两倍,而DDR比SDRAM的数据传输率也快一倍。如果SDRAM内存的频率是133MHz,则DDR内存的频率是266MHz,因此在中高档显卡上应用广泛。

======================================================分

显存的数据位数与带宽:
数据位数指的是在一个时钟周期之内能传送的bit数,它是决定显存带宽的重要因素,与显卡性能息息相关。当显存种类相同并且工作频率相同时,数据位数越大,它的性能就越高。
显存带宽的计算方法是:运行频率×数据带宽/8。以目前的GeForce3显卡为例,其显存系统带宽===230MHz×2(因为使用了DDR显存,所以乘以2)×128/8===7.36GB。
数据位数是显存也是显卡的一个很重要的参数。在显卡工作过程中,Z缓冲器、帧缓冲器和纹理缓冲器都会大幅占用显存带宽资源。带宽是3D芯片与本地存储器传输的数据量标准,这时候显存的容量并不重要,也不会影响到带宽,相同显存带宽的显卡采用64MB和32MB显存在性能上区别不大。因为这时候系统的瓶颈在显存带宽上,当碰到大量像素渲染工作时,显存带宽不足会造成数据传输堵塞,导致显示芯片等待而影响到速度。目前显存主要分为64位和128位,在相同的工作频率下,64位显存的带宽只有128位显存的一半。这也就是为什么Geforce2 MX200(64位SDR)的性能远远不如Geforce2 MX400(128位SDR)的原因了。目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。目前已推出最大显示芯片位宽是512位,那是由Matrox(幻日)公司推出的Parhelia-512显卡,这是世界上第一颗具有512位宽的显示芯片。而目前市场中所有的主流显示芯片,包括NVIDIA公司的GeForce系列显卡,ATI公司的Radeon系列等,全部都采用256位的位宽。这两家目前世界上最大的显示芯片制造公司也将在未来几年内采用512位宽。  显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。

======================================================分

显存的速度:
显存的速度一般以ns为单位。常见的显存有7ns、6ns、5.5ns、5ns、4ns甚至3.8ns的显存。其对应的额定工作频率分别是143MHz、166MHz、183MHz、200MHz和250MHz。额定工作频率===1/显存速度。当然,对于一些质量较好的显存来说,显存的实际最大工作频率是有一定的余量的。显存的超频就是基于这一原理,列如将额定频率为6ns的显存超至190MHz的运行频率。
这里还要说一说显存的实际运行频率和等效工作频率。DDR显存因为能在时钟的上升沿和下降沿都能传送数据,因此,在相同的时钟频率和数据位宽度的情况下显存带宽是普通SDRAM的两倍。换句话说,在显存速度相同的情况下,DDR显存的实际工作频率是普通SDRAM显存的2倍。同样,DDR显存达到的带宽也是普通SDRAM显存的2倍。例如,5ns的SDRAM显存的工作频率为200MHZ,而5ns的DDR显存的等效工作频率就是400MHZ。

=========================================================分分分

显存时钟周期:
    显存时钟周期就是显存时钟脉冲的重复周期,它是作为衡量显存速度的重要指标。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频率=1÷时钟周期×1000。那么显存频率为166MHz,那么它的时钟周期为1÷166×1000=6ns。对于DDR SDRAM显存来说,描述其工作频率时用的是等效输出频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的等效输出频率是SDRAM显存的两倍。例如,5ns的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM显存的等效工作频率就是400MHz。常见显存时钟周期有7.5ns、7ns、6ns、5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns,甚至更低。

=========================================================分啊

显存封装:
    显存封装是指显存颗粒所采用的封装技术类型,封装就是将显存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。显存封装形式主要有QFP、TSOP-II、MBGA等。QFP TSOP-II MBGA

=========================================================分

DX:
由微软公司所制定的3D规格界面,与Windows 95 和Windows NT操作系统兼容性好,可绕过图形显示接口(GDI)直接进行支持该API的各种硬件的底层操作,大大提高了游戏的运行速度。
目前最近的有DX9.0C,今年推出新系统VISTI(YES???)会推出DX10.0,等吧

=============================================分

图形芯片:
   显示主芯片自然是显示卡的核心,如nVIDIA公司的Riva128,TNT/TNT2,GeForce256,3dfx公司的Voodoo系列,S3公司的GX系列等。它们的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定这显示卡性能的高低,不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。

=========================================================分

双线过滤:
   这是一种较好的材质影像插补的处理方式,会先找出最接近像素的四个图素,然后在它们之间做差补效果,最后产生的结果才会被贴到像素的位置上,这样不会看到“马赛克”现象。这种处理方式较适用于有一定景深的静态影像,不过无法提供最佳品质,也不适用于移动中的物件。
三线过滤:
   这是一种更复杂材质影像插补处理方式,会用到相当多的材质影像,而每张的大小恰好会是另一张的四分之一。例如有一张材质影像是512×512个图素,第二张就会是256×256个图素,第三张就会是128×128个图素等,总之,最小的一张是1×1。凭借这些多重解析度的材质影像,当遇到景深极大的场景时(如飞行模拟),就能提供高品质的贴图效果。一个“双线过滤”需要三次混合,而“三线过滤”就得做七次混合处理,所以每个像素就需要多用21/3倍以上的计算时间。还需要两倍大的存储器时钟带宽。但是“三线过滤”可以提供最高的贴图品质,会去除材质的“闪烁”效果。对于需要动态物体或景深很大的场景应用方面而言,只有“三线过滤”才能提供可接受的材质品质。
 楼主| 发表于 2006-3-28 00:14:18 | 显示全部楼层
===================================================分

加速图形接口:
  AGP(Accelerate Graphical Port),加速图形接口。随着显示芯片的发展,PCI总线日益无法满足其需求。英特尔于1996年7月正式推出了AGP接口,它是一种显示卡专用的局部总线。严格的说,AGP不能称为总线,它与PCI总线不同,因为它是点对点连接,即连接控制芯片和AGP显示卡,但在习惯上我们依然称其为AGP总线。AGP接口是基于PCI 2.1 版规范并进行扩充修改而成,工作频率为66MHz。AGP总线直接与主板的北桥芯片相连,且通过该接口让显示芯片与系统主内存直接相连,避免了窄带宽的PCI总线形成的系统瓶颈,增加3D图形数据传输速度,同时在显存不足的情况下还可以调用系统主内存。所以它拥有很高的传输速率,这是PCI等总线无法与其相比拟的。由于采用了数据读写的流水线操作减少了内存等待时间,数据传输速度有了很大提高;具有133MHz及更高的数据传输频率;地址信号与数据信号分离可提高随机内存访问的速度;采用并行操作允许在CPU访问系统RAM的同时AGP显示卡访问AGP内存;显示带宽也不与其它设备共享,从而进一步提高了系统性能。AGP标准在使用32位总线时,有66MHz和133MHz两种工作频率,最高数据传输率为266Mbps和533Mbps,而PCI总线理论上的最大传输率仅为133Mbps。目前最高规格的AGP 8X模式下,数据传输速度达到了2.1GB/s。AGP接口的发展经历了AGP1.0(AGP1X、AGP2X)、AGP2.0(AGP Pro、AGP4X)、AGP3.0(AGP8X)等阶段,其传输速度也从最早的AGP1X的266MB/S的带宽发展到了AGP8X的2.1GB/S。

======================================================分。。。。。。超超华丽的

唉:真累,再说说主板吧
电源回路:
  电源回路是主板中的一个重要组成部分,其作用是对主机电源输送过来的电流进行电压的转换,将电压变换至CPU所能接受的内核电压值,使CPU正常工作,以及对主机电源输送过来的电流进行整形和过滤,滤除各种杂波和干扰信号以保证电脑的稳定工作。电源回路的主要部分一般都位于主板CPU插槽附近。

================================================分

北桥芯片:
  就是主板上离CPU最近的一块芯片,负责与CPU的联系并控制内存,作用是在处理器与PCI总线、DRAM、AGP和L2高速缓存之间建立通信接口。北桥芯片提供对CPU类型,主频,内存的类型,内存的最大容量,PCI/AGP插槽等设备的支持。北桥起到的作用非常明显,在电脑中起着主导的作用,所以人们习惯的称为主桥(Host Bridge)。

=============================================分

S-ATA Ⅰ:
  Serial ATA也就是串行ATA,它与目前广泛采用的ATA/100或ATA/133等接口最根本的不同在于,以前硬盘所有的ATA接口类型都是采用并行方式进行数据通信,因而统称并行ATA。而Serial ATA,顾名思义,也就是采用串行方式(Serial ATA采用“序列式”的结构,把若干位(bit)数据打包,然后采用比并行式更高的速度(高50%),把数据分组形式传输至主机的方式)进行数据传输。

======================================================分

S-ATA Ⅱ

  S-ATA Ⅱ技术产品将突破SATA技术面临的一些局限,其中最主要一点是对原本相对较低性能的提高,其次则是可靠性的改善。 SATA2.0的规格特征: 1)支持NCQ(Native Command Queue,本机命令队列). 由于磁道捕捉时间和转速的改善和优化,硬盘可更有效的进行信息捕捉/读/写数据。同时,由于硬盘读写头更加有效的转动,也使机械部件之间的磨损减少,增加了硬盘的寿命。 2)SATA 2.0可将性能/带宽提升至300MB/秒,性能上的飞跃使SATA 2.0成为企业工作站和入门级服务器性价比最好的选择。
PNP:
就是即插即用,对于许多PC用户而言,如果需要为你的PC增加一些新的功能,比如欣赏CD唱盘、看VCD影碟、收发传真等等,那么就得为你的PC机增加一些新的设备,如声卡、CD-ROM、MPEG硬件解压卡、FAX/MODEM传真卡等一系列新设备,通常而言,安装新设备的过程为:
(1) 按照所购买设备的说明来设置开关和跳线。
(2) 正确地将新设备按规定的要求插入主板扩展槽中。
(3) 安装随新设备所配的驱动程序。
(4) 重新引导系统。
然后,你很有可能得花费大量 的时间和精力来处理安装过程中所出现的种种问题。比如手工改变设备的开关或跳线,跟踪CONFIG。SYS文件以解决内部驻留程序的冲突等等。原因在于一台PC机至少有一个或者多个总线设备(BUS DEVICE),而多个总线设备则有可能共享相同的系统总线(SYSTEM BUS),于是这就不可避免地产生硬件资源上的冲突。轻者是新安装的设备无法使用或系统无法启动,严重的话就会导致系统的崩溃。怎样去解决这个问题?人们希望系统应该能提供对底层硬件资源包括IRQ(中断请求)、I/O(输入/输出)端口、DMA(直接内存存取)通道以及内容等的智能管理能力,免除用户因安装新的硬件设备而带来的烦恼。
随着微软推出WINDOWS 95/98,它也宣传了WINDOWS95/98为用户提供的底层硬件资源的智能管理能力,即WINDOWS95/98具有即插即用(PNP:Plug and Play)的功能,由此即插即用才为人们广泛重视。
即插即用这个概念很久以前就已被提出,它的标准则始于几种洞庭湖的解决PC硬件配置问题的方案,其中包括IBM的微通道总线以及COMPAQ公司在EISA(扩展标准工业系统总线)上的不懈努力。MICROSOFT制订即插即用的规范的时间从1991年才开始,促使MICROSOFT发展即插即用是APPLE公司在其广告中宣称MICROSOFT WINDOWS系统列在易于配置和使用方面远远比不上APPLE公司的MAC OS操作系统,APPLE公司的MACINTOSH微机上修改系统的设置简单到你只需插入或拔出扩展卡,机器就可以在其SYSTEM系列操作系统下很好地工作,从而省去了再设置开关、跳线或分配系统资源的烦恼,可以说是现阶段下完全的即插即用。传说固然归于传说,然而归根结底的原因还是因为技术的进步使得MICROSFT欲垄断个人PC机的操作系统。而欲使系统在易于使用上有一个飞跃,那么它就必须解决多个总线设备共享系统总线时所带来的系统底层资源的分配和再分配问题。MICROSFOT 同INTEL和COMPAQ的结盟促使其在1993年以后相继颂了即插即用的规范,包括其他总线类型如ISA、EISA、PCMCIA、PCI、VESA以及SCSI等,但是就现阶段而言,完全意义上的即插即用恐怕还需要一段时间才能够进一步完善。
MICROSFOT在WINDOWS FOR WORKGROUPS和WINDOWS NT上就已开始尝试一些设备检测和配置方面的试验。在WINDOWS FOR WORKGROUPS中,操作系统可自动检测出视频适配卡、鼠标、键盘及网络适配卡等的类型。WINDOWS NT则更进一步,它可以检测出SCSI设备及其他一些硬件,到了WINDOWS95/98,则几乎可以实现全自动的安装和系统的动态重配置。尽管WINDOWS95不可能对所有旧设备都能正确地识别,甚至有时也会求助于用户,但就即插即用本身而言,这已经是一个真正的飞跃了。现在的WIDNOWS98/2000在PNP方面又得到进一步的发展。

======================================================分

I/O地址:

  这个学过编程的都知道了,I/O地址中I是input的简写,O是output的简写,也就是输入输出地址。每个设备都会有一个专用的I/O地址,用来处理自己的输入输出信息。因此这是绝对不能够重复的。如果这两个资源有了冲突,系统硬件就会工作不正常。

================================================分

前端总线:

前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。
因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

===============================================================想哭的分

南桥芯片:

    南桥芯片(South Bridge)是主板芯片组的重要组成部分,一般位于主板上离CPU插槽较远的下方,PCI插槽的附近,这种布局是考虑到它所连接的I/O总线较多,离处理器远一点有利于布线。相对于北桥芯片来说,其数据处理量并不算大,所以南桥芯片一般都没有覆盖散热片。南桥芯片不与处理器直接相连,而是通过一定的方式(不同厂商各种芯片组有所不同,例如英特尔的英特尔Hub Architecture以及SIS的Multi-Threaded“妙渠”)与北桥芯片相连。南桥芯片负责I/O总线之间的通信,如PCI总线、USB、LAN、ATA、SATA、音频控制器、键盘控制器、实时时钟控制器、高级电源管理等,这些技术一般相对来说比较稳定,所以不同芯片组中可能南桥芯片是一样的,不同的只是北桥芯片。所以现在主板芯片组中北桥芯片的数量要远远多于南桥芯片。例如早期英特尔不同架构的芯片组Socket 7的430TX和Slot 1的440LX其南桥芯片都采用82317AB,而近两年的芯片组845E/845G/845GE/845PE等配置都采用ICH4南桥芯片,但也能搭配ICH2南桥芯片。更有甚者,有些主板厂家生产的少数产品采用的南北桥是不同芯片组公司的产品,例如以前升技的KG7-RAID主板,北桥采用了AMD 760,南桥则是VIA 686B。 南桥芯片的发展方向主要是集成更多的功能,例如网卡、RAID、IEEE 1394、甚至WI-FI无线网络等等。主板中间靠下的那个较大的芯片,就是主板的南桥芯片

======================================================分

硬件错误侦测:
    由于硬件的安装错误、不兼容或硬件损坏等原因,容易引起的硬件错误,从而导致轻则运行不正常,重则系统无法工作的故障。碰到此类情况,以前只能通过POST自检时的BIOS报警提示音,硬件替换法或通过DEBUG卡来查找故障原因。但这些方法使用起来很不方便,而且对用户的专业知识也要求较高,对普通用户并不适用。针对此问题,现在的主板厂商加如了许多人性化的设计,以方便用户快速,准确地判断故障原因。例如,现在许多主板特别设计了硬件加电自检故障的语言播报功能。以华硕的“POST播报员”为例,这个功能主要由华邦电子的W83791SD芯片,配合华硕自己设计芯片组合而成。可以监测CPU电压、CPU风扇转速、CPU温度、机壳风扇转速、电源风扇是否失效、机箱入侵警告等。这样就较好地保持了电脑的最佳工作状态。当系统有某个设备出故障时,POST播报员就会用语音提醒该配件出了故障。在硬件侦错报警方面,一些主板大厂都有自己非常独到的设计,譬如微星主板,用四支LED来反映主板的故障所在。而有的主板则干脆引入了早些年的Debug侦错卡的侦错技术,采用了更为直接的数码管来指出故障所在。另外,许多厂商还为主板设计了AGP保护电路,除了起显卡保护作用之外,保护电路还用一个LED发光二极管来告诉用户故障是否由显卡引起。

====================================分到我烦!

板载声卡:
  主板上附带的音效输出芯片,支持独立音效输出,常见为ALC650、CMI9761A。

===========================烦的分

CNR:
CNR插槽

  CNR是继AMR之后作为INTEL的标准扩展接口,其已被闲置了很久,基本见不到CNR的设备出现,AC_Link是专为声音处理和调制解调器开发的非常简单而且有效的协议,它可以允许声音处理部分和调制解调器的数字信号直接从PC传送到CODEC(多媒体数字信号编解码器),再由CODEC将数字信号转换为模拟信号并输出。CNR标准的基本思想是将声音处理和调制解调器的数字电路部分放进PC芯片中,而把模拟电路放在插卡上(CNR声卡的CODEC部分)或者在主板上(主板的声音CODEC部分)。相对于传统的PCI插卡,CNR成本更低,不需要声卡和调制解调器的PCI控制器,而且节省空间,高度集成,可以缩短CPU和CODEC之间的数字信号路径。CNR的作用其实和AMR是一样的,只不过CNR所能提供的功能比较广泛。这是因为CNR所搭配的Intel ICH2(FW82801BA)南桥芯片所整合的功能比ICH1(FW82801AA)更多的关系。所以随着i815E/i815EP主板的日渐普及,在市面上可以看到的CNR卡会愈来愈多,这些种类包括有:音频CNR、调制解调器CNR、LAN CNR、HomePNA CNR、USB Hub CNR等等。HomePNA是ICH2所支持的新功能,可以利用一般的RJ-11电话线来建立起局域网络,虽然最高频宽只有1Mbps(未来会支持10/100Mbps),不过这种低配置成本的区域网络倒是非常适合在家庭中使用。家庭局域网是CNR支持的一种重要功能。因为随着网络的逐步深入,家庭对广域网和局域网的需求会日益增加。但由于家庭在电信连接设施方面已具有成型而固定的基础。如果完全采用新的设施要求,那么必架构内进行大量的基础设施建设,而且这种作法也不利于其自身标准的推广应用。所以CNR选择了与RJ—11电话线实现无缝集成,这就为PC的小范围连接提供了经济高效的解决方案。

================================================分

BTX:
  BTX是英特尔提出的新型主板架构Balanced Technology Extended的简称,是ATX结构的替代者,这类似于前几年ATX取代AT和Baby AT一样。革命性的改变是新的BTX规格能够在不牺牲性能的前提下做到最小的体积。新架构对接口、总线、设备将有新的要求。重要的是目前所有的杂乱无章,接线凌乱,充满噪音的PC机将很快过时。当然,新架构仍然提供某种程度的向后兼容,以便实现技术革命的顺利过渡。 BTX具有如下特点:支持Low-profile,也即窄板设计,系统结构将更加紧凑; 针对散热和气流的运动,对主板的线路布局进行了优化设计; 主板的安装将更加简便,机械性能也将经过最优化设计。

===================================================分

ATX:
  英特尔在95年1月公布了扩展AT主板结构,即ATX(AT extended)主板标准。这一标准得到世界主要主板厂商支持,目前已经成为最广泛的工业标准。97年2月推出了ATX2.01版。 ATX主板针对AT和Baby AT主板的缺点做了以下改进:主板外形在Baby AT的基础上旋转了90度,其几何尺寸改为30.5cm×24.4cm。 采用7个I/O插槽,CPU与I/O插槽、内存插槽位置更加合理。 优化了软硬盘驱动器接口位置。 提高了主板的兼容性与可扩充性。 采用了增强的电源管理,真正实现电脑的软件开/关机和绿色节能功能。

=========================================================分

硬件监控:
    为了让用户能够了解硬件的工作状态(温度、转速、电压等),主板上通常有一块至两块专门用于监控硬件工作状态的硬件监控芯片。当硬件监控芯片与各种传感元件(电压、温度、转速)配合时,便能在硬件工作状态不正常时,自动采取保护措施或及时调整相应元件的工作参数,以保证电脑中各配件工作在正常状态下。常见的有温度控制芯片和通用硬件监控芯片等等。温度控制芯片:主流芯片可以支持两组以上的温度检测,并在温度超过一定标准的时候自动调整处理器散热风扇的转速,从而降低CPU的温度。超过预设温度时还可以强行自动关机,从而保护电脑系统。常见的温度控制芯片有Analog Devices的ADT7463等等。通用硬件监控芯片:这种芯片通常还整合了超级I/O(输出/输出管理)功能,可以用来监控受监控对象的电压、温度、转速等。对于温度的监控需与温度传感元件配合;对风扇电机转速的监控,则需与CPU或显卡的散热风扇配合。比较常见的硬件监控芯片有华邦公司的W83697HF和W83627HF,SMSC公司的LPC47M172,ITE公司的IT8705F、IT8703F,ASUS公司的AS99172F(此芯片能同时对三组系统风扇和三组系统温度进行监控)等。

============================================================分

主板结构:
    由于主板是电脑中各种设备的连接载体,而这些设备的各不相同的,而且主板本身也有芯片组,各种I/O控制芯片,扩展插槽,扩展接口,电源插座等元器件,因此制定一个标准以协调各种设备的关系是必须的。所谓主板结构就是根据主板上各元器件的布局排列方式,尺寸大小,形状,所使用的电源规格等制定出的通用标准,所有主板厂商都必须遵循。主板结构分为AT、Baby-AT、ATX、Micro ATX、LPX、NLX、Flex ATX、EATX、WATX以及BTX等结构。其中,AT和Baby-AT是多年前的老主板结构,现在已经淘汰;而LPX、NLX、Flex ATX则是ATX的变种,多见于国外的品牌机,国内尚不多见;EATX和WATX则多用于服务器/工作站主板;ATX是目前市场上最常见的主板结构,扩展插槽较多,PCI插槽数量在4-6个,大多数主板都采用此结构;Micro ATX又称Mini ATX,是ATX结构的简化版,就是常说的“小板”,扩展插槽较少,PCI插槽数量在3个或3个以下,多用于品牌机并配备小型机箱;而BTX则是英特尔制定的最新一代主板结构。ATBaby ATATXMicro ATXBTX

======================================================分

硬盘接口:
  硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。

======================================================分

显示芯片:
    显示芯片是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡就能实现普通的显示功能,以满足一般的家庭娱乐和商业应用,节省用户购买显卡的开支。板载显示芯片可以分为两种类型:整合到北桥芯片内部的显示芯片以及板载的独立显示芯片,市场中大多数板载显示芯片的主板都是前者,如常见的865G/845GE主板等;而后者则比较少见,例如精英的“游戏悍将”系列主板,板载SIS的Xabre 200独立显示芯片,并有64MB的独立显存。主板板载显示芯片的历史已经非常悠久了,从较早期VIA的MVP4芯片组到后来英特尔的810系列,815系列,845GL/845G/845GV/845GE,865G/865GV以及即将推出的910GL/915G/915GL/915GV等芯片组都整合了显示芯片。而英特尔也正是依靠了整合的显示芯片,才占据了图形芯片市场的较大份额。目前各大主板芯片组厂商都有整合显示芯片的主板产品,而所有的主板厂商也都有对应的整合型主板。英特尔平台方面整合芯片组的厂商有英特尔,VIA,SIS,ATI等,AMD平台方面整合芯片组的厂商有VIA,SIS,NVIDIA等等。从性能上来说,英特尔平台方面显示芯片性能最高的是ATI的Radeon 9100 IGP芯片组,而AMD平台方面显示芯片性能最高的是NVIDIA的nForce2 IGP芯片组。

======================================================分

BIOS:
这个东西可以说是CMOS的软件吧
呵呵,下面看看具体如何的是:
计算机用户在使用计算机的过程中,都会接触到BIOS,它在计算机系统中起着非常重要的作用。
BIOS,完整地说应该是ROM-BIOS,是只读存储器基本输入/输出系统的简写,它实际上是被固化到计算机中的一组程序,为计算机提供最低级的、最直接的硬件控制。准确地说,BIOS是硬件与软件程序之间的一个“转换器”或者说是接口(虽然它本身也只是一个程序),负责解决硬件的即时需求,并按软件对硬件的操作要求具体执行。
 一、BIOS的功能
  从功能上看,BIOS分为三个部分:
  1.自检及初始化程序;
  2.硬件中断处理;
  3.程序服务请求。
  下面我们就逐个介绍一下各部分功能:
  (一)自检及初始化
  这部分负责启动计算机,具体有三个部分,第一个部分是用于计算机刚接通电源时对硬件部分的检测,也叫做加电自检(POST),功能是检查计算机是否良好,例如内存有无故障等。第二个部分是初始化,包括创建中断向量、设置寄存器、对一些外部设备进行初始化和检测等,其中很重要的一部分是BIOS设置,主要是对硬件设置的一些参数,当计算机启动时会读取这些参数,并和实际硬件设置进行比较,如果不符合,会影响系统的启动。
  最后一个部分是引导程序,功能是引导DOS或其他操作系统。BIOS先从软盘或硬盘的开始扇区读取引导记录,如果没有找到,则会在显示器上显示没有引导设备,如果找到引导记录会把计算机的控制权转给引导记录,由引导记录把操作系统装入计算机,在计算机启动成功后,BIOS的这部分任务就完成了。
  (二)程序服务处理和硬件中断处理
  这两部分是两个独立的内容,但在使用上密切相关。
  程序服务处理程序主要是为应用程序和操作系统服务,这些服务主要与输入
发表于 2006-3-31 20:45:23 | 显示全部楼层
确实是好东西
发表于 2006-4-4 08:46:04 | 显示全部楼层
楼主的 细心 ,让我赞一个
发表于 2006-4-17 20:15:13 | 显示全部楼层
wo xi huan
发表于 2006-4-20 17:43:47 | 显示全部楼层
楼主辛苦了,不错的硬件知识普及,希望对大家都有所帮助
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

每日推荐上一条 /1 下一条

小黑屋|手机版|湖南大学望麓自卑校园传媒 ( 湘ICP备14014987号 )

GMT+8, 2024-11-24 02:04 , Processed in 0.258202 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表