CPU缓存北桥南桥前端总线Word格式文档下载.docx
- 文档编号:13670762
- 上传时间:2022-10-12
- 格式:DOCX
- 页数:14
- 大小:27.08KB
CPU缓存北桥南桥前端总线Word格式文档下载.docx
《CPU缓存北桥南桥前端总线Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《CPU缓存北桥南桥前端总线Word格式文档下载.docx(14页珍藏版)》请在冰豆网上搜索。
内置的L1高速缓存的和结构对CPU的性能影响较大,不太高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情形下,L1级高速缓存的容量不可能做得太大。
一般服务器CPU的L1缓存的容量通常在32—256KB。
L2Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。
内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。
L2高速缓存容量也会影响CPU的性能,原则是越大越好,此刻家庭用CPU容量最大的是4MB,而服务器和工作站上用CPU的L2高速缓存更高达2MB—4MB,有的高达8MB或19MB。
L3Cache(三级缓存),分为两种,初期的是外置,此刻的都是内置的。
而它的实际作用即是,L3缓存的应用能够进一步降低内存延迟,同时提升大数据量计算时处置器的性能。
降低内存延迟和提升大数据量计算能力对游戏都很有帮忙。
而在服务器领域增加L3缓存在性能方面仍然有显著的提升。
例如具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统能够处置更多的数据请求。
具有较大L3缓存的处置器提供更有效的文件系统缓存行为及较短消息和处置器队列长度。
其实最先的L3缓存被应用在AMD发布的K6-III处置器上,那时的L3缓存受限于制造工艺,并无被集成进芯片内部,而是集成在主板上。
在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。
后来利用L3缓存的是英特尔为服务器市场所推出的Itanium处置器。
接着就是P4EE和至强MP。
Intel还打算推出一款9MBL3缓存的Itanium2处置器,和以后24MBL3缓存的双核心Itanium2处置器。
但大体上L3缓存对处置器的性能提高显得不是很重要,例如配备1MBL3缓存的XeonMP处置器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。
作用
速缓冲存储器Cache是位于CPU与内存之间的临时存储器,它的容量比内存小但互换速度快。
在Cache中的数据是内存中的一小部份,但这一小部份是短时刻内CPU即将访问的,当CPU挪用大量数据时,就可避开内存直接从Cache中挪用,从而加速读取速度。
由此可见,在CPU中加入Cache是一种高效的解决方案,如此整个内存储器(Cache+内存)就变成了既有Cache的高速度,又有内存的大容量的存储系统了。
Cache对CPU的性能影响专门大,主如果因为CPU的数据互换顺序和CPU与Cache间的带宽引发的。
高速缓存的工作原理
一、读取顺序
CPU要读取一个数据时,第一从Cache中查找,若是找到就当即读取并送给CPU处置;
若是没有找到,就用相对慢的速度从内存中读取并送给CPU处置,同时把那个数据所在的数据块调入Cache中,能够使得以后对整块数据的读取都从Cache中进行,没必要再挪用内存。
正是如此的读取机制使CPU读取Cache的命中率超级高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在Cache中,只有大约10%需要从内存读取。
这大大节省了CPU直接读取内存的时刻,也使CPU读取数据时大体无需等待。
总的来讲,CPU读取数据的顺序是先Cache后内存。
二、缓存分类
前面是把Cache作为一个整体来考虑的,此刻要分类分析了。
Intel从Pentium开始将Cache分开,通常分为一级高速缓存L1和二级高速缓存L2。
在以往的观念中,L1Cache是集成在CPU中的,被称为片内Cache。
在L1中还分数据Cache(I-Cache)和指令Cache(D-Cache)。
它们别离用来寄存数据和执行这些数据的指令,而且两个Cache能够同时被CPU访问,减少了争用Cache所造成的冲突,提高了处置器效能。
在P4处置器中利用了一种先进的一级指令Cache——动态跟踪缓存。
它直接和执行单元及动态跟踪引擎相连,通过动态跟踪引擎能够专门快地找到所执行的指令,而且将指令的顺序存储在追踪缓存里,如此就减少了主执行循环的解码周期,提高了处置器的运算效率。
以前的L2Cache没集成在CPU中,而在主板上或与CPU集成在同一块电路板上,因此也被称为片外Cache。
但从PⅢ开始,由于工艺的提高L2Cache被集成在CPU内核中,以相同于主频的速度工作,结束了L2Cache与CPU大差距分频的历史,使L2Cache与L1Cache在性能上平等,取得更高的传输速度。
L2Cache只存储数据,因此不分数据Cache和指令Cache。
在CPU核心不转变的情形下,增加L2Cache的容量能使性能提升,同一核心的CPU高低端之分往往也是在L2Cache上做手脚,可见L2Cache的重要性。
此刻CPU的L1Cache与L2Cache惟一区别在于读取顺序。
3、读取命中率
CPU在Cache中找到有效的数据被称为命中,当Cache中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。
从理论上讲,在一颗拥有2级Cache的CPU中,读取L1Cache的命中率为80%。
也就是说CPU从L1Cache中找到的有效数据占数据总量的80%,剩下的20%从L2Cache读取。
由于不能准确预测将要执行的数据,读取L2的命中率也在80%左右(从L2读到有效的数据占总数据的16%)。
那么还有的数据就不能不从内存挪用,但这已是一个相当小的比例了。
在一些高端领域的CPU(像Intel的Itanium)中,咱们常听到L3Cache,它是为读取L2Cache后未命中的数据设计的—种Cache,在拥有L3Cache的CPU中,只有约5%的数据需要从内存中挪用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,Cache中的内容应该按必然的算法替换。
一种较常常利用的算法是“最近最少利用算法”(LRU算法),它是将最近一段时刻内最少被访问过的行淘汰出局。
因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。
当需要替换时淘汰行计数器计数值最大的数据行出局。
这是一种高效、科学的算法,其计数器清零进程能够把一些频繁挪用后再不需要的数据淘汰出Cache,提高Cache的利用率。
缓存技术的进展
总之,在传输速度有较大不同的设备间都能够利用Cache作为匹配来调节差距,或说是这些设备的传输通道。
在显示系统、硬盘和光驱,和网络通信中,都需要利用Cache技术。
但Cache均由静态RAM组成,结构复杂,本钱不菲,利用现有工艺在有限的面积内不可能做得专门大,不过,这也正是技术前进的源动力,有需要才有进步!
一级缓存
CPU缓存(CacheMemory)是位于CPU与内存之间的临时存储器,它的容量比内存小的多可是互换速度却比内存要快得多。
缓存的出现主如果为了解决CPU运算速度与内存读写速度不匹配的矛盾,因为CPU运算速度要比内存读写速度快很多,如此会使CPU花费很长时刻等待数据到来或把数据写入内存。
在缓存中的数据是内存中的一小部份,但这一小部份是短时刻内CPU即将访问的,当CPU挪用大量数据时,就可避开内存直接从缓存中挪用,从而加速读取速度。
由此可见,在CPU中加入缓存是一种高效的解决方案,如此整个内存储器(缓存内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。
缓存对CPU的性能影响专门大,主如果因为CPU的数据互换顺序和CPU与缓存间的带宽引发的。
缓存的工作原理是当CPU要读取一个数据时,第一从缓存中查找,若是找到就当即读取并送给CPU处置;
若是没有找到,就用相对慢的速度从内存中读取并送给CPU处置,同时把那个数据所在的数据块调入缓存中,能够使得以后对整块数据的读取都从缓存中进行,没必要再挪用内存。
正是如此的读取机制使CPU读取缓存的命中率超级高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。
总的来讲,CPU读取数据的顺序是先缓存后内存。
目前缓存大体上都是采用SRAM存储器,SRAM是英文StaticRAM的缩写,它是一种具有静志存取功能的存储器,不需要刷新电路即能保留它内部存储的数据。
不像DRAM内存那样需要刷新电路,每隔一段时刻,固定要对DRAM刷新充电一次,不然内部的数据即会消失,因此SRAM具有较高的性能,可是SRAM也有它的缺点,即它的集成度较低,相同容量的DRAM内存能够设计为较小的体积,可是SRAM却需要专门大的体积,这也是目前不能将缓存容量做得太大的重要原因。
它的特点归纳如下:
长处是节能、速度快、没必要配合内存刷新电路、可提高整体的工作效率,缺点是集成度低、相同的容量体积较大、而且价钱较高,只能少量用于关键性系统以提高效率。
依照数据读取顺序和与CPU结合的紧密程度,CPU缓存能够分为一级缓存,二级缓存,部份高端CPU还具有三级缓存,每一级缓存中所贮存的全数数据都是下一级缓存的一部份,这三种缓存的技术难度和制造本钱是相对递减的,所以其容量也是相对递增的。
当CPU要读取一个数据时,第一从一级缓存中查找,若是没有找到再从二级缓存中查找,若是仍是没有就从三级缓存或内存中查找。
一般来讲,每级缓存的命中率可能都在80%左右,也就是说全数数据量的80%都能够在一级缓存中找到,只剩下20%的总数据量才需要从二级缓存、三级缓存或内存中读取,由此可见一级缓存是整个CPU缓存架构中最为重要的部份。
一级缓存(Level1Cache)简称L1Cache,位于CPU内核的隔壁,是与CPU结合最为紧密的CPU缓存,也是历史上最先出现的CPU缓存。
由于一级缓存的技术难度和制造本钱最高,提高容量所带来的技术难度增加和本钱增加超级大,所带来的性能提升却不明显,性价比很低,而且现有的一级缓存的命中率已经很高,所以一级缓存是所有缓存中容量最小的,比二级缓存要小得多。
一般来讲,一级缓存能够分为一级数据缓存(DataCache,D-Cache)和一级指令缓存(InstructionCache,I-Cache)。
二者别离用来寄存数据和对执行这些数据的指令进行即时解码,而且二者能够同时被CPU访问,减少了争用Cache所造成的冲突,提高了处置器效能。
目前大多数CPU的一级数据缓存和一级指令缓存具有相同的容量,例如AMD的AthlonXP就具有64KB的一级数据缓存和64KB的一级指令缓存,其一级缓存就以64KB64KB来表示,其余的CPU的一级缓存表示方式以此类推。
Intel的采用NetBurst架构的CPU(最典型的就是Pentium4)的一级缓存有点特殊,利用了新增加的一种一级追踪缓存(ExecutionTraceCache,T-Cache或ETC)来替代一级指令缓存,容量为12KμOps,表示能存储12K条即12000条解码后的微指令。
一级追踪缓存与一级指令缓存的运行机制是不相同的,一级指令缓存只是对指令作即时的解码而并非会贮存这些指令,而一级追踪缓存一样会将一些指令作解码,这些指令称为微指令(micro-ops),而这些微指令能贮存在一级追踪缓存之内,无
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- CPU 缓存 北桥南桥 前端 总线