栏目分类:
子分类:
返回
文库吧用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
文库吧 > IT > 软件开发 > 后端开发 > Java

一文详解处理器缓存(缓存一致性、读写屏障、指令预取、false sharing)

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

一文详解处理器缓存(缓存一致性、读写屏障、指令预取、false sharing)

主要参考了《Linux内核深度解析》和其他一些相关文章

文章目录
  • 处理器缓存
    • 缓存结构
      • 缓存别名 cache alias
    • 缓存策略
      • 预加载提示指令
    • 内核缓存维护
      • 内核修改页表
      • 内核修改进程的物理页
      • ARM64处理器的缓存维护
    • SMP缓存一致性
      • MESI协议的消息
      • 缓存行状态的转换
      • 举例说明
      • 改进措施
        • 存储缓冲区 写屏障
        • 使无效队列 读屏障
    • 利用缓存提高性能的编程技巧
      • false sharing伪共享
      • false-sharing避免方法

处理器缓存

**现代处理器一纳秒可以执行几十条指令,但是需要几十纳秒才能从物理内存取出一个数据,速度差距超过两个数量级别,导致处理器花费很长时间等待从内存读取数据。为了解决处理器执行速度和内存访问速度不匹配的问题,在处理器和内存之间增加了缓存。**缓存和内存的区别如下。

(1)缓存是静态随机访问存储器(Static Random Access Memory,SRAM),访问速度接近于处理器的速度,但是集成度低,和内存相比,在容量相同的情况下体积大,并且价格昂贵。

(2)内存是动态随机访问存储器(Dynamic Random Access Memory,DRAM),访问速度慢,但是集成度高,和缓存相比,在容量相同的情况下
体积小。

通常使用多级缓存,一级缓存集成在处理器内部,离处理器最近,容量小,访问时间是1个时钟周期。二级缓存可能在处理器内部或外部,容量更大,访问时间是大约10个时钟周期。有些高端处理器有三级甚至四级缓存。在SMP系统中,处理器的每个核有独立的一级缓存,所有核共享二级缓存。

为了支持同时取指令和取数据,一级缓存分为一级指令缓存(i-cache,instruction cache)和一级数据数据(d-cache,data cache)。二级缓存是指令和数据共享的统一缓存(unified cache)。

缓存结构

看到32KB四路组相连缓存(32KB 4-way set associative cache),你知道是什么意思吗?如果想要看懂,就必须先了解缓存的结构。

缓存由多个容量相同的子缓存并联组成,每个子缓存称为路(Way),四路表示4个子缓存并联。

缓存是通过硬件散列表实现的,散列表有固定长度的散列桶,硬件工程师把散列桶称为组(Set)。四路组相连缓存的散列桶的长度是4。

缓存被划分为容量相同的缓存行,每个缓存行有两个状态位:有效位表示缓存行包含数据或指令,脏位表示缓存行里面的数据比内存里面的数据新。
每个缓存行对应一个索引。
查找一个内存地址对应的缓存行,需要根据内存地址算出缓存行索引。因为可能存在多个内存地址的缓存行索引相同,所以缓存行需要一个标签(tag)来区分不同的内存地址。

内存地址被分解为标签(tag)、缓存行索引(index)和缓存行内部的字节偏移(offset)。

我们再来分析“32KB四路组相连缓存”的意思:缓存由4个子缓存并联组成,即四路并联,四路的容量总和是32KB,每路的容量是8KB。

缓存行的标签通常是从物理地址生成的,索引可能从物理地址或虚拟地址生成,我们根据索引的生成方式把缓存分为两类。
(1)把从物理地址生成索引和标签的缓存称为物理索引物理标签(Physically Indexed Physically Tagged,PIPT)缓存。
(2)把从虚拟地址生成索引、从物理地址生成标签的缓存称为虚拟索引物理标签(Virtually Indexed Physically Tagged,VIPT)缓存。

缓存别名 cache alias

从虚拟地址生成索引的好处是:不需要等到内存管理单元把虚拟地址转换成物理地址以后才能开始查询缓存,查询缓存和地址转换可以并行执行,提高处理器的执行速度,但是可能导致缓存别名(cache alias)问题。

缓存别名(cache alias)问题产生条件

  • 假设两个进程共享一个物理页,一个物理地址被映射到两个虚拟地址
  • 缓存中每路的容量大于页长度

如图3.150所示,假设两个进程共享一个物理页,一个物理地址被映射到两个虚拟地址。假设页长度是4KB,缓存中每路的容量是8KB,缓存行的长度是32字节。

因为进程1的虚拟地址的第0~11位和物理地址的第0~11位相同==(页内偏移相同)==,进程2的虚拟地址的第0~11位和物理地址的第0~11位相同,所以两个虚拟地址的第0~11位相同,但是两个虚拟地址的第12位不一定相同。

缓存行的字节偏移是虚拟地址的第0~4位,索引是虚拟地址的第5~12位。如果两个虚拟地址的第12位不同,那么生成的缓存行索引不同,导致同一内存位置的数据被复制到缓存中的两个缓存行,这就是缓存别名问题

当缓存中每路的容量大于页长度的时候,会出现缓存别名问题。如果缓存中每路的容量小于或等于页长度,那么不会出现缓存别名问题。假设缓存中每路的容量是4KB,索引是虚拟地址的第5~11位,因为两个虚拟地址的第0~11位相同,所以两个虚拟地址生成的缓存行索引相同。

对于可写的数据,缓存别名问题的危害是:如果修改了一个缓存行中的数据,但另一个缓存行中的数据仍然是旧的,将导致从两个虚拟地址读到的数据不同。对于指令和只读的数据,缓存别名问题没有危害。

软件可以规避缓存别名问题:把共享内存映射到进程的虚拟地址空间的时候,如果分配的虚拟内存区域的起始地址是缓存中每路的容量的整数倍(保证多的位数为0),就可以规避缓存别名问题。

ARM64处理器的数据缓存和统一缓存通常是PIPT缓存,也可以是没有别名问题的VIPT缓存(缓存中每路的容量小于或等于页长度)。

(1)PIPT缓存(Physically Indexed Physically Tagged,PIPT)。
(2)VPIPT(VMID-aware PIPT)缓存,即感知虚拟机标识符的PIPT缓存(多了个VMID)。
(3)VIPT缓存(Virtually Indexed Physically Tagged,VIPT)。

Instruction cache —— 指令缓存

VPIPT缓存和VIPT缓存都实现了ARM IVIPT(Instruction cache VIPT)扩展:只需要在向存放指令的物理地址写入新的数据以后维护指令缓存。

缓存策略

缓存分配有两种策略:

(1)写分配(write allocation)。
如果处理器写数据的时候没有命中缓存行,那么分配一个缓存行,然后读取数据并填充缓存行,接着把数据写到缓存行。
(2)读分配(read allocation)。
如果处理器读数据的时候没有命中缓存行,那么分配一个缓存行。

缓存更新有两种策略:

(1)写回(write-back)。
处理器写数据的时候,只更新缓存,把缓存行标记为脏。只在缓存行被替换或被程序清理的时候更新内存。
(2)写透(write-through)。
处理器写数据的时候,同时更新缓存和内存,但不会把缓存行标记为脏。

指定内存的可缓存属性时,需要分别指定内部属性和外部属性。对内部和外部的划分是由具体实现定义的,如图3.151 所示,典型的划分是集成在处理器内部的缓存使用内部属性,外部缓存使用外部属性。

预加载提示指令

处理器可能投机性地访问内存,即把程序没有请求过的内存位置的数据自动加载到缓存中。程序可以指示处理器哪个数据将来被使用,让处理器预先把数据读到缓存中。ARM64处理器提供了预加载提示指令(PRFM,它是Prefetch from Memory的缩写):

PRFM ,  | label

  • :PLD表示加载预取(prefetch for load),PST表示存储预取(prefetch for store)。
  • :L1表示1级缓存,L2表示2级缓存,L3表示3级缓存。
    • KEEP表示把预取的数据保存在缓存中(因为预取的数据会被使用多次),称为保存预取(retain prefetch)或暂存预取(temporal prefetch);
    • STRM(stream)表示直接把预取的数据传给处理器的核(因为预取的数据只会使用一次,不需要保存在缓存中),称为流动预取(streaming prefetch)或非暂存预取(non-temporal prefetch)。
  • 例如:PRFM PLDL1KEEP, [Xm, #imm]表示为一个从虚拟地址(Xm + 偏移)加载数据的操作预取数据到1级缓存中,并且暂存在缓存中。
内核缓存维护

内核在以下情况需要维护缓存。

(1)**内核修改或删除页表项**的时候,需要冲刷缓存。

(2)内核使用内核虚拟地址修改进程的物理页,为了避免产生内核虚拟地址和用户虚拟地址之间的缓存别名问题(同一个物理地址被映射到两个不同虚拟地址),需要冲刷缓存。

(3)和外围设备交互时,处理器写数据到DMA区域的内存块,然后通过设置外围设备的控制器上的控制寄存器发送命令,外围设备通过DMA控制器从物理内存读取数据。DMA控制器读取数据时不经过处理器的缓存,所以处理器写完数据以后必须冲刷缓存,把缓存中的数据写回到物理内存。

冲刷(flush)缓存的意思解释如下。

(1)如果缓存行的有效位被设置,且脏位被设置,即缓存行包含数据并且被修改过,那么把数据写回到物理内存,然后清除有效位。
(2)如果缓存行的有效位被设置,但脏位没有被设置,即缓存行包含数据并且没有被修改过,那么只需要清除有效位。

内核修改页表

进程退出时删除进程的所有页表项(可以不用做),或者进程在执行execve()以装载新程序的时候删除所有旧的页表项,必须按照下面的顺序执行:

flush_cache_mm(mm);
change_all_page_tables_of(mm);
flush_tlb_mm(mm);

内核修改某个虚拟地址范围内的页表项,必须按照下面的顺序执行:

flush_cache_range(vma, start, end);
change_range_of_page_tables(mm, start, end);
flush_tlb_range(vma, start, end);

内核修改一条页表项,必须按照下面的顺序执行:

flush_cache_page(vma, addr, pfn);
set_pte(pte_pointer, new_pte_val);
flush_tlb_page(vma, addr);

在修改或删除页表项以前必须冲刷缓存,因为从虚拟地址生成索引的缓存要求:从缓存冲刷虚拟地址的时候,虚拟地址到物理地址的映射必须存在。

**内核提供的在修改页表前冲刷缓存的函数如下表所示。**所有处理器架构需要实现这些函数:如果处理器使用从虚拟地址生成索引的缓存,必须实现这些函数;如果处理器使用从物理地址生成索引的缓存,只需要把这些函数定义成空函数。

void flush_cache_mm(struct mm_struct *mm)
// 从缓存冲刷整个用户地址空间进程退出或执行execve()以装载新程序的时候,需要处理整个用户地址空间

void flush_cache_dup_mm(struct mm_struct *mm)
// fork()分叉生成新进程的时候,从缓存冲刷整个用户地址空间和flush_cache_mm()分开,是为了允许对VIPT缓存做一些优化

void flush_cache_range(struct vm_area_struct *vma, unsigned long start, unsigned long end)
// 从缓存冲刷某个用户虚拟地址范围

void flush_cache_page(struct vm_area_struct *vma, unsigned long addr, unsigned long pfn)
// 从缓存冲刷长度为一页的用户虚拟地址范围,主要是在页错误异常处理程序里面使用这个函数

void flush_cache_kmaps(void)
// 从缓存冲刷kmap()使用的虚拟地址范围,如果内核使用高端内存区域,需要实现这个函数

void flush_cache_vmap(unsigned long start, unsigned long end)
// 从缓存冲刷vmalloc地址空间的某个范围,函数vmalloc/vmap在设置页表项以后调用函数flush_cache_vmap

void flush_cache_vunmap(unsigned long start, unsigned long end)
// 从缓存冲刷vmalloc地址空间的某个范围,函数vfree/vunmap在删除页表项之前调用函数flush_cache_vunmap
内核修改进程的物理页

内核在修改进程的物理页时,使用内核虚拟地址(线性映射区域的虚拟地址,或者使用kmap/kmap_atomic临时把进程的物理页映射到内核地址空间)修改进程的物理页。

为了避免可能存在的内核虚拟地址和用户虚拟地址之间的缓存别名问题,内核修改完以后需要从缓存冲刷内核虚拟地址,让用户空间看见修改后的数据。
例如:

(1)void copy_user_page(void *to, void *from, unsigned long addr, struct page *page)
父进程分叉生成子进程,子进程和父进程共享物理页。当其中一个进程试图写私有的匿名页时,触发页错误异常,执行写时复制,分配新的物理页,使用函数copy_user_page把旧的物理页里面的数据复制到新的物理页,内核使用函数kmap_atomic临时把进程的物理页映射到内核虚拟地址空间。

(2)void clear_user_page(void *to, unsigned long addr, struct page *page)
把进程的物理页清零。内核使用函数kmap_atomic临时把进程的物理页映射到内核虚拟地址空间。

(3)void copy_to_user_page(struct vm_area_struct *vma, struct page *page, unsigned long user_vaddr, void *dst, void *src, int len)
内核复制数据到用户页,内核使用kmap临时把用户页映射到内核虚拟地址空间。

**内核提供的在修改进程的物理页以后冲刷缓存的函数如下表所示。**所有处理器架构需要实现这些函数:如果处理器使用从虚拟地址生成索引的缓存,必须实现这些函数;如果处理器使用从物理地址生成索引的缓存,只需要把这些函数定义成空函数。

void flush_dcache_page(struct page *page)
// 从数据缓存冲刷一页的内核虚拟地址范围当内核写或即将读一个文件页,并且这个文件页存在用户空间共享可写的映射时,需要调用这个函数flush_dcache_page()不适合匿名页

void flush_anon_page(struct vm_area_struct *vma, struct page *page, unsigned long vmaddr)
// 从数据缓存冲刷内核虚拟地址范围[vmaddr, vmaddr + PAGE_SIZE)当内核访问匿名页的时候,调用这个函数,目前只有get_user_pages调用这个函数

void flush_kernel_dcache_page(struct page *page)
// 内核修改一个用户页,使用kmap把这个用户页临时映射到内核虚拟地址空间,修改完以后需要调用这个函数来冲刷数据缓存
    
void flush_icache_range(unsigned long start, unsigned long end)
// 内核把可执行文件的代码段复制到内存时,需要冲刷指令缓存,让处理器重新从内存读取指令

void flush_icache_page(struct vm_area_struct *vma, struct page *page)
// 内核把可执行文件的代码段复制到内存时,需要冲刷指令缓存,让处理器重新从内存读取指令
ARM64处理器的缓存维护

ARM64处理器支持3种缓存操作。
(1)使缓存行失效(invalidate):清除缓存行的有效位。
(2)清理(clean)缓存行:首先把标记为脏的缓存行里面的数据写到下一级缓存或内存,然后清除缓存行的有效位。只适用于使用写回策略的数据缓存。
(3)清零(zero):把缓存里面的一个内存块清零,不需要先从内存读数据到缓存中。只适用于数据缓存。

ARM64处理器提供的缓存维护指令的形式如下:

 {, }

是X0~X30中的一个寄存器,的取值如下表所示。

DC (Data Cache)

CISW 清理某路某组的缓存行并使之失效(Clean and invalidate by Set/Way)
CIVAC 根据虚拟地址清理并使之失效,直至到达一致点为止(Clean and Invalidate by Virtual Address to Point of Coherency)
CSW 清理某路某组的缓存行(Clean by Set/Way)
CVAC 根据虚拟地址清理,直至到达一致点为止(Clean by Virtual Address to Point of Coherency)
CVAU 根据虚拟地址清理,直至到达统一点为止(Clean by Virtual Address to Point of Unification)
ISW 使某路某组的缓存行失效(Invalidate by Set/Way)
IVAC 根据虚拟地址使缓存行失效,直至到达一致点为止(Invalidate by Virtual Address, to Point of Coherency)
ZVA 根据虚拟地址把缓存清零(Cache zero by Virtual Address)

IC (Instruction Cache)
IALLUIS 使所有缓存行失效,直至到达统一点为止,内部共享(处理器的所有核)(Invalidate all, to Point of Unification, Inner Sharable)
IALLU 使所有缓存行失效,直至到达统一点为止(Invalidate all, to Point of Unification)
IVAU 根据虚拟地址使缓存行失效,直至到达统一点为止(Invalidate by Virtual Address to Point of Unification)

下面解释ARM64架构的两个术语。
(1)一致点(Point of Coherency,PoC):保证所有可能访问内存的观察者(例如处理器核和DMA控制器)看到某一内存位置的相同副本的点,通常是物理内存。
(2)统一点(Point of Unification,PoU):一个核的统一点是保证这个核的指令缓存、数据缓存和TLB看到某内存位置的相同副本的点。例如,如果一个处理器核有一级指令缓存、一级数据缓存和TLB,那么这个处理器核的统一点是统一二级缓存。

SMP缓存一致性

在SMP(Symmetrical Multi-Processing)系统中,处理器的每个核有独立的一级缓存,同一内存位置的数据,可能在多个核的一级缓存中存在多个副本,所以存在数据一致性问题。目前主流的缓存一致性协议是MESI协议及其衍生协议。

原生的MESI协议有4种状态。MESI是4种状态的首字母缩写,缓存行的4种状态分别如下。
(1)修改(Modified):表示数据只在本处理器的缓存中存在副本,数据是脏的,即数据被修改过,没有写回到内存。
(2)独占(Exclusive):表示数据只在本处理器的缓存中存在副本,数据是干净的,即副本和内存中的数据相同。
(3)共享(Shared):表示数据可能在多个处理器的缓存中存在副本,数据是干净的,即所有副本和内存中的数据相同。
(4)无效(Invalid):表示缓存行中没有存放数据。

MESI协议的消息

为了维护缓存一致性,处理器之间需要通信,MESI协议提供了以下消息。

(1)读(Read):包含想要读取的缓存行的物理地址。

(2)读响应(Read Response):包含读消息请求的数据。读响应消息可能是由内存控制器发送的,也可能是由其他处理器的缓存发送的。如果一个处理器的缓存有想要的数据,并且处于修改状态,那么必须发送读响应消息。

(3)使无效(Invalidate):包含想要删除的缓存行的物理地址。所有其他处理器必须从缓存中删除对应的数据,并且发送使无效确认消息来应答。

(4)使无效确认(Invalidate Acknowledge):处理器收到使无效消息,必须从缓存中删除对应的数据,并且发送使无效确认消息来应答。

(5)读并且使无效(Read Invalidate):包含想要读取的缓存行的物理地址,同时要求从其他缓存中删除数据。它是读消息和使无效消息的组合,需要接收者发送读响应消息和使无效确认消息。

(6)写回(Writeback):包含想要写回到内存的地址和数据。

缓存行状态的转换

缓存行状态的转换如图3.152所示。

(1)转换a,修改到独占:处理器收到写回消息,把缓存行写回内存,但是缓存行保留数据。
(2)转换b,独占到修改:处理器写数据到缓存行。
(3)转换c,修改到无效:处理器收到“读并且使无效”消息,发送读响应消息和使无效确认消息,删除本地副本(不需要写回内存,因为发送“读并且使无效”消息的处理器需要写数据)。
(4)转换d,无效到修改:处理器存储不在本地缓存中的数据,发送“读并且使无效”消息,通过读响应消息收到数据。处理器可以在收到所有其他处理器的使无效确认消息以后转换到修改状态。
(5)转换e,共享到修改:处理器存储数据,发送使无效消息,收到所有其他处理器的使无效确认消息以后转换到修改状态。
(6)转换f,修改到共享:其他处理器读取缓存行,发送读消息,本处理器收到读消息后,写回内存,保留一个只读副本,发送读响应消息。
(7)转换g,独占到共享:其他处理器读取缓存行,发送读消息,本处理器收到后发送读响应消息,保留一个只读副本。
(8)转换h,共享到独占:本处理器意识到很快需要写数据,发送使无效消息,收到所有其他处理器的使无效确认消息以后转换到独占状态。
(9)转换i,独占到无效:其他处理器存储数据,发送“读并且使无效”消息,本处理器收到消息后,发送读响应消息和使无效确认消息。
(10)转换j,无效到独占:处理器存储不在本地缓存中的数据,发送“读并且使无效”消息,收到读响应消息和所有其他处理器的使无效确认消息后转换到独占状态,完成存储操作后转换到修改状态。
(11)转换k,无效到共享:处理器加载不在本地缓存中的数据,发送读消息,收到读响应消息后转换到共享状态。
(12)转换l,共享到无效:其他处理器存储本地缓存中的数据,发送使无效消息,本处理器收到后,把缓存行的状态转换为无效,发送使无效确认消

举例说明

举例说明,假设有两个处理器:处理器0和处理器1。刚开始两个处理器的缓存行处于无效状态,缓存行的状态转换过程如下。

(1)处理器0加载地址n的数据,因为本地缓存没有副本,所以发送读消息。内存控制器从内存读取数据后发送读响应消息。处理器0收到读响应消息后,缓存行从无效状态转换到共享状态。
(2)处理器1加载地址n的数据,因为本地缓存没有副本,所以发送读消息。处理器0收到读消息后,缓存行保持共享状态不变,发送读响应消息。
处理器1收到读响应消息后,把缓存行从无效状态转换到共享状态。
(3)处理器0存储地址n的数据,因为缓存行处于共享状态,所以发送使无效消息。处理器1收到使无效消息后,把缓存行从共享状态转换到无效状态,发送使无效确认消息。处理器0收到使无效确认消息后,把缓存行从共享状态转换到修改状态。
(4)下面分两种情况。

  1. 如果处理器1加载地址n的数据,因为本地缓存没有副本,所以发送读消息。处理器0收到读消息后,写回内存,从修改状态转换到共享状态,发送读响应消息。处理器1收到读响应消息后,从无效状态转换到共享状态。
  2. 如果处理器1存储地址n的数据,因为本地缓存没有副本,所以发送“读并且使无效”消息。处理器0收到“读并且使无效”消息后,发送读响应消息和使无效确认消息,从修改状态转换到无效状态。处理器1收到读响应消息和使无效确认消息后,修改数据,从无效状态转换到修改状态。
改进措施 存储缓冲区 写屏障

假设处理器0的缓存中没有地址n的数据,处理器1的缓存中包含地址n的数据。处理器0要写地址n的数据,需要从处理器1读取缓存行,发送“读并且使无效”消息,等收到处理器1的读响应消息和使无效确认消息后才能写,延迟时间很长。

实际上,处理器0没有理由延迟这么长时间,因为不管处理器1发送的是什么数据,处理器0都将无条件地覆盖数据。

为了避免延迟,在处理器和缓存之间增加 1个存储缓冲区(store buffer),如下图所示。处理器0发送“读并且使无效”消息以后,只须把数据写到存储缓冲区,然后继续执行。等处理器0收到处理器1的读响应消息以后,把数据从存储缓冲区冲刷到缓存行。

把数据写到存储缓冲区,带来两个问题。

第一个问题是:假设变量a的值是0,处理器0的缓存中没有变量a的副本,处理器1的缓存中有变量a的副本。处理器0把变量a设置为1,在自己的缓存中没有找到变量a,发送“读并且使无效”消息,把变量a的值写到存储缓冲区中,然后继续执行指令,后面有一条加载指令加载变量a。
处理器0收到处理器1的读响应消息,变量a的值是0。处理器0在缓存中找到变量a,值为0,但是变量a的最新值是1,在存储缓冲区中。

解决办法是:处理器加载数据时,必须首先在自己的存储缓冲区中查找数据,即把存储直接转发给随后的加载操作,称为“存储转发(store forwarding)”,如图3.154所示。

第二个问题是:如果数据在存储缓冲区中,其他处理器看不见数据的新值,看到的是数据的旧值。

假设变量a和b的初始值都是0,处理器0和1执行下面的程序:

处理器0                 处理器1
===============        ===============
a = 1;                 while(b == 0) continue;
b = 1;                 assert(a == 1);

当处理器1看到变量b的值是1时,如果变量a的最新值1在处理器0的存储缓冲区中,处理器1看到的是变量a的旧值0。

第一种情况是 CPU 的乱序执行。CPU 为了提升运行效率和提高缓存命中率,采用了乱序执行。

第二种情况是 store buffer 在写入时,有可能 b 所对应的缓存行会先于 a 所对应的缓存 行进入独占状态,也就是说 b 会先写入缓存。

解决办法是:==使用写内存屏障(write memory barrier)使处理器执行后面的 存储指令 时,首先冲刷存储缓冲区,然后才允许把数据写到缓存中。==处理器在执行后面的存储指令时有两种可选的处理方式。
(1)把存储缓冲区的所有数据冲刷到缓存中。
(2)写内存屏障为当前存储缓冲区中的所有数据做标记,如果存储缓冲区中有标记过的数据,那么后面的存储指令只能把数据写到存储缓冲区中,不能写到缓存中。

处理器提供了写内存屏障指令,内核封装了宏smp_wmb()。

将程序修改为:

处理器0                 处理器1
===============        ===============
a = 1;                 while(b == 0) continue;
smp_wmb();
b = 1;                 assert(a == 1);
使无效队列 读屏障

假设处理器0和1的缓存中都包含地址n的数据,缓存行处于共享状态。**处理器0写地址n的数据,发送使无效消息,把数据写到存储缓冲区中。**存储缓冲区比较小,处理器执行多条存储指令后很快就能填满存储缓冲区。**如果存储缓冲区已经满了,必须先把存储缓冲区里面的所有数据冲刷到缓存中,但是把存储缓冲区里面的数据冲刷到缓存中之前,必须等待处理器1的使无效确认消息(非地址n的无效确认信息,是在等待其他地址的无效确认消息),确认处理器1已经使缓存行无效。**如果处理器1的缓存很忙,处理器1正在密集地加载和存储缓存里面的数据,使无效消息的处理被延迟,就会导致处理器0花费很长时间等待使无效确认消息。

由于 store buffer 的存在提升了写入速度,那么 invalid 消息确认速度相比起来就 慢了,这就带来了速度的不匹配,很容易导致 store buffer 的内容还没有及时更新到 cache 里,自己的容量就被撑爆了,从而失去了加速的作用。

解决办法是:为每个处理器增加 1个使无效队列(invalidate queue),存放使无效消息,如图3.155所示。处理器把使无效消息存放到使无效队列中,立即发送使无效确认消息,不需要执行使缓存行无效的操作

处理器写数据时,如果找到包含数据的缓存行,并且缓存行处于共享状态,那么需要发送使无效消息,在准备发送使无效消息时必须查询自己的使无效队列。 如果使无效队列有这个缓存行的使无效消息,那么处理器不能立即发送使无效消息,必须等到使无效队列中这个缓存行的使无效消息被处理。

使无效队列引入了一个问题。假设变量a和b的初始值都是0,处理器0和1执行下面的程序:

处理器0                 处理器1
===============        ===============
a = 1;                 while(b == 0) continue;
smp_wmb();
b = 1;                 assert(a == 1);

假设处理器0和1的缓存都有变量a的副本,处于共享状态,可能存在下面的执行顺序。

(1)处理器0执行“a=1”,因为缓存行处于共享状态,所以处理器0把a的新值放在存储缓冲区中,发送使无效消息。
(2)处理器1收到使无效消息,存放到使无效队列中,立即发送使无效确认消息。
(3)当处理器1执行“assert(a == 1)”的时候,因为a的旧值还在处理器1的缓存中,所以断言失败。
(4)处理器1处理使无效队列中的消息,使包含a的缓存行无效。

解决办法是:使用读内存屏障(read memory barrier)为当前使无效队列中的所有消息做标记,后面的 加载指令 必须等待所有标记过的使无效消息被处理完

处理器提供了读内存屏障指令,内核封装了宏smp_rmb()。

将程序修改为:

处理器0                 处理器1
===============        ===============
a = 1;                 while(b == 0) continue;
smp_wmb();             smp_rmb();
b = 1;                 assert(a == 1);

写内存屏障和读内存屏障必须配对使用,写者执行写内存屏障,读者执行读内存屏障。因为处理器1读变量a的时候,两种情况都可能出现。
(1)变量a的最新值在处理器0的存储缓冲区中,处理器0需要执行写内存屏障。
(2)处理器1的使无效队列包含使包含变量a的缓存行无效的消息,处理器1需要执行读内存屏障。
还有一种通用内存屏障,它是写内存屏障和读内存屏障的组合,同时处理存储缓冲区和使无效队列,内核封装了宏smp_mb()。

利用缓存提高性能的编程技巧

在编程的时候,可以利用GCC编译器的对齐属性“__attribute__((__aligned__(n)))”,从而利用处理器的缓存提高程序的
执行速度。

(1)使变量的起始地址对齐到一级缓存行长度的整数倍。

(2)使结构体对齐到一级缓存行长度的整数倍,实现的效果是:结构体的所有变量的起始地址是一级缓存行长度的整数倍,并且结构体的长度是一级
缓存行长度的整数倍。

(3)使结构体中一个字段的偏移对齐到一级缓存行长度的整数倍。

内核的头文件“include/linux/cache.h”定义了以下宏。

(1)以4个下划线开头的宏____cacheline_aligned:对齐到一级缓存行的长度。

#ifndef ____cacheline_aligned
#define ____cacheline_aligned   __attribute__((__aligned__(SMP_CACHE_BYTES)))
#endif

(2)以4个下划线开头的宏____cacheline_aligned_in_smp:在对称多处理器系统中等价于宏____cacheline_aligned,在单处理器系统中是空的宏。

#ifndef ____cacheline_aligned_in_smp
#ifdef CONFIG_SMP
#define ____cacheline_aligned_in_smp   ____cacheline_aligned
#else
#define ____cacheline_aligned_in_smp
#endif 
#endif

(3)以两个下划线开头的宏__cacheline_aligned:对齐到一级缓存行的长度,并且把变量放在“.data…cacheline_aligned”节中。

#ifndef __cacheline_aligned
#define __cacheline_aligned                          
   __attribute__((__aligned__(SMP_CACHE_BYTES),       
          __section__(".data..cacheline_aligned")))
#endif 

(4)以两个下划线开头的宏__cacheline_aligned_in_smp:在对称多处理器系统中等价于宏__cacheline_aligned,在单处理器系统中是空的宏。

#ifndef __cacheline_aligned_in_smp
#ifdef CONFIG_SMP
#define __cacheline_aligned_in_smp   __cacheline_aligned
#else
#define __cacheline_aligned_in_smp
#endif 
#endif

以结构体netdev_queue为例说明。
(1)结构体netdev_queue对齐到一级缓存行长度的整数倍,该结构体的所有变量的起始地址是一级缓存行长度的整数倍,并且该结构体的长度是一级缓存行长度的整数倍。
(2)把只读字段集中放在一起,把可写字段集中放在一起,把第一个可写字段的偏移对齐到一级缓存行长度的整数倍,让只读字段和可写字段处于不同的缓存行中,避免可写字段影响只读字段。

include/linux/netdevice.h

struct netdev_queue {
     
     struct net_device   *dev;
     …
     
     spinlock_t      _xmit_lock   ____cacheline_aligned_in_smp;
     …
} ____cacheline_aligned_in_smp;
false sharing伪共享

当多线程修改互相独立的变量时,如果这些变量共享同一个缓存行,就会无意中影响彼此的性能,这就是伪共享。

CPU利用cache和内存之间交换数据的最小粒度不是字节,而是称为cache line的一块固定大小的区域,缓存行是内存交换的实际单位。缓存行是2的整数幂个连续字节,一般为32-256个字节,最常见的缓存行大小是64个字节。

在写多线程代码时,为了避免使用锁,通常会采用这样的数据结构:根据线程的数目,安排一个数组, 每个线程一个项,互相不冲突。从逻辑上看这样的设计无懈可击,但是实践的过程可能会发现有些场景下非但没提高执行速度,反而会性能很差,而且年轻司机通常很难定位问题所在。

问题在于cpu的cache line,当多线程修改互相独立的变量时,如果这些变量共享同一个缓存行,就会无意中影响彼此的性能,这就是伪共享,即false-sharing。


如在Intel Core 2 Duo处理器平台上,L2 cache是由两个core共享的,而L1 data cache是分开的,由两个core分别存取。cache line的大小是64 Bytes。假设有个全局共享结构体变量f由2个线程A和B共享读写,该结构体一共8个字节同时位于同一条cache line上。

struct foo {
  int x;
  int y;
};

若此时两个线程一个读取f.x另一个读取f.y,即便两个线程的执行是在独立的cpu core上的,实际上结构体对象f被分別读入到两个CPUs的cache line中且该cache line 处于shared状态。此时在核心1上运行的线程A想更新变量X,同时核心2上的线程B想要更新变量Y。

如果核心1上线程A优先获得了所有权,线程A修改f.x会使该CPU core 1 上的这条cache line将变为modified状态,另一个CPU core 2上对应的cache line将变成invalid状态;此时若线程B马上读取f.y,为了确保cache一致性,B所在CPU核上的相应cache line的数据必须被更新;当核心2上线程B优先获得了所有权然后执行更新操作,核心1就要使自己对应的缓存行失效。这会来来回回的经过L3缓存,大大影响了性能。如果互相竞争的核心位于不同的插槽,就要额外横跨插槽连接,若读写的次数频繁,将增大cache miss的次数,严重影响系统性能。

虽然在memory的角度这两种的访问时隔离的,但是由于错误的紧凑地放在了一起,是的两个变量处于同一个缓存行中。每个线程都要去竞争缓存行的所有权来更新变量。可见,false sharing会导致多核处理器上对于缓存行cache line的写竞争,造成严重的系统性能下降,有人将伪共享描述成无声的性能杀手,因为从代码中很难看清楚是否会出现伪共享。

false-sharing避免方法

把每个项凑齐cache line的长度,即可实现隔离,虽然这不可避免的会浪费一些内存。

  1. 对于共享数组而言,增大数组元素的间隔使得由不同线程存取的数组元素位于不同的cache line上,使一个核上的Cache line修改不会影响其它核;或者在每个线程中创建全局数组的本地拷贝,然后执行结束后再写回全局数组,此方法比较粗暴不优雅。
  2. 对于共享结构体而言,使每个结构体成员变量按照Cache Line大小(一般64B)对齐。可能需要使用#pragma宏。

注意事项

单线程或单核多线程都不存在这个问题,因为只有一个CPU核也即只有一个L1 Cache,不存在缓存一致性的问题。

多核CPU上执行大约相差2~3倍,多的有5倍(个人测试)

转载请注明:文章转载自 www.wk8.com.cn
本文地址:https://www.wk8.com.cn/it/1039847.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 wk8.com.cn

ICP备案号:晋ICP备2021003244-6号