一文掌握 Linux 内存管理

企业动态
以下源代码来自 linux-5.10.3 内核代码,主要以 x86-32 为例。Linux 内存管理是一个很复杂的“工程”,它不仅仅是对物理内存的管理,也涉及到虚拟内存管理、内存交换和内存回收等。

 [[399149]]

以下源代码来自 linux-5.10.3 内核代码,主要以 x86-32 为例。

Linux 内存管理是一个很复杂的“工程”,它不仅仅是对物理内存的管理,也涉及到虚拟内存管理、内存交换和内存回收等

物理内存的探测

Linux 内核通过 detect_memory()函数实现对物理内存的探测

  1. void detect_memory(void) 
  2.  detect_memory_e820(); 
  3.  
  4.  detect_memory_e801(); 
  5.  
  6.  detect_memory_88(); 

这里主要介绍一下 detect_memory_e820(),detect_memory_e801()和 detect_memory_88()是针对较老的电脑进行兼容而保留的

  1. static void detect_memory_e820(void) 
  2.  int count = 0; 
  3.  struct biosregs ireg, oreg; 
  4.  struct boot_e820_entry *desc = boot_params.e820_table; 
  5.  static struct boot_e820_entry buf; /* static so it is zeroed */ 
  6.  
  7.  initregs(&ireg); 
  8.  ireg.ax  = 0xe820; 
  9.  ireg.cx  = sizeof(buf); 
  10.  ireg.edx = SMAP; 
  11.  ireg.di  = (size_t)&buf; 
  12.  
  13.  do { 
  14.   intcall(0x15, &ireg, &oreg); 
  15.   ireg.ebx = oreg.ebx; /* for next iteration... */ 
  16.  
  17.   if (oreg.eflags & X86_EFLAGS_CF) 
  18.    break; 
  19.  
  20.   if (oreg.eax != SMAP) { 
  21.    count = 0; 
  22.    break; 
  23.   } 
  24.  
  25.   *desc++ = buf; 
  26.   count++; 
  27.  } while (ireg.ebx && count < ARRAY_SIZE(boot_params.e820_table)); 
  28.  
  29.  boot_params.e820_entries = count

detect_memory_e820()实现内核从 BIOS 那里获取到内存的基础布局,之所以叫 e820 是因为内核是通过 0x15 中断向量,并在 AX 寄存器中指定 0xE820,中断调用后将会返回被 BIOS 保留的内存地址范围以及系统可以使用的内存地址范围,所有通过中断获取的数据将会填充在 boot_params.e820_table 中,具体 0xE820 的详细用法感兴趣的话可以上网查……这里获取到的 e820_table 里的数据是未经过整理,linux 会通过 setup_memory_map 去整理这些数据

  1. start_kernel() -> setup_arch() -> setup_memory_map() 
  2. void __init e820__memory_setup(void) 
  3.  char *who; 
  4.  
  5.  BUILD_BUG_ON(sizeof(struct boot_e820_entry) != 20); 
  6.  
  7.  who = x86_init.resources.memory_setup(); 
  8.  
  9.  memcpy(e820_table_kexec, e820_table, sizeof(*e820_table_kexec)); 
  10.  memcpy(e820_table_firmware, e820_table, sizeof(*e820_table_firmware)); 
  11.  
  12.  pr_info("BIOS-provided physical RAM map:\n"); 
  13.  e820__print_table(who); 

x86_init.resources.memory_setup()指向了 e820__memory_setup_default(),会将 boot_params.e820_table 转换为内核自己使用的 e820_table,转换之后的e820 表记录着所有物理内存的起始地址、长度以及类型,然后通过 memcpy 将 e820_table 复制到 e820_table_kexec、e820_table_firmware

  1. struct x86_init_ops x86_init __initdata = { 
  2.  
  3.  .resources = { 
  4.   .probe_roms  = probe_roms, 
  5.   .reserve_resources = reserve_standard_io_resources, 
  6.   .memory_setup  = e820__memory_setup_default, 
  7.  }, 
  8.  ...... 
  9.  
  10. char *__init e820__memory_setup_default(void) 
  11.  char *who = "BIOS-e820"
  12.  
  13.  /* 
  14.   * Try to copy the BIOS-supplied E820-map. 
  15.   * 
  16.   * Otherwise fake a memory map; one section from 0k->640k, 
  17.   * the next section from 1mb->appropriate_mem_k 
  18.   */ 
  19.  if (append_e820_table(boot_params.e820_table, boot_params.e820_entries) < 0) { 
  20.   u64 mem_size; 
  21.  
  22.   /* Compare results from other methods and take the one that gives more RAM: */ 
  23.   if (boot_params.alt_mem_k < boot_params.screen_info.ext_mem_k) { 
  24.    mem_size = boot_params.screen_info.ext_mem_k; 
  25.    who = "BIOS-88"
  26.   } else { 
  27.    mem_size = boot_params.alt_mem_k; 
  28.    who = "BIOS-e801"
  29.   } 
  30.  
  31.   e820_table->nr_entries = 0; 
  32.   e820__range_add(0, LOWMEMSIZE(), E820_TYPE_RAM); 
  33.   e820__range_add(HIGH_MEMORY, mem_size << 10, E820_TYPE_RAM); 
  34.  } 
  35.  
  36.  /* We just appended a lot of ranges, sanitize the table: */ 
  37.  e820__update_table(e820_table); 
  38.  
  39.  return who; 

内核使用的e820_table 结构描述如下:

  1. enum e820_type { 
  2.  E820_TYPE_RAM  = 1, 
  3.  E820_TYPE_RESERVED = 2, 
  4.  E820_TYPE_ACPI  = 3, 
  5.  E820_TYPE_NVS  = 4, 
  6.  E820_TYPE_UNUSABLE = 5, 
  7.  E820_TYPE_PMEM  = 7, 
  8.  E820_TYPE_PRAM  = 12, 
  9.  E820_TYPE_SOFT_RESERVED = 0xefffffff, 
  10.  E820_TYPE_RESERVED_KERN = 128, 
  11. }; 
  12.  
  13. struct e820_entry { 
  14.  u64   addr; 
  15.  u64   size
  16.  enum e820_type  type; 
  17. } __attribute__((packed)); 
  18.  
  19. struct e820_table { 
  20.  __u32 nr_entries; 
  21.  struct e820_entry entries[E820_MAX_ENTRIES]; 
  22. }; 

memblock 内存分配器

linux x86 内存映射主要存在两种方式:段式映射和页式映射。linux 首次进入保护模式时会用到段式映射(加电时,运行在实模式,任意内存地址都能执行代码,可以被读写,这非常不安全,CPU 为了提供限制/禁止的手段,提出了保护模式),根据段寄存器(以 8086 为例,段寄存器有 CS(Code Segment):代码段寄存器;DS(Data Segment):数据段寄存器;SS(Stack Segment):堆栈段寄存器;ES(Extra Segment):附加段寄存器)查找到对应的段描述符(这里其实就是用到了段描述符表,即段表),段描述符指明了此时的环境可以通过段访问到内存基地址、空间大小和访问权限。访问权限则点明了哪些内存可读、哪些内存可写。

  1. typedef struct Descriptor{ 
  2.     unsigned int base;  // 段基址 
  3.     unsigned int limit; // 段大小 
  4.     unsigned short attribute;   // 段属性、权限 

linux 在段描述符表准备完成之后会通过汇编跳转到保护模式

事实上,在上面这个过程中,linux 并没有明显地去区分每个段,所以这里并没有很好地起到保护作用,linux 最终使用的还是内存分页管理(开启页式映射可以参考/arch/x86/kernel/head_32.S)

memblock 算法

memblock 是 linux 内核初始化阶段使用的一个内存分配器,实现较为简单,负责页分配器初始化之前的内存管理和分配请求,memblock 的结构如下

  1. struct memblock_region { 
  2.  phys_addr_t base; 
  3.  phys_addr_t size
  4.  enum memblock_flags flags; 
  5. #ifdef CONFIG_NEED_MULTIPLE_NODES 
  6.  int nid; 
  7. #endif 
  8. }; 
  9.  
  10. struct memblock_type { 
  11.  unsigned long cnt; 
  12.  unsigned long max
  13.  phys_addr_t total_size; 
  14.  struct memblock_region *regions; 
  15.  char *name
  16. }; 
  17.  
  18. struct memblock { 
  19.  bool bottom_up;  /* is bottom up direction? */ 
  20.  phys_addr_t current_limit; 
  21.  struct memblock_type memory; 
  22.  struct memblock_type reserved; 
  23. }; 

bottom_up:用来表示分配器分配内存是自低地址向高地址还是自高地址向低地址

current_limit:用来表示用来限制 memblock_alloc()和 memblock_alloc_base()的内存申请

memory:用于指向系统可用物理内存区,这个内存区维护着系统所有可用的物理内存,即系统 DRAM 对应的物理内存

reserved:用于指向系统预留区,也就是这个内存区的内存已经分配,在释放之前不能再次分配这个区内的内存区块

memblock_type中的cnt用于描述该类型内存区中的内存区块数,这有利于 MEMBLOCK 内存分配器动态地知道某种类型的内存区还有多少个内存区块

memblock_type 中的max用于描述该类型内存区最大可以含有多少个内存区块,当往某种类型的内存区添加 内存区块的时候,如果内存区的内存区块数超过 max 成员,那么 memblock 内存分配器就会增加内存区的容量,以此维护更多的内存区块

memblock_type 中的total_size用于统计内存区总共含有的物理内存数

memblock_type 中的regions是一个内存区块链表,用于维护属于这类型的所有内存区块(包括基址、大小和内存块标记等),

name :用于指明这个内存区的名字,MEMBLOCK 分配器目前支持的内存区名字有:“memory”, “reserved”, “physmem”

具体关系可以参考下图:

内核启动后会为 MEMBLOCK 内存分配器创建了一些私有的 section,这些 section 用于存放于 MEMBLOCK 分配器有关的函数和数据,即 init_memblock 和 initdata_memblock。在创建完 init_memblock section 和 initdata_memblock section 之后,memblock 分配器会开始创建 struct memblock 实例,这个实例此时作为最原始的 MEMBLOCK 分配器,描述了系统的物理内存的初始值

  1. #define MEMBLOCK_ALLOC_ANYWHERE (~(phys_addr_t)0) //即0xFFFFFFFF 
  2. #define INIT_MEMBLOCK_REGIONS   128 
  3.  
  4. #ifndef INIT_MEMBLOCK_RESERVED_REGIONS 
  5. # define INIT_MEMBLOCK_RESERVED_REGIONS  INIT_MEMBLOCK_REGIONS 
  6. #endif 
  7.  
  8. static struct memblock_region memblock_memory_init_regions[INIT_MEMBLOCK_REGIONS] __initdata_memblock; 
  9. static struct memblock_region memblock_reserved_init_regions[INIT_MEMBLOCK_RESERVED_REGIONS] __initdata_memblock; 
  10.  
  11. struct memblock memblock __initdata_memblock = { 
  12.  .memory.regions  = memblock_memory_init_regions, 
  13.  .memory.cnt  = 1, /* empty dummy entry */ 
  14.  .memory.max  = INIT_MEMBLOCK_REGIONS, 
  15.  .memory.name  = "memory"
  16.  
  17.  .reserved.regions = memblock_reserved_init_regions, 
  18.  .reserved.cnt  = 1, /* empty dummy entry */ 
  19.  .reserved.max  = INIT_MEMBLOCK_RESERVED_REGIONS, 
  20.  .reserved.name  = "reserved"
  21.  
  22.  .bottom_up  = false
  23.  .current_limit  = MEMBLOCK_ALLOC_ANYWHERE, 
  24. }; 

memblock_allow_resize() 仅是用于置 memblock_can_resize 的值,里面的 for 则是用于循环遍历 e820 的内存布局信息,然后进行 memblock_add 的操作

  1. int __init_memblock memblock_add(phys_addr_t base, phys_addr_t size
  2.  phys_addr_t end = base + size - 1; 
  3.  
  4.  memblock_dbg("%s: [%pa-%pa] %pS\n", __func__, 
  5.        &base, &end, (void *)_RET_IP_); 
  6.  
  7.  return memblock_add_range(&memblock.memory, base, size, MAX_NUMNODES, 0); 

memblock_add()主要封装了 memblock_add_region(),且它操作对象是 memblock.memory,即系统可用物理内存区。

  1. static int __init_memblock memblock_add_range(struct memblock_type *type, 
  2.     phys_addr_t base, phys_addr_t size
  3.     int nid, enum memblock_flags flags) 
  4.  bool insert = false
  5.  phys_addr_t obase = base; 
  6.     //调整size大小,确保不会越过边界 
  7.  phys_addr_t end = base + memblock_cap_size(base, &size); 
  8.  int idx, nr_new; 
  9.  struct memblock_region *rgn; 
  10.  
  11.  if (!size
  12.   return 0; 
  13.  
  14.  /* special case for empty array */ 
  15.  if (type->regions[0].size == 0) { 
  16.   WARN_ON(type->cnt != 1 || type->total_size); 
  17.   type->regions[0].base = base; 
  18.   type->regions[0].size = size
  19.   type->regions[0].flags = flags; 
  20.   memblock_set_region_node(&type->regions[0], nid); 
  21.   type->total_size = size
  22.   return 0; 
  23.  } 
  24. repeat: 
  25.  /* 
  26.   * The following is executed twice.  Once with %false @insert and 
  27.   * then with %true.  The first counts the number of regions needed 
  28.   * to accommodate the new area.  The second actually inserts them. 
  29.   */ 
  30.  base = obase; 
  31.  nr_new = 0; 
  32.  
  33.  for_each_memblock_type(idx, type, rgn) { 
  34.   phys_addr_t rbase = rgn->base; 
  35.   phys_addr_t rend = rbase + rgn->size
  36.  
  37.   if (rbase >= end
  38.    break; 
  39.   if (rend <= base) 
  40.    continue
  41.   /* 
  42.    * @rgn overlaps.  If it separates the lower part of new 
  43.    * area, insert that portion. 
  44.    */ 
  45.   if (rbase > base) { 
  46. #ifdef CONFIG_NEED_MULTIPLE_NODES 
  47.    WARN_ON(nid != memblock_get_region_node(rgn)); 
  48. #endif 
  49.    WARN_ON(flags != rgn->flags); 
  50.    nr_new++; 
  51.    if (insert
  52.     memblock_insert_region(type, idx++, base, 
  53.              rbase - base, nid, 
  54.              flags); 
  55.   } 
  56.   /* area below @rend is dealt with, forget about it */ 
  57.   base = min(rend, end); 
  58.  } 
  59.  
  60.  /* insert the remaining portion */ 
  61.  if (base < end) { 
  62.   nr_new++; 
  63.   if (insert
  64.    memblock_insert_region(type, idx, base, end - base, 
  65.             nid, flags); 
  66.  } 
  67.  
  68.  if (!nr_new) 
  69.   return 0; 
  70.  
  71.  /* 
  72.   * If this was the first round, resize array and repeat for actual 
  73.   * insertions; otherwise, merge and return
  74.   */ 
  75.  if (!insert) { 
  76.   while (type->cnt + nr_new > type->max
  77.    if (memblock_double_array(type, obase, size) < 0) 
  78.     return -ENOMEM; 
  79.   insert = true
  80.   goto repeat; 
  81.  } else { 
  82.   memblock_merge_regions(type); 
  83.   return 0; 
  84.  } 

如果 memblock 算法管理的内存为空时,将当前空间添加进去

不为空的情况下,for_each_memblock_type(idx, type, rgn)这个循环会检查是否存在内存重叠的情况,如果有的话,则剔除重叠部分,然后将其余非重叠的部分插入 memblock。内存块的添加主要分为四种情况(其余情况与这几种类似),可以参考下图:

如果 region 空间不够,则通过 memblock_double_array()添加新的空间,然后重试。

最后 memblock_merge_regions()会将紧挨着的内存进行合并(节点号、flag 等必须一致,节点号后面再进行介绍)。

memblock 内存分配与回收

到这里,memblock 内存管理的初始化基本完成,后面还有一些关于 memblock.memory 的修正,这里就不做介绍了,最后也简单介绍一下memblock 的内存分配和回收,即 memblock_alloc()和 memblock_free()。

  1. //size即分配区块的大小,align用于字节对齐,表示分配区块的对齐大小 
  2. //这里NUMA_NO_NODE指任何节点(没有节点),关于节点后面会介绍,这里节点还没初始化 
  3. //MEMBLOCK_ALLOC_ACCESSIBLE指分配内存块时仅受memblock.current_limit的限制 
  4. #define NUMA_NO_NODE (-1) 
  5. #define MEMBLOCK_LOW_LIMIT 0 
  6. #define MEMBLOCK_ALLOC_ACCESSIBLE 0 
  7.  
  8. static inline void * __init memblock_alloc(phys_addr_t size,  phys_addr_t align) 
  9.  return memblock_alloc_try_nid(size, align, MEMBLOCK_LOW_LIMIT, 
  10.           MEMBLOCK_ALLOC_ACCESSIBLE, NUMA_NO_NODE); 
  11.  
  12. void * __init memblock_alloc_try_nid( 
  13.    phys_addr_t size, phys_addr_t align, 
  14.    phys_addr_t min_addr, phys_addr_t max_addr, 
  15.    int nid) 
  16.  void *ptr; 
  17.  
  18.  memblock_dbg("%s: %llu bytes align=0x%llx nid=%d from=%pa max_addr=%pa %pS\n"
  19.        __func__, (u64)size, (u64)align, nid, &min_addr, 
  20.        &max_addr, (void *)_RET_IP_); 
  21.  ptr = memblock_alloc_internal(size, align, 
  22.         min_addr, max_addr, nid, false); 
  23.  if (ptr) 
  24.   memset(ptr, 0, size); 
  25.  
  26.  return ptr; 
  27.  
  28. static void * __init memblock_alloc_internal( 
  29.     phys_addr_t size, phys_addr_t align, 
  30.     phys_addr_t min_addr, phys_addr_t max_addr, 
  31.     int nid, bool exact_nid) 
  32.  phys_addr_t alloc; 
  33.  
  34.  /* 
  35.   * Detect any accidental use of these APIs after slab is ready, as at 
  36.   * this moment memblock may be deinitialized already and its 
  37.   * internal data may be destroyed (after execution of memblock_free_all) 
  38.   */ 
  39.  if (WARN_ON_ONCE(slab_is_available())) 
  40.   return kzalloc_node(size, GFP_NOWAIT, nid); 
  41.  
  42.  if (max_addr > memblock.current_limit) 
  43.   max_addr = memblock.current_limit; 
  44.  
  45.  alloc = memblock_alloc_range_nid(size, align, min_addr, max_addr, nid, 
  46.      exact_nid); 
  47.  
  48.  /* retry allocation without lower limit */ 
  49.  if (!alloc && min_addr) 
  50.   alloc = memblock_alloc_range_nid(size, align, 0, max_addr, nid, 
  51.       exact_nid); 
  52.  
  53.  if (!alloc) 
  54.   return NULL
  55.  
  56.  return phys_to_virt(alloc); 

memblock_alloc_internal 返回的是分配到的内存块的虚拟地址,为 NULL 表示分配失败,关于 phys_to_virt 的实现后面再介绍,这里主要看 memblock_alloc_range_nid 的实现。

  1. phys_addr_t __init memblock_alloc_range_nid(phys_addr_t size
  2.      phys_addr_t align, phys_addr_t start, 
  3.      phys_addr_t endint nid, 
  4.      bool exact_nid) 
  5.  enum memblock_flags flags = choose_memblock_flags(); 
  6.  phys_addr_t found; 
  7.  
  8.  if (WARN_ONCE(nid == MAX_NUMNODES, "Usage of MAX_NUMNODES is deprecated. Use NUMA_NO_NODE instead\n")) 
  9.   nid = NUMA_NO_NODE; 
  10.  
  11.  if (!align) { 
  12.   /* Can't use WARNs this early in boot on powerpc */ 
  13.   dump_stack(); 
  14.   align = SMP_CACHE_BYTES; 
  15.  } 
  16.  
  17. again: 
  18.  found = memblock_find_in_range_node(size, align, start, end, nid, 
  19.          flags); 
  20.  if (found && !memblock_reserve(found, size)) 
  21.   goto done; 
  22.  
  23.  if (nid != NUMA_NO_NODE && !exact_nid) { 
  24.   found = memblock_find_in_range_node(size, align, start, 
  25.           end, NUMA_NO_NODE, 
  26.           flags); 
  27.   if (found && !memblock_reserve(found, size)) 
  28.    goto done; 
  29.  } 
  30.  
  31.  if (flags & MEMBLOCK_MIRROR) { 
  32.   flags &= ~MEMBLOCK_MIRROR; 
  33.   pr_warn("Could not allocate %pap bytes of mirrored memory\n"
  34.    &size); 
  35.   goto again; 
  36.  } 
  37.  
  38.  return 0; 
  39.  
  40. done: 
  41.  if (end != MEMBLOCK_ALLOC_KASAN) 
  42.   kmemleak_alloc_phys(found, size, 0, 0); 
  43.  
  44.  return found; 

kmemleak 是一个检查内存泄漏的工具,这里就不做介绍了。

memblock_alloc_range_nid()首先对 align 参数进行检测,如果为零,则警告。接着函数调用 memblock_find_in_range_node() 函数从可用内存区中找一块大小为 size 的物理内存区块, 然后调用 memblock_reseve() 函数在找到的情况下,将这块物理内存区块加入到预留区内。

  1. static phys_addr_t __init_memblock memblock_find_in_range_node(phys_addr_t size
  2.      phys_addr_t align, phys_addr_t start, 
  3.      phys_addr_t endint nid, 
  4.      enum memblock_flags flags) 
  5.  phys_addr_t kernel_end, ret; 
  6.  
  7.  /* pump up @end */ 
  8.  if (end == MEMBLOCK_ALLOC_ACCESSIBLE || 
  9.      end == MEMBLOCK_ALLOC_KASAN) 
  10.   end = memblock.current_limit; 
  11.  
  12.  /* avoid allocating the first page */ 
  13.  start = max_t(phys_addr_t, start, PAGE_SIZE); 
  14.  end = max(start, end); 
  15.  kernel_end = __pa_symbol(_end); 
  16.  
  17.  if (memblock_bottom_up() && end > kernel_end) { 
  18.   phys_addr_t bottom_up_start; 
  19.  
  20.   /* make sure we will allocate above the kernel */ 
  21.   bottom_up_start = max(start, kernel_end); 
  22.  
  23.   /* ok, try bottom-up allocation first */ 
  24.   ret = __memblock_find_range_bottom_up(bottom_up_start, end
  25.             size, align, nid, flags); 
  26.   if (ret) 
  27.    return ret; 
  28.  
  29.   WARN_ONCE(IS_ENABLED(CONFIG_MEMORY_HOTREMOVE), 
  30.      "memblock: bottom-up allocation failed, memory hotremove may be affected\n"); 
  31.  } 
  32.  
  33.  return __memblock_find_range_top_down(start, endsize, align, nid, 
  34.            flags); 

memblock 分配器分配内存是支持自低地址向高地址和自高地址向低地址的,如果 memblock_bottom_up() 函数返回 true,表示 MEMBLOCK 从低向上分配,而前面初始化的时候这个返回值其实是 false(某些情况下不一定),所以这里主要看__memblock_find_range_top_down 的实现(__memblock_find_range_bottom_up 的实现是类似的)。

  1. static phys_addr_t __init_memblock 
  2. __memblock_find_range_top_down(phys_addr_t start, phys_addr_t end
  3.           phys_addr_t size, phys_addr_t align, int nid, 
  4.           enum memblock_flags flags) 
  5.  phys_addr_t this_start, this_end, cand; 
  6.  u64 i; 
  7.  
  8.  for_each_free_mem_range_reverse(i, nid, flags, &this_start, &this_end, 
  9.      NULL) { 
  10.   this_start = clamp(this_start, start, end); 
  11.   this_end = clamp(this_end, start, end); 
  12.  
  13.   if (this_end < size
  14.    continue
  15.  
  16.   cand = round_down(this_end - size, align); 
  17.   if (cand >= this_start) 
  18.    return cand; 
  19.  } 
  20.  
  21.  return 0; 

Clamp 函数可以将随机变化的数值限制在一个给定的区间[min, max]内。

__memblock_find_range_top_down()通过使用 for_each_free_mem_range_reverse 宏封装调用__next_free_mem_range_rev()函数,该函数逐一将 memblock.memory 里面的内存块信息提取出来与 memblock.reserved 的各项信息进行检验,确保返回的 this_start 和 this_end 不会与 reserved 的内存存在交叉重叠的情况。判断大小是否满足,满足的情况下,将自末端向前(因为这是 top-down 申请方式)的 size 大小的空间的起始地址(前提该地址不会超出 this_start)返回回去,至此满足要求的内存块找到了。

最后看一下memblock_free的实现:

  1. int __init_memblock memblock_free(phys_addr_t base, phys_addr_t size
  2.  phys_addr_t end = base + size - 1; 
  3.  
  4.  memblock_dbg("%s: [%pa-%pa] %pS\n", __func__, 
  5.        &base, &end, (void *)_RET_IP_); 
  6.  
  7.  kmemleak_free_part_phys(base, size); 
  8.  return memblock_remove_range(&memblock.reserved, base, size); 

这里直接看最核心的部分:

  1. static int __init_memblock memblock_remove_range(struct memblock_type *type, 
  2.        phys_addr_t base, phys_addr_t size
  3.  int start_rgn, end_rgn; 
  4.  int i, ret; 
  5.  
  6.  ret = memblock_isolate_range(type, base, size, &start_rgn, &end_rgn); 
  7.  if (ret) 
  8.   return ret; 
  9.  
  10.  for (i = end_rgn - 1; i >= start_rgn; i--) 
  11.   memblock_remove_region(type, i); 
  12.  return 0; 
  13. static void __init_memblock memblock_remove_region(struct memblock_type *type, unsigned long r) 
  14.  type->total_size -= type->regions[r].size
  15.  memmove(&type->regions[r], &type->regions[r + 1], 
  16.   (type->cnt - (r + 1)) * sizeof(type->regions[r])); 
  17.  type->cnt--; 
  18.  
  19.  /* Special case for empty arrays */ 
  20.  if (type->cnt == 0) { 
  21.   WARN_ON(type->total_size != 0); 
  22.   type->cnt = 1; 
  23.   type->regions[0].base = 0; 
  24.   type->regions[0].size = 0; 
  25.   type->regions[0].flags = 0; 
  26.   memblock_set_region_node(&type->regions[0], MAX_NUMNODES); 
  27.  } 

其主要功能是将指定下标索引的内存项从 memblock.reserved 中移除。

在__memblock_remove()里面,memblock_isolate_range()主要作用是将要移除的物理内存区从 reserved 内存区中分离出来,将 start_rgn 和 end_rgn(该内存区块的起始、结束索引号)返回回去。

memblock_isolate_range()返回后,接着调用 memblock_remove_region() 函数将这些索引对应的内存区块从内存区中移除,这里具体做法为调用 memmove 函数将 r 索引之后的内存区块全部往前挪一个位置,这样 r 索引对应的内存区块就被移除了,如果移除之后,内存区不含有任何内存区块,那么就初始化该内存区。

memblock 内存管理总结

memblock 内存区管理算法将可用可分配的内存用 memblock.memory 进行管理,已分配的内存用 memblock.reserved 进行管理,只要内存块加入到 memblock.reserved 里面就表示该内存被申请占用了,另外,在内存申请的时候,memblock 仅是把被申请到的内存加入到 memblock.reserved 中,而没有对 memblock.memory 进行任何删除或改动操作,因此申请和释放的操作都集中在 memblock.reserved。这个算法效率不高,但是却是合理的,因为在内核初始化阶段并没有太多复杂的内存操作场景,而且很多地方都是申请的内存都是永久使用的。

内核页表

上面有提到,内核会通过/arch/x86/kernel/head_32.S 开启页式映射,不过这里建立的页表只是临时页表,而内核真正需要建立的是内核页表。

内核虚拟地址空间与用户虚拟地址空间

为了合理地利用 4G 的内存空间,Linux 采用了 3:1 的策略,即内核占用 1G 的线性地址空间,用户占用 3G 的线性地址空间,由于历史原因,用户进程的地址范围从 0~3G,内核地址范围从 3G~4G,而内核的那 1GB 地址空间又称为内核虚拟地址(逻辑地址)空间,虽然内核在虚拟地址中是在高地址的,但是在物理地址中是从 0 开始的。

内核虚拟地址与用户虚拟地址,这两者都是虚拟地址,都需要经过 MMU 的翻译转换为物理地址,从硬件层面上来看,所谓的内核虚拟地址和用户虚拟地址只是权限不一样而已,但在软件层面上看,就大不相同了,当进程需要知道一个用户空间虚拟地址对应的物理地址时,linux 内核需要通过页表来得到它的物理地址,而内核空间虚拟地址是所有进程共享的,也就是说,内核在初始化时,就可以创建内核虚拟地址空间的映射,并且这里的映射就是线性映射,它基本等同于物理地址,只是它们之间有一个固定的偏移,当内核需要获取该物理地址时,可以绕开页表翻译直接通过偏移计算拿到,当然这是从软件层面上来看的,当内核去访问该页时, 硬件层面仍然走的是 MMU 翻译的全过程。

至于为什么用户虚拟地址空间不能也像内核虚拟地址空间这么做,原因是用户地址空间是随进程创建才产生的,无法事先给它分配一块连续的内存

内核通过内核虚拟地址可以直接访问到对应的物理地址,那内核如何使用其它的用户虚拟地址(0~3G)?

Linux 采用的一种折中方案是只对 1G 内核空间的前 896 MB 按线性映射, 剩下的 128 MB 采用动态映射,即走多级页表翻译,这样,内核态能访问空间就更多了。这里 linux 内核把这 896M 的空间称为 NORMAL 内存,剩下的 128M 称为高端内存,即 highmem。在 64 位处理器上,内核空间大大增加,所以也就不需要高端内存了,但是仍然保留了动态映射。

动态映射不全是为了内核空间可以访问更多的物理内存,还有一个重要原因:如果内核空间全线性映射,那么很可能就会出现内核空间碎片化而满足不了很多连续页面分配的需求(这类似于内存分段与内存分页)。因此内核空间也必须有一部分是非线性映射,从而在这碎片化物理地址空间上,用页表构造出连续虚拟地址空间(虚拟地址连续、物理地址不连续),这就是所谓的 vmalloc 空间。

到这里,可以大致知道linux 虚拟内存的构造:

linux 内存分页

linux 内核主要是通过内存分页来管理内存的,这里先介绍两个重要的变量:max_pfn 和 max_low_pfn。max_pfn 为最大物理内存页面帧号,max_low_pfn 为低端内存区的最大可用页帧号,它们的初始化如下:

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_ram_pfn(); 
  4.  ..... 
  5. #ifdef CONFIG_X86_32 
  6.  /* max_low_pfn get updated here */ 
  7.  find_low_pfn_range(); 
  8. #else 
  9.  check_x2apic(); 
  10.  
  11.  /* How many end-of-memory variables you have, grandma! */ 
  12.  /* need this before calling reserve_initrd */ 
  13.  if (max_pfn > (1UL<<(32 - PAGE_SHIFT))) 
  14.   max_low_pfn = e820__end_of_low_ram_pfn(); 
  15.  else 
  16.   max_low_pfn = max_pfn; 
  17.  
  18.  high_memory = (void *)__va(max_pfn * PAGE_SIZE - 1) + 1; 
  19. #endif 
  20.  ...... 
  21.     e820__memblock_setup(); 
  22.     ...... 

其中 e820__end_of_ram_pfn 的实现如下,其中 E820_TYPE_RAM 代表可用物理内存类型

  1. #define PAGE_SHIFT  12 
  2.  
  3. #ifdef CONFIG_X86_32 
  4. # ifdef CONFIG_X86_PAE 
  5. #  define MAX_ARCH_PFN  (1ULL<<(36-PAGE_SHIFT)) 
  6. else 
  7. //32位系统,1<<20,即0x100000,代表4G物理内存的最大页面帧号 
  8. #  define MAX_ARCH_PFN  (1ULL<<(32-PAGE_SHIFT)) 
  9. # endif 
  10. #else /* CONFIG_X86_32 */ 
  11. # define MAX_ARCH_PFN MAXMEM>>PAGE_SHIFT 
  12. #endif 
  13.  
  14. unsigned long __init e820__end_of_ram_pfn(void) 
  15.  return e820_end_pfn(MAX_ARCH_PFN, E820_TYPE_RAM); 
  16.  
  17. /* 
  18.  * Find the highest page frame number we have available 
  19.  */ 
  20. static unsigned long __init e820_end_pfn(unsigned long limit_pfn, enum e820_type type) 
  21.  int i; 
  22.  unsigned long last_pfn = 0; 
  23.  unsigned long max_arch_pfn = MAX_ARCH_PFN; 
  24.  
  25.  for (i = 0; i < e820_table->nr_entries; i++) { 
  26.   struct e820_entry *entry = &e820_table->entries[i]; 
  27.   unsigned long start_pfn; 
  28.   unsigned long end_pfn; 
  29.  
  30.   if (entry->type != type) 
  31.    continue
  32.  
  33.   start_pfn = entry->addr >> PAGE_SHIFT; 
  34.   end_pfn = (entry->addr + entry->size) >> PAGE_SHIFT; 
  35.  
  36.   if (start_pfn >= limit_pfn) 
  37.    continue
  38.   if (end_pfn > limit_pfn) { 
  39.    last_pfn = limit_pfn; 
  40.    break; 
  41.   } 
  42.   if (end_pfn > last_pfn) 
  43.    last_pfn = end_pfn; 
  44.  } 
  45.  
  46.  if (last_pfn > max_arch_pfn) 
  47.   last_pfn = max_arch_pfn; 
  48.  
  49.  pr_info("last_pfn = %#lx max_arch_pfn = %#lx\n"
  50.   last_pfn, max_arch_pfn); 
  51.  return last_pfn; 

e820__end_of_ram_pfn其实就是遍历e820_table,得到内存块的起始地址以及内存块大小,将起始地址右移 PAGE_SHIFT,算出其起始地址对应的页面帧号,同时根据内存块大小可以算出结束地址的页号,如果结束页号大于 limit_pfn,则设置该页号为为 limit_pfn,然后通过比较得到一个 last_pfn,即系统真正的最大物理页号。

max_low_pfn的计算则调用到了find_low_pfn_range:

  1. #define PFN_UP(x) (((x) + PAGE_SIZE-1) >> PAGE_SHIFT) 
  2. #define PFN_DOWN(x) ((x) >> PAGE_SHIFT) 
  3. #define PFN_PHYS(x) ((phys_addr_t)(x) << PAGE_SHIFT) 
  4.  
  5. #ifndef __pa 
  6. #define __pa(x)  __phys_addr((unsigned long)(x)) 
  7. #endif 
  8.  
  9. #define VMALLOC_RESERVE  SZ_128M 
  10. #define VMALLOC_END  (CONSISTENT_BASE - PAGE_SIZE) 
  11. #define VMALLOC_START  ((VMALLOC_END) - VMALLOC_RESERVE) 
  12. #define VMALLOC_VMADDR(x) ((unsigned long)(x)) 
  13. #define MAXMEM   __pa(VMALLOC_START) 
  14. #define MAXMEM_PFN  PFN_DOWN(MAXMEM) 
  15.  
  16. void __init find_low_pfn_range(void) 
  17.  /* it could update max_pfn */ 
  18.  
  19.  if (max_pfn <= MAXMEM_PFN) 
  20.   lowmem_pfn_init(); 
  21.  else 
  22.   highmem_pfn_init(); 

PFN_DOWN(x)是用来返回小于 x 的最后一个物理页号,PFN_UP(x)是用来返回大于 x 的第一个物理页号,这里 x 即物理地址,而 PFN_PHYS(x)返回的是物理页号 x 对应的物理地址。

__pa 其实就是通过虚拟地址计算出物理地址,这一块后面再做讲解。

将 MAXMEM 展开一下可得

  1. #ifdef CONFIG_HIGHMEM 
  2. #define CONSISTENT_BASE  ((PKMAP_BASE) - (SZ_2M)) 
  3. #define CONSISTENT_END  (PKMAP_BASE) 
  4. #else 
  5. #define CONSISTENT_BASE  (FIXADDR_START - SZ_2M) 
  6. #define CONSISTENT_END  (FIXADDR_START) 
  7. #endif 
  8.  
  9. #define SZ_2M    0x00200000 
  10. #define SZ_128M    0x08000000 
  11.  
  12. #define MAXMEM              __pa(VMALLOC_END – PAGE_OFFSET – __VMALLOC_RESERVE) 
  13. //进一步展开 
  14. #define MAXMEM              __pa(CONSISTENT_BASE - PAGE_SIZE – PAGE_OFFSET – SZ_128M) 
  15. //再进一步展开 
  16. #define MAXMEM              __pa((PKMAP_BASE) - (SZ_2M) - PAGE_SIZE – PAGE_OFFSET – SZ_128M) 

下面这一部分就涉及到高端内存的构成了,其中PKMAP_BASE 是持久映射空间(KMAP 空间,持久映射区)的起始地址,LAST_PKMAP 则是持久映射空间的映射页面数,而 FIXADDR_TOP 是固定映射区(临时内核映射区)的末尾,FIXADDR_START 是固定映射区起始地址,其中的__end_of_permanent_fixed_addresses 是固定映射的一个标志(一个枚举值,具体可以参考\arch\x86\include\asm\fixmap.h 里的 enum fixed_addresses)。最后的 VMALLOC_END 即为动态映射区的末尾。

  1. //临时映射 
  2. //-4096(4KB) -> 0xfffff000 
  3. #define __FIXADDR_TOP (-PAGE_SIZE) 
  4.  
  5. #define FIXADDR_TOP ((unsigned long)__FIXADDR_TOP) 
  6. #define FIXADDR_SIZE  (__end_of_permanent_fixed_addresses << PAGE_SHIFT) 
  7. #define FIXADDR_START  (FIXADDR_TOP - FIXADDR_SIZE) 
  8. #define FIXADDR_TOT_SIZE (__end_of_fixed_addresses << PAGE_SHIFT) 
  9. #define FIXADDR_TOT_START (FIXADDR_TOP - FIXADDR_TOT_SIZE) 
  10.  
  11. //持久内核映射 
  12. #ifdef CONFIG_X86_PAE 
  13. #define LAST_PKMAP 512 
  14. #else 
  15. #define LAST_PKMAP 1024 
  16. #endif 
  17.  
  18. #define CPU_ENTRY_AREA_BASE \ 
  19.  ((FIXADDR_TOT_START - PAGE_SIZE*(CPU_ENTRY_AREA_PAGES+1)) & PMD_MASK) 
  20.  
  21. #define LDT_BASE_ADDR  \ 
  22.  ((CPU_ENTRY_AREA_BASE - PAGE_SIZE) & PMD_MASK) 
  23.  
  24. #define LDT_END_ADDR  (LDT_BASE_ADDR + PMD_SIZE) 
  25.  
  26. #define PKMAP_BASE  \ 
  27.  ((LDT_BASE_ADDR - PAGE_SIZE) & PMD_MASK) 
  28.  
  29. //动态映射 
  30. //0xffffff80<<20 -> 0xf8000000 -> 4,160,749,568 -> 3948MB -> 3GB+896MB 与上述一致 
  31. #define high_memory (-128UL << 20) 
  32. //8MB 
  33. #define VMALLOC_OFFSET (8 * 1024 * 1024) 
  34. #define VMALLOC_START ((unsigned long)high_memory + VMALLOC_OFFSET) 
  35.  
  36. #ifdef CONFIG_HIGHMEM 
  37. # define VMALLOC_END (PKMAP_BASE - 2 * PAGE_SIZE) 
  38. #else 
  39. # define VMALLOC_END (LDT_BASE_ADDR - 2 * PAGE_SIZE) 
  40. #endif 

直接看图~

PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000

内核空间如上图,可分为直接内存映射区和高端内存映射区,其中直接内存映射区是指 3G 到 3G+896M 的线性空间,直接对应物理地址就是 0 到 896M(前提是有超过 896M 的物理内存),其中 896M 是 high_memory 值,使用 kmalloc()/kfree()接口申请释放内存;而高端内存映射区则是超过 896M 物理内存的空间,它又分为动态映射区、持久映射区和固定映射区。

动态内存映射区,又称之为 vmalloc 映射区或非连续映射区,是指 VMALLOC_START 到 VMALLOC_END 的地址空间,申请释放内存的接口是 vmalloc()/vfree(),通常用于将非连续的物理内存映射为连续的线性地址内存空间;

而持久映射区,又称之为 KMAP 区或永久映射区,是指自 PKMAP_BASE 开始共 LAST_PKMAP 个页面大小的空间,操作接口是 kmap()/kunmap(),用于将高端内存长久映射到内存虚拟地址空间中;

最后的固定映射区,有时候也称为临时映射区,是指 FIXADDR_START 到 FIXADDR_TOP 的地址空间,操作接口是 kmap_atomic()/kummap_atomic(),用于解决持久映射不能用于中断处理程序而增加的临时内核映射。

上面的MAXMEM_PFN 其实就是用来判断是否初始化(启用)高端内存,当内存物理页数本来就小于低端内存的最大物理页数时,就没有高端地址映射。

这里接着看 max_low_pfn 的初始化,进入 highmem_pfn_init(void)。

  1. static void __init highmem_pfn_init(void) 
  2.  max_low_pfn = MAXMEM_PFN; 
  3.  
  4.  if (highmem_pages == -1) 
  5.   highmem_pages = max_pfn - MAXMEM_PFN; 
  6.  
  7.  if (highmem_pages + MAXMEM_PFN < max_pfn) 
  8.   max_pfn = MAXMEM_PFN + highmem_pages; 
  9.  
  10.  if (highmem_pages + MAXMEM_PFN > max_pfn) { 
  11.   printk(KERN_WARNING MSG_HIGHMEM_TOO_SMALL, 
  12.    pages_to_mb(max_pfn - MAXMEM_PFN), 
  13.    pages_to_mb(highmem_pages)); 
  14.   highmem_pages = 0; 
  15.  } 
  16. #ifndef CONFIG_HIGHMEM 
  17.  /* Maximum memory usable is what is directly addressable */ 
  18.  printk(KERN_WARNING "Warning only %ldMB will be used.\n", MAXMEM>>20); 
  19.  if (max_pfn > MAX_NONPAE_PFN) 
  20.   printk(KERN_WARNING "Use a HIGHMEM64G enabled kernel.\n"); 
  21.  else 
  22.   printk(KERN_WARNING "Use a HIGHMEM enabled kernel.\n"); 
  23.  max_pfn = MAXMEM_PFN; 
  24. #else /* !CONFIG_HIGHMEM */ 
  25. #ifndef CONFIG_HIGHMEM64G 
  26.  if (max_pfn > MAX_NONPAE_PFN) { 
  27.   max_pfn = MAX_NONPAE_PFN; 
  28.   printk(KERN_WARNING MSG_HIGHMEM_TRIMMED); 
  29.  } 
  30. #endif /* !CONFIG_HIGHMEM64G */ 
  31. #endif /* !CONFIG_HIGHMEM */ 

highmem_pfn_init 的主要工作其实就是把 max_low_pfn 设置为 MAXMEM_PFN,将 highmem_pages 设置为 max_pfn – MAXMEM_PFN,至此,max_pfn 和 max_low_pfn 初始化完毕。

低端内存初始化

回到 setup_arch 函数:

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_ram_pfn(); 
  4.  ..... 
  5. #ifdef CONFIG_X86_32 
  6.  /* max_low_pfn get updated here */ 
  7.  find_low_pfn_range(); 
  8. #else 
  9.  check_x2apic(); 
  10.  
  11.  /* How many end-of-memory variables you have, grandma! */ 
  12.  /* need this before calling reserve_initrd */ 
  13.  if (max_pfn > (1UL<<(32 - PAGE_SHIFT))) 
  14.   max_low_pfn = e820__end_of_low_ram_pfn(); 
  15.  else 
  16.   max_low_pfn = max_pfn; 
  17.  
  18.  high_memory = (void *)__va(max_pfn * PAGE_SIZE - 1) + 1; 
  19. #endif 
  20.  ...... 
  21.  early_alloc_pgt_buf(); //<------------------------------------- 
  22.     /* 
  23.   * Need to conclude brk, before e820__memblock_setup() 
  24.   *  it could use memblock_find_in_range, could overlap with 
  25.   *  brk area. 
  26.   */ 
  27.  reserve_brk(); //<------------------------------------------- 
  28.     ...... 
  29.     e820__memblock_setup(); 
  30.  ...... 

early_alloc_pgt_buf()即申请页表缓冲区

  1. #define INIT_PGD_PAGE_COUNT      6 
  2. #define INIT_PGT_BUF_SIZE (INIT_PGD_PAGE_COUNT * PAGE_SIZE) 
  3. RESERVE_BRK(early_pgt_alloc, INIT_PGT_BUF_SIZE); 
  4. void  __init early_alloc_pgt_buf(void) 
  5.  unsigned long tables = INIT_PGT_BUF_SIZE; 
  6.  phys_addr_t base; 
  7.  
  8.  base = __pa(extend_brk(tables, PAGE_SIZE)); 
  9.  
  10.  pgt_buf_start = base >> PAGE_SHIFT; 
  11.  pgt_buf_end = pgt_buf_start; 
  12.  pgt_buf_top = pgt_buf_start + (tables >> PAGE_SHIFT); 

pgt_buf_start:标识该缓冲空间的起始物理内存页框号;

pgt_buf_end:初始化时和 pgt_buf_start 是同一个值,但是它是用于表示该空间未被申请使用的空间起始页框号;

pgt_buf_top:则是用来表示缓冲空间的末尾,存放的是该末尾的页框号

INIT_PGT_BUF_SIZE 即 24KB,这里直接看最关键的部分:extend_brk

  1. unsigned long _brk_start = (unsigned long)__brk_base; 
  2. unsigned long _brk_end   = (unsigned long)__brk_base; 
  3.  
  4. void * __init extend_brk(size_t size, size_t align) 
  5.  size_t mask = align - 1; 
  6.  void *ret; 
  7.  
  8.  BUG_ON(_brk_start == 0); 
  9.  BUG_ON(align & mask); 
  10.  
  11.  _brk_end = (_brk_end + mask) & ~mask; 
  12.  BUG_ON((char *)(_brk_end + size) > __brk_limit); 
  13.  
  14.  ret = (void *)_brk_end; 
  15.  _brk_end += size
  16.  
  17.  memset(ret, 0, size); 
  18.  
  19.  return ret; 

BUG_ON()函数是内核标记 bug、提供断言并输出信息的常用手段

__brk_base 相关的初始化可以参考 arch\x86\kernel\vmlinux.lds.S

在 setup_arch()中,紧接着 early_alloc_pgt_buf()还有 reserve_brk()函数

  1. static void __init reserve_brk(void) 
  2.  if (_brk_end > _brk_start) 
  3.   memblock_reserve(__pa_symbol(_brk_start), 
  4.      _brk_end - _brk_start); 
  5.  
  6.  /* Mark brk area as locked down and no longer taking any 
  7.     new allocations */ 
  8.  _brk_start = 0; 

这个地方主要是将 early_alloc_pgt_buf()申请的空间在 membloc 中做 reserved 保留操作,避免被其它地方申请使用而引发异常

回到 setup_arch 函数:

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_ram_pfn(); //max_pfn初始化 
  4.  ...... 
  5.  find_low_pfn_range(); //max_low_pfn、高端内存初始化 
  6.  ...... 
  7.  
  8.  ...... 
  9.  early_alloc_pgt_buf(); //页表缓冲区分配 
  10.  reserve_brk(); //缓冲区加入memblock.reserve 
  11.  
  12.     ...... 
  13.     e820__memblock_setup(); //memblock.memory空间初始化 启动 
  14.  ...... 
  15.  
  16.     init_mem_mapping(); //<----------------------------- 
  17.     ...... 

init_mem_mapping()即低端内存内核页表初始化的关键函数

  1. #define ISA_END_ADDRESS  0x00100000 //1MB 
  2.  
  3. void __init init_mem_mapping(void) 
  4.  unsigned long end
  5.  
  6.  pti_check_boottime_disable(); 
  7.  probe_page_size_mask(); 
  8.  setup_pcid(); 
  9.  
  10. #ifdef CONFIG_X86_64 
  11.  end = max_pfn << PAGE_SHIFT; 
  12. #else 
  13.  end = max_low_pfn << PAGE_SHIFT; 
  14. #endif 
  15.  
  16.  /* the ISA range is always mapped regardless of memory holes */ 
  17.  init_memory_mapping(0, ISA_END_ADDRESS, PAGE_KERNEL); 
  18.  
  19.  /* Init the trampoline, possibly with KASLR memory offset */ 
  20.  init_trampoline(); 
  21.  
  22.  /* 
  23.   * If the allocation is in bottom-up direction, we setup direct mapping 
  24.   * in bottom-up, otherwise we setup direct mapping in top-down. 
  25.   */ 
  26.  if (memblock_bottom_up()) { 
  27.   unsigned long kernel_end = __pa_symbol(_end); 
  28.  
  29.   memory_map_bottom_up(kernel_end, end); 
  30.   memory_map_bottom_up(ISA_END_ADDRESS, kernel_end); 
  31.  } else { 
  32.   memory_map_top_down(ISA_END_ADDRESS, end); 
  33.  } 
  34.  
  35. #ifdef CONFIG_X86_64 
  36.  if (max_pfn > max_low_pfn) { 
  37.   /* can we preseve max_low_pfn ?*/ 
  38.   max_low_pfn = max_pfn; 
  39.  } 
  40. #else 
  41.  early_ioremap_page_table_range_init(); 
  42. #endif 
  43.  
  44.  load_cr3(swapper_pg_dir); 
  45.  __flush_tlb_all(); 
  46.  
  47.  x86_init.hyper.init_mem_mapping(); 
  48.  
  49.  early_memtest(0, max_pfn_mapped << PAGE_SHIFT); 

probe_page_size_mask()主要作用是初始化直接映射变量(直接映射区相关)以及根据配置来控制 CR4 寄存器的置位,用于后面分页时页面大小的判定。

上面 init_memory_mapping 的参数 ISA_END_ADDRESS 表示 ISA 总线上设备的末尾地址。

init_memory_mapping(0, ISA_END_ADDRESS, PAGE_KERNEL)初始化 0 ~ 1MB 的物理地址,一般内核启动时被安装在 1MB 开始处,这里初始化完成之后会调用到 memory_map_bottom_up 或者 memory_map_top_down,后面就是初始化 1MB ~ 内核结束地址 这块物理地址区域 ,最后也会回归到 init_memory_mapping 的调用,因此这里不做过多的介绍,直接看 init_memory_mapping():

  1. #ifdef CONFIG_X86_32 
  2. #define NR_RANGE_MR 3 
  3. #else /* CONFIG_X86_64 */ 
  4. #define NR_RANGE_MR 5 
  5. #endif 
  6.  
  7. struct map_range { 
  8.  unsigned long start; 
  9.  unsigned long end
  10.  unsigned page_size_mask; 
  11. }; 
  12.  
  13. unsigned long __ref init_memory_mapping(unsigned long start, 
  14.      unsigned long end, pgprot_t prot) 
  15.  struct map_range mr[NR_RANGE_MR]; 
  16.  unsigned long ret = 0; 
  17.  int nr_range, i; 
  18.  
  19.  pr_debug("init_memory_mapping: [mem %#010lx-%#010lx]\n"
  20.         start, end - 1); 
  21.  
  22.  memset(mr, 0, sizeof(mr)); 
  23.  nr_range = split_mem_range(mr, 0, start, end); 
  24.  
  25.  for (i = 0; i < nr_range; i++) 
  26.   ret = kernel_physical_mapping_init(mr[i].start, mr[i].end
  27.          mr[i].page_size_mask, 
  28.          prot); 
  29.  
  30.  add_pfn_range_mapped(start >> PAGE_SHIFT, ret >> PAGE_SHIFT); 
  31.  
  32.  return ret >> PAGE_SHIFT; 

struct map_range,该结构是用来保存内存段信息,其包含了一个段的起始地址、结束地址,以及该段是按多大的页面进行分页(4K、2M、1G,1G 是 64 位的,所以这里不提及)。

  1. static int __meminit split_mem_range(struct map_range *mr, int nr_range, 
  2.          unsigned long start, 
  3.          unsigned long end
  4.  unsigned long start_pfn, end_pfn, limit_pfn; 
  5.  unsigned long pfn; 
  6.  int i; 
  7.  //返回小于...的最后一个物理页号 
  8.  limit_pfn = PFN_DOWN(end); 
  9.  
  10.  pfn = start_pfn = PFN_DOWN(start); 
  11.  
  12.  if (pfn == 0) 
  13.   end_pfn = PFN_DOWN(PMD_SIZE); 
  14.  else 
  15.   end_pfn = round_up(pfn, PFN_DOWN(PMD_SIZE)); 
  16.  
  17.  if (end_pfn > limit_pfn) 
  18.   end_pfn = limit_pfn; 
  19.  if (start_pfn < end_pfn) { 
  20.   nr_range = save_mr(mr, nr_range, start_pfn, end_pfn, 0); 
  21.   pfn = end_pfn; 
  22.  } 
  23.  
  24.  /* big page (2M) range */ 
  25.  start_pfn = round_up(pfn, PFN_DOWN(PMD_SIZE)); 
  26.  
  27.  end_pfn = round_down(limit_pfn, PFN_DOWN(PMD_SIZE)); 
  28.  
  29.  if (start_pfn < end_pfn) { 
  30.   nr_range = save_mr(mr, nr_range, start_pfn, end_pfn, 
  31.     page_size_mask & (1<<PG_LEVEL_2M)); 
  32.   pfn = end_pfn; 
  33.  } 
  34.  
  35.  /* tail is not big page (2M) alignment */ 
  36.  start_pfn = pfn; 
  37.  end_pfn = limit_pfn; 
  38.  nr_range = save_mr(mr, nr_range, start_pfn, end_pfn, 0); 
  39.  
  40.  if (!after_bootmem) 
  41.   adjust_range_page_size_mask(mr, nr_range); 
  42.  
  43.  /* try to merge same page size and continuous */ 
  44.  for (i = 0; nr_range > 1 && i < nr_range - 1; i++) { 
  45.   unsigned long old_start; 
  46.   if (mr[i].end != mr[i+1].start || 
  47.       mr[i].page_size_mask != mr[i+1].page_size_mask) 
  48.    continue
  49.   /* move it */ 
  50.   old_start = mr[i].start; 
  51.   memmove(&mr[i], &mr[i+1], 
  52.    (nr_range - 1 - i) * sizeof(struct map_range)); 
  53.   mr[i--].start = old_start; 
  54.   nr_range--; 
  55.  } 
  56.  
  57.  for (i = 0; i < nr_range; i++) 
  58.   pr_debug(" [mem %#010lx-%#010lx] page %s\n"
  59.     mr[i].start, mr[i].end - 1, 
  60.     page_size_string(&mr[i])); 
  61.  
  62.  return nr_range; 

PMD_SIZE 用于计算由页中间目录的一个单独表项所映射的区域大小,也就是一个页表的大小。

split_mem_range()根据传入的内存 start 和 end 做四舍五入的对齐操作(即 round_up 和 round_down)

  1. #define __round_mask(x, y) ((__typeof__(x))((y)-1)) 
  2. #define round_up(x, y) ((((x)-1) | __round_mask(x, y))+1) 
  3. //可以理解为:#define round_up(x, y) (((x)+(y) - 1)/(y))*(y)) 
  4. #define round_down(x, y) ((x) & ~__round_mask(x, y)) 
  5. //可以理解为:#define round_down(x, y) ((x/y) * y) 

round_up 宏依靠整数除法来完成这项工作,仅当两个参数均为整数时,它才有效,x 是需要四舍五入的数字,y 是应该四舍五入的间隔,也就是说,round_up(12,5)应返回 15,因为 15 是大于 12 的 5 的第一个间隔,而 round_down(12,5)应返回 10。

split_mem_range()会根据对齐的情况,把开始、末尾的不对齐部分及中间部分分成了三段,使用 save_mr()将其存放在 init_mem_mapping()的局部变量数组 mr 中。划分开来主要是为了让各部分可以映射到不同大小的页面,最后如果相邻两部分映射页面的大小是一致的,则将其合并。

可以通过 dmesg 得到划分的情况(以下是我私服的划分情况,不过是 64 位的……)

初始化完内存段信息 mr 之后,就行了进入到kernel_physical_mapping_init,这个函数是建立内核页表的最为关键的一步,负责处理物理内存的映射。

在 2.6.11 后,Linux 采用四级分页模型,这四级页目录分别为:

  • 页全局目录(Page Global Directory)
  • 页上级目录(Page Upper Directory)
  • 页中间目录(Page Middle Directory)
  • 页表(Page Table)

对于没有启动 PAE(物理地址扩展)的 32 位系统,Linux 虽然也采用四级分页模型,但本质上只用到了两级分页,Linux 通过将"页上级目录"位域和“页中间目录”位域全为 0 来达到使用两级分页的目的,但为了保证程序能 32 位和 64 系统上都能运行,内核保留了页上级目录和页中间目录在指针序列中的位置,它们的页目录数都被内核置为 1,并把这 2 个页目录项映射到适合的全局目录项。

开启 PAE 后,32 位系统寻址方式将大大改变,这时候使用的是三级页表,即页上级目录其实没有真正用到。

这里不考虑 PAE

PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000

  1. unsigned long __init 
  2. kernel_physical_mapping_init(unsigned long start, 
  3.         unsigned long end
  4.         unsigned long page_size_mask, 
  5.         pgprot_t prot) 
  6.  int use_pse = page_size_mask == (1<<PG_LEVEL_2M); 
  7.  unsigned long last_map_addr = end
  8.  unsigned long start_pfn, end_pfn; 
  9.  pgd_t *pgd_base = swapper_pg_dir; 
  10.  int pgd_idx, pmd_idx, pte_ofs; 
  11.  unsigned long pfn; 
  12.  pgd_t *pgd; 
  13.  pmd_t *pmd; 
  14.  pte_t *pte; 
  15.  unsigned pages_2m, pages_4k; 
  16.  int mapping_iter; 
  17.  
  18.  start_pfn = start >> PAGE_SHIFT; 
  19.  end_pfn = end >> PAGE_SHIFT; 
  20.  
  21.  mapping_iter = 1; 
  22.  
  23.  if (!boot_cpu_has(X86_FEATURE_PSE)) 
  24.   use_pse = 0; 
  25.  
  26. repeat: 
  27.  pages_2m = pages_4k = 0; 
  28.  pfn = start_pfn; //pfn保存起始页框号 
  29.  pgd_idx = pgd_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET); //低端内存的起始地址对应的pgd的偏移 
  30.  pgd = pgd_base + pgd_idx; //得到起始页框对应的pgd 
  31.  //由pgd开始遍历 
  32.     for (; pgd_idx < PTRS_PER_PGD; pgd++, pgd_idx++) { 
  33.   pmd = one_md_table_init(pgd);//申请得到一个pmd表 
  34.  
  35.   if (pfn >= end_pfn) 
  36.    continue
  37. #ifdef CONFIG_X86_PAE 
  38.   pmd_idx = pmd_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET); 
  39.   pmd += pmd_idx; 
  40. #else 
  41.   pmd_idx = 0; 
  42. #endif 
  43.         //遍历pmd表,对于未激活PAE的32位系统,PTRS_PER_PMD为1,激活PAE则为512 
  44.   for (; pmd_idx < PTRS_PER_PMD && pfn < end_pfn; 
  45.        pmd++, pmd_idx++) { 
  46.    unsigned int addr = pfn * PAGE_SIZE + PAGE_OFFSET; 
  47.  
  48.    /* 
  49.     * Map with big pages if possible, otherwise 
  50.     * create normal page tables: 
  51.     */ 
  52.    if (use_pse) { 
  53.     unsigned int addr2; 
  54.     pgprot_t prot = PAGE_KERNEL_LARGE; 
  55.     /* 
  56.      * first pass will use the same initial 
  57.      * identity mapping attribute + _PAGE_PSE. 
  58.      */ 
  59.     pgprot_t init_prot = 
  60.      __pgprot(PTE_IDENT_ATTR | 
  61.        _PAGE_PSE); 
  62.  
  63.     pfn &= PMD_MASK >> PAGE_SHIFT; 
  64.     addr2 = (pfn + PTRS_PER_PTE-1) * PAGE_SIZE + 
  65.      PAGE_OFFSET + PAGE_SIZE-1; 
  66.  
  67.     if (__is_kernel_text(addr) || 
  68.         __is_kernel_text(addr2)) 
  69.      prot = PAGE_KERNEL_LARGE_EXEC; 
  70.  
  71.     pages_2m++; 
  72.     if (mapping_iter == 1) 
  73.      set_pmd(pmd, pfn_pmd(pfn, init_prot)); 
  74.     else 
  75.      set_pmd(pmd, pfn_pmd(pfn, prot)); 
  76.  
  77.     pfn += PTRS_PER_PTE; 
  78.     continue
  79.    } 
  80.    pte = one_page_table_init(pmd); //创建一个页表 
  81.    //得到pfn在page table中的偏移并定位到具体的pte 
  82.    pte_ofs = pte_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET); 
  83.    pte += pte_ofs; 
  84.             //由pte开始遍历page table 
  85.    for (; pte_ofs < PTRS_PER_PTE && pfn < end_pfn; 
  86.         pte++, pfn++, pte_ofs++, addr += PAGE_SIZE) { 
  87.     pgprot_t prot = PAGE_KERNEL; 
  88.     /* 
  89.      * first pass will use the same initial 
  90.      * identity mapping attribute. 
  91.      */ 
  92.     pgprot_t init_prot = __pgprot(PTE_IDENT_ATTR); 
  93.  
  94.     if (__is_kernel_text(addr)) //如果处于内核代码段,权限设为可执行 
  95.      prot = PAGE_KERNEL_EXEC; 
  96.  
  97.     pages_4k++; 
  98.                 //设置pte与pfn关联 
  99.     if (mapping_iter == 1) { 
  100.      set_pte(pte, pfn_pte(pfn, init_prot)); //第一次执行将权限位设为init_prot 
  101.      last_map_addr = (pfn << PAGE_SHIFT) + PAGE_SIZE; 
  102.     } else 
  103.      set_pte(pte, pfn_pte(pfn, prot)); //之后的执行将权限位置为prot 
  104.    } 
  105.   } 
  106.  } 
  107.  if (mapping_iter == 1) { 
  108.   /* 
  109.    * update direct mapping page count only in the first 
  110.    * iteration. 
  111.    */ 
  112.   update_page_count(PG_LEVEL_2M, pages_2m); 
  113.   update_page_count(PG_LEVEL_4K, pages_4k); 
  114.  
  115.   /* 
  116.    * local global flush tlb, which will flush the previous 
  117.    * mappings present in both small and large page TLB's. 
  118.    */ 
  119.   __flush_tlb_all(); //TLB全部刷新 
  120.  
  121.   /* 
  122.    * Second iteration will set the actual desired PTE attributes. 
  123.    */ 
  124.   mapping_iter = 2; 
  125.   goto repeat; 
  126.  } 
  127.  return last_map_addr; 

内核的内核页全局目录的基地址保存在 swapper_pg_dir 全局变量中,但需要使用主内核页表时系统会把这个变量的值放入 cr3 寄存器,详细可参考/arch/x86/kernel/head_32.s。

Linux 分别采用 pgd_t、pud_t、pmd_t 和 pte_t 四种数据结构来表示页全局目录项、页上级目录项、页中间目录项和页表项。这四种数据结构本质上都是无符号长整型,Linux 为了更严格数据类型检查,将无符号长整型分别封装成四种不同的页表项。如果不采用这种方法,那么一个无符号长整型数据可以传入任何一个与四种页表相关的函数或宏中,这将大大降低程序的健壮性。下面仅列出 pgd_t 类型的内核源码实现,其他类型与此类似

  1. typedef unsigned long   pgdval_t; 
  2.  
  3. typedef struct { pgdval_t pgd; } pgd_t; 
  4.  
  5. #define pgd_val(x)      native_pgd_val(x) 
  6.  
  7. static inline pgdval_t native_pgd_val(pgd_t pgd) 
  8.       return pgd.pgd; 

这里需要区别指向页表项的指针和页表项所代表的数据,如果已知一个 pgd_t 类型的指针 pgd,那么通过 pgd_val(*pgd)即可获得该页表项(也就是一个无符号长整型数据)

PAGE_SHIFT,PMD_SHIFT,PUD_SHIFT,PGDIR_SHIFT,对应相应的页目录所能映射的区域大小的位数,如 PAGE_SHIFT 为 12,即页面大小为 4k。

PTRS_PER_PTE, PTRS_PER_PMD, PTRS_PER_PUD, PTRS_PER_PGD,对应相应页目录中的表项数。32 位系统下,当 PAE 被禁止时,他们的值分别为 1024,,1,1 和 1024,也就是说只使用两级分页

pgd_index(addr),pud_index,(addr),pmd_index(addr),pte_index(addr),取 addr 在该目录中的索引

pud_offset(pgd,addr), pmd_offset(pud,addr), pte_offset(pmd,addr),以 pmd_offset 为例,线性地址 addr 对应的 pmd 索引在在 pud 指定的 pmd 表的偏移地址。在两级或三级分页系统中,pmd_offset 和 pud_offset 都返回页全局目录的地址

至此,低端内存的物理地址和虚拟地址之间的映射关系已全部建立起来了

回到前面的 init_memory_mapping()函数,它的最后一个函数调用为 add_pfn_range_mapped()

  1. struct range pfn_mapped[E820_MAX_ENTRIES]; 
  2. int nr_pfn_mapped; 
  3.  
  4. static void add_pfn_range_mapped(unsigned long start_pfn, unsigned long end_pfn) 
  5.  nr_pfn_mapped = add_range_with_merge(pfn_mapped, E820_MAX_ENTRIES, 
  6.           nr_pfn_mapped, start_pfn, end_pfn); 
  7.  nr_pfn_mapped = clean_sort_range(pfn_mapped, E820_MAX_ENTRIES); 
  8.  
  9.  max_pfn_mapped = max(max_pfn_mapped, end_pfn); 
  10.  
  11.  if (start_pfn < (1UL<<(32-PAGE_SHIFT))) 
  12.   max_low_pfn_mapped = max(max_low_pfn_mapped, 
  13.       min(end_pfn, 1UL<<(32-PAGE_SHIFT))); 

该函数主要是将前面完成内存映射的物理页框范围加入到全局数组pfn_mapped中,其中 nr_pfn_mapped 用于表示数组中的有效项数量,之后可以通过内核函数 pfn_range_is_mapped 来判断指定的物理内存是否被映射,避免重复映射的情况

固定映射区初始化

再回到更前面的 init_mem_mapping()函数,early_ioremap_page_table_range_init()用来建立高端内存的固定映射区页表,与低端内存的页表初始化不同的是,固定映射区的页表只是被分配,相应的 PTE 项并未初始化,这个工作交由后面的set_fixmap()函数将相关的固定映射区页表与物理内存进行关联

  1. # define PMD_MASK (~(PMD_SIZE - 1)) 
  2. void __init early_ioremap_page_table_range_init(void) 
  3.  pgd_t *pgd_base = swapper_pg_dir; 
  4.  unsigned long vaddr, end
  5.  
  6.  /* 
  7.   * Fixed mappings, only the page table structure has to be 
  8.   * created - mappings will be set by set_fixmap(): 
  9.   */ 
  10.  vaddr = __fix_to_virt(__end_of_fixed_addresses - 1) & PMD_MASK; 
  11.  end = (FIXADDR_TOP + PMD_SIZE - 1) & PMD_MASK; 
  12.  page_table_range_init(vaddr, end, pgd_base); 
  13.  early_ioremap_reset(); 

PUD_MASK、PMD_MASK、PGDIR_MASK,这些 MASK 的作用是:从给定地址中提取某些分量,用给定地址与对应的 MASK 位与操作之后即可获得各个分量,上面的操作为屏蔽低位

这里可以先具体看一下固定映射区的组成

每个固定映射区索引都以枚举类型的形式定义在 enum fixed_addresses 中

  1. enum fixed_addresses { 
  2. #ifdef CONFIG_X86_32 
  3.  FIX_HOLE, 
  4. #else 
  5. #ifdef CONFIG_X86_VSYSCALL_EMULATION 
  6.  VSYSCALL_PAGE = (FIXADDR_TOP - VSYSCALL_ADDR) >> PAGE_SHIFT, 
  7. #endif 
  8. #endif 
  9.  FIX_DBGP_BASE, 
  10.  FIX_EARLYCON_MEM_BASE, 
  11. #ifdef CONFIG_PROVIDE_OHCI1394_DMA_INIT 
  12.  FIX_OHCI1394_BASE, 
  13. #endif 
  14. #ifdef CONFIG_X86_LOCAL_APIC 
  15.  FIX_APIC_BASE, /* local (CPU) APIC) -- required for SMP or not */ 
  16. #endif 
  17. #ifdef CONFIG_X86_IO_APIC 
  18.  FIX_IO_APIC_BASE_0, 
  19.  FIX_IO_APIC_BASE_END = FIX_IO_APIC_BASE_0 + MAX_IO_APICS - 1, 
  20. #endif 
  21. #ifdef CONFIG_X86_32 
  22.     //这里即为固定映射区 
  23.  FIX_KMAP_BEGIN, /* reserved pte's for temporary kernel mappings */ 
  24.  FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1, 
  25. #ifdef CONFIG_PCI_MMCONFIG 
  26.  FIX_PCIE_MCFG, 
  27. #endif 
  28. #endif 
  29. #ifdef CONFIG_PARAVIRT_XXL 
  30.  FIX_PARAVIRT_BOOTMAP, 
  31. #endif 
  32. #ifdef CONFIG_X86_INTEL_MID 
  33.  FIX_LNW_VRTC, 
  34. #endif 
  35.  
  36. #ifdef CONFIG_ACPI_APEI_GHES 
  37.  /* Used for GHES mapping from assorted contexts */ 
  38.  FIX_APEI_GHES_IRQ, 
  39.  FIX_APEI_GHES_NMI, 
  40. #endif 
  41.  
  42.  __end_of_permanent_fixed_addresses, 
  43.  
  44.  /* 
  45.   * 512 temporary boot-time mappings, used by early_ioremap(), 
  46.   * before ioremap() is functional. 
  47.   * 
  48.   * If necessary we round it up to the next 512 pages boundary so 
  49.   * that we can have a single pmd entry and a single pte table
  50.   */ 
  51. #define NR_FIX_BTMAPS  64 
  52. #define FIX_BTMAPS_SLOTS 8 
  53. #define TOTAL_FIX_BTMAPS (NR_FIX_BTMAPS * FIX_BTMAPS_SLOTS) 
  54.  FIX_BTMAP_END = 
  55.   (__end_of_permanent_fixed_addresses ^ 
  56.    (__end_of_permanent_fixed_addresses + TOTAL_FIX_BTMAPS - 1)) & 
  57.   -PTRS_PER_PTE 
  58.   ? __end_of_permanent_fixed_addresses + TOTAL_FIX_BTMAPS - 
  59.     (__end_of_permanent_fixed_addresses & (TOTAL_FIX_BTMAPS - 1)) 
  60.   : __end_of_permanent_fixed_addresses, 
  61.  FIX_BTMAP_BEGIN = FIX_BTMAP_END + TOTAL_FIX_BTMAPS - 1, 
  62. #ifdef CONFIG_X86_32 
  63.  FIX_WP_TEST, 
  64. #endif 
  65. #ifdef CONFIG_INTEL_TXT 
  66.  FIX_TBOOT_BASE, 
  67. #endif 
  68.  __end_of_fixed_addresses 
  69. }; 
  70.  
  71. #define __fix_to_virt(x) (FIXADDR_TOP - ((x) << PAGE_SHIFT)) 

一个索引对应一个 4KB 的页框,固定映射区的结束地址为 FIXADDR_TOP,即 0xfffff000(4G-4K),固定映射区是反向生长的,也就是说第一个索引对应的地址离 FIXADDR_TOP 最近。另外宏__fix_to_virt(idx)可以通过索引来计算相应的固定映射区域的线性地址

  1. //初始化pgd_base指向的页全局目录中start到end这个范围的线性地址,整个函数结束后只是初始化好了页中间目录项对应的页表,但是页表中的页表项并没有初始化 
  2. static void __init 
  3. page_table_range_init(unsigned long start, unsigned long end, pgd_t *pgd_base) 
  4.  int pgd_idx, pmd_idx; 
  5.  unsigned long vaddr; 
  6.  pgd_t *pgd; 
  7.  pmd_t *pmd; 
  8.  pte_t *pte = NULL
  9.  unsigned long count = page_table_range_init_count(start, end); 
  10.  void *adr = NULL
  11.  
  12.  if (count
  13.   adr = alloc_low_pages(count); 
  14.  
  15.  vaddr = start; 
  16.  pgd_idx = pgd_index(vaddr); //得到vaddr对应的pgd索引 
  17.  pmd_idx = pmd_index(vaddr); //得到vaddr对应的pmd索引 
  18.  pgd = pgd_base + pgd_idx;   //得到pgd项 
  19.  
  20.  for ( ; (pgd_idx < PTRS_PER_PGD) && (vaddr != end); pgd++, pgd_idx++) { 
  21.   pmd = one_md_table_init(pgd); //得到pmd起始项 
  22.   pmd = pmd + pmd_index(vaddr); //得到偏移后的pmd 
  23.   for (; (pmd_idx < PTRS_PER_PMD) && (vaddr != end); 
  24.        pmd++, pmd_idx++) { 
  25.             //建立pte表并检查vaddr是否对应内核临时映射区,若是则重新申请一个页表来保存pte表 
  26.    pte = page_table_kmap_check(one_page_table_init(pmd), 
  27.           pmd, vaddr, pte, &adr); 
  28.  
  29.    vaddr += PMD_SIZE; 
  30.   } 
  31.   pmd_idx = 0; 
  32.  } 

先看 page_table_range_init_count 函数

  1. static unsigned long __init 
  2. page_table_range_init_count(unsigned long start, unsigned long end
  3.  unsigned long count = 0; 
  4. #ifdef CONFIG_HIGHMEM 
  5.  int pmd_idx_kmap_begin = fix_to_virt(FIX_KMAP_END) >> PMD_SHIFT; 
  6.  int pmd_idx_kmap_end = fix_to_virt(FIX_KMAP_BEGIN) >> PMD_SHIFT; 
  7.  int pgd_idx, pmd_idx; 
  8.  unsigned long vaddr; 
  9.  
  10.  if (pmd_idx_kmap_begin == pmd_idx_kmap_end) 
  11.   return 0; 
  12.  
  13.  vaddr = start; 
  14.  pgd_idx = pgd_index(vaddr); 
  15.  pmd_idx = pmd_index(vaddr); 
  16.  
  17.  for ( ; (pgd_idx < PTRS_PER_PGD) && (vaddr != end); pgd_idx++) { 
  18.   for (; (pmd_idx < PTRS_PER_PMD) && (vaddr != end); 
  19.        pmd_idx++) { 
  20.    if ((vaddr >> PMD_SHIFT) >= pmd_idx_kmap_begin && 
  21.        (vaddr >> PMD_SHIFT) <= pmd_idx_kmap_end) 
  22.     count++; 
  23.    vaddr += PMD_SIZE; 
  24.   } 
  25.   pmd_idx = 0; 
  26.  } 
  27. #endif 
  28.  return count

page_table_range_init_count()用来计算临时映射区间的页表数量。FIXADDR_START 到 FIXADDR_TOP 即整个固定映射区,就如上面所提到的里面有多个索引标识的不同功能的映射区间,而其中的一个区间FIX_KMAP_BEGIN 到 FIX_KMAP_END 是临时映射区间。这里再看一下两者的定义:

  1. FIX_KMAP_BEGIN, /* reserved pte's for temporary kernel mappings */ 
  2. FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1, 

固定映射是在编译时就确定的地址空间,但是它对应的物理页可以是任意的,每一个固定地址中的项都是一页范围,这些地址的用途是固定的,这是该区间被设计的最主要的用途。临时映射区间也叫原子映射,它可以用在不能睡眠的地方,如中断处理程序中,因为临时映射获取映射时是绝对不会阻塞的,上面的 KM_TYPE_NR 可以理解为临时内核映射的最大数量,NR_CPUS 则表示 CPU 数量。

如果返回的页表数量不为 0,则 page_table_range_init()函数还会调用 alloc_low_pages():

  1. __ref void *alloc_low_pages(unsigned int num) 
  2.  unsigned long pfn; 
  3.  int i; 
  4.  
  5.  if (after_bootmem) { 
  6.   unsigned int order
  7.  
  8.   order = get_order((unsigned long)num << PAGE_SHIFT); 
  9.   return (void *)__get_free_pages(GFP_ATOMIC | __GFP_ZERO, order); 
  10.  } 
  11.  
  12.  if ((pgt_buf_end + num) > pgt_buf_top || !can_use_brk_pgt) { 
  13.   unsigned long ret = 0; 
  14.  
  15.   if (min_pfn_mapped < max_pfn_mapped) { 
  16.    ret = memblock_find_in_range( 
  17.      min_pfn_mapped << PAGE_SHIFT, 
  18.      max_pfn_mapped << PAGE_SHIFT, 
  19.      PAGE_SIZE * num , PAGE_SIZE); 
  20.   } 
  21.   if (ret) 
  22.    memblock_reserve(ret, PAGE_SIZE * num); 
  23.   else if (can_use_brk_pgt) 
  24.    ret = __pa(extend_brk(PAGE_SIZE * num, PAGE_SIZE)); 
  25.  
  26.   if (!ret) 
  27.    panic("alloc_low_pages: can not alloc memory"); 
  28.  
  29.   pfn = ret >> PAGE_SHIFT; 
  30.  } else { 
  31.   pfn = pgt_buf_end; 
  32.   pgt_buf_end += num; 
  33.  } 
  34.  
  35.  for (i = 0; i < num; i++) { 
  36.   void *adr; 
  37.  
  38.   adr = __va((pfn + i) << PAGE_SHIFT); 
  39.   clear_page(adr); 
  40.  } 
  41.  
  42.  return __va(pfn << PAGE_SHIFT); 

alloc_low_pages函数根据前面 early_alloc_pgt_buf()申请保留的页表缓冲空间使用情况来判断是从页表缓冲空间中申请内存还是通过 memblock 算法申请页表内存,页表缓冲空间空间足够的话就在页表缓冲空间中分配。

回到 page_table_range_init(),其中one_md_table_init()是用于申请新物理页作为页中间目录的,不过这里分析的是 x86 非 PAE 环境,不存在页中间目录,因此实际上返回的仍是入参,代码如下:

  1. static pmd_t * __init one_md_table_init(pgd_t *pgd) 
  2.  p4d_t *p4d; 
  3.  pud_t *pud; 
  4.  pmd_t *pmd_table; 
  5.  
  6. #ifdef CONFIG_X86_PAE 
  7.  if (!(pgd_val(*pgd) & _PAGE_PRESENT)) { 
  8.   pmd_table = (pmd_t *)alloc_low_page(); 
  9.   paravirt_alloc_pmd(&init_mm, __pa(pmd_table) >> PAGE_SHIFT); 
  10.   set_pgd(pgd, __pgd(__pa(pmd_table) | _PAGE_PRESENT)); 
  11.   p4d = p4d_offset(pgd, 0); 
  12.   pud = pud_offset(p4d, 0); 
  13.   BUG_ON(pmd_table != pmd_offset(pud, 0)); 
  14.  
  15.   return pmd_table; 
  16.  } 
  17. #endif 
  18.  p4d = p4d_offset(pgd, 0); 
  19.  pud = pud_offset(p4d, 0); 
  20.  pmd_table = pmd_offset(pud, 0); 
  21.  
  22.  return pmd_table; 

接着的是page_table_kmap_check(),其入参调用的one_page_table_init()是用于当入参 pmd 没有页表指向时,创建页表并使其指向被创建的页表。

  1. static pte_t * __init one_page_table_init(pmd_t *pmd) 
  2.  if (!(pmd_val(*pmd) & _PAGE_PRESENT)) { 
  3.   pte_t *page_table = (pte_t *)alloc_low_page(); 
  4.  
  5.   paravirt_alloc_pte(&init_mm, __pa(page_table) >> PAGE_SHIFT); 
  6.   set_pmd(pmd, __pmd(__pa(page_table) | _PAGE_TABLE)); 
  7.   BUG_ON(page_table != pte_offset_kernel(pmd, 0)); 
  8.  } 
  9.  
  10.  return pte_offset_kernel(pmd, 0); 

page_table_kmap_check()的实现如下:

  1. #define PTRS_PER_PTE 512 
  2. static pte_t *__init page_table_kmap_check(pte_t *pte, pmd_t *pmd, 
  3.         unsigned long vaddr, pte_t *lastpte, 
  4.         void **adr) 
  5. #ifdef CONFIG_HIGHMEM 
  6.  /* 
  7.   * Something (early fixmap) may already have put a pte 
  8.   * page here, which causes the page table allocation 
  9.   * to become nonlinear. Attempt to fix it, and if it 
  10.   * is still nonlinear then we have to bug. 
  11.   */ 
  12.     //得到内核固定映射区的临时映射区的起始和结束虚拟页框号 
  13.  int pmd_idx_kmap_begin = fix_to_virt(FIX_KMAP_END) >> PMD_SHIFT; 
  14.  int pmd_idx_kmap_end = fix_to_virt(FIX_KMAP_BEGIN) >> PMD_SHIFT; 
  15.  
  16.  if (pmd_idx_kmap_begin != pmd_idx_kmap_end 
  17.      && (vaddr >> PMD_SHIFT) >= pmd_idx_kmap_begin 
  18.      && (vaddr >> PMD_SHIFT) <= pmd_idx_kmap_end) { 
  19.   pte_t *newpte; 
  20.   int i; 
  21.  
  22.   BUG_ON(after_bootmem); 
  23.   newpte = *adr; 
  24.         //拷贝操作 
  25.   for (i = 0; i < PTRS_PER_PTE; i++) 
  26.    set_pte(newpte + i, pte[i]); 
  27.   *adr = (void *)(((unsigned long)(*adr)) + PAGE_SIZE); 
  28.  
  29.   paravirt_alloc_pte(&init_mm, __pa(newpte) >> PAGE_SHIFT); 
  30.   set_pmd(pmd, __pmd(__pa(newpte)|_PAGE_TABLE)); //pmd与newpte表进行关联 
  31.   BUG_ON(newpte != pte_offset_kernel(pmd, 0)); 
  32.   __flush_tlb_all(); 
  33.  
  34.   paravirt_release_pte(__pa(pte) >> PAGE_SHIFT); 
  35.   pte = newpte; 
  36.  } 
  37.  BUG_ON(vaddr < fix_to_virt(FIX_KMAP_BEGIN - 1) 
  38.         && vaddr > fix_to_virt(FIX_KMAP_END) 
  39.         && lastpte && lastpte + PTRS_PER_PTE != pte); 
  40. #endif 
  41.  return pte; 

检查当前页表初始化的地址是否处于该区间范围,如果是,则把其 pte 页表的内容拷贝到 page_table_range_init()的 alloc_low_pages 申请的页表空间中(这里的拷贝主要是为了保证连续性),并将 newpte 新页表的地址设置到 pmd 中(32bit 系统实际上就是页全局目录),然后调用__flush_tlb_all()刷新 TLB 缓存;如果不是该区间,则仅是由入参中调用的 one_page_table_init()被分配到了页表空间。

至此高端内存的固定映射区的页表分配完成,后面的 paging_init()会负责完成剩下的页表建立工作。

Linux 内存管理框架

传统的多核运算是使用 SMP(Symmetric Multi-Processor )模式:将多个处理器与一个集中的存储器和 I/O 总线相连,所有处理器访问同一个物理存储器,因此 SMP 系统有时也被称为一致存储器访问(UMA)结构体系,即无论在什么时候,处理器只能为内存的每个数据保持或共享唯一一个数值。

而NUMA模式是一种分布式存储器访问方式,处理器可以同时访问不同的存储器地址,大幅度提高并行性。NUMA 模式下系统的每个 CPU 都有本地内存,可支持快速访问,各个处理器之间通过总线连接起来,以支持对其它 CPU 本地内存的访问,但是这些访问要比处理器本地内存的慢.

Linux 内核通过插入一些兼容层,使两个不同体系结构的差异被隐藏,两种模式都使用了同一个数据结构。

在 NUMA 模式下,处理器和内存块被划分成多个"节点"(node),比如机器上有 2 个处理器、4 个内存块,我们可以把 1 个处理器和 2 个内存块合起来(GNU/Linux 根据物理 CPU 的数量分配 node,一个物理 CPU 对应一个 node),共同组成一个 NUMA 的节点。每个节点被分配有本地存储器空间,所有节点中的处理器都可以访问系统全部的物理存储器,但是访问本节点内的存储器所需要的时间比访问某些远程节点内的存储器所花的时间要少得多。

与 CPU 类似,内存被分割成多个区域 BANK,也叫"簇",依据簇与 CPU 的"距离"的不同,访问不同簇的方式也会有所不同,CPU 被划分为多个节点,每个 CPU 对应一个本地物理内存, 一般一个 CPU-node 对应一个内存簇,也就是说每个内存簇被认为是一个节点。

而在 UMA 系统中, 内存就相当于一个只使用一个 NUMA 节点来管理整个系统的内存,这样在内存管理的其它地方可以认为他们就是在处理一个(伪)NUMA 系统。

内存管理框架初始化

在 linux 中,每个物理内存节点 node 都被划分为多个内存管理区域用于表示不同范围的内存,比如上面提到的 NORMAL 内存、高端内存,内核可以使用不同的映射方式映射物理内存。zone 只是内核为了管理方便而做的一种逻辑上的划分,并不存在这种物理硬件单元。

综上,linux 的物理内存管理机制将物理内存划分为三个层次来管理,依次是:Node(存储节点)、Zone(管理区)和 Page(页面),它们之间的关系如下:

其中,zone 的类型如下:

  1. include/linux/mmzone.h 
  2.  
  3. enum zone_type { 
  4. #ifdef CONFIG_ZONE_DMA 
  5.  ZONE_DMA, //通常为内存首部16MB,某些工业标准体系结构设备需要用到ZONE_DMA(较旧的外设,只能寻址24位内存) 
  6. #endif 
  7.  
  8. #ifdef CONFIG_ZONE_DMA32 
  9.  ZONE_DMA32, //在64位Linux操作系统上,DMA32为16M~4G(可访问32位),高于4G的内存为Normal ZONE 
  10. #endif 
  11.  
  12.  ZONE_NORMAL, //通常为16MB~896MB,该部分的内存由内核直接映射到物理地址空间的较高部分 
  13. #ifdef CONFIG_HIGHMEM 
  14.  ZONE_HIGHMEM, //通常为896MB~末尾,将保留给系统使用,是系统中预留的可用内存空间,动态映射 
  15. #endif 
  16.  
  17.  ZONE_MOVABLE, //用于减少内存的碎片化,这个区域的页都是可迁移的 
  18.  
  19. #ifdef CONFIG_ZONE_DEVICE 
  20.  ZONE_DEVICE, //为支持热插拔设备而分配的非易失性内存 
  21. #endif 
  22.  
  23.  __MAX_NR_ZONES 
  24. }; 

回到之前的 setup_arch()函数,接着往下走,来到内存管理框架初始化的地方

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_ram_pfn(); //max_pfn初始化 
  4.  ...... 
  5.  find_low_pfn_range(); //max_low_pfn、高端内存初始化 
  6.  ...... 
  7.  
  8.  ...... 
  9.  early_alloc_pgt_buf(); //页表缓冲区分配 
  10.  reserve_brk(); //缓冲区加入memblock.reserve 
  11.  
  12.     ...... 
  13.     e820__memblock_setup(); //memblock.memory空间初始化 启动 
  14.  ...... 
  15.  
  16.     init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化 
  17.  
  18.   ...... 
  19.     initmem_init(); // <---------------------------------------- 
  20.     ...... 

initmem_init的实现如下:

  1. #define PHYS_ADDR_MAX (~(phys_addr_t)0) 
  2.  
  3. #ifndef CONFIG_NEED_MULTIPLE_NODES 
  4. void __init initmem_init(void) 
  5. #ifdef CONFIG_HIGHMEM 
  6.  highstart_pfn = highend_pfn = max_pfn; 
  7.  if (max_pfn > max_low_pfn) 
  8.   highstart_pfn = max_low_pfn; 
  9.  printk(KERN_NOTICE "%ldMB HIGHMEM available.\n"
  10.   pages_to_mb(highend_pfn - highstart_pfn)); 
  11.  high_memory = (void *) __va(highstart_pfn * PAGE_SIZE - 1) + 1; 
  12. #else 
  13.  high_memory = (void *) __va(max_low_pfn * PAGE_SIZE - 1) + 1; 
  14. #endif 
  15.  
  16.  memblock_set_node(0, PHYS_ADDR_MAX, &memblock.memory, 0); 
  17.  
  18. #ifdef CONFIG_FLATMEM 
  19.  max_mapnr = IS_ENABLED(CONFIG_HIGHMEM) ? highend_pfn : max_low_pfn; 
  20. #endif 
  21.  __vmalloc_start_set = true
  22.  
  23.  printk(KERN_NOTICE "%ldMB LOWMEM available.\n"
  24.    pages_to_mb(max_low_pfn)); 
  25.  
  26.  setup_bootmem_allocator(); 
  27. #endif /* !CONFIG_NEED_MULTIPLE_NODES */ 

这个函数将high_memory初始化为低端内存最大页框max_low_pfn对应的地址大小,接着调用 memblock_set_node,通过 memblock 内存管理器设置 node 节点信息。

  1. int __init_memblock memblock_set_node(phys_addr_t base, phys_addr_t size
  2.           struct memblock_type *type, int nid) 
  3. #ifdef CONFIG_NEED_MULTIPLE_NODES 
  4.  int start_rgn, end_rgn; 
  5.  int i, ret; 
  6.  
  7.  ret = memblock_isolate_range(type, base, size, &start_rgn, &end_rgn); 
  8.  if (ret) 
  9.   return ret; 
  10.  
  11.  for (i = start_rgn; i < end_rgn; i++) 
  12.   memblock_set_region_node(&type->regions[i], nid); 
  13.  
  14.  memblock_merge_regions(type); 
  15. #endif 
  16.  return 0; 

memblock_set_node 主要调用了三个函数:memblock_isolate_range、memblock_set_region_node 和 memblock_merge_regions,首先看memblock_isolate_range()函数:

  1. /* adjust *@size so that (@base + *@size) doesn't overflow, return new size */ 
  2. static inline phys_addr_t memblock_cap_size(phys_addr_t base, phys_addr_t *size
  3.  return *size = min(*size, PHYS_ADDR_MAX - base); 
  4.  
  5. static int __init_memblock memblock_isolate_range(struct memblock_type *type, 
  6.      phys_addr_t base, phys_addr_t size
  7.      int *start_rgn, int *end_rgn) 
  8.  phys_addr_t end = base + memblock_cap_size(base, &size); 
  9.  int idx; 
  10.  struct memblock_region *rgn; 
  11.  
  12.  *start_rgn = *end_rgn = 0; 
  13.  
  14.  if (!size
  15.   return 0; 
  16.  
  17.  /* we'll create at most two more regions */ 
  18.  while (type->cnt + 2 > type->max
  19.   if (memblock_double_array(type, base, size) < 0) 
  20.    return -ENOMEM; 
  21.  
  22.  for_each_memblock_type(idx, type, rgn) { 
  23.   phys_addr_t rbase = rgn->base; 
  24.   phys_addr_t rend = rbase + rgn->size
  25.  
  26.   if (rbase >= end
  27.    break; 
  28.   if (rend <= base) 
  29.    continue
  30.  
  31.   if (rbase < base) { 
  32.    /* 
  33.     * @rgn intersects from below.  Split and continue 
  34.     * to process the next region - the new top half. 
  35.     */ 
  36.    rgn->base = base; 
  37.    rgn->size -= base - rbase; 
  38.    type->total_size -= base - rbase; 
  39.    memblock_insert_region(type, idx, rbase, base - rbase, 
  40.             memblock_get_region_node(rgn), 
  41.             rgn->flags); 
  42.   } else if (rend > end) { 
  43.    /* 
  44.     * @rgn intersects from above.  Split and redo the 
  45.     * current region - the new bottom half. 
  46.     */ 
  47.    rgn->base = end
  48.    rgn->size -= end - rbase; 
  49.    type->total_size -= end - rbase; 
  50.    memblock_insert_region(type, idx--, rbase, end - rbase, 
  51.             memblock_get_region_node(rgn), 
  52.             rgn->flags); 
  53.   } else { 
  54.    /* @rgn is fully contained, record it */ 
  55.    if (!*end_rgn) 
  56.     *start_rgn = idx; 
  57.    *end_rgn = idx + 1; 
  58.   } 
  59.  } 
  60.  
  61.  return 0; 

在__memblock_remove()中有提到,memblock_isolate_range()主要作用是将要移除的物理内存区从 reserved 内存区中分离出来,将 start_rgn 和 end_rgn(该内存区块的起始、结束索引号)返回回去,而这里,由于我们传入的type 是 memblock.memory,该函数会根据入参 base 和 size 标记节点内存范围,将该内存从 memory 中划分开来,同时返回对应的 start_rgn 和 end_rgn。

1)如果 memblock 中的 region 恰好以在该节点内存范围内的话,那么再未赋值 end_rgn 时将当前 region 的索引记录至 start_rgn,end_rgn 在此基础上加 1;

2)如果 memblock 中的 region 跨越了该节点内存末尾分界,那么将会把当前的 region 边界调整为 node 节点内存范围边界,然后通过 memblock_insert_region()函数将剩下的部分(即越出内存范围的那一块内存)重新插入 memblock 管理 regions 当中,实现拆分;

  1. static inline void memblock_set_region_node(struct memblock_region *r, int nid) 
  2.  r->nid = nid; 
  3. static inline int memblock_get_region_node(const struct memblock_region *r) 
  4.  return r->nid; 
  5.  
  6. static void __init_memblock memblock_insert_region(struct memblock_type *type, 
  7.          int idx, phys_addr_t base, 
  8.          phys_addr_t size
  9.          int nid, unsigned long flags) 
  10.  struct memblock_region *rgn = &type->regions[idx]; 
  11.  
  12.  BUG_ON(type->cnt >= type->max); 
  13.  memmove(rgn + 1, rgn, (type->cnt - idx) * sizeof(*rgn)); 
  14.  rgn->base = base; 
  15.  rgn->size = size
  16.  rgn->flags = flags; 
  17.  memblock_set_region_node(rgn, nid); 
  18.  type->cnt++; 
  19.  type->total_size += size

上面的 memmove()将后面的 region 信息往后移,另外调用 memblock_set_region_node()将原 region 的 node 节点号保留在被拆分出来的 region 当中。

回到前面的 memblock_set_node()函数,紧接着 memblock_isolate_range()被调用的是memblock_set_region_node(),通过这个函数把划分出来的 region 进行 node 节点号设置,而后面的memblock_merge_regions()前面 MEMBLOCK 内存分配器初始化时已经分析过了,是用于将相邻的 region 进行合并的(节点号、flag 等一致才会合并)。

最后回到 initmem_init()函数中,memblock_set_node()返回后,接着调用的函数为 setup_bootmem_allocator()。

  1. void __init setup_bootmem_allocator(void) 
  2.  printk(KERN_INFO "  mapped low ram: 0 - %08lx\n"
  3.    max_pfn_mapped<<PAGE_SHIFT); 
  4.  printk(KERN_INFO "  low ram: 0 - %08lx\n", max_low_pfn<<PAGE_SHIFT); 

原来该函数是用来初始化 bootmem 管理算法的,但现在 x86 的环境已经使用了 memblock 管理算法,所以这里仅作保留,打印部分信息。

bootmem 分配器使用一个 bitmap 来标记物理页是否被占用,分配的时候按照第一适应的原则,从 bitmap 中进行查找,如果这位为 1,表示已经被占用,否则表示未被占用。bootmem 分配器每次分配内存都会在 bitmap 中进行线性搜索,效率非常低,而且容易在内存中留下许多小的空闲碎片,在需要非常大的内存块的时候,检查位图这一过程就显得代价很高。bootmem 分配器是用于在启动阶段分配内存的,对该分配器的需求集中于简单性方面,而不是性能和通用性(和 memblock 管理器一致)。

至此,已完成对内存的节点 node 设置。

回到 setup_arch()函数:

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_raCm_pfn(); //max_pfn初始化 
  4.  ...... 
  5.  find_low_pfn_range(); //max_low_pfn、高端内存初始化 
  6.  ...... 
  7.  
  8.  ...... 
  9.  early_alloc_pgt_buf(); //页表缓冲区分配 
  10.  reserve_brk(); //缓冲区加入memblock.reserve 
  11.  
  12.     ...... 
  13.     e820__memblock_setup(); //memblock.memory空间初始化 启动 
  14.  ...... 
  15.  
  16.     init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化 
  17.  
  18.   ...... 
  19.     initmem_init(); //high_memory(高端内存起始pfn)初始化 通过memblock内存管理器设置node节点信息 
  20.     ...... 
  21.  
  22.     x86_init.paging.pagetable_init(); // <----------------------------- 
  23.     ...... 

x86_init 结构体内pagetable_init实际上挂接的是native_pagetable_init()函数:

  1. struct x86_init_ops x86_init __initdata = { 
  2.  ...... 
  3.  
  4.  .paging = { 
  5.   .pagetable_init  = native_pagetable_init, 
  6.  }, 
  7.  
  8.  ...... 

native_pagetable_init()函数内容如下:

  1. void __init native_pagetable_init(void) 
  2.  unsigned long pfn, va; 
  3.  pgd_t *pgd, *base = swapper_pg_dir; 
  4.  p4d_t *p4d; 
  5.  pud_t *pud; 
  6.  pmd_t *pmd; 
  7.  pte_t *pte; 
  8.  
  9.     //循环 低端内存最大物理页号~最大物理页号 
  10.  for (pfn = max_low_pfn; pfn < 1<<(32-PAGE_SHIFT); pfn++) { 
  11.   va = PAGE_OFFSET + (pfn<<PAGE_SHIFT); 
  12.   pgd = base + pgd_index(va); 
  13.   if (!pgd_present(*pgd)) 
  14.    break; 
  15.  
  16.   p4d = p4d_offset(pgd, va); 
  17.   pud = pud_offset(p4d, va); 
  18.   pmd = pmd_offset(pud, va); 
  19.   if (!pmd_present(*pmd)) 
  20.    break; 
  21.  
  22.   /* should not be large page here */ 
  23.   if (pmd_large(*pmd)) { 
  24.    pr_warn("try to clear pte for ram above max_low_pfn: pfn: %lx pmd: %p pmd phys: %lx, but pmd is big page and is not using pte !\n"
  25.     pfn, pmd, __pa(pmd)); 
  26.    BUG_ON(1); 
  27.   } 
  28.  
  29.   pte = pte_offset_kernel(pmd, va); 
  30.   if (!pte_present(*pte)) 
  31.    break; 
  32.  
  33.   printk(KERN_DEBUG "clearing pte for ram above max_low_pfn: pfn: %lx pmd: %p pmd phys: %lx pte: %p pte phys: %lx\n"
  34.     pfn, pmd, __pa(pmd), pte, __pa(pte)); 
  35.   pte_clear(NULL, va, pte); 
  36.  } 
  37.  paravirt_alloc_pmd(&init_mm, __pa(base) >> PAGE_SHIFT); 
  38.  paging_init(); 

PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000。

该函数的 for 循环主要是用于检测 max_low_pfn 后面的内核空间内存直接映射空间后面的物理内存是否存在系统启动引导时创建的页表(pfn 通过直接映射的方法得到虚拟地址,然后通过内核页表得到 pgd、pmd、pte),如果存在,则使用 pte_clear()将其清除。

接着看 native_pagetable_init()调用的最后一个函数:paging_init()。

  1. void __init paging_init(void) 
  2.  pagetable_init(); 
  3.  
  4.  __flush_tlb_all(); 
  5.  
  6.  kmap_init(); 
  7.  
  8.  /* 
  9.   * NOTE: at this point the bootmem allocator is fully available. 
  10.   */ 
  11.  olpc_dt_build_devicetree(); 
  12.  sparse_init(); 
  13.  zone_sizes_init(); 

可以对着这个图看:

前面已经分析过低端内存、固定映射区中临时映射区的内核页表的建立,这里 paging_init 将会完成剩下的工作,首先看pagetable_init()

  1. static void __init pagetable_init(void) 
  2.  pgd_t *pgd_base = swapper_pg_dir; 
  3.  
  4.  permanent_kmaps_init(pgd_base); 
  5.  
  6. static void __init permanent_kmaps_init(pgd_t *pgd_base) 
  7.  unsigned long vaddr = PKMAP_BASE; 
  8.  
  9.  page_table_range_init(vaddr, vaddr + PAGE_SIZE*LAST_PKMAP, pgd_base); 
  10.  
  11.  pkmap_page_table = virt_to_kpte(vaddr); 

该函数为建立持久映射区(KMAP 区)的页表,page_table_range_init 函数前面固定映射区页表初始化时已经分析过了(初始化 pgd_base 指向的页全局目录中 start 到 end 这个范围的线性地址,整个函数结束后只是初始化好了页中间目录项对应的页表,但是页表中的页表项并没有初始化),这里建立页表范围为 PKMAP_BASE 到 PKMAP_BASE + PAGE_SIZE*LAST_PKMAP,建好页表后将页表地址赋值给给持久映射区页表变量 pkmap_page_table。

__flush_tlb_all()为刷新全部 TLB,这里不做介绍,接着看 paging_init()调用的下一个函数 kmap_init()。

  1. static void __init kmap_init(void) 
  2.  unsigned long kmap_vstart; 
  3.  
  4.  /* 
  5.   * Cache the first kmap pte: 
  6.   */ 
  7.  kmap_vstart = __fix_to_virt(FIX_KMAP_BEGIN); 
  8.  kmap_pte = virt_to_kpte(kmap_vstart); 

可以很容易看到 kmap_init()主要是获取到临时映射区间的起始页表并往临时映射页表变量 kmap_pte 置值。

回到 paging_init(),olpc_dt_build_devicetree 这里就不做介绍了,而sparse_init()则涉及到了 Linux 的内存模型,这里介绍一下 Linux 的三种内存模型,注意,以下都是从 CPU 的角度来看的。

从系统中任意一个 CPU 的角度来看,当它访问物理内存的时候,物理地址空间是一个连续的、没有空洞的地址空间,那么这种计算机系统的内存模型就是Flat memory。在这种内存模型下,物理内存的管理比较简单,每一个物理页帧都会有一个 page 数据结构来抽象,因此系统中存在一个 struct page 的数组(位于直接映射区,mem_map,在节点 node 里,后面就会介绍到),每一个数组条目指向一个实际的物理页帧(page frame)。在 flat memory 的情况下,PFN 和 mem_map 数组 index 的关系是线性的(即位于直接映射区,有一个固定偏移),因此从 PFN 到对应的 page 数据结构是非常容易的,反之亦然。

  1. #if defined(CONFIG_FLATMEM) 
  2.  
  3. #define __pfn_to_page(pfn) (mem_map + ((pfn) - ARCH_PFN_OFFSET)) 
  4. #define __page_to_pfn(page) ((unsigned long)((page) - mem_map) + \ 
  5.      ARCH_PFN_OFFSET) 

PFN 和 struct page 数组(mem_map)的 index 是线性关系,有一个固定的偏移就是 ARCH_PFN_OFFSET(跟架构相关的物理起始地址的 PFN)。

如果 cpu 在访问物理内存的时候,其地址空间有一些空洞,是不连续的,那么这种计算机系统的内存模型就是Discontiguous memory。一般而言,NUMA 架构的计算机系统的 memory model 都是选择 Discontiguous Memory,不过 NUMA 强调的是 memory 和 processor 的位置关系,和内存模型其实是没有关系的(NUMA 并没有规定其内存的连续性,而 Discontiguous memory 系统也并非一定是 NUMA 系统,但是这两种都是多节点的),只不过,由于同一 node 上的 memory 和 processor 有更紧密的耦合关系(访问更快),因此需要多个 node 来管理。Discontiguous memory 本质上是 flat memory 内存模型的扩展,整个物理内存的内存空间大部分是成片的大块内存,中间会有一些空洞,每一个成片的内存地址空间属于一个 node(如果局限在一个 node 内部,其内存模型是 flat memory)。

在这种模型下,从 PFN 转换到具体的 struct page 会稍微复杂一点,首先要从 PFN 得到 node ID,然后根据这个 ID 找到对于的节点 node 数据结构,也就找到了对应的 page 数组,之后的方法就类似 flat memory 了。

  1. #elif defined(CONFIG_DISCONTIGMEM) 
  2.  
  3. #define __pfn_to_page(pfn)   \ 
  4. ({ unsigned long __pfn = (pfn);  \ 
  5.  unsigned long __nid = arch_pfn_to_nid(__pfn);  \ 
  6.  NODE_DATA(__nid)->node_mem_map + arch_local_page_offset(__pfn, __nid);\ 
  7. }) 
  8.  
  9. #define __page_to_pfn(pg)      \ 
  10. ({ const struct page *__pg = (pg);     \ 
  11.  struct pglist_data *__pgdat = NODE_DATA(page_to_nid(__pg)); \ 
  12.  (unsigned long)(__pg - __pgdat->node_mem_map) +   \ 
  13.   __pgdat->node_start_pfn;     \ 
  14. }) 

Discontiguous memory 模型需要获取 node id,只要找到 node id,一切都好办了,后面类比 flat memory model 进行就 OK 了。对于__pfn_to_page 的定义,首先通过 arch_pfn_to_nid 将 PFN 转换成 node id,通过 NODE_DATA 宏定义可以找到该 node 对应的 pglist_data 数据结构,该数据结构的 node_start_pfn 记录了该 node 的第一个 pfn,因此,也就可以得到其对应 struct page 在 node_mem_map 的偏移,__page_to_pfn 类似与上述基本类似(pglist_data 数据结构后面再进行介绍)。

内存模型也是一个演进过程,刚开始的时候,使用 flat memory 去抽象一个连续的内存地址空间,出现 NUMA 之后,整个不连续的内存空间被分成若干个 node,每个 node 上是连续的内存地址空间,也就是从原来单一的一个 mem_maps[]变成了若干个 mem_maps[]。而现在 memory hotplug 的出现让原来完美的设计变得不完美了(热插拔,即带电插拔,热插拔功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件。Linux 内核支持热插拔的部件有 USB 设备、PCI 设备甚至 CPU),因为即便是一个 node 中的 mem_maps[]也有可能是不连续了,因此目前 Discontiguous memory 也逐渐在被 sparse memory 替代。

在sparse memory内存模型下,连续的地址空间按照 SECTION(例如 1G)被分成了一段一段的,其中每一 section 都是 hotplug 的,因此 sparse memory 下,内存地址空间可以被切分的更细。整个连续的物理地址空间是按照一个个section来切断的,在每一个 section 内部,其 memory 是连续的(即符合 flat memory 的特点),因此,mem_map 的 page 数组依附于 section 结构(struct mem_section),而不是 node 结构(struct pglist_data)。在这个模型下,PFN 转 struct page 变为了转换变成了 PFN<--->Section<--->page。

linux 内核中静态定义了一个 mem_section 的指针数组,一个 section 中往往包括多个 page,因此需要通过 PFN 得到 section 号,用 section 号做为 index 在 mem_section 指针数组可以找到该 PFN 对应的 section 数据结构。实际上PFN 分成两个部分:一部分是 section index,另外一个部分是 page 在该 section 的偏移,找到 section 之后,沿着其 mem_map 就可以找到对应的 page 数据结构。

对于 page 到 section index 的转换,sparse memory 有 2 种方案,先看看经典的方案,也就是把 section 号保存在 page->flags 中(page 的结构同样在后面再进行介绍),这种方法的最大的问题是 page->flags 中的 bit 数不一定够用,因为这个 flag 中承载了太多的信息,各种 page flag、node id、zone id,现在又增加一个 section id,在不同的处理器架构中无法实现一致性的算法(上面的图即为采用经典算法的 sparse memory)。

  1. #elif defined(CONFIG_SPARSEMEM) 
  2. /* 
  3.  * Note: section's mem_map is encoded to reflect its start_pfn. 
  4.  * section[i].section_mem_map == mem_map's address - start_pfn; 
  5.  */ 
  6. #define __page_to_pfn(pg)     \ 
  7. ({ const struct page *__pg = (pg);    \ 
  8.  int __sec = page_to_section(__pg);   \ 
  9.  (unsigned long)(__pg - __section_mem_map_addr(__nr_to_section(__sec))); \ 
  10. }) 
  11.  
  12. #define __pfn_to_page(pfn)    \ 
  13. ({ unsigned long __pfn = (pfn);   \ 
  14.  struct mem_section *__sec = __pfn_to_section(__pfn); \ 
  15.  __section_mem_map_addr(__sec) + __pfn;  \ 
  16. }) 
  17. #endif /* CONFIG_FLATMEM/DISCONTIGMEM/SPARSEMEM */ 

对于经典的 sparse memory 模型,一个 section 的 struct page 数组所占用的内存来自直接映射区,页表在初始化的时候就建立好了。但是,对于 SPARSEMEM_VMEMMAP 而言,虚拟地址一开始就分配好了,是 vmemmap 开始的一段连续的虚拟地址空间,但是没有物理地址。因此,当一个 section 被发现后,可以立刻找到对应的 struct page 的虚拟地址,而这时候还需要分配一个物理的 page frame,对于这种 sparse memory,开销会稍微大一些,需要建立页表,关联 page 跟物理地址。

  1. #elif defined(CONFIG_SPARSEMEM_VMEMMAP) 
  2.  
  3. /* memmap is virtually contiguous.  */ 
  4. #define __pfn_to_page(pfn) (vmemmap + (pfn)) 
  5. #define __page_to_pfn(page) (unsigned long)((page) - vmemmap) 

内存管理区 Zone 初始化

回到 paging_init()的最后一个函数调用:zone_sizes_init()。

  1. void __init zone_sizes_init(void) 
  2.  unsigned long max_zone_pfns[MAX_NR_ZONES]; 
  3.  
  4.  memset(max_zone_pfns, 0, sizeof(max_zone_pfns)); 
  5.  
  6. #ifdef CONFIG_ZONE_DMA 
  7.  max_zone_pfns[ZONE_DMA]  = min(MAX_DMA_PFN, max_low_pfn); 
  8. #endif 
  9. #ifdef CONFIG_ZONE_DMA32 
  10.  max_zone_pfns[ZONE_DMA32] = min(MAX_DMA32_PFN, max_low_pfn); 
  11. #endif 
  12.  max_zone_pfns[ZONE_NORMAL] = max_low_pfn; 
  13. #ifdef CONFIG_HIGHMEM 
  14.  max_zone_pfns[ZONE_HIGHMEM] = max_pfn; 
  15. #endif 
  16.  
  17.  free_area_init(max_zone_pfns); 

这个函数为 zone 的各个内存管理区域最大物理页号进行初始化,并作为参数调用 free_area_init_nodes(),其中free_area_init_nodes()函数实现如下:

  1. void __init free_area_init(unsigned long *max_zone_pfn) 
  2.  unsigned long start_pfn, end_pfn; 
  3.  int i, nid, zone; 
  4.  bool descending; 
  5.  
  6.  /* Record where the zone boundaries are */ 
  7.     //全局数组arch_zone_lowest_possible_pfn用来存储各个内存域可使用的最低内存页帧编号 
  8.     //全局数组arch_zone_highest_possible_pfn用来存储各个内存域可使用的最高内存页帧编号 
  9.  memset(arch_zone_lowest_possible_pfn, 0, 
  10.     sizeof(arch_zone_lowest_possible_pfn)); 
  11.  memset(arch_zone_highest_possible_pfn, 0, 
  12.     sizeof(arch_zone_highest_possible_pfn)); 
  13.  
  14.     //用于最低内存区域中可用的编号最小的页帧,即memblock.memory.regions[0].base 
  15.  start_pfn = find_min_pfn_with_active_regions(); 
  16.     //return false 
  17.  descending = arch_has_descending_max_zone_pfns(); 
  18.  
  19.     //根据max_zone_pfn和start_pfn初始化arch_zone_lowest_possible_pfn和arch_zone_highest_possible_pfn 
  20.  for (i = 0; i < MAX_NR_ZONES; i++) { 
  21.   if (descending) 
  22.    zone = MAX_NR_ZONES - i - 1; 
  23.   else 
  24.    zone = i; 
  25.   //由于ZONE_MOVABLE是一个虚拟内存域,不与真正的硬件内存域关联,该内存域的边界总是设置为0 
  26.   if (zone == ZONE_MOVABLE) 
  27.    continue
  28.  
  29.   end_pfn = max(max_zone_pfn[zone], start_pfn); 
  30.   arch_zone_lowest_possible_pfn[zone] = start_pfn; 
  31.   arch_zone_highest_possible_pfn[zone] = end_pfn; 
  32.  
  33.   start_pfn = end_pfn; 
  34.  } 
  35.  
  36.  /* Find the PFNs that ZONE_MOVABLE begins at in each node */ 
  37.  memset(zone_movable_pfn, 0, sizeof(zone_movable_pfn)); 
  38.     //用于计算ZONE_MOVABLE的内存数量 
  39.     //在内存较多的32位系统上, 这通常会是ZONE_HIGHMEM, 但是对于64位系统,将使用ZONE_NORMAL或ZONE_DMA32,这里计算也比较复杂,感兴趣的话可以去看一下源码,这里便不做介绍了 
  40.  find_zone_movable_pfns_for_nodes(); 
  41.  
  42.  ...... 
  43.     //各种打印 
  44.     ...... 
  45.  
  46.  /* Initialise every node */ 
  47.     //为系统中的每个节点调用free_area_init_node() 
  48.  mminit_verify_pageflags_layout(); 
  49.  setup_nr_node_ids(); 
  50.  init_unavailable_mem(); 
  51.  for_each_online_node(nid) { 
  52.   pg_data_t *pgdat = NODE_DATA(nid); 
  53.   free_area_init_node(nid); 
  54.  
  55.   /* Any memory on that node */ 
  56.   if (pgdat->node_present_pages) 
  57.    node_set_state(nid, N_MEMORY); 
  58.   check_for_memory(pgdat, nid); 
  59.  } 

free_area_init_node()函数会计算每个节点中每个区域的大小及其空洞的大小,如果两个相邻区域之间的最大 PFN 匹配,则可以假定后面的区域为空。例如 arch_max_dma_pfn == arch_max_dma32_pfn,则假定 arch_max_dma32_pfn 该区域为空。

  1. pg_data_t node_data[MAX_NUMNODES]; 
  2. EXPORT_SYMBOL(node_data); 
  3.  
  4. #ifdef CONFIG_NUMA 
  5. extern struct pglist_data *node_data[]; 
  6. #define NODE_DATA(nid) (node_data[nid]) 
  7. #endif /* CONFIG_NUMA */ 
  8.  
  9. static void __init free_area_init_node(int nid) 
  10.     //从全局节点数组中获取一个节点 
  11.  pg_data_t *pgdat = NODE_DATA(nid); 
  12.  unsigned long start_pfn = 0; 
  13.  unsigned long end_pfn = 0; 
  14.  
  15.  /* pg_data_t should be reset to zero when it's allocated */ 
  16.  WARN_ON(pgdat->nr_zones || pgdat->kswapd_highest_zoneidx); 
  17.  //根据节点id获取起始pfn和结束pfn,前面node初始化时,memblock处已经设置好节点ID了 
  18.  get_pfn_range_for_nid(nid, &start_pfn, &end_pfn); 
  19.  //设置节点ID以及起始pfn 
  20.  pgdat->node_id = nid; 
  21.  pgdat->node_start_pfn = start_pfn; 
  22.  pgdat->per_cpu_nodestats = NULL
  23.  
  24.  pr_info("Initmem setup node %d [mem %#018Lx-%#018Lx]\n", nid, 
  25.   (u64)start_pfn << PAGE_SHIFT, 
  26.   end_pfn ? ((u64)end_pfn << PAGE_SHIFT) - 1 : 0); 
  27.  //初始化节点中每个zone的大小和空洞,同时计算节点的spanned_pages和present_pages 
  28.     calculate_node_totalpages(pgdat, start_pfn, end_pfn); 
  29.  
  30.  alloc_node_mem_map(pgdat); 
  31.  pgdat_set_deferred_range(pgdat); 
  32.  
  33.  free_area_init_core(pgdat); 

在进入 calculate_node_totalpages 之前,这里还是先简单介绍一下node的数据结构。

  1. struct zoneref { 
  2.  struct zone *zone; /* Pointer to actual zone */ 
  3.  int zone_idx;  /* zone_idx(zoneref->zone) */ 
  4. }; 
  5. struct zonelist { 
  6.  struct zoneref _zonerefs[MAX_ZONES_PER_ZONELIST + 1]; 
  7. }; 
  8. typedef struct pglist_data { 
  9.  //本节点的所有zone内存管理区 
  10.  struct zone node_zones[MAX_NR_ZONES]; 
  11.     //包含了对所有node的zone的引用,通常第一个node_zonelists为本节点自己的zones 
  12.  struct zonelist node_zonelists[MAX_ZONELISTS]; 
  13.  //本节点zone管理区数目 
  14.  int nr_zones; /* number of populated zones in this node */ 
  15. #ifdef CONFIG_FLAT_NODE_MEM_MAP /* means !SPARSEMEM */ 
  16.     //Discontiguous Memory内存模型,可以找到节点下的所有page 
  17.  struct page *node_mem_map; 
  18. #ifdef CONFIG_PAGE_EXTENSION 
  19.  struct page_ext *node_page_ext; 
  20. #endif 
  21. #endif 
  22.  
  23.     ...... 
  24.  
  25.     //节点第一个页的页号 
  26.  unsigned long node_start_pfn; 
  27.     //节点总共的物理页数,不含空洞 
  28.  unsigned long node_present_pages; /* total number of physical pages */ 
  29.     //节点物理页的范围大小,含空洞 
  30.  unsigned long node_spanned_pages; /* total size of physical page 
  31.           range, including holes */ 
  32.  int node_id; 
  33.  
  34.     ...... 
  35.     //内存回收相关的数据结构 
  36.  ...... 
  37.  
  38.  ZONE_PADDING(_pad1_) 
  39.     ...... 
  40.  unsigned long  flags; 
  41.  
  42.  ZONE_PADDING(_pad2_) 
  43.     ...... 
  44. } pg_data_t; 

ZONE_PADDING 的作用,通过添加大量的填充把经常被访问的“热门”数据分到了单独的 cache line 上,可以理解为空间换时间。

calculate_node_totalpages()实现:

  1. static void __init calculate_node_totalpages(struct pglist_data *pgdat, 
  2.       unsigned long node_start_pfn, 
  3.       unsigned long node_end_pfn) 
  4.  unsigned long realtotalpages = 0, totalpages = 0; 
  5.  enum zone_type i; 
  6.  
  7.  for (i = 0; i < MAX_NR_ZONES; i++) { 
  8.   struct zone *zone = pgdat->node_zones + i; 
  9.   unsigned long zone_start_pfn, zone_end_pfn; 
  10.   unsigned long spanned, absent; 
  11.   unsigned long size, real_size; 
  12.  
  13.   spanned = zone_spanned_pages_in_node(pgdat->node_id, i, 
  14.            node_start_pfn, 
  15.            node_end_pfn, 
  16.            &zone_start_pfn, 
  17.            &zone_end_pfn); 
  18.   absent = zone_absent_pages_in_node(pgdat->node_id, i, 
  19.          node_start_pfn, 
  20.          node_end_pfn); 
  21.  
  22.   size = spanned; 
  23.   real_size = size - absent; 
  24.  
  25.   if (size
  26.    zone->zone_start_pfn = zone_start_pfn; 
  27.   else 
  28.    zone->zone_start_pfn = 0; 
  29.   zone->spanned_pages = size
  30.   zone->present_pages = real_size; 
  31.  
  32.   totalpages += size
  33.   realtotalpages += real_size; 
  34.  } 
  35.  
  36.  pgdat->node_spanned_pages = totalpages; 
  37.  pgdat->node_present_pages = realtotalpages; 
  38.  printk(KERN_DEBUG "On node %d totalpages: %lu\n", pgdat->node_id, 
  39.        realtotalpages); 

其中zone_spanned_pages_in_node():

  1. static unsigned long __init zone_spanned_pages_in_node(int nid, 
  2.      unsigned long zone_type, 
  3.      unsigned long node_start_pfn, 
  4.      unsigned long node_end_pfn, 
  5.      unsigned long *zone_start_pfn, 
  6.      unsigned long *zone_end_pfn) 
  7.  unsigned long zone_low = arch_zone_lowest_possible_pfn[zone_type]; 
  8.  unsigned long zone_high = arch_zone_highest_possible_pfn[zone_type]; 
  9.  /* When hotadd a new node from cpu_up(), the node should be empty */ 
  10.  if (!node_start_pfn && !node_end_pfn) 
  11.   return 0; 
  12.  
  13.  /* Get the start and end of the zone */ 
  14.     //限制zone_start_pfn和zone_end_pfn所在区间 
  15.  *zone_start_pfn = clamp(node_start_pfn, zone_low, zone_high); 
  16.  *zone_end_pfn = clamp(node_end_pfn, zone_low, zone_high); 
  17.  adjust_zone_range_for_zone_movable(nid, zone_type, 
  18.     node_start_pfn, node_end_pfn, 
  19.     zone_start_pfn, zone_end_pfn); 
  20.  
  21.  /* Check that this node has pages within the zone's required range */ 
  22.  if (*zone_end_pfn < node_start_pfn || *zone_start_pfn > node_end_pfn) 
  23.   return 0; 
  24.  
  25.  /* Move the zone boundaries inside the node if necessary */ 
  26.  *zone_end_pfn = min(*zone_end_pfn, node_end_pfn); 
  27.  *zone_start_pfn = max(*zone_start_pfn, node_start_pfn); 
  28.  
  29.  /* Return the spanned pages */ 
  30.  return *zone_end_pfn - *zone_start_pfn; 

该函数主要是统计 node 管理节点的内存跨度,该跨度不包括 movable 管理区的(因为 movable 就是在其它内存管理区里分配出来的),里面调用的 adjust_zone_range_for_zone_movable()则是用于剔除 movable 管理区的部分。

另外的zone_absent_pages_in_node()函数:

  1. unsigned long __init __absent_pages_in_range(int nid, 
  2.     unsigned long range_start_pfn, 
  3.     unsigned long range_end_pfn) 
  4.  unsigned long nr_absent = range_end_pfn - range_start_pfn; 
  5.  unsigned long start_pfn, end_pfn; 
  6.  int i; 
  7.  
  8.  for_each_mem_pfn_range(i, nid, &start_pfn, &end_pfn, NULL) { 
  9.   start_pfn = clamp(start_pfn, range_start_pfn, range_end_pfn); 
  10.   end_pfn = clamp(end_pfn, range_start_pfn, range_end_pfn); 
  11.   nr_absent -= end_pfn - start_pfn; 
  12.  } 
  13.  return nr_absent; 
  14.  
  15. static unsigned long __init zone_absent_pages_in_node(int nid, 
  16.      unsigned long zone_type, 
  17.      unsigned long node_start_pfn, 
  18.      unsigned long node_end_pfn) 
  19.  unsigned long zone_low = arch_zone_lowest_possible_pfn[zone_type]; 
  20.  unsigned long zone_high = arch_zone_highest_possible_pfn[zone_type]; 
  21.  unsigned long zone_start_pfn, zone_end_pfn; 
  22.  unsigned long nr_absent; 
  23.  
  24.  /* When hotadd a new node from cpu_up(), the node should be empty */ 
  25.  if (!node_start_pfn && !node_end_pfn) 
  26.   return 0; 
  27.  
  28.  zone_start_pfn = clamp(node_start_pfn, zone_low, zone_high); 
  29.  zone_end_pfn = clamp(node_end_pfn, zone_low, zone_high); 
  30.  
  31.  adjust_zone_range_for_zone_movable(nid, zone_type, 
  32.    node_start_pfn, node_end_pfn, 
  33.    &zone_start_pfn, &zone_end_pfn); 
  34.  nr_absent = __absent_pages_in_range(nid, zone_start_pfn, zone_end_pfn); 
  35.  
  36.  /* 
  37.   * ZONE_MOVABLE handling. 
  38.   * Treat pages to be ZONE_MOVABLE in ZONE_NORMAL as absent pages 
  39.   * and vice versa. 
  40.   */ 
  41.  if (mirrored_kernelcore && zone_movable_pfn[nid]) { 
  42.   unsigned long start_pfn, end_pfn; 
  43.   struct memblock_region *r; 
  44.  
  45.   for_each_mem_region(r) { 
  46.    start_pfn = clamp(memblock_region_memory_base_pfn(r), 
  47.        zone_start_pfn, zone_end_pfn); 
  48.    end_pfn = clamp(memblock_region_memory_end_pfn(r), 
  49.      zone_start_pfn, zone_end_pfn); 
  50.  
  51.    if (zone_type == ZONE_MOVABLE && 
  52.        memblock_is_mirror(r)) 
  53.     nr_absent += end_pfn - start_pfn; 
  54.  
  55.    if (zone_type == ZONE_NORMAL && 
  56.        !memblock_is_mirror(r)) 
  57.     nr_absent += end_pfn - start_pfn; 
  58.   } 
  59.  } 
  60.  
  61.  return nr_absent; 

该函数主要用于计算内存空洞页面数的,计算方法大致为在 zone 区域范围内,遍历所有 memblock 的内存块,将这些内存块的大小累加,之后两者做差,zone_absent_pages_in_node 后面是对 ZONE_MOVABLE 的特殊处理了,方法是类似的,这里也不做介绍了。

calculate_node_totalpages()后面就是各种简单的赋值操作了,这里也简单介绍一下zone的结构:

其中 MAX_NR_ZONES 是一个节点中所能包容纳的 Zones 的最大数。

  1. struct zone { 
  2.  ...... 
  3.     //保留页框池,记录每个管理区中必须保留的物理页面数,以用于紧急状况下的内存分配 
  4.  long lowmem_reserve[MAX_NR_ZONES]; 
  5.     //保持对UMA的兼容(当做一个节点),NUMA模式下的节点数 
  6. #ifdef CONFIG_NUMA 
  7.  int node; 
  8. #endif 
  9.  //该zone的父节点 
  10.     struct pglist_data *zone_pgdat; 
  11.  
  12.  ...... 
  13.  //该zone的第一个页的页号 
  14.  unsigned long  zone_start_pfn; 
  15.     //伙伴系统管理的page数,这是除去了在初始化阶段被申请的页面(比如memblock) 
  16.  atomic_long_t  managed_pages; 
  17.     //zone大小,含空洞,即zone_end_pfn - zone_start_pfn 
  18.  unsigned long  spanned_pages; 
  19.     //zone实际大小,不含空洞 
  20.  unsigned long  present_pages; 
  21.  //zone的名称,如“DMA”“Normal”“Highmem”,这些名称定义于page_alloc.c的zone_names[MAX_NR_ZONES] 
  22.  const char  *name
  23.  
  24.  ZONE_PADDING(_pad1_) 
  25.  
  26.  //包含所有空闲页面,伙伴系统使用,里面有数量为MIGRATE_TYPES个的free_list链表,分别用于管理不同迁移类型的内存页面 
  27.  struct free_area free_area[MAX_ORDER]; 
  28.     //描述zone的当前状态 
  29.  unsigned long  flags; 
  30.     /* Primarily protects free_area */ 
  31.     //与伙伴算法的碎片迁移算法有关 
  32.  spinlock_t  lock; 
  33.  
  34.  ZONE_PADDING(_pad2_) 
  35.  
  36.  ...... 
  37.  
  38.  ZONE_PADDING(_pad3_) 
  39.  ...... 
  40. } ____cacheline_internodealigned_in_smp; 

回到 free_area_init_node()函数,紧接在 calculate_node_totalpages()后的函数调用的为alloc_node_mem_map(),这个函数是用于申请 node 节点的 node_mem_map 相应的内存空间,如果是 sparse memory 内存模型,则该函数实现为空,这里便不做过多介绍了,直接看最后的初始化工作:free_area_init_core()。

  1. static void __init free_area_init_core(struct pglist_data *pgdat) 
  2.  enum zone_type j; 
  3.  int nid = pgdat->node_id; 
  4.  //对节点的一些锁和队列进行初始化 
  5.  pgdat_init_internals(pgdat); 
  6.  pgdat->per_cpu_nodestats = &boot_nodestats; 
  7.  
  8.  for (j = 0; j < MAX_NR_ZONES; j++) { 
  9.   struct zone *zone = pgdat->node_zones + j; 
  10.   unsigned long size, freesize, memmap_pages; 
  11.   unsigned long zone_start_pfn = zone->zone_start_pfn; 
  12.  
  13.   size = zone->spanned_pages; 
  14.   freesize = zone->present_pages; 
  15.  
  16.   //memmap_pages,每一个4k物理页都对应一个mem_map_t来管理 
  17.   memmap_pages = calc_memmap_size(size, freesize); 
  18.   if (!is_highmem_idx(j)) { 
  19.    if (freesize >= memmap_pages) { 
  20.     freesize -= memmap_pages; 
  21.     if (memmap_pages) 
  22.      printk(KERN_DEBUG 
  23.             "  %s zone: %lu pages used for memmap\n"
  24.             zone_names[j], memmap_pages); 
  25.    } else 
  26.     pr_warn("  %s zone: %lu pages exceeds freesize %lu\n"
  27.      zone_names[j], memmap_pages, freesize); 
  28.   } 
  29.  
  30.   //dma保留页 
  31.   if (j == 0 && freesize > dma_reserve) { 
  32.    freesize -= dma_reserve; 
  33.    printk(KERN_DEBUG "  %s zone: %lu pages reserved\n"
  34.      zone_names[0], dma_reserve); 
  35.   } 
  36.   //计算nr_kernel_pages(低端内存的页数)和nr_all_pages的数量 
  37.   if (!is_highmem_idx(j)) 
  38.    nr_kernel_pages += freesize; 
  39.   /* Charge for highmem memmap if there are enough kernel pages */ 
  40.         //如果有足够的页,则也为高端内存提供memmap_pages 
  41.   else if (nr_kernel_pages > memmap_pages * 2) 
  42.    nr_kernel_pages -= memmap_pages; 
  43.   nr_all_pages += freesize; 
  44.  
  45.   /* 
  46.    * Set an approximate value for lowmem here, it will be adjusted 
  47.    * when the bootmem allocator frees pages into the buddy system. 
  48.    * And all highmem pages will be managed by the buddy system. 
  49.    */ 
  50.         //初始化zone使用的各类锁 
  51.   zone_init_internals(zone, j, nid, freesize); 
  52.  
  53.   if (!size
  54.    continue
  55.  
  56.   set_pageblock_order(); 
  57.   setup_usemap(pgdat, zone, zone_start_pfn, size); 
  58.   init_currently_empty_zone(zone, zone_start_pfn, size); 
  59.   memmap_init(size, nid, j, zone_start_pfn); 
  60.  } 

该函数主要用于向节点下的每个 zone 填充相关信息,在 for 循环内,循环遍历统计各个管理区最大跨度间相差的页面数 size 以及除去内存“空洞”后的实际页面数 freesize,然后通过 calc_memmap_size()计算出该管理区所需的页面管理结构占用的页面数 memmap_pages,最后可以计算得出高端内存外的系统内存共有的内存页面数(freesize-memmap_pages)。

nr_kernel_pages 用于统计低端内存的页数,此外循环体内的操作则是初始化内存管理区的管理结构,例如各类锁的初始化、队列初始化。其中 set_pageblock_order()用于在 CONFIG_HUGETLB_PAGE_SIZE_VARIABLE 下设置 pageblock_order 的值;setup_usemap()函数则是为了给 zone 管理结构体中的 pageblock_flags 申请内存空间的,pageblock_flags 与伙伴系统的碎片迁移算法有关。init_currently_empty_zone()则主要是初始化管理区的等待队列哈希表和等待队列,同时还初始化了与伙伴系统相关的 free_area 列表

nr_kernel_pages、nr_all_pages 和页面的关系可以参考下图:

这里以我自己的私服为例,看一下我私服 node 和 zone 的情况

首先是 node 的个数,GNU/Linux 根据物理 CPU 的数量分配 node,因此可以直接查物理 CPU 的数量:

当然,用 numactl 会更加直观:

我的机器上只有一个 node,接下来可以用 cat /proc/zoneinfo 查看这个 node 下各个 zone 的情况:

 

回到 free_area_init_core()函数的最后,memmap_init()->memmap_init_zone(),该函数主要是根据 PFN,然后通过 pfn_to_page 找到对应的 struct page 结构,并将该结构进行初始化处理,并设置 MIGRATE_MOVABLE 标志,表明可移动。

  1. //遍历memblock,找到节点的内存地址范围,zone的范围不能大于这个,使用memmap_init_zone对该zone进行处理 
  2. void __meminit __weak memmap_init(unsigned long sizeint nid, 
  3.       unsigned long zone, 
  4.       unsigned long range_start_pfn) 
  5.  unsigned long start_pfn, end_pfn; 
  6.  unsigned long range_end_pfn = range_start_pfn + size
  7.  int i; 
  8.  
  9.  for_each_mem_pfn_range(i, nid, &start_pfn, &end_pfn, NULL) { 
  10.   start_pfn = clamp(start_pfn, range_start_pfn, range_end_pfn); 
  11.   end_pfn = clamp(end_pfn, range_start_pfn, range_end_pfn); 
  12.  
  13.   if (end_pfn > start_pfn) { 
  14.    size = end_pfn - start_pfn; 
  15.    memmap_init_zone(size, nid, zone, start_pfn, 
  16.       MEMINIT_EARLY, NULL, MIGRATE_MOVABLE); 
  17.   } 
  18.  } 
  19.  
  20. void __meminit memmap_init_zone(unsigned long sizeint nid, unsigned long zone, 
  21.   unsigned long start_pfn, 
  22.   enum meminit_context context, 
  23.   struct vmem_altmap *altmap, int migratetype) 
  24.  unsigned long pfn, end_pfn = start_pfn + size
  25.  struct page *page; 
  26.  
  27.  if (highest_memmap_pfn < end_pfn - 1) 
  28.   highest_memmap_pfn = end_pfn - 1; 
  29.  
  30. #ifdef CONFIG_ZONE_DEVICE 
  31.  /* 
  32.   * Honor reservation requested by the driver for this ZONE_DEVICE 
  33.   * memory. We limit the total number of pages to initialize to just 
  34.   * those that might contain the memory mapping. We will defer the 
  35.   * ZONE_DEVICE page initialization until after we have released 
  36.   * the hotplug lock. 
  37.   */ 
  38.  if (zone == ZONE_DEVICE) { 
  39.   if (!altmap) 
  40.    return
  41.  
  42.   if (start_pfn == altmap->base_pfn) 
  43.    start_pfn += altmap->reserve; 
  44.   end_pfn = altmap->base_pfn + vmem_altmap_offset(altmap); 
  45.  } 
  46. #endif 
  47.  
  48.  for (pfn = start_pfn; pfn < end_pfn; ) { 
  49.   /* 
  50.    * There can be holes in boot-time mem_map[]s handed to this 
  51.    * function.  They do not exist on hotplugged memory. 
  52.    */ 
  53.   if (context == MEMINIT_EARLY) { 
  54.    if (overlap_memmap_init(zone, &pfn)) 
  55.     continue
  56.    if (defer_init(nid, pfn, end_pfn)) 
  57.     break; 
  58.   } 
  59.  
  60.   page = pfn_to_page(pfn); 
  61.   __init_single_page(page, pfn, zone, nid); 
  62.   if (context == MEMINIT_HOTPLUG) 
  63.    __SetPageReserved(page); 
  64.  
  65.   /* 
  66.    * Usually, we want to mark the pageblock MIGRATE_MOVABLE, 
  67.    * such that unmovable allocations won't be scattered all 
  68.    * over the place during system boot. 
  69.    */ 
  70.   if (IS_ALIGNED(pfn, pageblock_nr_pages)) { 
  71.    set_pageblock_migratetype(page, migratetype); 
  72.    cond_resched(); 
  73.   } 
  74.   pfn++; 
  75.  } 

struct page

最后这里简单介绍一下 struct page,内核会为每一个物理页帧创建一个 struct page 的结构体,因此要保证 page 结构体足够的小,否则仅 struct page 就要占用大量的内存,该结构有很多 union 结构,主要是用于各种算法不同数据的空间复用。

struct page 这个结构相当复杂,这里我放上网上找到的一个全局参考,可以比源码更清晰地了解整个结构体,这里我也只简单介绍里面的几个字段。

  1.  struct page (include/linux/mm_types.h) 
  2.  
  3.                       page 
  4.             +--------------------------------------------------------------+ 
  5.             |flags                                                         | 
  6.             |   (unsigned long)                                            | 
  7. --+--       +==============================================================+ 
  8.   |         |..............................................................| 
  9.   |         |page cache and anonymous pages                                | 
  10.   |         |    +---------------------------------------------------------+ 
  11.   |         |    |lru                                                      | 
  12.   |         |    |    (struct list_head)                                   | 
  13.             |    |mapping                                                  | 
  14.             |    |    (struct address_space*)                              | 
  15.             |    |index                                                    | 
  16.             |    |    (pgoff_t)                                            | 
  17.  words      |    |private                                                  | 
  18. union       |    |    (unsigned long)                                      | 
  19.             |    +---------------------------------------------------------+ 
  20.             |..............................................................| 
  21.  has        |slab, slob, slub                                              | 
  22.             |    +---------------------------------------------------------+ 
  23.  usage      |    |.........................................................| 
  24.             |    |                            .+---------------------------| 
  25.             |    |slab_list                   .|next                       | 
  26.             |    |    (struct list_head)      .|   (struct page*)          | 
  27.             |    |                            .|pages                      | 
  28.             |    |                            .|pobjects                   | 
  29.             |    |                            .|   (int)                   | 
  30.             |    |                            .+---------------------------| 
  31.             |    |.........................................................| 
  32.             |    +---------------------------------------------------------+ 
  33.             |    |slab_cache                                               | 
  34.             |    |    (struct kmem_cache*)                                 | 
  35.             |    |freelist                                                 | 
  36.             |    |    (void*)                                              | 
  37.             |    +---------------------------------------------------------+ 
  38.             |    |.........................................................| 
  39.             |    |s_mem    .counters          .+---------------------------| 
  40.             |    | (void*) . (unsigned long)  .|inuse                      | 
  41.             |    |         .                  .|objects                    | 
  42.             |    |         .                  .|frozen                     | 
  43.             |    |         .                  .|    (unsigned)             | 
  44.             |    |         .                  .+---------------------------| 
  45.             |    |.........................................................| 
  46.             |    +---------------------------------------------------------+ 
  47.             |..............................................................| 
  48.             |Tail pages of compound page                                   | 
  49.             |    +---------------------------------------------------------+ 
  50.             |    |compound_head                                            | 
  51.             |    |    (unsigned long)                                      | 
  52.             |    |compound_dtor                                            | 
  53.             |    |compound_order                                           | 
  54.             |    |    (unsigned char)                                      | 
  55.             |    |compound_mapcount                                        | 
  56.             |    |    (atomic_t)                                           | 
  57.             |    +---------------------------------------------------------+ 
  58.             |..............................................................| 
  59.             |Second tail page of compound page                             | 
  60.             |    +---------------------------------------------------------+ 
  61.             |    |_compound_pad_1                                          | 
  62.             |    |_compound_pad_2                                          | 
  63.             |    |    (unsigned long)                                      | 
  64.             |    |deferred_list                                            | 
  65.             |    |    (struct list_head)                                   | 
  66.             |    +---------------------------------------------------------+ 
  67.             |..............................................................| 
  68.             |Page table pages                                              | 
  69.             |    +---------------------------------------------------------+ 
  70.             |    |_pt_pad_1                                                | 
  71.             |    |    (unsigned long)                                      | 
  72.             |    |pmd_huge_pte                                             | 
  73.             |    |    (pgtable_t)                                          | 
  74.             |    |_pt_pad_2                                                | 
  75.             |    |    (unsigned long)                                      | 
  76.             |    |.........................................................| 
  77.             |    |pt_mm                         .pt_frag_refcount          | 
  78.             |    |    (struct mm_struct*)       .    (atomic_t)            | 
  79.             |    |.........................................................| 
  80.             |    |ptl                                                      | 
  81.             |    |    (spinlock_t/spinlock_t *)                            | 
  82.             |    +---------------------------------------------------------+ 
  83.             |..............................................................| 
  84.             |ZONE_DEVICE pages                                             | 
  85.             |    +---------------------------------------------------------+ 
  86.             |    |pgmap                                                    | 
  87.             |    |    (struct dev_pagemap*)                                | 
  88.             |    |hmm_data                                                 | 
  89.             |    |_zd_pad_1                                                | 
  90.   |         |    |    (unsigned long)                                      | 
  91.   |         |    +---------------------------------------------------------+ 
  92.   |         |..............................................................| 
  93.   |         |rcu_head                                                      | 
  94.   |         |    (struct rcu_head)                                         | 
  95.   |         |..............................................................| 
  96. --+--       +==============================================================+ 
  97.   |         |..............................................................| 
  98.             |            .                 .                .              | 
  99. 4 bytes     |_mapcount   .page_type        .active          .units         | 
  100.  union      |  (atomic_t).   (unsigned int).  (unsigned int).   (int)      | 
  101.             |            .                 .                .              | 
  102.   |         |..............................................................| 
  103. --+--       +==============================================================+ 
  104.             |_refcount                                                     | 
  105.             |     (atomic_t)                                               | 
  106.             |mem_cgroup                                                    | 
  107.             |     (struct mem_cgroup)                                      | 
  108.             |virtual                                                       | 
  109.             |     (void *)                                                 | 
  110.             |_last_cpupid                                                  | 
  111.             |     (int)                                                    | 
  112.             +--------------------------------------------------------------+ 

首先介绍一下flags,它描述 page 的状态和其它的一些信息,如下图。

主要分为 4 部分,其中标志位 flag 向高位增长,其余位字段向低位增长,中间存在空闲位。

  • section:主要用于 sparse memory 内存模型,即 section 号。
  • node:NUMA 节点号,标识该 page 属于哪一个节点。
  • zone:内存域标志,标识该 page 属于哪一个 zone。
  • flag:page 的状态标识,常用的有:
  1. page-flags.h 
  2. enum pageflags { 
  3.  PG_locked,  /* 表示页面已上锁,不要访问 */ 
  4.  PG_error,     /* 表示页面发生IO错误 */ 
  5.  PG_referenced, /* 用于RCU算法 */ 
  6.  PG_uptodate,   /* 表示页面内容有效,当该页面上读操作完成后,设置该标志位 */ 
  7.  PG_dirty,      /* 表示页面是脏页,内容被修改过 */ 
  8.  PG_lru,        /* 表示该页面在lru链表中 */ 
  9.  PG_active,     /* 表示该页面在活跃lru链表中 */ 
  10.  PG_slab,       /* 表示该页面是属于slab分配器创建的slab */ 
  11.  PG_owner_priv_1, /* 页面的所有者使用,如果是pagecache页面,文件系统可能使用*/ 
  12.  PG_arch_1,       /* 与体系架构相关的页面状态位 */ 
  13.  PG_reserved,     /* 表示该页面不可被换出,防止该page被交换到swap */ 
  14.  PG_private,  /* 如果page中的private成员非空,则需要设置该标志,如果是pagecache, 包含fs-private data */ 
  15.  PG_writeback,  /* 页面正在回写 */ 
  16.  PG_head,  /* A head page */ 
  17.  PG_swapcache,  /* 表示该page处于swap cache中 */ 
  18.  PG_reclaim,  /* 表示该page要被回收,决定要回收某个page后,需要设置该标志 */ 
  19.  PG_swapbacked,  /* 该page的后备存储器是swap/ram,一般匿名页才可以回写swap分区 */ 
  20.  PG_unevictable,  /* 该page被锁住,不能回收,并会出现在LRU_UNEVICTABLE链表中 */ 
  21.  ...... 

内核定义了一些标准宏,用于检查页面是否设置了某个特定的标志位或者用于操作某些特定的标志位,比如

  1. PageXXX()(检查是否设置)  
  2. SetPageXXX()  
  3. ClearPageXXX() 

伙伴系统,内存被分成含有很多页面的大块,每一块都是 2 个页面大小的方幂。如果找不到想要的块, 一个大块会被分成两部分,这两部分彼此就成为伙伴。其中一半被用来分配,而另一半则空闲。这些块在以后分配的过程中会继续被二分直至产生一个所需大小的块。当一个块被最终释放时, 其伙伴将被检测出来, 如果伙伴也空闲则合并两者

slab,Slab 对小对象进行分配,不用为每个小对象去分配页,节省了空间。内核中一些小对象在创建析构时很频繁,Slab 对这些小对象做缓存,可以重复利用一些相同的对象,减少内存分配次数

接着看struct list_head lru,链表头,具体作用得看 page 处于什么用途中,如果是伙伴系统则用于连接相同的伙伴,通过第一个 page 可以找到伙伴中所有的 page;如果是 slab,page->lru.next 指向 page 驻留的的缓存管理结构,page->lru.prec 指向保存该 page 的 slab 管理结构;而当 page 被用户态使用或被当做页缓存使用时,lru 则用于将该 page 连入 zone 中相应的 lru 链表,供内存回收时使用

struct address_space *mapping,当 mapping 为 NULL 时,该 page 为交换缓存(swap);当 mapping 不为 NULL 且第 0 位为 0,该 page 为页缓存或文件映射,mapping 指向文件的地址空间;当 mapping 不为 NULL 且第 0 位为 1,该 page 为匿名页(匿名映射),mapping 指向 struct anon_vma 对象

pgoff_t index,映射虚拟内存空间里的地址偏移,一个文件可能只映射其中的一部分,假设映射了 1M 的空间,index 指的是在 1M 空间内的偏移,而不是在整个文件内的偏移

unsigned long private,私有数据指针

atomic_t _mapcount,该 page 被页表映射的次数,即这个 page 被多少个进程共享,初始值为-1(非伙伴系统,如果是伙伴系统则为 PAGE_BUDDY_MAPCOUNT_VALUE),例如只被一个进程的页表映射的话,值为 0

atomic_t _refcount,页表引用计数,内核要操作该 page 时,引用计数会+1,操作完成后则-1,当引用计数为 0 时,表示该 page 没有被引用到,这时候就可以解除该 page 的映射(虚拟页-物理页,该物理页是占用内存的)(用于内存回收)

更详细的内容可以参考源代码~

ok,回到 memmap_init_zone(),直接看关键函数**__init_single_page**()

  1. static void __meminit __init_single_page(struct page *page, unsigned long pfn, 
  2.     unsigned long zone, int nid) 
  3.  mm_zero_struct_page(page); //page初始化,根据page大小还有一些特殊操作 
  4.  set_page_links(page, zone, nid, pfn); //flags初始化,将页面映射到zone和node 
  5.  init_page_count(page); //page的_refcount设置为1 
  6.  page_mapcount_reset(page); //page的_mapcount设置为-1 
  7.  
  8.  
  9.  INIT_LIST_HEAD(&page->lru); //初始化lru,指向自身 
  10.  ...... 

至此,free_area_init_node()的初始化操作执行完毕,据前面分析可以知道该函数主要是将整个 linux 物理内存管理框架进行初始化,包括内存管理节点 node、管理区 zone 以及页面管理 page 等数据的初始化。

回到前面的 free_area_init()函数的循环体内的最后两个函数 node_set_state()和 check_for_memory(),node_set_state()主要是对 node 节点进行状态设置,而 check_for_memory()则是做内存检查。

到这里,内存管理框架的构建基本完毕。

  1. void __init setup_arch(char **cmdline_p) 
  2.     ...... 
  3.  max_pfn = e820__end_of_raCm_pfn(); //max_pfn初始化 
  4.  ...... 
  5.  find_low_pfn_range(); //max_low_pfn、高端内存初始化 
  6.  ...... 
  7.  
  8.  ...... 
  9.  early_alloc_pgt_buf(); //页表缓冲区分配 
  10.  reserve_brk(); //缓冲区加入memblock.reserve 
  11.  
  12.     ...... 
  13.     e820__memblock_setup(); //memblock.memory空间初始化 启动 
  14.  ...... 
  15.  
  16.     init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化 
  17.  
  18.   ...... 
  19.     initmem_init(); //high_memory初始化 通过memblock内存管理器设置node节点信息 
  20.     ...... 
  21.  
  22.     x86_init.paging.pagetable_init(); // 节点node、内存管理区zone、page初始化 
  23.     ...... 

最后补充一下 pfn 和物理地址以及 pfn 和虚拟地址的转换。

  1. //物理地址->物理页 
  2. #define PAGE_SHIFT _PAGE_SHIFT 
  3. #define _PAGE_SHIFT 12 
  4. #define phys_to_pfn(phys) ((phys) >> PAGE_SHIFT) 
  5. #define pfn_to_phys(pfn) ((pfn) << PAGE_SHIFT) 
  6.  
  7. #define phys_to_page(phys) pfn_to_page(phys_to_pfn(phys)) 
  8. #define page_to_phys(page) pfn_to_phys(page_to_pfn(page)) 

pfn_to_page、page_to_pfn 可以参考上面的内存模型,不同的模型实现的细节不一样。

这里可以看出物理页的大小是 4096,即 4kb,虽然内核在虚拟地址中是在高地址的,但是在物理地址中是从 0 开始的。

在 linux 内核直接映射区里内核逻辑地址与物理页的转换关系如下:

  1. #define pfn_to_virt(pfn) __va(pfn_to_phys(pfn)) 
  2. #define virt_to_pfn(kaddr) (phys_to_pfn(__pa(kaddr))) 
  3. #define virt_to_page(kaddr) pfn_to_page(virt_to_pfn(kaddr)) 
  4. #define page_to_virt(page) pfn_to_virt(page_to_pfn(page)) 
  5.  
  6. #define __pa(x)         ((unsigned long) (x) - PAGE_OFFSET) 
  7. #define __va(x)         ((void *)((unsigned long) (x) + PAGE_OFFSET)) 

PAGE_OFFSET 与具体的架构有关,在 x86_32 中,PAGE_OFFSET 是 0xC0000000,即 32 位系统中,内核的逻辑地址只有高位的 1GB

总结

Linux 内存管理是一个很复杂的“工程”,Linux 会通过中断调用获取被 BIOS 保留的内存地址范围以及系统可以使用的内存地址范围。在内核初始化阶段,通过 memblock 内存分配器,实现页分配器初始化之前的内存管理和分配请求,memblock 内存区管理算法将可用可分配的内存用 memblock.memory 进行管理,已分配的内存用 memblock.reserved 进行管理,只要内存块加入到 memblock.reserved 里面就表示该内存被申请占用了,申请和释放的操作都集中在 memblock.reserved,这个算法效率不高,但是却是合理的,因为在内核初始化阶段并没有太多复杂的内存操作场景,而且很多地方都是申请的内存都是永久使用的。为了合理地利用 4G 的内存空间,Linux 采用了 3:1 的策略,即内核占用 1G 的线性地址空间,用户占用 3G 的线性地址空间,且 Linux 采用了一种折中方案是只对 1G 内核空间的前 896 MB 按线性映射, 剩下的 128 MB 采用动态映射,即走多级页表翻译,这样,内核态能访问空间就更多了。

传统的多核运算是使用 SMP(Symmetric Multi-Processor )模式,将多个处理器与一个集中的存储器和 I/O 总线相连,所有处理器访问同一个物理存储器,因此 SMP 系统有时也被称为一致存储器访问(UMA)结构体系。而 NUMA 模式是一种分布式存储器访问方式,处理器可以同时访问不同的存储器地址,大幅度提高并行性。NUMA 模式下系统的每个 CPU 都有本地内存,可支持快速访问,各个处理器之间通过总线连接起来,以支持对其它 CPU 本地内存的访问,但是这些访问要比处理器本地内存的慢。Linux 内核通过插入一些兼容层,使两个不同体系结构的差异被隐藏,两种模式都使用了同一个数据结构,另外 linux 的物理内存管理机制将物理内存划分为三个层次来管理,依次是:Node(存储节点)、Zone(管理区)和 Page(页面)。

Linux 内存管理的内容十分多且复杂,上面介绍到的也只是其中的一部分,如果感兴趣的话可以下载一份源代码,然后细细品味。

参考文献

Linux 内存管理-Zone:https://blog.csdn.net/wyy4045/article/details/81776277

Linux 内存管理-Node:https://blog.csdn.net/wyy4045/article/details/81708895

内存管理框架:https://www.jeanleo.com/

memblock:https://biscuitos.github.io/blog/MMU-ARM32-MEMBLOCK-index/

Zone_sizes_init:http://www.soolco.com/post/19152_1_1.html

内核页表:https://www.daimajiaoliu.com/daima/47db35735100402

linux 内存模型:http://www.wowotech.net/memory_management/memory_model.html

linux 中的分页机制:http://edsionte.com/techblog/archives/3435

linux 内核介绍:https://richardweiyang-2.gitbook.io/kernel-exploring

struct page:https://blog.csdn.net/gatieme/article/details/52384636

页表初始化:https://www.cnblogs.com/tolimit/p/4585803.html

责任编辑:武晓燕 来源: 51CTO专栏
相关推荐

2020-10-09 07:56:52

Linux

2021-06-30 08:45:02

内存管理面试

2021-02-22 09:05:59

Linux字符设备架构

2021-06-04 09:35:05

Linux字符设备架构

2020-12-18 11:54:22

Linux系统架构

2022-12-20 07:39:46

2023-12-21 17:11:21

Containerd管理工具命令行

2022-10-21 17:24:34

契约测试定位

2021-10-06 20:23:08

Linux共享内存

2019-03-18 11:15:07

Linux性能网络

2020-01-14 12:08:32

内存安全

2018-05-31 20:49:50

Spark堆内内存优化机制

2023-10-24 11:44:21

2023-12-15 09:45:21

阻塞接口

2021-04-24 09:02:36

Linux 内存分配

2017-11-28 15:20:27

Python语言编程

2023-08-01 09:27:44

Golang模糊测试

2023-03-10 07:57:26

2022-08-04 14:38:49

vue3.2setup代码

2022-10-21 18:31:21

ETL
点赞
收藏

51CTO技术栈公众号