]> asedeno.scripts.mit.edu Git - linux.git/commitdiff
ia64: use mem_data to detect nodes' minimal and maximal PFNs
authorMike Rapoport <rppt@linux.vnet.ibm.com>
Mon, 23 Jul 2018 05:56:57 +0000 (08:56 +0300)
committerTony Luck <tony.luck@intel.com>
Mon, 23 Jul 2018 17:30:08 +0000 (10:30 -0700)
When EFI memory map is traversed to determine the extents of each node, the
minimal and maximal PFNs are stored in the bootmem_data structures. The
same information ls later stored in the mem_data array of 'struct
early_node_data'.

Switch to using mem_data from the very beginning.

Signed-off-by: Mike Rapoport <rppt@linux.vnet.ibm.com>
Signed-off-by: Tony Luck <tony.luck@intel.com>
arch/ia64/mm/discontig.c

index 6148ea8338ad1e8fe00d57331e869ea9a5df9e3b..8e99d8e2455e1cad6f593d4dc081b11809a411e1 100644 (file)
@@ -57,33 +57,31 @@ pg_data_t *pgdat_list[MAX_NUMNODES];
             (((node)*PERCPU_PAGE_SIZE) & (MAX_NODE_ALIGN_OFFSET - 1)))
 
 /**
- * build_node_maps - callback to setup bootmem structs for each node
+ * build_node_maps - callback to setup mem_data structs for each node
  * @start: physical start of range
  * @len: length of range
  * @node: node where this range resides
  *
- * We allocate a struct bootmem_data for each piece of memory that we wish to
+ * Detect extents of each piece of memory that we wish to
  * treat as a virtually contiguous block (i.e. each node). Each such block
  * must start on an %IA64_GRANULE_SIZE boundary, so we round the address down
  * if necessary.  Any non-existent pages will simply be part of the virtual
- * memmap.  We also update min_low_pfn and max_low_pfn here as we receive
- * memory ranges from the caller.
+ * memmap.
  */
 static int __init build_node_maps(unsigned long start, unsigned long len,
                                  int node)
 {
        unsigned long spfn, epfn, end = start + len;
-       struct bootmem_data *bdp = &bootmem_node_data[node];
 
        epfn = GRANULEROUNDUP(end) >> PAGE_SHIFT;
        spfn = GRANULEROUNDDOWN(start) >> PAGE_SHIFT;
 
-       if (!bdp->node_low_pfn) {
-               bdp->node_min_pfn = spfn;
-               bdp->node_low_pfn = epfn;
+       if (!mem_data[node].min_pfn) {
+               mem_data[node].min_pfn = spfn;
+               mem_data[node].max_pfn = epfn;
        } else {
-               bdp->node_min_pfn = min(spfn, bdp->node_min_pfn);
-               bdp->node_low_pfn = max(epfn, bdp->node_low_pfn);
+               mem_data[node].min_pfn = min(spfn, mem_data[node].min_pfn);
+               mem_data[node].max_pfn = max(epfn, mem_data[node].max_pfn);
        }
 
        return 0;
@@ -323,19 +321,18 @@ static int __init find_pernode_space(unsigned long start, unsigned long len,
 {
        unsigned long spfn, epfn;
        unsigned long pernodesize = 0, pernode, pages, mapsize;
-       struct bootmem_data *bdp = &bootmem_node_data[node];
 
        spfn = start >> PAGE_SHIFT;
        epfn = (start + len) >> PAGE_SHIFT;
 
-       pages = bdp->node_low_pfn - bdp->node_min_pfn;
+       pages = mem_data[node].max_pfn - mem_data[node].min_pfn;
        mapsize = bootmem_bootmap_pages(pages) << PAGE_SHIFT;
 
        /*
         * Make sure this memory falls within this node's usable memory
         * since we may have thrown some away in build_maps().
         */
-       if (spfn < bdp->node_min_pfn || epfn > bdp->node_low_pfn)
+       if (spfn < mem_data[node].min_pfn || epfn > mem_data[node].max_pfn)
                return 0;
 
        /* Don't setup this node's local space twice... */
@@ -397,7 +394,7 @@ static void __init reserve_pernode_space(void)
                bdp = pdp->bdata;
 
                /* First the bootmem_map itself */
-               pages = bdp->node_low_pfn - bdp->node_min_pfn;
+               pages = mem_data[node].max_pfn - mem_data[node].min_pfn;
                size = bootmem_bootmap_pages(pages) << PAGE_SHIFT;
                base = __pa(bdp->node_bootmem_map);
                reserve_bootmem_node(pdp, base, size, BOOTMEM_DEFAULT);
@@ -541,10 +538,8 @@ void __init find_memory(void)
        efi_memmap_walk(find_max_min_low_pfn, NULL);
 
        for_each_online_node(node)
-               if (bootmem_node_data[node].node_low_pfn) {
+               if (mem_data[node].min_pfn)
                        node_clear(node, memory_less_mask);
-                       mem_data[node].min_pfn = ~0UL;
-               }
 
        efi_memmap_walk(filter_memory, register_active_ranges);
 
@@ -568,8 +563,8 @@ void __init find_memory(void)
 
                init_bootmem_node(pgdat_list[node],
                                  map>>PAGE_SHIFT,
-                                 bdp->node_min_pfn,
-                                 bdp->node_low_pfn);
+                                 mem_data[node].min_pfn,
+                                 mem_data[node].max_pfn);
        }
 
        efi_memmap_walk(filter_rsvd_memory, free_node_bootmem);
@@ -651,31 +646,6 @@ void call_pernode_memory(unsigned long start, unsigned long len, void *arg)
        }
 }
 
-/**
- * count_node_pages - callback to build per-node memory info structures
- * @start: physical start of range
- * @len: length of range
- * @node: node where this range resides
- *
- * Each node has it's own number of physical pages, DMAable pages, start, and
- * end page frame number.  This routine will be called by call_pernode_memory()
- * for each piece of usable memory and will setup these values for each node.
- * Very similar to build_maps().
- */
-static __init int count_node_pages(unsigned long start, unsigned long len, int node)
-{
-       unsigned long end = start + len;
-
-       start = GRANULEROUNDDOWN(start);
-       end = GRANULEROUNDUP(end);
-       mem_data[node].max_pfn = max(mem_data[node].max_pfn,
-                                    end >> PAGE_SHIFT);
-       mem_data[node].min_pfn = min(mem_data[node].min_pfn,
-                                    start >> PAGE_SHIFT);
-
-       return 0;
-}
-
 /**
  * paging_init - setup page tables
  *
@@ -692,8 +662,6 @@ void __init paging_init(void)
 
        max_dma = virt_to_phys((void *) MAX_DMA_ADDRESS) >> PAGE_SHIFT;
 
-       efi_memmap_walk(filter_rsvd_memory, count_node_pages);
-
        sparse_memory_present_with_active_regions(MAX_NUMNODES);
        sparse_init();