mm: introduce node_zonelist() for accessing the zonelist for a GFP mask
authorMel Gorman <mel@csn.ul.ie>
Mon, 28 Apr 2008 09:12:14 +0000 (02:12 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Mon, 28 Apr 2008 15:58:18 +0000 (08:58 -0700)
Introduce a node_zonelist() helper function.  It is used to lookup the
appropriate zonelist given a node and a GFP mask.  The patch on its own is a
cleanup but it helps clarify parts of the two-zonelist-per-node patchset.  If
necessary, it can be merged with the next patch in this set without problems.

Reviewed-by: Christoph Lameter <clameter@sgi.com>
Signed-off-by: Mel Gorman <mel@csn.ul.ie>
Signed-off-by: Lee Schermerhorn <lee.schermerhorn@hp.com>
Cc: KAMEZAWA Hiroyuki <kamezawa.hiroyu@jp.fujitsu.com>
Cc: Mel Gorman <mel@csn.ul.ie>
Cc: Christoph Lameter <clameter@sgi.com>
Cc: Hugh Dickins <hugh@veritas.com>
Cc: Nick Piggin <nickpiggin@yahoo.com.au>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
drivers/char/sysrq.c
fs/buffer.c
include/linux/gfp.h
include/linux/mempolicy.h
mm/mempolicy.c
mm/page_alloc.c
mm/slab.c
mm/slub.c

index de60e1ea4fb3830e01524b73381738d7e98485b6..1ade193c912816e6af11e0226c322e5653b13ec5 100644 (file)
@@ -271,8 +271,7 @@ static struct sysrq_key_op sysrq_term_op = {
 
 static void moom_callback(struct work_struct *ignored)
 {
-       out_of_memory(&NODE_DATA(0)->node_zonelists[ZONE_NORMAL],
-                       GFP_KERNEL, 0);
+       out_of_memory(node_zonelist(0, GFP_KERNEL), GFP_KERNEL, 0);
 }
 
 static DECLARE_WORK(moom_work, moom_callback);
index 1dae94acb3fe618343c721dd0cfdf7f66fa5f9dc..71358499bc57d91fe2769a6203411d018118d928 100644 (file)
@@ -361,13 +361,13 @@ void invalidate_bdev(struct block_device *bdev)
 static void free_more_memory(void)
 {
        struct zonelist *zonelist;
-       pg_data_t *pgdat;
+       int nid;
 
        wakeup_pdflush(1024);
        yield();
 
-       for_each_online_pgdat(pgdat) {
-               zonelist = &pgdat->node_zonelists[gfp_zone(GFP_NOFS)];
+       for_each_online_node(nid) {
+               zonelist = node_zonelist(nid, GFP_NOFS);
                if (zonelist->zones[0])
                        try_to_free_pages(zonelist, 0, GFP_NOFS);
        }
index c17ba4945203195e88bd5a8fa51aaaf6d9816708..e865d51f1c748ec9517c1ee8b79e3355006e58bc 100644 (file)
@@ -154,10 +154,15 @@ static inline enum zone_type gfp_zone(gfp_t flags)
 /*
  * We get the zone list from the current node and the gfp_mask.
  * This zone list contains a maximum of MAXNODES*MAX_NR_ZONES zones.
+ * There are many zonelists per node, two for each active zone.
  *
  * For the normal case of non-DISCONTIGMEM systems the NODE_DATA() gets
  * optimized to &contig_page_data at compile-time.
  */
+static inline struct zonelist *node_zonelist(int nid, gfp_t flags)
+{
+       return NODE_DATA(nid)->node_zonelists + gfp_zone(flags);
+}
 
 #ifndef HAVE_ARCH_FREE_PAGE
 static inline void arch_free_page(struct page *page, int order) { }
@@ -178,8 +183,7 @@ static inline struct page *alloc_pages_node(int nid, gfp_t gfp_mask,
        if (nid < 0)
                nid = numa_node_id();
 
-       return __alloc_pages(gfp_mask, order,
-               NODE_DATA(nid)->node_zonelists + gfp_zone(gfp_mask));
+       return __alloc_pages(gfp_mask, order, node_zonelist(nid, gfp_mask));
 }
 
 #ifdef CONFIG_NUMA
index 59c4865bc85f13fbe36beefd959ab499f1d5aaaf..69160dc32d4866f116354e4be847d56aff817dcf 100644 (file)
@@ -241,7 +241,7 @@ static inline void mpol_fix_fork_child_flag(struct task_struct *p)
 static inline struct zonelist *huge_zonelist(struct vm_area_struct *vma,
                unsigned long addr, gfp_t gfp_flags, struct mempolicy **mpol)
 {
-       return NODE_DATA(0)->node_zonelists + gfp_zone(gfp_flags);
+       return node_zonelist(0, gfp_flags);
 }
 
 static inline int do_migrate_pages(struct mm_struct *mm,
index 3c3601121509d8a3c1d3ab2a8cf4a35953a9aa4e..5d20bf44062fa258630fa5c079973627311eb1e8 100644 (file)
@@ -1183,7 +1183,7 @@ static struct zonelist *zonelist_policy(gfp_t gfp, struct mempolicy *policy)
                nd = 0;
                BUG();
        }
-       return NODE_DATA(nd)->node_zonelists + gfp_zone(gfp);
+       return node_zonelist(nd, gfp);
 }
 
 /* Do dynamic interleaving for a process */
@@ -1299,7 +1299,7 @@ struct zonelist *huge_zonelist(struct vm_area_struct *vma, unsigned long addr,
                if (unlikely(pol != &default_policy &&
                                pol != current->mempolicy))
                        __mpol_free(pol);       /* finished with pol */
-               return NODE_DATA(nid)->node_zonelists + gfp_zone(gfp_flags);
+               return node_zonelist(nid, gfp_flags);
        }
 
        zl = zonelist_policy(GFP_HIGHUSER, pol);
@@ -1321,7 +1321,7 @@ static struct page *alloc_page_interleave(gfp_t gfp, unsigned order,
        struct zonelist *zl;
        struct page *page;
 
-       zl = NODE_DATA(nid)->node_zonelists + gfp_zone(gfp);
+       zl = node_zonelist(nid, gfp);
        page = __alloc_pages(gfp, order, zl);
        if (page && page_zone(page) == zl->zones[0])
                inc_zone_page_state(page, NUMA_INTERLEAVE_HIT);
index 1bda771a072ab38595c59adecc33e42cfccdfd67..63ff71830ea48a267b9afca6a0a329293e0ece77 100644 (file)
@@ -1713,10 +1713,9 @@ EXPORT_SYMBOL(free_pages);
 static unsigned int nr_free_zone_pages(int offset)
 {
        /* Just pick one node, since fallback list is circular */
-       pg_data_t *pgdat = NODE_DATA(numa_node_id());
        unsigned int sum = 0;
 
-       struct zonelist *zonelist = pgdat->node_zonelists + offset;
+       struct zonelist *zonelist = node_zonelist(numa_node_id(), GFP_KERNEL);
        struct zone **zonep = zonelist->zones;
        struct zone *zone;
 
index 03927cb5ec9e119ca06cf337d69de017303d82ba..5488c54b11725f535990b56e65dc428e311bc8b3 100644 (file)
--- a/mm/slab.c
+++ b/mm/slab.c
@@ -3249,8 +3249,7 @@ static void *fallback_alloc(struct kmem_cache *cache, gfp_t flags)
        if (flags & __GFP_THISNODE)
                return NULL;
 
-       zonelist = &NODE_DATA(slab_node(current->mempolicy))
-                       ->node_zonelists[gfp_zone(flags)];
+       zonelist = node_zonelist(slab_node(current->mempolicy), flags);
        local_flags = flags & (GFP_CONSTRAINT_MASK|GFP_RECLAIM_MASK);
 
 retry:
index 39592b5ce68adc07493ee8ae077f1dcd98839080..19ebbfb2068911aba8b76c3680621c58752da7f5 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -1309,8 +1309,7 @@ static struct page *get_any_partial(struct kmem_cache *s, gfp_t flags)
                        get_cycles() % 1024 > s->remote_node_defrag_ratio)
                return NULL;
 
-       zonelist = &NODE_DATA(
-               slab_node(current->mempolicy))->node_zonelists[gfp_zone(flags)];
+       zonelist = node_zonelist(slab_node(current->mempolicy), flags);
        for (z = zonelist->zones; *z; z++) {
                struct kmem_cache_node *n;