mm: numa: Introduce last_nid to the page frame
authorMel Gorman <mgorman@suse.de>
Mon, 12 Nov 2012 09:06:20 +0000 (09:06 +0000)
committerMel Gorman <mgorman@suse.de>
Tue, 11 Dec 2012 14:42:52 +0000 (14:42 +0000)
This patch introduces a last_nid field to the page struct. This is used
to build a two-stage filter in the next patch that is aimed at
mitigating a problem whereby pages migrate to the wrong node when
referenced by a process that was running off its home node.

Signed-off-by: Mel Gorman <mgorman@suse.de>
include/linux/mm.h
include/linux/mm_types.h
mm/page_alloc.c

index d04c2f0aab363bb988f0d8fb64bfe6402f604583..d87f9ec4a145aedd4bc119a25ac998be3b8f6d7e 100644 (file)
@@ -693,6 +693,36 @@ static inline int page_to_nid(const struct page *page)
 }
 #endif
 
+#ifdef CONFIG_NUMA_BALANCING
+static inline int page_xchg_last_nid(struct page *page, int nid)
+{
+       return xchg(&page->_last_nid, nid);
+}
+
+static inline int page_last_nid(struct page *page)
+{
+       return page->_last_nid;
+}
+static inline void reset_page_last_nid(struct page *page)
+{
+       page->_last_nid = -1;
+}
+#else
+static inline int page_xchg_last_nid(struct page *page, int nid)
+{
+       return page_to_nid(page);
+}
+
+static inline int page_last_nid(struct page *page)
+{
+       return page_to_nid(page);
+}
+
+static inline void reset_page_last_nid(struct page *page)
+{
+}
+#endif
+
 static inline struct zone *page_zone(const struct page *page)
 {
        return &NODE_DATA(page_to_nid(page))->node_zones[page_zonenum(page)];
index d1e246c5e50c939d1ba4d34c5b6a4f7e9a3b9f7c..c5fffa239861349ede666dc9d3546ac2eee06a86 100644 (file)
@@ -175,6 +175,10 @@ struct page {
         */
        void *shadow;
 #endif
+
+#ifdef CONFIG_NUMA_BALANCING
+       int _last_nid;
+#endif
 }
 /*
  * The struct page can be forced to be double word aligned so that atomic ops
index ef025e20dbee167d614e80d4b47f1699d5f900fe..73f226a1206e6b132273cbcb0b6f8a0bc5a68c60 100644 (file)
@@ -608,6 +608,7 @@ static inline int free_pages_check(struct page *page)
                bad_page(page);
                return 1;
        }
+       reset_page_last_nid(page);
        if (page->flags & PAGE_FLAGS_CHECK_AT_PREP)
                page->flags &= ~PAGE_FLAGS_CHECK_AT_PREP;
        return 0;
@@ -3826,6 +3827,7 @@ void __meminit memmap_init_zone(unsigned long size, int nid, unsigned long zone,
                mminit_verify_page_links(page, zone, nid, pfn);
                init_page_count(page);
                reset_page_mapcount(page);
+               reset_page_last_nid(page);
                SetPageReserved(page);
                /*
                 * Mark the block movable so that blocks are reserved for