tile: Remove tile-specific _sinitdata and _einitdata
authorGeert Uytterhoeven <geert@linux-m68k.org>
Tue, 12 Nov 2013 19:42:20 +0000 (20:42 +0100)
committerChris Metcalf <cmetcalf@tilera.com>
Thu, 2 Oct 2014 14:19:33 +0000 (10:19 -0400)
Use standard __init_begin and __init_end instead.

Signed-off-by: Geert Uytterhoeven <geert@linux-m68k.org>
Cc: Chris Metcalf <cmetcalf@tilera.com>
Signed-off-by: Chris Metcalf <cmetcalf@tilera.com>
arch/tile/include/asm/sections.h
arch/tile/kernel/vmlinux.lds.S
arch/tile/mm/init.c

index 5d5d3b739a6b2964669012d46d5e144a077b8c62..86a746243dc83500803de2f6fa2a79b0898e1442 100644 (file)
@@ -19,9 +19,6 @@
 
 #include <asm-generic/sections.h>
 
-/* Text and data are at different areas in the kernel VA space. */
-extern char _sinitdata[], _einitdata[];
-
 /* Write-once data is writable only till the end of initialization. */
 extern char __w1data_begin[], __w1data_end[];
 
index f1819423ffc9f7b006098729605506d85f617acb..0e059a0101ea3097527968bd2632a2b91436bb0d 100644 (file)
@@ -66,11 +66,9 @@ SECTIONS
 
   . = ALIGN(PAGE_SIZE);
   __init_begin = .;
-  VMLINUX_SYMBOL(_sinitdata) = .;
   INIT_DATA_SECTION(16) :data =0
   PERCPU_SECTION(L2_CACHE_BYTES)
   . = ALIGN(PAGE_SIZE);
-  VMLINUX_SYMBOL(_einitdata) = .;
   __init_end = .;
 
   _sdata = .;                   /* Start of data section */
index bfb3127b4df9e9a53ed250e97d8f60f98eb81607..a092e393bd202f2254dc00f1c6461d805419054e 100644 (file)
@@ -254,8 +254,8 @@ static pgprot_t __init init_pgprot(ulong address)
         * Everything else that isn't data or bss is heap, so mark it
         * with the initial heap home (hash-for-home, or this cpu).  This
         * includes any addresses after the loaded image and any address before
-        * _einitdata, since we already captured the case of text before
-        * _sinittext, and __pa(einittext) is approximately __pa(sinitdata).
+        * __init_end, since we already captured the case of text before
+        * _sinittext, and __pa(einittext) is approximately __pa(__init_begin).
         *
         * All the LOWMEM pages that we mark this way will get their
         * struct page homecache properly marked later, in set_page_homes().
@@ -263,7 +263,7 @@ static pgprot_t __init init_pgprot(ulong address)
         * homes, but with a zero free_time we don't have to actually
         * do a flush action the first time we use them, either.
         */
-       if (address >= (ulong) _end || address < (ulong) _einitdata)
+       if (address >= (ulong) _end || address < (ulong) __init_end)
                return construct_pgprot(PAGE_KERNEL, initial_heap_home());
 
        /* Use hash-for-home if requested for data/bss. */
@@ -632,7 +632,7 @@ int devmem_is_allowed(unsigned long pagenr)
 {
        return pagenr < kaddr_to_pfn(_end) &&
                !(pagenr >= kaddr_to_pfn(&init_thread_union) ||
-                 pagenr < kaddr_to_pfn(_einitdata)) &&
+                 pagenr < kaddr_to_pfn(__init_end)) &&
                !(pagenr >= kaddr_to_pfn(_sinittext) ||
                  pagenr <= kaddr_to_pfn(_einittext-1));
 }
@@ -975,8 +975,8 @@ void free_initmem(void)
 
        /* Free the data pages that we won't use again after init. */
        free_init_pages("unused kernel data",
-                       (unsigned long)_sinitdata,
-                       (unsigned long)_einitdata);
+                       (unsigned long)__init_begin,
+                       (unsigned long)__init_end);
 
        /*
         * Free the pages mapped from 0xc0000000 that correspond to code