powerpc/thp: Invalidate with vpn in loop
authorAneesh Kumar K.V <aneesh.kumar@linux.vnet.ibm.com>
Wed, 13 Aug 2014 07:02:01 +0000 (12:32 +0530)
committerBenjamin Herrenschmidt <benh@kernel.crashing.org>
Wed, 13 Aug 2014 08:20:40 +0000 (18:20 +1000)
As per ISA, for 4k base page size we compare 14..65 bits of VA specified
with the entry_VA in tlb. That implies we need to make sure we do a
tlbie with all the possible 4k va we used to access the 16MB hugepage.
With 64k base page size we compare 14..57 bits of VA. Hence we cannot
ignore the lower 24 bits of va while tlbie .We also cannot tlb
invalidate a 16MB entry with just one tlbie instruction because
we don't track which va was used to instantiate the tlb entry.

CC: <stable@vger.kernel.org>
Signed-off-by: Aneesh Kumar K.V <aneesh.kumar@linux.vnet.ibm.com>
Signed-off-by: Benjamin Herrenschmidt <benh@kernel.crashing.org>
arch/powerpc/mm/hash_native_64.c

index fb89d7695a9aa0fbb031f76ec8cb4007afa71308..afc0a8295f84c7097217855fae59f62b1ed6149e 100644 (file)
@@ -417,7 +417,7 @@ static void native_hugepage_invalidate(unsigned long vsid,
                                       unsigned char *hpte_slot_array,
                                       int psize, int ssize)
 {
-       int i, lock_tlbie;
+       int i;
        struct hash_pte *hptep;
        int actual_psize = MMU_PAGE_16M;
        unsigned int max_hpte_count, valid;
@@ -456,22 +456,13 @@ static void native_hugepage_invalidate(unsigned long vsid,
                else
                        /* Invalidate the hpte. NOTE: this also unlocks it */
                        hptep->v = 0;
+               /*
+                * We need to do tlb invalidate for all the address, tlbie
+                * instruction compares entry_VA in tlb with the VA specified
+                * here
+                */
+               tlbie(vpn, psize, actual_psize, ssize, 0);
        }
-       /*
-        * Since this is a hugepage, we just need a single tlbie.
-        * use the last vpn.
-        */
-       lock_tlbie = !mmu_has_feature(MMU_FTR_LOCKLESS_TLBIE);
-       if (lock_tlbie)
-               raw_spin_lock(&native_tlbie_lock);
-
-       asm volatile("ptesync":::"memory");
-       __tlbie(vpn, psize, actual_psize, ssize);
-       asm volatile("eieio; tlbsync; ptesync":::"memory");
-
-       if (lock_tlbie)
-               raw_spin_unlock(&native_tlbie_lock);
-
        local_irq_restore(flags);
 }