KVM: PPC: e500mc: Revert "add load inst fixup"
authorMihai Caraman <mihai.caraman@freescale.com>
Wed, 23 Jul 2014 16:06:18 +0000 (19:06 +0300)
committerAlexander Graf <agraf@suse.de>
Mon, 28 Jul 2014 13:23:13 +0000 (15:23 +0200)
The commit 1d628af7 "add load inst fixup" made an attempt to handle
failures generated by reading the guest current instruction. The fixup
code that was added works by chance hiding the real issue.

Load external pid (lwepx) instruction, used by KVM to read guest
instructions, is executed in a subsituted guest translation context
(EPLC[EGS] = 1). In consequence lwepx's TLB error and data storage
interrupts need to be handled by KVM, even though these interrupts
are generated from host context (MSR[GS] = 0) where lwepx is executed.

Currently, KVM hooks only interrupts generated from guest context
(MSR[GS] = 1), doing minimal checks on the fast path to avoid host
performance degradation. As a result, the host kernel handles lwepx
faults searching the faulting guest data address (loaded in DEAR) in
its own Logical Partition ID (LPID) 0 context. In case a host translation
is found the execution returns to the lwepx instruction instead of the
fixup, the host ending up in an infinite loop.

Revert the commit "add load inst fixup". lwepx issue will be addressed
in a subsequent patch without needing fixup code.

Signed-off-by: Mihai Caraman <mihai.caraman@freescale.com>
Signed-off-by: Alexander Graf <agraf@suse.de>
arch/powerpc/kvm/bookehv_interrupts.S

index a1712b818a5f7ee0d6e9172c035a573ff2343fc9..6ff4480463012fc9a115a019885dae8bc05252af 100644 (file)
@@ -29,7 +29,6 @@
 #include <asm/asm-compat.h>
 #include <asm/asm-offsets.h>
 #include <asm/bitsperlong.h>
-#include <asm/thread_info.h>
 
 #ifdef CONFIG_64BIT
 #include <asm/exception-64e.h>
        PPC_STL r30, VCPU_GPR(R30)(r4)
        PPC_STL r31, VCPU_GPR(R31)(r4)
        mtspr   SPRN_EPLC, r8
-
-       /* disable preemption, so we are sure we hit the fixup handler */
-       CURRENT_THREAD_INFO(r8, r1)
-       li      r7, 1
-       stw     r7, TI_PREEMPT(r8)
-
        isync
-
-       /*
-        * In case the read goes wrong, we catch it and write an invalid value
-        * in LAST_INST instead.
-        */
-1:     lwepx   r9, 0, r5
-2:
-.section .fixup, "ax"
-3:     li      r9, KVM_INST_FETCH_FAILED
-       b       2b
-.previous
-.section __ex_table,"a"
-       PPC_LONG_ALIGN
-       PPC_LONG 1b,3b
-.previous
-
+       lwepx   r9, 0, r5
        mtspr   SPRN_EPLC, r3
-       li      r7, 0
-       stw     r7, TI_PREEMPT(r8)
        stw     r9, VCPU_LAST_INST(r4)
        .endif