arm64: KVM: Allow unaligned accesses at EL2
authorMarc Zyngier <marc.zyngier@arm.com>
Tue, 6 Jun 2017 18:08:34 +0000 (19:08 +0100)
committerChristoffer Dall <cdall@linaro.org>
Tue, 6 Jun 2017 20:20:02 +0000 (22:20 +0200)
We currently have the SCTLR_EL2.A bit set, trapping unaligned accesses
at EL2, but we're not really prepared to deal with it. So far, this
has been unnoticed, until GCC 7 started emitting those (in particular
64bit writes on a 32bit boundary).

Since the rest of the kernel is pretty happy about that, let's follow
its example and set SCTLR_EL2.A to zero. Modern CPUs don't really
care.

Cc: stable@vger.kernel.org
Reported-by: Alexander Graf <agraf@suse.de>
Signed-off-by: Marc Zyngier <marc.zyngier@arm.com>
Signed-off-by: Christoffer Dall <cdall@linaro.org>
arch/arm64/kvm/hyp-init.S

index 4072d408a4b49f8d78677ca941553d5f73a5ff3d..3f9615582377661a88fab8be6a12365d625d830a 100644 (file)
@@ -108,9 +108,10 @@ __do_hyp_init:
 
        /*
         * Preserve all the RES1 bits while setting the default flags,
-        * as well as the EE bit on BE.
+        * as well as the EE bit on BE. Drop the A flag since the compiler
+        * is allowed to generate unaligned accesses.
         */
-       ldr     x4, =(SCTLR_EL2_RES1 | SCTLR_ELx_FLAGS)
+       ldr     x4, =(SCTLR_EL2_RES1 | (SCTLR_ELx_FLAGS & ~SCTLR_ELx_A))
 CPU_BE(        orr     x4, x4, #SCTLR_ELx_EE)
        msr     sctlr_el2, x4
        isb