KVM: emulate: speed up emulated moves
authorPaolo Bonzini <pbonzini@redhat.com>
Thu, 27 Mar 2014 10:36:25 +0000 (11:36 +0100)
committerPaolo Bonzini <pbonzini@redhat.com>
Fri, 11 Jul 2014 07:13:58 +0000 (09:13 +0200)
We can just blindly move all 16 bytes of ctxt->src's value to ctxt->dst.
write_register_operand will take care of writing only the lower bytes.

Avoiding a call to memcpy (the compiler optimizes it out) gains about
200 cycles on kvm-unit-tests for register-to-register moves, and makes
them about as fast as arithmetic instructions.

We could perhaps get a larger speedup by moving all instructions _except_
moves out of x86_emulate_insn, removing opcode_len, and replacing the
switch statement with an inlined em_mov.

Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/include/asm/kvm_emulate.h
arch/x86/kvm/emulate.c

index 0e0151c13b2c9867773203526d3fc915c90961ea..4324473700442bd65c700b369d92b94214b186a0 100644 (file)
@@ -233,7 +233,7 @@ struct operand {
        union {
                unsigned long val;
                u64 val64;
-               char valptr[sizeof(unsigned long) + 2];
+               char valptr[sizeof(sse128_t)];
                sse128_t vec_val;
                u64 mm_val;
                void *data;
index ea56dae3e67c3c3242631f9f5cd3c893c772c749..27f677ef703e2ac5aa26c86823c5f1cae7b60234 100644 (file)
@@ -2990,7 +2990,7 @@ static int em_rdpmc(struct x86_emulate_ctxt *ctxt)
 
 static int em_mov(struct x86_emulate_ctxt *ctxt)
 {
-       memcpy(ctxt->dst.valptr, ctxt->src.valptr, ctxt->op_bytes);
+       memcpy(ctxt->dst.valptr, ctxt->src.valptr, sizeof(ctxt->src.valptr));
        return X86EMUL_CONTINUE;
 }