KVM: s390: Change guestaddr type in gaccess
authorMartin Schwidefsky <schwidefsky@de.ibm.com>
Fri, 25 Jul 2008 13:51:00 +0000 (15:51 +0200)
committerAvi Kivity <avi@qumranet.com>
Sun, 27 Jul 2008 08:35:57 +0000 (11:35 +0300)
All registers are unsigned long types. This patch changes all occurences
of guestaddr in gaccess from u64 to unsigned long.

Signed-off-by: Martin Schwidefsky <schwidefsky@de.ibm.com>
Signed-off-by: Christian Borntraeger <borntraeger@de.ibm.com>
Signed-off-by: Avi Kivity <avi@qumranet.com>
arch/s390/kvm/gaccess.h
arch/s390/kvm/sigp.c
include/asm-s390/kvm_host.h

index 4e0633c413f3841dc1132c39d06dc5645b57f66d..ed60f3a74a85f1ca6a8e994a974fc2bba6dd1652 100644 (file)
 #include <asm/uaccess.h>
 
 static inline void __user *__guestaddr_to_user(struct kvm_vcpu *vcpu,
-                                              u64 guestaddr)
+                                              unsigned long guestaddr)
 {
-       u64 prefix  = vcpu->arch.sie_block->prefix;
-       u64 origin  = vcpu->kvm->arch.guest_origin;
-       u64 memsize = vcpu->kvm->arch.guest_memsize;
+       unsigned long prefix  = vcpu->arch.sie_block->prefix;
+       unsigned long origin  = vcpu->kvm->arch.guest_origin;
+       unsigned long memsize = vcpu->kvm->arch.guest_memsize;
 
        if (guestaddr < 2 * PAGE_SIZE)
                guestaddr += prefix;
@@ -37,7 +37,7 @@ static inline void __user *__guestaddr_to_user(struct kvm_vcpu *vcpu,
        return (void __user *) guestaddr;
 }
 
-static inline int get_guest_u64(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int get_guest_u64(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u64 *result)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -47,10 +47,10 @@ static inline int get_guest_u64(struct kvm_vcpu *vcpu, u64 guestaddr,
        if (IS_ERR((void __force *) uptr))
                return PTR_ERR((void __force *) uptr);
 
-       return get_user(*result, (u64 __user *) uptr);
+       return get_user(*result, (unsigned long __user *) uptr);
 }
 
-static inline int get_guest_u32(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int get_guest_u32(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u32 *result)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -63,7 +63,7 @@ static inline int get_guest_u32(struct kvm_vcpu *vcpu, u64 guestaddr,
        return get_user(*result, (u32 __user *) uptr);
 }
 
-static inline int get_guest_u16(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int get_guest_u16(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u16 *result)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -76,7 +76,7 @@ static inline int get_guest_u16(struct kvm_vcpu *vcpu, u64 guestaddr,
        return get_user(*result, (u16 __user *) uptr);
 }
 
-static inline int get_guest_u8(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int get_guest_u8(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                               u8 *result)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -87,7 +87,7 @@ static inline int get_guest_u8(struct kvm_vcpu *vcpu, u64 guestaddr,
        return get_user(*result, (u8 __user *) uptr);
 }
 
-static inline int put_guest_u64(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int put_guest_u64(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u64 value)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -100,7 +100,7 @@ static inline int put_guest_u64(struct kvm_vcpu *vcpu, u64 guestaddr,
        return put_user(value, (u64 __user *) uptr);
 }
 
-static inline int put_guest_u32(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int put_guest_u32(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u32 value)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -113,7 +113,7 @@ static inline int put_guest_u32(struct kvm_vcpu *vcpu, u64 guestaddr,
        return put_user(value, (u32 __user *) uptr);
 }
 
-static inline int put_guest_u16(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int put_guest_u16(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                                u16 value)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -126,7 +126,7 @@ static inline int put_guest_u16(struct kvm_vcpu *vcpu, u64 guestaddr,
        return put_user(value, (u16 __user *) uptr);
 }
 
-static inline int put_guest_u8(struct kvm_vcpu *vcpu, u64 guestaddr,
+static inline int put_guest_u8(struct kvm_vcpu *vcpu, unsigned long guestaddr,
                               u8 value)
 {
        void __user *uptr = __guestaddr_to_user(vcpu, guestaddr);
@@ -138,7 +138,8 @@ static inline int put_guest_u8(struct kvm_vcpu *vcpu, u64 guestaddr,
 }
 
 
-static inline int __copy_to_guest_slow(struct kvm_vcpu *vcpu, u64 guestdest,
+static inline int __copy_to_guest_slow(struct kvm_vcpu *vcpu,
+                                      unsigned long guestdest,
                                       const void *from, unsigned long n)
 {
        int rc;
@@ -153,12 +154,12 @@ static inline int __copy_to_guest_slow(struct kvm_vcpu *vcpu, u64 guestdest,
        return 0;
 }
 
-static inline int copy_to_guest(struct kvm_vcpu *vcpu, u64 guestdest,
+static inline int copy_to_guest(struct kvm_vcpu *vcpu, unsigned long guestdest,
                                const void *from, unsigned long n)
 {
-       u64 prefix  = vcpu->arch.sie_block->prefix;
-       u64 origin  = vcpu->kvm->arch.guest_origin;
-       u64 memsize = vcpu->kvm->arch.guest_memsize;
+       unsigned long prefix  = vcpu->arch.sie_block->prefix;
+       unsigned long origin  = vcpu->kvm->arch.guest_origin;
+       unsigned long memsize = vcpu->kvm->arch.guest_memsize;
 
        if ((guestdest < 2 * PAGE_SIZE) && (guestdest + n > 2 * PAGE_SIZE))
                goto slowpath;
@@ -189,7 +190,8 @@ slowpath:
 }
 
 static inline int __copy_from_guest_slow(struct kvm_vcpu *vcpu, void *to,
-                                        u64 guestsrc, unsigned long n)
+                                        unsigned long guestsrc,
+                                        unsigned long n)
 {
        int rc;
        unsigned long i;
@@ -204,11 +206,11 @@ static inline int __copy_from_guest_slow(struct kvm_vcpu *vcpu, void *to,
 }
 
 static inline int copy_from_guest(struct kvm_vcpu *vcpu, void *to,
-                                 u64 guestsrc, unsigned long n)
+                                 unsigned long guestsrc, unsigned long n)
 {
-       u64 prefix  = vcpu->arch.sie_block->prefix;
-       u64 origin  = vcpu->kvm->arch.guest_origin;
-       u64 memsize = vcpu->kvm->arch.guest_memsize;
+       unsigned long prefix  = vcpu->arch.sie_block->prefix;
+       unsigned long origin  = vcpu->kvm->arch.guest_origin;
+       unsigned long memsize = vcpu->kvm->arch.guest_memsize;
 
        if ((guestsrc < 2 * PAGE_SIZE) && (guestsrc + n > 2 * PAGE_SIZE))
                goto slowpath;
@@ -238,11 +240,12 @@ slowpath:
        return __copy_from_guest_slow(vcpu, to, guestsrc, n);
 }
 
-static inline int copy_to_guest_absolute(struct kvm_vcpu *vcpu, u64 guestdest,
+static inline int copy_to_guest_absolute(struct kvm_vcpu *vcpu,
+                                        unsigned long guestdest,
                                         const void *from, unsigned long n)
 {
-       u64 origin  = vcpu->kvm->arch.guest_origin;
-       u64 memsize = vcpu->kvm->arch.guest_memsize;
+       unsigned long origin  = vcpu->kvm->arch.guest_origin;
+       unsigned long memsize = vcpu->kvm->arch.guest_memsize;
 
        if (guestdest + n > memsize)
                return -EFAULT;
@@ -256,10 +259,11 @@ static inline int copy_to_guest_absolute(struct kvm_vcpu *vcpu, u64 guestdest,
 }
 
 static inline int copy_from_guest_absolute(struct kvm_vcpu *vcpu, void *to,
-                                          u64 guestsrc, unsigned long n)
+                                          unsigned long guestsrc,
+                                          unsigned long n)
 {
-       u64 origin  = vcpu->kvm->arch.guest_origin;
-       u64 memsize = vcpu->kvm->arch.guest_memsize;
+       unsigned long origin  = vcpu->kvm->arch.guest_origin;
+       unsigned long memsize = vcpu->kvm->arch.guest_memsize;
 
        if (guestsrc + n > memsize)
                return -EFAULT;
index 5a556114eaa58dd067955d0048f931cd5a0ac369..170392687ce042f64c69ea7f4fe85d863025b768 100644 (file)
@@ -43,7 +43,8 @@
 #define SIGP_STAT_RECEIVER_CHECK    0x00000001UL
 
 
-static int __sigp_sense(struct kvm_vcpu *vcpu, u16 cpu_addr, u64 *reg)
+static int __sigp_sense(struct kvm_vcpu *vcpu, u16 cpu_addr,
+                       unsigned long *reg)
 {
        struct kvm_s390_float_interrupt *fi = &vcpu->kvm->arch.float_int;
        int rc;
@@ -167,7 +168,7 @@ static int __sigp_set_arch(struct kvm_vcpu *vcpu, u32 parameter)
 }
 
 static int __sigp_set_prefix(struct kvm_vcpu *vcpu, u16 cpu_addr, u32 address,
-                            u64 *reg)
+                            unsigned long *reg)
 {
        struct kvm_s390_float_interrupt *fi = &vcpu->kvm->arch.float_int;
        struct kvm_s390_local_interrupt *li;
index 3234dd5b3511275521f8f22b3e4f808b432eb257..6583c0d67757b27f6eb623fa0c8e89aedd938ded 100644 (file)
@@ -231,5 +231,5 @@ struct kvm_arch{
        struct kvm_s390_float_interrupt float_int;
 };
 
-extern int sie64a(struct kvm_s390_sie_block *, __u64 *);
+extern int sie64a(struct kvm_s390_sie_block *, unsigned long *);
 #endif