arm64: switch to RAW_COPY_USER
authorAl Viro <viro@zeniv.linux.org.uk>
Tue, 21 Mar 2017 12:40:57 +0000 (08:40 -0400)
committerAl Viro <viro@zeniv.linux.org.uk>
Tue, 28 Mar 2017 22:23:24 +0000 (18:23 -0400)
Signed-off-by: Al Viro <viro@zeniv.linux.org.uk>
arch/arm64/Kconfig
arch/arm64/include/asm/uaccess.h
arch/arm64/kernel/arm64ksyms.c
arch/arm64/lib/copy_in_user.S

index a39029b5414eb25f23f3409f74a4d84713a02c4f..b72160ee7c18ffffeaf8ee916a019593b97aaca3 100644 (file)
@@ -115,6 +115,7 @@ config ARM64
        select SPARSE_IRQ
        select SYSCTL_EXCEPTION_TRACE
        select THREAD_INFO_IN_TASK
+       select ARCH_HAS_RAW_COPY_USER
        help
          ARM 64-bit (AArch64) Linux support.
 
index 5a9d49c71937b9b22aa46a3a85ad26848e4474f7..ba497172610dbcda77d638a874c8e62c6ad04da5 100644 (file)
@@ -331,58 +331,13 @@ do {                                                                      \
 })
 
 extern unsigned long __must_check __arch_copy_from_user(void *to, const void __user *from, unsigned long n);
+#define raw_copy_from_user __arch_copy_from_user
 extern unsigned long __must_check __arch_copy_to_user(void __user *to, const void *from, unsigned long n);
-extern unsigned long __must_check __copy_in_user(void __user *to, const void __user *from, unsigned long n);
+#define raw_copy_to_user __arch_copy_to_user
+extern unsigned long __must_check raw_copy_in_user(void __user *to, const void __user *from, unsigned long n);
 extern unsigned long __must_check __clear_user(void __user *addr, unsigned long n);
-
-static inline unsigned long __must_check __copy_from_user(void *to, const void __user *from, unsigned long n)
-{
-       kasan_check_write(to, n);
-       check_object_size(to, n, false);
-       return __arch_copy_from_user(to, from, n);
-}
-
-static inline unsigned long __must_check __copy_to_user(void __user *to, const void *from, unsigned long n)
-{
-       kasan_check_read(from, n);
-       check_object_size(from, n, true);
-       return __arch_copy_to_user(to, from, n);
-}
-
-static inline unsigned long __must_check copy_from_user(void *to, const void __user *from, unsigned long n)
-{
-       unsigned long res = n;
-       kasan_check_write(to, n);
-       check_object_size(to, n, false);
-
-       if (access_ok(VERIFY_READ, from, n)) {
-               res = __arch_copy_from_user(to, from, n);
-       }
-       if (unlikely(res))
-               memset(to + (n - res), 0, res);
-       return res;
-}
-
-static inline unsigned long __must_check copy_to_user(void __user *to, const void *from, unsigned long n)
-{
-       kasan_check_read(from, n);
-       check_object_size(from, n, true);
-
-       if (access_ok(VERIFY_WRITE, to, n)) {
-               n = __arch_copy_to_user(to, from, n);
-       }
-       return n;
-}
-
-static inline unsigned long __must_check copy_in_user(void __user *to, const void __user *from, unsigned long n)
-{
-       if (access_ok(VERIFY_READ, from, n) && access_ok(VERIFY_WRITE, to, n))
-               n = __copy_in_user(to, from, n);
-       return n;
-}
-
-#define __copy_to_user_inatomic __copy_to_user
-#define __copy_from_user_inatomic __copy_from_user
+#define INLINE_COPY_TO_USER
+#define INLINE_COPY_FROM_USER
 
 static inline unsigned long __must_check clear_user(void __user *to, unsigned long n)
 {
index e9c4dc9e0ada63c25be8d5dd3064739a4b797523..67368c7329c03e762a6873eef5305b4b20c2b7b7 100644 (file)
@@ -38,7 +38,7 @@ EXPORT_SYMBOL(clear_page);
 EXPORT_SYMBOL(__arch_copy_from_user);
 EXPORT_SYMBOL(__arch_copy_to_user);
 EXPORT_SYMBOL(__clear_user);
-EXPORT_SYMBOL(__copy_in_user);
+EXPORT_SYMBOL(raw_copy_in_user);
 
        /* physical memory */
 EXPORT_SYMBOL(memstart_addr);
index 47184c3a97da6faa4cce2e31b37f91d95d361ee6..b24a830419ad95001a1b635ea169b20d0ea73d3a 100644 (file)
        .endm
 
 end    .req    x5
-ENTRY(__copy_in_user)
+ENTRY(raw_copy_in_user)
        uaccess_enable_not_uao x3, x4
        add     end, x0, x2
 #include "copy_template.S"
        uaccess_disable_not_uao x3
        mov     x0, #0
        ret
-ENDPROC(__copy_in_user)
+ENDPROC(raw_copy_in_user)
 
        .section .fixup,"ax"
        .align  2