uml: fold mmu_context_skas into mm_context
authorJeff Dike <jdike@addtoit.com>
Tue, 16 Oct 2007 08:27:06 +0000 (01:27 -0700)
committerLinus Torvalds <torvalds@woody.linux-foundation.org>
Tue, 16 Oct 2007 16:43:06 +0000 (09:43 -0700)
This patch folds mmu_context_skas into struct mm_context, changing all users
of these structures as needed.

Signed-off-by: Jeff Dike <jdike@linux.intel.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
12 files changed:
arch/um/include/skas/mmu-skas.h [deleted file]
arch/um/include/tlb.h
arch/um/include/um_mmu.h
arch/um/kernel/exec.c
arch/um/kernel/reboot.c
arch/um/kernel/skas/mmu.c
arch/um/kernel/skas/process.c
arch/um/kernel/tlb.c
arch/um/sys-i386/ldt.c
arch/um/sys-x86_64/syscalls.c
include/asm-um/ldt.h
include/asm-um/mmu_context.h

diff --git a/arch/um/include/skas/mmu-skas.h b/arch/um/include/skas/mmu-skas.h
deleted file mode 100644 (file)
index 838dfd7..0000000
+++ /dev/null
@@ -1,23 +0,0 @@
-/*
- * Copyright (C) 2002 Jeff Dike (jdike@karaya.com)
- * Licensed under the GPL
- */
-
-#ifndef __SKAS_MMU_H
-#define __SKAS_MMU_H
-
-#include "mm_id.h"
-#include "asm/ldt.h"
-
-struct mmu_context_skas {
-       struct mm_id id;
-       unsigned long last_page_table;
-#ifdef CONFIG_3_LEVEL_PGTABLES
-       unsigned long last_pmd;
-#endif
-       uml_ldt_t ldt;
-};
-
-extern void __switch_mm(struct mm_id * mm_idp);
-
-#endif
index bcd1a4afb842af26ee54c1dd873af4e75d05db36..46cf0057a1c5a7b951745fac23d7d66a0cd1309c 100644 (file)
@@ -33,7 +33,7 @@ struct host_vm_op {
 extern void force_flush_all(void);
 extern void fix_range_common(struct mm_struct *mm, unsigned long start_addr,
                              unsigned long end_addr, int force,
-                            int (*do_ops)(union mm_context *,
+                            int (*do_ops)(struct mm_context *,
                                           struct host_vm_op *, int, int,
                                           void **));
 extern int flush_tlb_kernel_range_common(unsigned long start,
index 668da8426ef4f83aca207122d856aca6ddb9a7b4..8855d8df512f6877a1e6d1534edbc29bd9275bbd 100644 (file)
@@ -7,10 +7,22 @@
 #define __ARCH_UM_MMU_H
 
 #include "uml-config.h"
-#include "mmu-skas.h"
+#include "mm_id.h"
+#include "asm/ldt.h"
 
-typedef union mm_context {
-       struct mmu_context_skas skas;
+typedef struct mm_context {
+       struct mm_id id;
+       unsigned long last_page_table;
+#ifdef CONFIG_3_LEVEL_PGTABLES
+       unsigned long last_pmd;
+#endif
+       struct uml_ldt ldt;
 } mm_context_t;
 
+extern void __switch_mm(struct mm_id * mm_idp);
+
+/* Avoid tangled inclusion with asm/ldt.h */
+extern long init_new_ldt(struct mm_context *to_mm, struct mm_context *from_mm);
+extern void free_ldt(struct mm_context *mm);
+
 #endif
index 25c502617553eb257f70f32bcb4ef6e051753312..7c77adecd9193d899531b3ffe80e4e6497beeebf 100644 (file)
@@ -23,14 +23,14 @@ void flush_thread(void)
 
        arch_flush_thread(&current->thread.arch);
 
-       ret = unmap(&current->mm->context.skas.id, 0, end, 1, &data);
+       ret = unmap(&current->mm->context.id, 0, end, 1, &data);
        if (ret) {
                printk(KERN_ERR "flush_thread - clearing address space failed, "
                       "err = %d\n", ret);
                force_sig(SIGKILL, current);
        }
 
-       __switch_mm(&current->mm->context.skas.id);
+       __switch_mm(&current->mm->context.id);
 }
 
 void start_thread(struct pt_regs *regs, unsigned long eip, unsigned long esp)
index 9d8eea47a0fcd159602ccfa86a58a79204e9f6e9..04cebcf0679ff90e590b9374ed5c8a8b041acc1e 100644 (file)
@@ -25,7 +25,7 @@ static void kill_off_processes(void)
                        if(p->mm == NULL)
                                continue;
 
-                       pid = p->mm->context.skas.id.u.pid;
+                       pid = p->mm->context.id.u.pid;
                        os_kill_ptraced_process(pid, 1);
                }
        }
index c5475ecd9fd4980f31a9e8e668347c7bfb806118..48c8c136c03855ac23c1e76fd866d0fcb34711d4 100644 (file)
@@ -47,9 +47,9 @@ static int init_stub_pte(struct mm_struct *mm, unsigned long proc,
         * destroy_context_skas.
         */
 
-       mm->context.skas.last_page_table = pmd_page_vaddr(*pmd);
+       mm->context.last_page_table = pmd_page_vaddr(*pmd);
 #ifdef CONFIG_3_LEVEL_PGTABLES
-       mm->context.skas.last_pmd = (unsigned long) __va(pud_val(*pud));
+       mm->context.last_pmd = (unsigned long) __va(pud_val(*pud));
 #endif
 
        *pte = mk_pte(virt_to_page(kernel), __pgprot(_PAGE_PRESENT));
@@ -66,8 +66,8 @@ static int init_stub_pte(struct mm_struct *mm, unsigned long proc,
 
 int init_new_context(struct task_struct *task, struct mm_struct *mm)
 {
-       struct mmu_context_skas *from_mm = NULL;
-       struct mmu_context_skas *to_mm = &mm->context.skas;
+       struct mm_context *from_mm = NULL;
+       struct mm_context *to_mm = &mm->context;
        unsigned long stack = 0;
        int ret = -ENOMEM;
 
@@ -97,7 +97,7 @@ int init_new_context(struct task_struct *task, struct mm_struct *mm)
 
        to_mm->id.stack = stack;
        if (current->mm != NULL && current->mm != &init_mm)
-               from_mm = &current->mm->context.skas;
+               from_mm = &current->mm->context;
 
        if (proc_mm) {
                ret = new_mm(stack);
@@ -133,7 +133,7 @@ int init_new_context(struct task_struct *task, struct mm_struct *mm)
 
 void destroy_context(struct mm_struct *mm)
 {
-       struct mmu_context_skas *mmu = &mm->context.skas;
+       struct mm_context *mmu = &mm->context;
 
        if (proc_mm)
                os_close_file(mmu->id.u.mm_fd);
index 9ce1c49421f88a7cf40cb6bcac3719add73b6e39..0297e63f9725c1bbbcc121e412a5f07bd7f52940 100644 (file)
@@ -65,5 +65,5 @@ unsigned long current_stub_stack(void)
        if (current->mm == NULL)
                return 0;
 
-       return current->mm->context.skas.id.stack;
+       return current->mm->context.id.stack;
 }
index 849922fcfb60058e360fc8c44dd1b365f897cd21..081baefb4c0d9d66c8b414c0a99d56a778bbc928 100644 (file)
@@ -14,8 +14,8 @@
 
 static int add_mmap(unsigned long virt, unsigned long phys, unsigned long len,
                    unsigned int prot, struct host_vm_op *ops, int *index,
-                   int last_filled, union mm_context *mmu, void **flush,
-                   int (*do_ops)(union mm_context *, struct host_vm_op *,
+                   int last_filled, struct mm_context *mmu, void **flush,
+                   int (*do_ops)(struct mm_context *, struct host_vm_op *,
                                  int, int, void **))
 {
        __u64 offset;
@@ -52,8 +52,8 @@ static int add_mmap(unsigned long virt, unsigned long phys, unsigned long len,
 
 static int add_munmap(unsigned long addr, unsigned long len,
                      struct host_vm_op *ops, int *index, int last_filled,
-                     union mm_context *mmu, void **flush,
-                     int (*do_ops)(union mm_context *, struct host_vm_op *,
+                     struct mm_context *mmu, void **flush,
+                     int (*do_ops)(struct mm_context *, struct host_vm_op *,
                                    int, int, void **))
 {
        struct host_vm_op *last;
@@ -82,8 +82,8 @@ static int add_munmap(unsigned long addr, unsigned long len,
 
 static int add_mprotect(unsigned long addr, unsigned long len,
                        unsigned int prot, struct host_vm_op *ops, int *index,
-                       int last_filled, union mm_context *mmu, void **flush,
-                       int (*do_ops)(union mm_context *, struct host_vm_op *,
+                       int last_filled, struct mm_context *mmu, void **flush,
+                       int (*do_ops)(struct mm_context *, struct host_vm_op *,
                                      int, int, void **))
 {
        struct host_vm_op *last;
@@ -117,8 +117,8 @@ static int add_mprotect(unsigned long addr, unsigned long len,
 static inline int update_pte_range(pmd_t *pmd, unsigned long addr,
                                   unsigned long end, struct host_vm_op *ops,
                                   int last_op, int *op_index, int force,
-                                  union mm_context *mmu, void **flush,
-                                  int (*do_ops)(union mm_context *,
+                                  struct mm_context *mmu, void **flush,
+                                  int (*do_ops)(struct mm_context *,
                                                 struct host_vm_op *, int, int,
                                                 void **))
 {
@@ -157,8 +157,8 @@ static inline int update_pte_range(pmd_t *pmd, unsigned long addr,
 static inline int update_pmd_range(pud_t *pud, unsigned long addr,
                                   unsigned long end, struct host_vm_op *ops,
                                   int last_op, int *op_index, int force,
-                                  union mm_context *mmu, void **flush,
-                                  int (*do_ops)(union mm_context *,
+                                  struct mm_context *mmu, void **flush,
+                                  int (*do_ops)(struct mm_context *,
                                                 struct host_vm_op *, int, int,
                                                 void **))
 {
@@ -187,8 +187,8 @@ static inline int update_pmd_range(pud_t *pud, unsigned long addr,
 static inline int update_pud_range(pgd_t *pgd, unsigned long addr,
                                   unsigned long end, struct host_vm_op *ops,
                                   int last_op, int *op_index, int force,
-                                  union mm_context *mmu, void **flush,
-                                  int (*do_ops)(union mm_context *,
+                                  struct mm_context *mmu, void **flush,
+                                  int (*do_ops)(struct mm_context *,
                                                 struct host_vm_op *, int, int,
                                                 void **))
 {
@@ -216,11 +216,11 @@ static inline int update_pud_range(pgd_t *pgd, unsigned long addr,
 
 void fix_range_common(struct mm_struct *mm, unsigned long start_addr,
                      unsigned long end_addr, int force,
-                     int (*do_ops)(union mm_context *, struct host_vm_op *,
+                     int (*do_ops)(struct mm_context *, struct host_vm_op *,
                                    int, int, void **))
 {
        pgd_t *pgd;
-       union mm_context *mmu = &mm->context;
+       struct mm_context *mmu = &mm->context;
        struct host_vm_op ops[1];
        unsigned long addr = start_addr, next;
        int ret = 0, last_op = ARRAY_SIZE(ops) - 1, op_index = -1;
@@ -375,7 +375,7 @@ void flush_tlb_page(struct vm_area_struct *vma, unsigned long address)
                w = 0;
        }
 
-       mm_id = &mm->context.skas.id;
+       mm_id = &mm->context.id;
        prot = ((r ? UM_PROT_READ : 0) | (w ? UM_PROT_WRITE : 0) |
                (x ? UM_PROT_EXEC : 0));
        if (pte_newpage(*pte)) {
@@ -453,7 +453,7 @@ void __flush_tlb_one(unsigned long addr)
        flush_tlb_kernel_range_common(addr, addr + PAGE_SIZE);
 }
 
-static int do_ops(union mm_context *mmu, struct host_vm_op *ops, int last,
+static int do_ops(struct mm_context *mmu, struct host_vm_op *ops, int last,
                  int finished, void **flush)
 {
        struct host_vm_op *op;
@@ -463,17 +463,16 @@ static int do_ops(union mm_context *mmu, struct host_vm_op *ops, int last,
        op = &ops[i];
                switch(op->type) {
                case MMAP:
-                       ret = map(&mmu->skas.id, op->u.mmap.addr,
-                                 op->u.mmap.len, op->u.mmap.prot,
-                                 op->u.mmap.fd, op->u.mmap.offset, finished,
-                                 flush);
+                       ret = map(&mmu->id, op->u.mmap.addr, op->u.mmap.len,
+                                 op->u.mmap.prot, op->u.mmap.fd,
+                                 op->u.mmap.offset, finished, flush);
                        break;
                case MUNMAP:
-                       ret = unmap(&mmu->skas.id, op->u.munmap.addr,
+                       ret = unmap(&mmu->id, op->u.munmap.addr,
                                    op->u.munmap.len, finished, flush);
                        break;
                case MPROTECT:
-                       ret = protect(&mmu->skas.id, op->u.mprotect.addr,
+                       ret = protect(&mmu->id, op->u.mprotect.addr,
                                      op->u.mprotect.len, op->u.mprotect.prot,
                                      finished, flush);
                        break;
index 0bf7572a80a35d2b3bdf40c35cec4fec8699b7e9..67c0958eb984266e7e59eaf682754b3c25746642 100644 (file)
@@ -33,7 +33,7 @@ long write_ldt_entry(struct mm_id * mm_idp, int func, struct user_desc * desc,
                 * Note: I'm unsure: should interrupts be disabled here?
                 */
                if (!current->active_mm || current->active_mm == &init_mm ||
-                   mm_idp != &current->active_mm->context.skas.id)
+                   mm_idp != &current->active_mm->context.id)
                        __switch_mm(mm_idp);
        }
 
@@ -79,8 +79,8 @@ long write_ldt_entry(struct mm_id * mm_idp, int func, struct user_desc * desc,
                 * PTRACE_LDT possible to implement.
                 */
                if (current->active_mm && current->active_mm != &init_mm &&
-                   mm_idp != &current->active_mm->context.skas.id)
-                       __switch_mm(&current->active_mm->context.skas.id);
+                   mm_idp != &current->active_mm->context.id)
+                       __switch_mm(&current->active_mm->context.id);
        }
 
        return res;
@@ -135,7 +135,7 @@ static int read_ldt(void __user * ptr, unsigned long bytecount)
 {
        int i, err = 0;
        unsigned long size;
-       uml_ldt_t * ldt = &current->mm->context.skas.ldt;
+       uml_ldt_t * ldt = &current->mm->context.ldt;
 
        if (!ldt->entry_count)
                goto out;
@@ -203,8 +203,8 @@ static int read_default_ldt(void __user * ptr, unsigned long bytecount)
 
 static int write_ldt(void __user * ptr, unsigned long bytecount, int func)
 {
-       uml_ldt_t * ldt = &current->mm->context.skas.ldt;
-       struct mm_id * mm_idp = &current->mm->context.skas.id;
+       uml_ldt_t * ldt = &current->mm->context.ldt;
+       struct mm_id * mm_idp = &current->mm->context.id;
        int i, err;
        struct user_desc ldt_info;
        struct ldt_entry entry0, *ldt_p;
@@ -384,8 +384,7 @@ out_free:
        free_pages((unsigned long)ldt, order);
 }
 
-long init_new_ldt(struct mmu_context_skas * new_mm,
-                 struct mmu_context_skas * from_mm)
+long init_new_ldt(struct mm_context *new_mm, struct mm_context *from_mm)
 {
        struct user_desc desc;
        short * num_p;
@@ -483,7 +482,7 @@ long init_new_ldt(struct mmu_context_skas * new_mm,
 }
 
 
-void free_ldt(struct mmu_context_skas * mm)
+void free_ldt(struct mm_context *mm)
 {
        int i;
 
index 58ae06562b4a6673550014cd1259bacc429fe656..86f6b18410ee9e470159c3b63ab8b0e814cff600 100644 (file)
@@ -30,7 +30,7 @@ long arch_prctl(struct task_struct *task, int code, unsigned long __user *addr)
 {
        unsigned long *ptr = addr, tmp;
        long ret;
-       int pid = task->mm->context.skas.id.u.pid;
+       int pid = task->mm->context.id.u.pid;
 
        /*
         * With ARCH_SET_FS (and ARCH_SET_GS is treated similarly to
index 96f82a456ce6515b781b44ef676034d402af1cfb..b2553f3e87ebfcd3294fe94ecf85a1b975b7f0eb 100644 (file)
 #include "asm/semaphore.h"
 #include "asm/host_ldt.h"
 
-struct mmu_context_skas;
 extern void ldt_host_info(void);
-extern long init_new_ldt(struct mmu_context_skas * to_mm,
-                        struct mmu_context_skas * from_mm);
-extern void free_ldt(struct mmu_context_skas * mm);
 
 #define LDT_PAGES_MAX \
        ((LDT_ENTRIES * LDT_ENTRY_SIZE)/PAGE_SIZE)
index 035fd1c363ea52bd11519fb9d6d44209bb92da5f..5f3b863aef9aeeafb40c8ee168addf2d6309ecd1 100644 (file)
@@ -29,7 +29,7 @@ static inline void activate_mm(struct mm_struct *old, struct mm_struct *new)
         * possible.
         */
        if (old != new && (current->flags & PF_BORROWED_MM))
-               __switch_mm(&new->context.skas.id);
+               __switch_mm(&new->context.id);
 }
 
 static inline void switch_mm(struct mm_struct *prev, struct mm_struct *next, 
@@ -41,7 +41,7 @@ static inline void switch_mm(struct mm_struct *prev, struct mm_struct *next,
                cpu_clear(cpu, prev->cpu_vm_mask);
                cpu_set(cpu, next->cpu_vm_mask);
                if(next != &init_mm)
-                       __switch_mm(&next->context.skas.id);
+                       __switch_mm(&next->context.id);
        }
 }