bpf: drop unnecessary context cast from BPF_PROG_RUN
authorDaniel Borkmann <daniel@iogearbox.net>
Sat, 26 Nov 2016 00:28:04 +0000 (01:28 +0100)
committerDavid S. Miller <davem@davemloft.net>
Mon, 28 Nov 2016 01:38:47 +0000 (20:38 -0500)
Since long already bpf_func is not only about struct sk_buff * as
input anymore. Make it generic as void *, so that callers don't
need to cast for it each time they call BPF_PROG_RUN().

Signed-off-by: Daniel Borkmann <daniel@iogearbox.net>
Acked-by: Alexei Starovoitov <ast@kernel.org>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/netronome/nfp/nfp_net_common.c
include/linux/filter.h
kernel/events/core.c
kernel/seccomp.c

index eb3715700c9562a4d28003a30d7491b51567f1be..876ab3a92ad532c347afdd2baf9f017f0b9fd160 100644 (file)
@@ -1518,7 +1518,7 @@ static int nfp_net_run_xdp(struct bpf_prog *prog, void *data, unsigned int len)
        xdp.data = data;
        xdp.data_end = data + len;
 
-       return BPF_PROG_RUN(prog, (void *)&xdp);
+       return BPF_PROG_RUN(prog, &xdp);
 }
 
 /**
index 1f09c521adfe23be913bb5780438bb1ae4ce1cd5..7f246a2814353e1295a4057b3d5be8d11165d5c7 100644 (file)
@@ -408,8 +408,8 @@ struct bpf_prog {
        enum bpf_prog_type      type;           /* Type of BPF program */
        struct bpf_prog_aux     *aux;           /* Auxiliary fields */
        struct sock_fprog_kern  *orig_prog;     /* Original BPF program */
-       unsigned int            (*bpf_func)(const struct sk_buff *skb,
-                                           const struct bpf_insn *filter);
+       unsigned int            (*bpf_func)(const void *ctx,
+                                           const struct bpf_insn *insn);
        /* Instructions for interpreter */
        union {
                struct sock_filter      insns[0];
@@ -504,7 +504,7 @@ static inline u32 bpf_prog_run_xdp(const struct bpf_prog *prog,
        u32 ret;
 
        rcu_read_lock();
-       ret = BPF_PROG_RUN(prog, (void *)xdp);
+       ret = BPF_PROG_RUN(prog, xdp);
        rcu_read_unlock();
 
        return ret;
index 6ee1febdf6ff838b21db38277e0760ae0909e91f..22cc734aa1b211be2e5a8a2be061dc628d503c77 100644 (file)
@@ -7726,7 +7726,7 @@ static void bpf_overflow_handler(struct perf_event *event,
        if (unlikely(__this_cpu_inc_return(bpf_prog_active) != 1))
                goto out;
        rcu_read_lock();
-       ret = BPF_PROG_RUN(event->prog, (void *)&ctx);
+       ret = BPF_PROG_RUN(event->prog, &ctx);
        rcu_read_unlock();
 out:
        __this_cpu_dec(bpf_prog_active);
index 0db7c8a2afe2fb531fe390d78ff9bb435c992077..bff9c774987ad259f0b79b6022ab4f7b8e17d639 100644 (file)
@@ -195,7 +195,7 @@ static u32 seccomp_run_filters(const struct seccomp_data *sd)
         * value always takes priority (ignoring the DATA).
         */
        for (; f; f = f->prev) {
-               u32 cur_ret = BPF_PROG_RUN(f->prog, (void *)sd);
+               u32 cur_ret = BPF_PROG_RUN(f->prog, sd);
 
                if ((cur_ret & SECCOMP_RET_ACTION) < (ret & SECCOMP_RET_ACTION))
                        ret = cur_ret;