iommu/iova: Add flush-queue data structures
authorJoerg Roedel <jroedel@suse.de>
Thu, 10 Aug 2017 12:44:28 +0000 (14:44 +0200)
committerJoerg Roedel <jroedel@suse.de>
Tue, 15 Aug 2017 16:23:50 +0000 (18:23 +0200)
This patch adds the basic data-structures to implement
flush-queues in the generic IOVA code. It also adds the
initialization and destroy routines for these data
structures.

The initialization routine is designed so that the use of
this feature is optional for the users of IOVA code.

Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/iova.c
include/linux/iova.h

index 246f14c83944c8c2bcff3bb25eafd8d13a262266..b9f6ce02a1e1f6adade21630c9b08db88b98aaac 100644 (file)
@@ -50,10 +50,48 @@ init_iova_domain(struct iova_domain *iovad, unsigned long granule,
        iovad->granule = granule;
        iovad->start_pfn = start_pfn;
        iovad->dma_32bit_pfn = pfn_32bit + 1;
+       iovad->flush_cb = NULL;
+       iovad->fq = NULL;
        init_iova_rcaches(iovad);
 }
 EXPORT_SYMBOL_GPL(init_iova_domain);
 
+static void free_iova_flush_queue(struct iova_domain *iovad)
+{
+       if (!iovad->fq)
+               return;
+
+       free_percpu(iovad->fq);
+
+       iovad->fq         = NULL;
+       iovad->flush_cb   = NULL;
+       iovad->entry_dtor = NULL;
+}
+
+int init_iova_flush_queue(struct iova_domain *iovad,
+                         iova_flush_cb flush_cb, iova_entry_dtor entry_dtor)
+{
+       int cpu;
+
+       iovad->fq = alloc_percpu(struct iova_fq);
+       if (!iovad->fq)
+               return -ENOMEM;
+
+       iovad->flush_cb   = flush_cb;
+       iovad->entry_dtor = entry_dtor;
+
+       for_each_possible_cpu(cpu) {
+               struct iova_fq *fq;
+
+               fq = per_cpu_ptr(iovad->fq, cpu);
+               fq->head = 0;
+               fq->tail = 0;
+       }
+
+       return 0;
+}
+EXPORT_SYMBOL_GPL(init_iova_flush_queue);
+
 static struct rb_node *
 __get_cached_rbnode(struct iova_domain *iovad, unsigned long *limit_pfn)
 {
@@ -433,6 +471,7 @@ void put_iova_domain(struct iova_domain *iovad)
        struct rb_node *node;
        unsigned long flags;
 
+       free_iova_flush_queue(iovad);
        free_iova_rcaches(iovad);
        spin_lock_irqsave(&iovad->iova_rbtree_lock, flags);
        node = rb_first(&iovad->rbroot);
index e0a892ae45c0834a82d42e06a6bfab65b424c899..8aa10896150e4fd98aef3ad288ed55faf33cf029 100644 (file)
@@ -36,6 +36,30 @@ struct iova_rcache {
        struct iova_cpu_rcache __percpu *cpu_rcaches;
 };
 
+struct iova_domain;
+
+/* Call-Back from IOVA code into IOMMU drivers */
+typedef void (* iova_flush_cb)(struct iova_domain *domain);
+
+/* Destructor for per-entry data */
+typedef void (* iova_entry_dtor)(unsigned long data);
+
+/* Number of entries per Flush Queue */
+#define IOVA_FQ_SIZE   256
+
+/* Flush Queue entry for defered flushing */
+struct iova_fq_entry {
+       unsigned long iova_pfn;
+       unsigned long pages;
+       unsigned long data;
+};
+
+/* Per-CPU Flush Queue structure */
+struct iova_fq {
+       struct iova_fq_entry entries[IOVA_FQ_SIZE];
+       unsigned head, tail;
+};
+
 /* holds all the iova translations for a domain */
 struct iova_domain {
        spinlock_t      iova_rbtree_lock; /* Lock to protect update of rbtree */
@@ -45,6 +69,14 @@ struct iova_domain {
        unsigned long   start_pfn;      /* Lower limit for this domain */
        unsigned long   dma_32bit_pfn;
        struct iova_rcache rcaches[IOVA_RANGE_CACHE_MAX_SIZE];  /* IOVA range caches */
+
+       iova_flush_cb   flush_cb;       /* Call-Back function to flush IOMMU
+                                          TLBs */
+
+       iova_entry_dtor entry_dtor;     /* IOMMU driver specific destructor for
+                                          iova entry */
+
+       struct iova_fq __percpu *fq;    /* Flush Queue */
 };
 
 static inline unsigned long iova_size(struct iova *iova)
@@ -102,6 +134,8 @@ struct iova *reserve_iova(struct iova_domain *iovad, unsigned long pfn_lo,
 void copy_reserved_iova(struct iova_domain *from, struct iova_domain *to);
 void init_iova_domain(struct iova_domain *iovad, unsigned long granule,
        unsigned long start_pfn, unsigned long pfn_32bit);
+int init_iova_flush_queue(struct iova_domain *iovad,
+                         iova_flush_cb flush_cb, iova_entry_dtor entry_dtor);
 struct iova *find_iova(struct iova_domain *iovad, unsigned long pfn);
 void put_iova_domain(struct iova_domain *iovad);
 struct iova *split_and_remove_iova(struct iova_domain *iovad,
@@ -174,6 +208,13 @@ static inline void init_iova_domain(struct iova_domain *iovad,
 {
 }
 
+static inline int init_iova_flush_queue(struct iova_domain *iovad,
+                                       iova_flush_cb flush_cb,
+                                       iova_entry_dtor entry_dtor)
+{
+       return -ENODEV;
+}
+
 static inline struct iova *find_iova(struct iova_domain *iovad,
                                     unsigned long pfn)
 {