Merge branch 'ioat' into dmaengine
authorDan Williams <dan.j.williams@intel.com>
Mon, 17 May 2010 23:30:58 +0000 (16:30 -0700)
committerDan Williams <dan.j.williams@intel.com>
Mon, 17 May 2010 23:30:58 +0000 (16:30 -0700)
16 files changed:
1  2 
drivers/dma/at_hdmac.c
drivers/dma/dmaengine.c
drivers/dma/fsldma.c
drivers/dma/ioat/dma.c
drivers/dma/ioat/dma.h
drivers/dma/ioat/dma_v2.c
drivers/dma/ioat/dma_v3.c
drivers/dma/iop-adma.c
drivers/dma/mpc512x_dma.c
drivers/dma/mv_xor.c
drivers/dma/ppc4xx/adma.c
drivers/dma/shdma.c
drivers/mmc/host/atmel-mci.c
drivers/serial/sh-sci.c
include/linux/dmaengine.h
sound/soc/txx9/txx9aclc.c

Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index d1adbf35268cc720a4b47372a2089833c4f52078,e2a23952172dfa72cb1c2fa339276c4560c1ab09..1cdd22e1051befb3036bba6a63a6d8368db70f11
@@@ -443,12 -408,12 +408,12 @@@ ioat3_tx_status(struct dma_chan *c, dma
  {
        struct ioat2_dma_chan *ioat = to_ioat2_chan(c);
  
 -      if (ioat_is_complete(c, cookie, done, used) == DMA_SUCCESS)
 +      if (ioat_tx_status(c, cookie, txstate) == DMA_SUCCESS)
                return DMA_SUCCESS;
  
-       ioat3_cleanup_poll(ioat);
+       ioat3_cleanup(ioat);
  
 -      return ioat_is_complete(c, cookie, done, used);
 +      return ioat_tx_status(c, cookie, txstate);
  }
  
  static struct dma_async_tx_descriptor *
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index 17456571ff7a66fd9b71f301b4f7a06f458d4ea9,cb234979fc6bd4dc14a48398e7cc5d7f01311554..5204f018931bd2b082c569eed6590db691cadb6b
@@@ -248,23 -234,67 +249,82 @@@ struct dma_async_tx_descriptor 
        struct dma_async_tx_descriptor *next;
        struct dma_async_tx_descriptor *parent;
        spinlock_t lock;
+ #endif
  };
  
+ #ifdef CONFIG_ASYNC_TX_DISABLE_CHANNEL_SWITCH
+ static inline void txd_lock(struct dma_async_tx_descriptor *txd)
+ {
+ }
+ static inline void txd_unlock(struct dma_async_tx_descriptor *txd)
+ {
+ }
+ static inline void txd_chain(struct dma_async_tx_descriptor *txd, struct dma_async_tx_descriptor *next)
+ {
+       BUG();
+ }
+ static inline void txd_clear_parent(struct dma_async_tx_descriptor *txd)
+ {
+ }
+ static inline void txd_clear_next(struct dma_async_tx_descriptor *txd)
+ {
+ }
+ static inline struct dma_async_tx_descriptor *txd_next(struct dma_async_tx_descriptor *txd)
+ {
+       return NULL;
+ }
+ static inline struct dma_async_tx_descriptor *txd_parent(struct dma_async_tx_descriptor *txd)
+ {
+       return NULL;
+ }
+ #else
+ static inline void txd_lock(struct dma_async_tx_descriptor *txd)
+ {
+       spin_lock_bh(&txd->lock);
+ }
+ static inline void txd_unlock(struct dma_async_tx_descriptor *txd)
+ {
+       spin_unlock_bh(&txd->lock);
+ }
+ static inline void txd_chain(struct dma_async_tx_descriptor *txd, struct dma_async_tx_descriptor *next)
+ {
+       txd->next = next;
+       next->parent = txd;
+ }
+ static inline void txd_clear_parent(struct dma_async_tx_descriptor *txd)
+ {
+       txd->parent = NULL;
+ }
+ static inline void txd_clear_next(struct dma_async_tx_descriptor *txd)
+ {
+       txd->next = NULL;
+ }
+ static inline struct dma_async_tx_descriptor *txd_parent(struct dma_async_tx_descriptor *txd)
+ {
+       return txd->parent;
+ }
+ static inline struct dma_async_tx_descriptor *txd_next(struct dma_async_tx_descriptor *txd)
+ {
+       return txd->next;
+ }
+ #endif
 +/**
 + * struct dma_tx_state - filled in to report the status of
 + * a transfer.
 + * @last: last completed DMA cookie
 + * @used: last issued DMA cookie (i.e. the one in progress)
 + * @residue: the remaining number of bytes left to transmit
 + *    on the selected transfer for states DMA_IN_PROGRESS and
 + *    DMA_PAUSED if this is implemented in the driver, else 0
 + */
 +struct dma_tx_state {
 +      dma_cookie_t last;
 +      dma_cookie_t used;
 +      u32 residue;
 +};
 +
  /**
   * struct dma_device - info on the entity supplying DMA services
   * @chancnt: how many DMA channels are supported
Simple merge