x86: asm-i386/io.h fix constness
[cascardo/linux.git] / include / asm-arm / dma-mapping.h
index 9bc46b4..678134b 100644 (file)
@@ -17,7 +17,7 @@
  * platforms with CONFIG_DMABOUNCE.
  * Use the driver DMA support - see dma-mapping.h (dma_sync_*)
  */
-extern void consistent_sync(void *kaddr, size_t size, int rw);
+extern void dma_cache_maint(const void *kaddr, size_t size, int rw);
 
 /*
  * Return whether the given device DMA address mask can be supported
@@ -61,6 +61,22 @@ static inline int dma_mapping_error(dma_addr_t dma_addr)
        return dma_addr == ~0;
 }
 
+/*
+ * Dummy noncoherent implementation.  We don't provide a dma_cache_sync
+ * function so drivers using this API are highlighted with build warnings.
+ */
+static inline void *
+dma_alloc_noncoherent(struct device *dev, size_t size, dma_addr_t *handle, gfp_t gfp)
+{
+       return NULL;
+}
+
+static inline void
+dma_free_noncoherent(struct device *dev, size_t size, void *cpu_addr,
+                    dma_addr_t handle)
+{
+}
+
 /**
  * dma_alloc_coherent - allocate consistent memory for DMA
  * @dev: valid struct device pointer, or NULL for ISA and EISA-like devices
@@ -149,7 +165,7 @@ dma_map_single(struct device *dev, void *cpu_addr, size_t size,
               enum dma_data_direction dir)
 {
        if (!arch_is_coherent())
-               consistent_sync(cpu_addr, size, dir);
+               dma_cache_maint(cpu_addr, size, dir);
 
        return virt_to_dma(dev, (unsigned long)cpu_addr);
 }
@@ -262,7 +278,7 @@ dma_map_sg(struct device *dev, struct scatterlist *sg, int nents,
                virt = page_address(sg->page) + sg->offset;
 
                if (!arch_is_coherent())
-                       consistent_sync(virt, sg->length, dir);
+                       dma_cache_maint(virt, sg->length, dir);
        }
 
        return nents;
@@ -318,7 +334,7 @@ dma_sync_single_for_cpu(struct device *dev, dma_addr_t handle, size_t size,
                        enum dma_data_direction dir)
 {
        if (!arch_is_coherent())
-               consistent_sync((void *)dma_to_virt(dev, handle), size, dir);
+               dma_cache_maint((void *)dma_to_virt(dev, handle), size, dir);
 }
 
 static inline void
@@ -326,7 +342,7 @@ dma_sync_single_for_device(struct device *dev, dma_addr_t handle, size_t size,
                           enum dma_data_direction dir)
 {
        if (!arch_is_coherent())
-               consistent_sync((void *)dma_to_virt(dev, handle), size, dir);
+               dma_cache_maint((void *)dma_to_virt(dev, handle), size, dir);
 }
 #else
 extern void dma_sync_single_for_cpu(struct device*, dma_addr_t, size_t, enum dma_data_direction);
@@ -357,7 +373,7 @@ dma_sync_sg_for_cpu(struct device *dev, struct scatterlist *sg, int nents,
        for (i = 0; i < nents; i++, sg++) {
                char *virt = page_address(sg->page) + sg->offset;
                if (!arch_is_coherent())
-                       consistent_sync(virt, sg->length, dir);
+                       dma_cache_maint(virt, sg->length, dir);
        }
 }
 
@@ -370,7 +386,7 @@ dma_sync_sg_for_device(struct device *dev, struct scatterlist *sg, int nents,
        for (i = 0; i < nents; i++, sg++) {
                char *virt = page_address(sg->page) + sg->offset;
                if (!arch_is_coherent())
-                       consistent_sync(virt, sg->length, dir);
+                       dma_cache_maint(virt, sg->length, dir);
        }
 }
 #else
@@ -429,7 +445,7 @@ extern void dmabounce_unregister_dev(struct device *);
  *
  * The dmabounce routines call this function whenever a dma-mapping
  * is requested to determine whether a given buffer needs to be bounced
- * or not. The function must return 0 if the the buffer is OK for
+ * or not. The function must return 0 if the buffer is OK for
  * DMA access and 1 if the buffer needs to be bounced.
  *
  */