pci.h
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:8k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. #ifndef __x8664_PCI_H
  2. #define __x8664_PCI_H
  3. #include <linux/config.h>
  4. #include <asm/io.h>
  5. #ifdef __KERNEL__
  6. extern dma_addr_t bad_dma_address;
  7. /* Can be used to override the logic in pci_scan_bus for skipping
  8.    already-configured bus numbers - to be used for buggy BIOSes
  9.    or architectures with incomplete PCI setup by the loader */
  10. #ifdef CONFIG_PCI
  11. extern unsigned int pcibios_assign_all_busses(void);
  12. #else
  13. #define pcibios_assign_all_busses() 0
  14. #endif
  15. extern unsigned long pci_mem_start;
  16. #define PCIBIOS_MIN_IO 0x1000
  17. #define PCIBIOS_MIN_MEM (pci_mem_start)
  18. void pcibios_set_master(struct pci_dev *dev);
  19. void pcibios_penalize_isa_irq(int irq);
  20. struct irq_routing_table *pcibios_get_irq_routing_table(void);
  21. int pcibios_set_irq_routing(struct pci_dev *dev, int pin, int irq);
  22. #include <linux/types.h>
  23. #include <linux/slab.h>
  24. #include <asm/scatterlist.h>
  25. #include <linux/string.h>
  26. #include <asm/io.h>
  27. #include <asm/page.h>
  28. #include <asm/mmzone.h>
  29. struct pci_dev;
  30. /* Allocate and map kernel buffer using consistent mode DMA for a device.
  31.  * hwdev should be valid struct pci_dev pointer for PCI devices,
  32.  * NULL for PCI-like buses (ISA, EISA).
  33.  * Returns non-NULL cpu-view pointer to the buffer if successful and
  34.  * sets *dma_addrp to the pci side dma address as well, else *dma_addrp
  35.  * is undefined.
  36.  */
  37. extern void *pci_alloc_consistent(struct pci_dev *hwdev, size_t size,
  38.   dma_addr_t *dma_handle);
  39. /* Free and unmap a consistent DMA buffer.
  40.  * cpu_addr is what was returned from pci_alloc_consistent,
  41.  * size must be the same as what as passed into pci_alloc_consistent,
  42.  * and likewise dma_addr must be the same as what *dma_addrp was set to.
  43.  *
  44.  * References to the memory and mappings associated with cpu_addr/dma_addr
  45.  * past this call are illegal.
  46.  */
  47. extern void pci_free_consistent(struct pci_dev *hwdev, size_t size,
  48. void *vaddr, dma_addr_t dma_handle);
  49. #ifdef CONFIG_GART_IOMMU
  50. /* Map a single buffer of the indicated size for DMA in streaming mode.
  51.  * The 32-bit bus address to use is returned.
  52.  *
  53.  * Once the device is given the dma address, the device owns this memory
  54.  * until either pci_unmap_single or pci_dma_sync_single is performed.
  55.  */
  56. extern dma_addr_t pci_map_single(struct pci_dev *hwdev, void *ptr,
  57.   size_t size, int direction);
  58. extern void pci_unmap_single(struct pci_dev *hwdev, dma_addr_t addr,
  59.    size_t size, int direction);
  60. /*
  61.  * pci_{map,unmap}_single_page maps a kernel page to a dma_addr_t. identical
  62.  * to pci_map_single, but takes a struct page instead of a virtual address
  63.  */
  64. #define pci_map_page(dev,page,offset,size,dir) 
  65. pci_map_single((dev), page_address(page)+(offset), (size), (dir)) 
  66. #define DECLARE_PCI_UNMAP_ADDR(ADDR_NAME)
  67. dma_addr_t ADDR_NAME;
  68. #define DECLARE_PCI_UNMAP_LEN(LEN_NAME)
  69. __u32 LEN_NAME;
  70. #define pci_unmap_addr(PTR, ADDR_NAME)
  71. ((PTR)->ADDR_NAME)
  72. #define pci_unmap_addr_set(PTR, ADDR_NAME, VAL)
  73. (((PTR)->ADDR_NAME) = (VAL))
  74. #define pci_unmap_len(PTR, LEN_NAME)
  75. ((PTR)->LEN_NAME)
  76. #define pci_unmap_len_set(PTR, LEN_NAME, VAL)
  77. (((PTR)->LEN_NAME) = (VAL))
  78. static inline void pci_dma_sync_single(struct pci_dev *hwdev, 
  79.        dma_addr_t dma_handle,
  80.        size_t size, int direction)
  81. {
  82. BUG_ON(direction == PCI_DMA_NONE); 
  83. static inline void pci_dma_sync_sg(struct pci_dev *hwdev, 
  84.    struct scatterlist *sg,
  85.    int nelems, int direction)
  86. BUG_ON(direction == PCI_DMA_NONE); 
  87. /* The PCI address space does equal the physical memory
  88.  * address space.  The networking and block device layers use
  89.  * this boolean for bounce buffer decisions.
  90.  */
  91. #define PCI_DMA_BUS_IS_PHYS (0)
  92. #else
  93. static inline dma_addr_t pci_map_single(struct pci_dev *hwdev, void *ptr,
  94. size_t size, int direction)
  95. {
  96. dma_addr_t addr; 
  97. if (direction == PCI_DMA_NONE)
  98. out_of_line_bug();
  99. addr = virt_to_bus(ptr); 
  100. /* 
  101.  * This is gross, but what should I do.
  102.  * Unfortunately drivers do not test the return value of this.
  103.  */
  104. if ((addr+size) & ~hwdev->dma_mask) 
  105. out_of_line_bug(); 
  106. return addr;
  107. }
  108. static inline void pci_unmap_single(struct pci_dev *hwdev, dma_addr_t dma_addr,
  109.     size_t size, int direction)
  110. {
  111. if (direction == PCI_DMA_NONE)
  112. out_of_line_bug();
  113. /* Nothing to do */
  114. }
  115. static inline dma_addr_t pci_map_page(struct pci_dev *hwdev, struct page *page,
  116.       unsigned long offset, size_t size, int direction)
  117. {
  118. dma_addr_t addr;
  119. if (direction == PCI_DMA_NONE)
  120. out_of_line_bug();
  121.   addr = page_to_pfn(page) * PAGE_SIZE + offset;
  122. if ((addr+size) & ~hwdev->dma_mask) 
  123. out_of_line_bug();
  124. return addr;
  125. }
  126. /* pci_unmap_{page,single} is a nop so... */
  127. #define DECLARE_PCI_UNMAP_ADDR(ADDR_NAME)
  128. #define DECLARE_PCI_UNMAP_LEN(LEN_NAME)
  129. #define pci_unmap_addr(PTR, ADDR_NAME) (0)
  130. #define pci_unmap_addr_set(PTR, ADDR_NAME, VAL) do { } while (0)
  131. #define pci_unmap_len(PTR, LEN_NAME) (0)
  132. #define pci_unmap_len_set(PTR, LEN_NAME, VAL) do { } while (0)
  133. /* Make physical memory consistent for a single
  134.  * streaming mode DMA translation after a transfer.
  135.  *
  136.  * If you perform a pci_map_single() but wish to interrogate the
  137.  * buffer using the cpu, yet do not wish to teardown the PCI dma
  138.  * mapping, you must call this function before doing so.  At the
  139.  * next point you give the PCI dma address back to the card, the
  140.  * device again owns the buffer.
  141.  */
  142. static inline void pci_dma_sync_single(struct pci_dev *hwdev,
  143.        dma_addr_t dma_handle,
  144.        size_t size, int direction)
  145. {
  146. if (direction == PCI_DMA_NONE)
  147. out_of_line_bug();
  148. flush_write_buffers();
  149. }
  150. /* Make physical memory consistent for a set of streaming
  151.  * mode DMA translations after a transfer.
  152.  *
  153.  * The same as pci_dma_sync_single but for a scatter-gather list,
  154.  * same rules and usage.
  155.  */
  156. static inline void pci_dma_sync_sg(struct pci_dev *hwdev,
  157.    struct scatterlist *sg,
  158.    int nelems, int direction)
  159. {
  160. if (direction == PCI_DMA_NONE)
  161. out_of_line_bug();
  162. flush_write_buffers();
  163. }
  164. #define PCI_DMA_BUS_IS_PHYS 1
  165. #endif
  166. extern int pci_map_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  167.       int nents, int direction);
  168. extern void pci_unmap_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  169.  int nents, int direction);
  170. #define pci_unmap_page pci_unmap_single
  171. /* Return whether the given PCI device DMA address mask can
  172.  * be supported properly.  For example, if your device can
  173.  * only drive the low 24-bits during PCI bus mastering, then
  174.  * you would pass 0x00ffffff as the mask to this function.
  175.  */
  176. static inline int pci_dma_supported(struct pci_dev *hwdev, u64 mask)
  177. {
  178.         /*
  179.          * we fall back to GFP_DMA when the mask isn't all 1s,
  180.          * so we can't guarantee allocations that must be
  181.          * within a tighter range than GFP_DMA..
  182.          */
  183.         if(mask < 0x00ffffff)
  184.                 return 0;
  185. return 1;
  186. }
  187. /* This is always fine. */
  188. #define pci_dac_dma_supported(pci_dev, mask) (1)
  189. static __inline__ dma64_addr_t
  190. pci_dac_page_to_dma(struct pci_dev *pdev, struct page *page, unsigned long offset, int direction)
  191. {
  192. return ((dma64_addr_t) page_to_bus(page) +
  193. (dma64_addr_t) offset);
  194. }
  195. static __inline__ struct page *
  196. pci_dac_dma_to_page(struct pci_dev *pdev, dma64_addr_t dma_addr)
  197. {
  198. return pfn_to_page(phys_to_pfn(dma_addr)); 
  199. }
  200. static __inline__ unsigned long
  201. pci_dac_dma_to_offset(struct pci_dev *pdev, dma64_addr_t dma_addr)
  202. {
  203. return (dma_addr & ~PAGE_MASK);
  204. }
  205. static __inline__ void
  206. pci_dac_dma_sync_single(struct pci_dev *pdev, dma64_addr_t dma_addr, size_t len, int direction)
  207. {
  208. flush_write_buffers();
  209. }
  210. /* These macros should be used after a pci_map_sg call has been done
  211.  * to get bus addresses of each of the SG entries and their lengths.
  212.  * You should only work with the number of sg entries pci_map_sg
  213.  * returns.
  214.  */
  215. #define sg_dma_address(sg) ((sg)->dma_address)
  216. #define sg_dma_len(sg) ((sg)->length)
  217. /* Return the index of the PCI controller for device. */
  218. static inline int pci_controller_num(struct pci_dev *dev)
  219. {
  220. return 0;
  221. }
  222. #define HAVE_PCI_MMAP
  223. extern int pci_mmap_page_range(struct pci_dev *dev, struct vm_area_struct *vma,
  224.        enum pci_mmap_state mmap_state, int write_combine);
  225. #endif /* __KERNEL__ */
  226. #endif /* __x8664_PCI_H */