pci.h
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:8k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * BK Id: SCCS/s.pci.h 1.16 10/15/01 22:51:33 paulus
  3.  */
  4. #ifndef __PPC_PCI_H
  5. #define __PPC_PCI_H
  6. #ifdef __KERNEL__
  7. /* Values for the `which' argument to sys_pciconfig_iobase syscall.  */
  8. #define IOBASE_BRIDGE_NUMBER 0
  9. #define IOBASE_MEMORY 1
  10. #define IOBASE_IO 2
  11. #define IOBASE_ISA_IO 3
  12. #define IOBASE_ISA_MEM 4
  13. /*
  14.  * Set this to 1 if you want the kernel to re-assign all PCI
  15.  * bus numbers
  16.  */
  17. extern int pci_assign_all_busses;
  18. #define pcibios_assign_all_busses() (pci_assign_all_busses)
  19. #define PCIBIOS_MIN_IO 0x1000
  20. #define PCIBIOS_MIN_MEM 0x10000000
  21. extern inline void pcibios_set_master(struct pci_dev *dev)
  22. {
  23. /* No special bus mastering setup handling */
  24. }
  25. extern inline void pcibios_penalize_isa_irq(int irq)
  26. {
  27. /* We don't do dynamic PCI IRQ allocation */
  28. }
  29. extern unsigned long pci_resource_to_bus(struct pci_dev *pdev, struct resource *res);
  30. /*
  31.  * The PCI bus bridge can translate addresses issued by the processor(s)
  32.  * into a different address on the PCI bus.  On 32-bit cpus, we assume
  33.  * this mapping is 1-1, but on 64-bit systems it often isn't.
  34.  * 
  35.  * Obsolete ! Drivers should now use pci_resource_to_bus
  36.  */
  37. extern unsigned long phys_to_bus(unsigned long pa);
  38. extern unsigned long pci_phys_to_bus(unsigned long pa, int busnr);
  39. extern unsigned long pci_bus_to_phys(unsigned int ba, int busnr);
  40.     
  41. /* Dynamic DMA Mapping stuff, stolen from i386
  42.  *  ++ajoshi
  43.  */
  44. #include <linux/types.h>
  45. #include <linux/slab.h>
  46. #include <linux/string.h>
  47. #include <asm/scatterlist.h>
  48. #include <asm/io.h>
  49. struct pci_dev;
  50. /* The PCI address space does equal the physical memory
  51.  * address space.  The networking and block device layers use
  52.  * this boolean for bounce buffer decisions.
  53.  */
  54. #define PCI_DMA_BUS_IS_PHYS (1)
  55. /* Allocate and map kernel buffer using consistent mode DMA for a device.
  56.  * hwdev should be valid struct pci_dev pointer for PCI devices,
  57.  * NULL for PCI-like buses (ISA, EISA).
  58.  * Returns non-NULL cpu-view pointer to the buffer if successful and
  59.  * sets *dma_addrp to the pci side dma address as well, else *dma_addrp
  60.  * is undefined.
  61.  */
  62. extern void *pci_alloc_consistent(struct pci_dev *hwdev, size_t size,
  63.   dma_addr_t *dma_handle);
  64. /* Free and unmap a consistent DMA buffer.
  65.  * cpu_addr is what was returned from pci_alloc_consistent,
  66.  * size must be the same as what as passed into pci_alloc_consistent,
  67.  * and likewise dma_addr must be the same as what *dma_addrp was set to.
  68.  *
  69.  * References to the memory and mappings associated with cpu_addr/dma_addr
  70.  * past this call are illegal.
  71.  */
  72. extern void pci_free_consistent(struct pci_dev *hwdev, size_t size,
  73. void *vaddr, dma_addr_t dma_handle);
  74. /* Map a single buffer of the indicated size for DMA in streaming mode.
  75.  * The 32-bit bus address to use is returned.
  76.  *
  77.  * Once the device is given the dma address, the device owns this memory
  78.  * until either pci_unmap_single or pci_dma_sync_single is performed.
  79.  */
  80. static inline dma_addr_t pci_map_single(struct pci_dev *hwdev, void *ptr,
  81. size_t size, int direction)
  82. {
  83. if (direction == PCI_DMA_NONE)
  84. BUG();
  85. return virt_to_bus(ptr);
  86. }
  87. static inline void pci_unmap_single(struct pci_dev *hwdev, dma_addr_t dma_addr,
  88.     size_t size, int direction)
  89. {
  90. if (direction == PCI_DMA_NONE)
  91. BUG();
  92. /* nothing to do */
  93. }
  94. /* pci_unmap_{page,single} is a nop so... */
  95. #define DECLARE_PCI_UNMAP_ADDR(ADDR_NAME)
  96. #define DECLARE_PCI_UNMAP_LEN(LEN_NAME)
  97. #define pci_unmap_addr(PTR, ADDR_NAME) (0)
  98. #define pci_unmap_addr_set(PTR, ADDR_NAME, VAL) do { } while (0)
  99. #define pci_unmap_len(PTR, LEN_NAME) (0)
  100. #define pci_unmap_len_set(PTR, LEN_NAME, VAL) do { } while (0)
  101. /*
  102.  * pci_{map,unmap}_single_page maps a kernel page to a dma_addr_t. identical
  103.  * to pci_map_single, but takes a struct page instead of a virtual address
  104.  */
  105. static inline dma_addr_t pci_map_page(struct pci_dev *hwdev, struct page *page,
  106.       unsigned long offset, size_t size, int direction)
  107. {
  108. if (direction == PCI_DMA_NONE)
  109. BUG();
  110. return (page - mem_map) * PAGE_SIZE + PCI_DRAM_OFFSET + offset;
  111. }
  112. static inline void pci_unmap_page(struct pci_dev *hwdev, dma_addr_t dma_address,
  113.   size_t size, int direction)
  114. {
  115. if (direction == PCI_DMA_NONE)
  116. BUG();
  117. /* Nothing to do */
  118. }
  119. /* Map a set of buffers described by scatterlist in streaming
  120.  * mode for DMA.  This is the scather-gather version of the
  121.  * above pci_map_single interface.  Here the scatter gather list
  122.  * elements are each tagged with the appropriate dma address
  123.  * and length.  They are obtained via sg_dma_{address,length}(SG).
  124.  *
  125.  * NOTE: An implementation may be able to use a smaller number of
  126.  *       DMA address/length pairs than there are SG table elements.
  127.  *       (for example via virtual mapping capabilities)
  128.  *       The routine returns the number of addr/length pairs actually
  129.  *       used, at most nents.
  130.  *
  131.  * Device ownership issues as mentioned above for pci_map_single are
  132.  * the same here.
  133.  */
  134. static inline int pci_map_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  135.      int nents, int direction)
  136. {
  137. int i;
  138. if (direction == PCI_DMA_NONE)
  139. BUG();
  140. /*
  141.  * temporary 2.4 hack
  142.  */
  143. for (i = 0; i < nents; i++) {
  144. if (sg[i].address && sg[i].page)
  145. BUG();
  146. else if (!sg[i].address && !sg[i].page)
  147. BUG();
  148. if (sg[i].address)
  149. sg[i].dma_address = virt_to_bus(sg[i].address);
  150. else
  151. sg[i].dma_address = page_to_bus(sg[i].page) + sg[i].offset;
  152. }
  153. return nents;
  154. }
  155. /* Unmap a set of streaming mode DMA translations.
  156.  * Again, cpu read rules concerning calls here are the same as for
  157.  * pci_unmap_single() above.
  158.  */
  159. static inline void pci_unmap_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  160. int nents, int direction)
  161. {
  162. if (direction == PCI_DMA_NONE)
  163. BUG();
  164. /* nothing to do */
  165. }
  166. /* Make physical memory consistent for a single
  167.  * streaming mode DMA translation after a transfer.
  168.  *
  169.  * If you perform a pci_map_single() but wish to interrogate the
  170.  * buffer using the cpu, yet do not wish to teardown the PCI dma
  171.  * mapping, you must call this function before doing so.  At the
  172.  * next point you give the PCI dma address back to the card, the
  173.  * device again owns the buffer.
  174.  */
  175. static inline void pci_dma_sync_single(struct pci_dev *hwdev,
  176.        dma_addr_t dma_handle,
  177.        size_t size, int direction)
  178. {
  179. if (direction == PCI_DMA_NONE)
  180. BUG();
  181. /* nothing to do */
  182. }
  183. /* Make physical memory consistent for a set of streaming
  184.  * mode DMA translations after a transfer.
  185.  *
  186.  * The same as pci_dma_sync_single but for a scatter-gather list,
  187.  * same rules and usage.
  188.  */
  189. static inline void pci_dma_sync_sg(struct pci_dev *hwdev,
  190.    struct scatterlist *sg,
  191.    int nelems, int direction)
  192. {
  193. if (direction == PCI_DMA_NONE)
  194. BUG();
  195. /* nothing to do */
  196. }
  197. /* Return whether the given PCI device DMA address mask can
  198.  * be supported properly.  For example, if your device can
  199.  * only drive the low 24-bits during PCI bus mastering, then
  200.  * you would pass 0x00ffffff as the mask to this function.
  201.  */
  202. static inline int pci_dma_supported(struct pci_dev *hwdev, u64 mask)
  203. {
  204. return 1;
  205. }
  206. /*
  207.  * At present there are very few 32-bit PPC machines that can have
  208.  * memory above the 4GB point, and we don't support that.
  209.  */
  210. #define pci_dac_dma_supported(pci_dev, mask) (0)
  211. static __inline__ dma64_addr_t
  212. pci_dac_page_to_dma(struct pci_dev *pdev, struct page *page, unsigned long offset, int direction)
  213. {
  214. return (dma64_addr_t) page_to_bus(page) + offset;
  215. }
  216. static __inline__ struct page *
  217. pci_dac_dma_to_page(struct pci_dev *pdev, dma64_addr_t dma_addr)
  218. {
  219. return mem_map + (unsigned long)(dma_addr >> PAGE_SHIFT);
  220. }
  221. static __inline__ unsigned long
  222. pci_dac_dma_to_offset(struct pci_dev *pdev, dma64_addr_t dma_addr)
  223. {
  224. return (dma_addr & ~PAGE_MASK);
  225. }
  226. static __inline__ void
  227. pci_dac_dma_sync_single(struct pci_dev *pdev, dma64_addr_t dma_addr, size_t len, int direction)
  228. {
  229. /* Nothing to do. */
  230. }
  231. /* These macros should be used after a pci_map_sg call has been done
  232.  * to get bus addresses of each of the SG entries and their lengths.
  233.  * You should only work with the number of sg entries pci_map_sg
  234.  * returns.
  235.  */
  236. #define sg_dma_address(sg) ((sg)->dma_address)
  237. #define sg_dma_len(sg) ((sg)->length)
  238. /* Return the index of the PCI controller for device PDEV. */
  239. extern int pci_controller_num(struct pci_dev *pdev);
  240. /* Map a range of PCI memory or I/O space for a device into user space */
  241. int pci_mmap_page_range(struct pci_dev *pdev, struct vm_area_struct *vma,
  242. enum pci_mmap_state mmap_state, int write_combine);
  243. /* Tell drivers/pci/proc.c that we have pci_mmap_page_range() */
  244. #define HAVE_PCI_MMAP 1
  245. #endif /* __KERNEL__ */
  246. #endif /* __PPC_PCI_H */