pci.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:8k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * BK Id: SCCS/s.pci.h 1.16 10/15/01 22:51:33 paulus
  3.  */
  4. #ifndef __PPC_PCI_H
  5. #define __PPC_PCI_H
  6. #ifdef __KERNEL__
  7. /* Values for the `which' argument to sys_pciconfig_iobase syscall.  */
  8. #define IOBASE_BRIDGE_NUMBER 0
  9. #define IOBASE_MEMORY 1
  10. #define IOBASE_IO 2
  11. #define IOBASE_ISA_IO 3
  12. #define IOBASE_ISA_MEM 4
  13. extern int pcibios_assign_all_busses(void);
  14. #define PCIBIOS_MIN_IO 0x1000
  15. #define PCIBIOS_MIN_MEM 0x10000000
  16. extern inline void pcibios_set_master(struct pci_dev *dev)
  17. {
  18. /* No special bus mastering setup handling */
  19. }
  20. extern inline void pcibios_penalize_isa_irq(int irq)
  21. {
  22. /* We don't do dynamic PCI IRQ allocation */
  23. }
  24. extern unsigned long pci_resource_to_bus(struct pci_dev *pdev, struct resource *res);
  25. /*
  26.  * The PCI bus bridge can translate addresses issued by the processor(s)
  27.  * into a different address on the PCI bus.  On 32-bit cpus, we assume
  28.  * this mapping is 1-1, but on 64-bit systems it often isn't.
  29.  * 
  30.  * Obsolete ! Drivers should now use pci_resource_to_bus
  31.  */
  32. extern unsigned long phys_to_bus(unsigned long pa);
  33. extern unsigned long pci_phys_to_bus(unsigned long pa, int busnr);
  34. extern unsigned long pci_bus_to_phys(unsigned int ba, int busnr);
  35.     
  36. /* Dynamic DMA Mapping stuff, stolen from i386
  37.  *  ++ajoshi
  38.  */
  39. #include <linux/types.h>
  40. #include <linux/slab.h>
  41. #include <linux/string.h>
  42. #include <asm/scatterlist.h>
  43. #include <asm/io.h>
  44. struct pci_dev;
  45. /* The PCI address space does equal the physical memory
  46.  * address space.  The networking and block device layers use
  47.  * this boolean for bounce buffer decisions.
  48.  */
  49. #define PCI_DMA_BUS_IS_PHYS (1)
  50. /* Allocate and map kernel buffer using consistent mode DMA for a device.
  51.  * hwdev should be valid struct pci_dev pointer for PCI devices,
  52.  * NULL for PCI-like buses (ISA, EISA).
  53.  * Returns non-NULL cpu-view pointer to the buffer if successful and
  54.  * sets *dma_addrp to the pci side dma address as well, else *dma_addrp
  55.  * is undefined.
  56.  */
  57. extern void *pci_alloc_consistent(struct pci_dev *hwdev, size_t size,
  58.   dma_addr_t *dma_handle);
  59. /* Free and unmap a consistent DMA buffer.
  60.  * cpu_addr is what was returned from pci_alloc_consistent,
  61.  * size must be the same as what as passed into pci_alloc_consistent,
  62.  * and likewise dma_addr must be the same as what *dma_addrp was set to.
  63.  *
  64.  * References to the memory and mappings associated with cpu_addr/dma_addr
  65.  * past this call are illegal.
  66.  */
  67. extern void pci_free_consistent(struct pci_dev *hwdev, size_t size,
  68. void *vaddr, dma_addr_t dma_handle);
  69. /* Map a single buffer of the indicated size for DMA in streaming mode.
  70.  * The 32-bit bus address to use is returned.
  71.  *
  72.  * Once the device is given the dma address, the device owns this memory
  73.  * until either pci_unmap_single or pci_dma_sync_single is performed.
  74.  */
  75. static inline dma_addr_t pci_map_single(struct pci_dev *hwdev, void *ptr,
  76. size_t size, int direction)
  77. {
  78. if (direction == PCI_DMA_NONE)
  79. BUG();
  80. return virt_to_bus(ptr);
  81. }
  82. static inline void pci_unmap_single(struct pci_dev *hwdev, dma_addr_t dma_addr,
  83.     size_t size, int direction)
  84. {
  85. if (direction == PCI_DMA_NONE)
  86. BUG();
  87. /* nothing to do */
  88. }
  89. /* pci_unmap_{page,single} is a nop so... */
  90. #define DECLARE_PCI_UNMAP_ADDR(ADDR_NAME)
  91. #define DECLARE_PCI_UNMAP_LEN(LEN_NAME)
  92. #define pci_unmap_addr(PTR, ADDR_NAME) (0)
  93. #define pci_unmap_addr_set(PTR, ADDR_NAME, VAL) do { } while (0)
  94. #define pci_unmap_len(PTR, LEN_NAME) (0)
  95. #define pci_unmap_len_set(PTR, LEN_NAME, VAL) do { } while (0)
  96. /*
  97.  * pci_{map,unmap}_single_page maps a kernel page to a dma_addr_t. identical
  98.  * to pci_map_single, but takes a struct page instead of a virtual address
  99.  */
  100. static inline dma_addr_t pci_map_page(struct pci_dev *hwdev, struct page *page,
  101.       unsigned long offset, size_t size, int direction)
  102. {
  103. if (direction == PCI_DMA_NONE)
  104. BUG();
  105. return (page - mem_map) * PAGE_SIZE + PCI_DRAM_OFFSET + offset;
  106. }
  107. static inline void pci_unmap_page(struct pci_dev *hwdev, dma_addr_t dma_address,
  108.   size_t size, int direction)
  109. {
  110. if (direction == PCI_DMA_NONE)
  111. BUG();
  112. /* Nothing to do */
  113. }
  114. /* Map a set of buffers described by scatterlist in streaming
  115.  * mode for DMA.  This is the scather-gather version of the
  116.  * above pci_map_single interface.  Here the scatter gather list
  117.  * elements are each tagged with the appropriate dma address
  118.  * and length.  They are obtained via sg_dma_{address,length}(SG).
  119.  *
  120.  * NOTE: An implementation may be able to use a smaller number of
  121.  *       DMA address/length pairs than there are SG table elements.
  122.  *       (for example via virtual mapping capabilities)
  123.  *       The routine returns the number of addr/length pairs actually
  124.  *       used, at most nents.
  125.  *
  126.  * Device ownership issues as mentioned above for pci_map_single are
  127.  * the same here.
  128.  */
  129. static inline int pci_map_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  130.      int nents, int direction)
  131. {
  132. int i;
  133. if (direction == PCI_DMA_NONE)
  134. BUG();
  135. /*
  136.  * temporary 2.4 hack
  137.  */
  138. for (i = 0; i < nents; i++) {
  139. if (sg[i].address && sg[i].page)
  140. BUG();
  141. else if (!sg[i].address && !sg[i].page)
  142. BUG();
  143. if (sg[i].address)
  144. sg[i].dma_address = virt_to_bus(sg[i].address);
  145. else
  146. sg[i].dma_address = page_to_bus(sg[i].page) + sg[i].offset;
  147. }
  148. return nents;
  149. }
  150. /* Unmap a set of streaming mode DMA translations.
  151.  * Again, cpu read rules concerning calls here are the same as for
  152.  * pci_unmap_single() above.
  153.  */
  154. static inline void pci_unmap_sg(struct pci_dev *hwdev, struct scatterlist *sg,
  155. int nents, int direction)
  156. {
  157. if (direction == PCI_DMA_NONE)
  158. BUG();
  159. /* nothing to do */
  160. }
  161. /* Make physical memory consistent for a single
  162.  * streaming mode DMA translation after a transfer.
  163.  *
  164.  * If you perform a pci_map_single() but wish to interrogate the
  165.  * buffer using the cpu, yet do not wish to teardown the PCI dma
  166.  * mapping, you must call this function before doing so.  At the
  167.  * next point you give the PCI dma address back to the card, the
  168.  * device again owns the buffer.
  169.  */
  170. static inline void pci_dma_sync_single(struct pci_dev *hwdev,
  171.        dma_addr_t dma_handle,
  172.        size_t size, int direction)
  173. {
  174. if (direction == PCI_DMA_NONE)
  175. BUG();
  176. /* nothing to do */
  177. }
  178. /* Make physical memory consistent for a set of streaming
  179.  * mode DMA translations after a transfer.
  180.  *
  181.  * The same as pci_dma_sync_single but for a scatter-gather list,
  182.  * same rules and usage.
  183.  */
  184. static inline void pci_dma_sync_sg(struct pci_dev *hwdev,
  185.    struct scatterlist *sg,
  186.    int nelems, int direction)
  187. {
  188. if (direction == PCI_DMA_NONE)
  189. BUG();
  190. /* nothing to do */
  191. }
  192. /* Return whether the given PCI device DMA address mask can
  193.  * be supported properly.  For example, if your device can
  194.  * only drive the low 24-bits during PCI bus mastering, then
  195.  * you would pass 0x00ffffff as the mask to this function.
  196.  */
  197. static inline int pci_dma_supported(struct pci_dev *hwdev, u64 mask)
  198. {
  199. return 1;
  200. }
  201. /*
  202.  * At present there are very few 32-bit PPC machines that can have
  203.  * memory above the 4GB point, and we don't support that.
  204.  */
  205. #define pci_dac_dma_supported(pci_dev, mask) (0)
  206. static __inline__ dma64_addr_t
  207. pci_dac_page_to_dma(struct pci_dev *pdev, struct page *page, unsigned long offset, int direction)
  208. {
  209. return (dma64_addr_t) page_to_bus(page) + offset;
  210. }
  211. static __inline__ struct page *
  212. pci_dac_dma_to_page(struct pci_dev *pdev, dma64_addr_t dma_addr)
  213. {
  214. return mem_map + (unsigned long)(dma_addr >> PAGE_SHIFT);
  215. }
  216. static __inline__ unsigned long
  217. pci_dac_dma_to_offset(struct pci_dev *pdev, dma64_addr_t dma_addr)
  218. {
  219. return (dma_addr & ~PAGE_MASK);
  220. }
  221. static __inline__ void
  222. pci_dac_dma_sync_single(struct pci_dev *pdev, dma64_addr_t dma_addr, size_t len, int direction)
  223. {
  224. /* Nothing to do. */
  225. }
  226. /* These macros should be used after a pci_map_sg call has been done
  227.  * to get bus addresses of each of the SG entries and their lengths.
  228.  * You should only work with the number of sg entries pci_map_sg
  229.  * returns.
  230.  */
  231. #define sg_dma_address(sg) ((sg)->dma_address)
  232. #define sg_dma_len(sg) ((sg)->length)
  233. /* Return the index of the PCI controller for device PDEV. */
  234. extern int pci_controller_num(struct pci_dev *pdev);
  235. /* Map a range of PCI memory or I/O space for a device into user space */
  236. int pci_mmap_page_range(struct pci_dev *pdev, struct vm_area_struct *vma,
  237. enum pci_mmap_state mmap_state, int write_combine);
  238. /* Tell drivers/pci/proc.c that we have pci_mmap_page_range() */
  239. #define HAVE_PCI_MMAP 1
  240. #endif /* __KERNEL__ */
  241. #endif /* __PPC_PCI_H */