sbus.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:34k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* $Id: sbus.c,v 1.17 2001/10/09 02:24:33 davem Exp $
  2.  * sbus.c: UltraSparc SBUS controller support.
  3.  *
  4.  * Copyright (C) 1999 David S. Miller (davem@redhat.com)
  5.  */
  6. #include <linux/kernel.h>
  7. #include <linux/types.h>
  8. #include <linux/mm.h>
  9. #include <linux/spinlock.h>
  10. #include <linux/slab.h>
  11. #include <linux/init.h>
  12. #include <asm/page.h>
  13. #include <asm/sbus.h>
  14. #include <asm/io.h>
  15. #include <asm/upa.h>
  16. #include <asm/cache.h>
  17. #include <asm/dma.h>
  18. #include <asm/irq.h>
  19. #include <asm/starfire.h>
  20. #include "iommu_common.h"
  21. /* These should be allocated on an SMP_CACHE_BYTES
  22.  * aligned boundry for optimal performance.
  23.  *
  24.  * On SYSIO, using an 8K page size we have 1GB of SBUS
  25.  * DMA space mapped.  We divide this space into equally
  26.  * sized clusters.  Currently we allow clusters up to a
  27.  * size of 1MB.  If anything begins to generate DMA
  28.  * mapping requests larger than this we will need to
  29.  * increase things a bit.
  30.  */
  31. #define NCLUSTERS 8UL
  32. #define ONE_GIG (1UL * 1024UL * 1024UL * 1024UL)
  33. #define CLUSTER_SIZE (ONE_GIG / NCLUSTERS)
  34. #define CLUSTER_MASK (CLUSTER_SIZE - 1)
  35. #define CLUSTER_NPAGES (CLUSTER_SIZE >> IO_PAGE_SHIFT)
  36. #define MAP_BASE ((u32)0xc0000000)
  37. struct sbus_iommu {
  38. /*0x00*/spinlock_t lock;
  39. /*0x08*/iopte_t *page_table;
  40. /*0x10*/unsigned long strbuf_regs;
  41. /*0x18*/unsigned long iommu_regs;
  42. /*0x20*/unsigned long sbus_control_reg;
  43. /*0x28*/volatile unsigned long strbuf_flushflag;
  44. /* If NCLUSTERS is ever decresed to 4 or lower,
  45.  * you must increase the size of the type of
  46.  * these counters.  You have been duly warned. -DaveM
  47.  */
  48. /*0x30*/struct {
  49. u16 next;
  50. u16 flush;
  51. } alloc_info[NCLUSTERS];
  52. /* The lowest used consistent mapping entry.  Since
  53.  * we allocate consistent maps out of cluster 0 this
  54.  * is relative to the beginning of closter 0.
  55.  */
  56. /*0x50*/u32 lowest_consistent_map;
  57. };
  58. /* Offsets from iommu_regs */
  59. #define SYSIO_IOMMUREG_BASE 0x2400UL
  60. #define IOMMU_CONTROL (0x2400UL - 0x2400UL) /* IOMMU control register */
  61. #define IOMMU_TSBBASE (0x2408UL - 0x2400UL) /* TSB base address register */
  62. #define IOMMU_FLUSH (0x2410UL - 0x2400UL) /* IOMMU flush register */
  63. #define IOMMU_VADIAG (0x4400UL - 0x2400UL) /* SBUS virtual address diagnostic */
  64. #define IOMMU_TAGCMP (0x4408UL - 0x2400UL) /* TLB tag compare diagnostics */
  65. #define IOMMU_LRUDIAG (0x4500UL - 0x2400UL) /* IOMMU LRU queue diagnostics */
  66. #define IOMMU_TAGDIAG (0x4580UL - 0x2400UL) /* TLB tag diagnostics */
  67. #define IOMMU_DRAMDIAG (0x4600UL - 0x2400UL) /* TLB data RAM diagnostics */
  68. #define IOMMU_DRAM_VALID (1UL << 30UL)
  69. static void __iommu_flushall(struct sbus_iommu *iommu)
  70. {
  71. unsigned long tag = iommu->iommu_regs + IOMMU_TAGDIAG;
  72. int entry;
  73. for (entry = 0; entry < 16; entry++) {
  74. upa_writeq(0, tag);
  75. tag += 8UL;
  76. }
  77. upa_readq(iommu->sbus_control_reg);
  78. for (entry = 0; entry < NCLUSTERS; entry++) {
  79. iommu->alloc_info[entry].flush =
  80. iommu->alloc_info[entry].next;
  81. }
  82. }
  83. static void iommu_flush(struct sbus_iommu *iommu, u32 base, unsigned long npages)
  84. {
  85. while (npages--)
  86. upa_writeq(base + (npages << IO_PAGE_SHIFT),
  87.    iommu->iommu_regs + IOMMU_FLUSH);
  88. upa_readq(iommu->sbus_control_reg);
  89. }
  90. /* Offsets from strbuf_regs */
  91. #define SYSIO_STRBUFREG_BASE 0x2800UL
  92. #define STRBUF_CONTROL (0x2800UL - 0x2800UL) /* Control */
  93. #define STRBUF_PFLUSH (0x2808UL - 0x2800UL) /* Page flush/invalidate */
  94. #define STRBUF_FSYNC (0x2810UL - 0x2800UL) /* Flush synchronization */
  95. #define STRBUF_DRAMDIAG (0x5000UL - 0x2800UL) /* data RAM diagnostic */
  96. #define STRBUF_ERRDIAG (0x5400UL - 0x2800UL) /* error status diagnostics */
  97. #define STRBUF_PTAGDIAG (0x5800UL - 0x2800UL) /* Page tag diagnostics */
  98. #define STRBUF_LTAGDIAG (0x5900UL - 0x2800UL) /* Line tag diagnostics */
  99. #define STRBUF_TAG_VALID 0x02UL
  100. static void strbuf_flush(struct sbus_iommu *iommu, u32 base, unsigned long npages)
  101. {
  102. iommu->strbuf_flushflag = 0UL;
  103. while (npages--)
  104. upa_writeq(base + (npages << IO_PAGE_SHIFT),
  105.    iommu->strbuf_regs + STRBUF_PFLUSH);
  106. /* Whoopee cushion! */
  107. upa_writeq(__pa(&iommu->strbuf_flushflag),
  108.    iommu->strbuf_regs + STRBUF_FSYNC);
  109. upa_readq(iommu->sbus_control_reg);
  110. while (iommu->strbuf_flushflag == 0UL)
  111. membar("#LoadLoad");
  112. }
  113. static iopte_t *alloc_streaming_cluster(struct sbus_iommu *iommu, unsigned long npages)
  114. {
  115. iopte_t *iopte, *limit, *first;
  116. unsigned long cnum, ent, flush_point;
  117. cnum = 0;
  118. while ((1UL << cnum) < npages)
  119. cnum++;
  120. iopte  = iommu->page_table + (cnum * CLUSTER_NPAGES);
  121. if (cnum == 0)
  122. limit = (iommu->page_table +
  123.  iommu->lowest_consistent_map);
  124. else
  125. limit = (iopte + CLUSTER_NPAGES);
  126. iopte += ((ent = iommu->alloc_info[cnum].next) << cnum);
  127. flush_point = iommu->alloc_info[cnum].flush;
  128. first = iopte;
  129. for (;;) {
  130. if (iopte_val(*iopte) == 0UL) {
  131. if ((iopte + (1 << cnum)) >= limit)
  132. ent = 0;
  133. else
  134. ent = ent + 1;
  135. iommu->alloc_info[cnum].next = ent;
  136. if (ent == flush_point)
  137. __iommu_flushall(iommu);
  138. break;
  139. }
  140. iopte += (1 << cnum);
  141. ent++;
  142. if (iopte >= limit) {
  143. iopte = (iommu->page_table + (cnum * CLUSTER_NPAGES));
  144. ent = 0;
  145. }
  146. if (ent == flush_point)
  147. __iommu_flushall(iommu);
  148. if (iopte == first)
  149. goto bad;
  150. }
  151. /* I've got your streaming cluster right here buddy boy... */
  152. return iopte;
  153. bad:
  154. printk(KERN_EMERG "sbus: alloc_streaming_cluster of npages(%ld) failed!n",
  155.        npages);
  156. return NULL;
  157. }
  158. static void free_streaming_cluster(struct sbus_iommu *iommu, u32 base, unsigned long npages)
  159. {
  160. unsigned long cnum, ent;
  161. iopte_t *iopte;
  162. cnum = 0;
  163. while ((1UL << cnum) < npages)
  164. cnum++;
  165. ent = (base & CLUSTER_MASK) >> (IO_PAGE_SHIFT + cnum);
  166. iopte = iommu->page_table + ((base - MAP_BASE) >> IO_PAGE_SHIFT);
  167. iopte_val(*iopte) = 0UL;
  168. /* If the global flush might not have caught this entry,
  169.  * adjust the flush point such that we will flush before
  170.  * ever trying to reuse it.
  171.  */
  172. #define between(X,Y,Z) (((Z) - (Y)) >= ((X) - (Y)))
  173. if (between(ent, iommu->alloc_info[cnum].next, iommu->alloc_info[cnum].flush))
  174. iommu->alloc_info[cnum].flush = ent;
  175. #undef between
  176. }
  177. /* We allocate consistent mappings from the end of cluster zero. */
  178. static iopte_t *alloc_consistent_cluster(struct sbus_iommu *iommu, unsigned long npages)
  179. {
  180. iopte_t *iopte;
  181. iopte = iommu->page_table + (1 * CLUSTER_NPAGES);
  182. while (iopte > iommu->page_table) {
  183. iopte--;
  184. if (!(iopte_val(*iopte) & IOPTE_VALID)) {
  185. unsigned long tmp = npages;
  186. while (--tmp) {
  187. iopte--;
  188. if (iopte_val(*iopte) & IOPTE_VALID)
  189. break;
  190. }
  191. if (tmp == 0) {
  192. u32 entry = (iopte - iommu->page_table);
  193. if (entry < iommu->lowest_consistent_map)
  194. iommu->lowest_consistent_map = entry;
  195. return iopte;
  196. }
  197. }
  198. }
  199. return NULL;
  200. }
  201. static void free_consistent_cluster(struct sbus_iommu *iommu, u32 base, unsigned long npages)
  202. {
  203. iopte_t *iopte = iommu->page_table + ((base - MAP_BASE) >> IO_PAGE_SHIFT);
  204. if ((iopte - iommu->page_table) == iommu->lowest_consistent_map) {
  205. iopte_t *walk = iopte + npages;
  206. iopte_t *limit;
  207. limit = iommu->page_table + CLUSTER_NPAGES;
  208. while (walk < limit) {
  209. if (iopte_val(*walk) != 0UL)
  210. break;
  211. walk++;
  212. }
  213. iommu->lowest_consistent_map =
  214. (walk - iommu->page_table);
  215. }
  216. while (npages--)
  217. *iopte++ = __iopte(0UL);
  218. }
  219. void *sbus_alloc_consistent(struct sbus_dev *sdev, size_t size, dma_addr_t *dvma_addr)
  220. {
  221. unsigned long order, first_page, flags;
  222. struct sbus_iommu *iommu;
  223. iopte_t *iopte;
  224. void *ret;
  225. int npages;
  226. if (size <= 0 || sdev == NULL || dvma_addr == NULL)
  227. return NULL;
  228. size = IO_PAGE_ALIGN(size);
  229. order = get_order(size);
  230. if (order >= 10)
  231. return NULL;
  232. first_page = __get_free_pages(GFP_KERNEL, order);
  233. if (first_page == 0UL)
  234. return NULL;
  235. memset((char *)first_page, 0, PAGE_SIZE << order);
  236. iommu = sdev->bus->iommu;
  237. spin_lock_irqsave(&iommu->lock, flags);
  238. iopte = alloc_consistent_cluster(iommu, size >> IO_PAGE_SHIFT);
  239. if (iopte == NULL) {
  240. spin_unlock_irqrestore(&iommu->lock, flags);
  241. free_pages(first_page, order);
  242. return NULL;
  243. }
  244. /* Ok, we're committed at this point. */
  245. *dvma_addr = MAP_BASE + ((iopte - iommu->page_table) << IO_PAGE_SHIFT);
  246. ret = (void *) first_page;
  247. npages = size >> IO_PAGE_SHIFT;
  248. while (npages--) {
  249. *iopte++ = __iopte(IOPTE_VALID | IOPTE_CACHE | IOPTE_WRITE |
  250.    (__pa(first_page) & IOPTE_PAGE));
  251. first_page += IO_PAGE_SIZE;
  252. }
  253. iommu_flush(iommu, *dvma_addr, size >> IO_PAGE_SHIFT);
  254. spin_unlock_irqrestore(&iommu->lock, flags);
  255. return ret;
  256. }
  257. void sbus_free_consistent(struct sbus_dev *sdev, size_t size, void *cpu, dma_addr_t dvma)
  258. {
  259. unsigned long order, npages;
  260. struct sbus_iommu *iommu;
  261. if (size <= 0 || sdev == NULL || cpu == NULL)
  262. return;
  263. npages = IO_PAGE_ALIGN(size) >> IO_PAGE_SHIFT;
  264. iommu = sdev->bus->iommu;
  265. spin_lock_irq(&iommu->lock);
  266. free_consistent_cluster(iommu, dvma, npages);
  267. iommu_flush(iommu, dvma, npages);
  268. spin_unlock_irq(&iommu->lock);
  269. order = get_order(size);
  270. if (order < 10)
  271. free_pages((unsigned long)cpu, order);
  272. }
  273. dma_addr_t sbus_map_single(struct sbus_dev *sdev, void *ptr, size_t size, int dir)
  274. {
  275. struct sbus_iommu *iommu = sdev->bus->iommu;
  276. unsigned long npages, pbase, flags;
  277. iopte_t *iopte;
  278. u32 dma_base, offset;
  279. unsigned long iopte_bits;
  280. if (dir == SBUS_DMA_NONE)
  281. BUG();
  282. pbase = (unsigned long) ptr;
  283. offset = (u32) (pbase & ~IO_PAGE_MASK);
  284. size = (IO_PAGE_ALIGN(pbase + size) - (pbase & IO_PAGE_MASK));
  285. pbase = (unsigned long) __pa(pbase & IO_PAGE_MASK);
  286. spin_lock_irqsave(&iommu->lock, flags);
  287. npages = size >> IO_PAGE_SHIFT;
  288. iopte = alloc_streaming_cluster(iommu, npages);
  289. if (iopte == NULL)
  290. goto bad;
  291. dma_base = MAP_BASE + ((iopte - iommu->page_table) << IO_PAGE_SHIFT);
  292. npages = size >> IO_PAGE_SHIFT;
  293. iopte_bits = IOPTE_VALID | IOPTE_STBUF | IOPTE_CACHE;
  294. if (dir != SBUS_DMA_TODEVICE)
  295. iopte_bits |= IOPTE_WRITE;
  296. while (npages--) {
  297. *iopte++ = __iopte(iopte_bits | (pbase & IOPTE_PAGE));
  298. pbase += IO_PAGE_SIZE;
  299. }
  300. npages = size >> IO_PAGE_SHIFT;
  301. spin_unlock_irqrestore(&iommu->lock, flags);
  302. return (dma_base | offset);
  303. bad:
  304. spin_unlock_irqrestore(&iommu->lock, flags);
  305. BUG();
  306. return 0;
  307. }
  308. void sbus_unmap_single(struct sbus_dev *sdev, dma_addr_t dma_addr, size_t size, int direction)
  309. {
  310. struct sbus_iommu *iommu = sdev->bus->iommu;
  311. u32 dma_base = dma_addr & IO_PAGE_MASK;
  312. unsigned long flags;
  313. size = (IO_PAGE_ALIGN(dma_addr + size) - dma_base);
  314. spin_lock_irqsave(&iommu->lock, flags);
  315. free_streaming_cluster(iommu, dma_base, size >> IO_PAGE_SHIFT);
  316. strbuf_flush(iommu, dma_base, size >> IO_PAGE_SHIFT);
  317. spin_unlock_irqrestore(&iommu->lock, flags);
  318. }
  319. #define SG_ENT_PHYS_ADDRESS(SG)
  320. ((SG)->address ? 
  321.  __pa((SG)->address) : 
  322.  (__pa(page_address((SG)->page)) + (SG)->offset))
  323. static inline void fill_sg(iopte_t *iopte, struct scatterlist *sg, int nused, int nelems, unsigned long iopte_bits)
  324. {
  325. struct scatterlist *dma_sg = sg;
  326. struct scatterlist *sg_end = sg + nelems;
  327. int i;
  328. for (i = 0; i < nused; i++) {
  329. unsigned long pteval = ~0UL;
  330. u32 dma_npages;
  331. dma_npages = ((dma_sg->dma_address & (IO_PAGE_SIZE - 1UL)) +
  332.       dma_sg->dma_length +
  333.       ((IO_PAGE_SIZE - 1UL))) >> IO_PAGE_SHIFT;
  334. do {
  335. unsigned long offset;
  336. signed int len;
  337. /* If we are here, we know we have at least one
  338.  * more page to map.  So walk forward until we
  339.  * hit a page crossing, and begin creating new
  340.  * mappings from that spot.
  341.  */
  342. for (;;) {
  343. unsigned long tmp;
  344. tmp = (unsigned long) SG_ENT_PHYS_ADDRESS(sg);
  345. len = sg->length;
  346. if (((tmp ^ pteval) >> IO_PAGE_SHIFT) != 0UL) {
  347. pteval = tmp & IO_PAGE_MASK;
  348. offset = tmp & (IO_PAGE_SIZE - 1UL);
  349. break;
  350. }
  351. if (((tmp ^ (tmp + len - 1UL)) >> IO_PAGE_SHIFT) != 0UL) {
  352. pteval = (tmp + IO_PAGE_SIZE) & IO_PAGE_MASK;
  353. offset = 0UL;
  354. len -= (IO_PAGE_SIZE - (tmp & (IO_PAGE_SIZE - 1UL)));
  355. break;
  356. }
  357. sg++;
  358. }
  359. pteval = ((pteval & IOPTE_PAGE) | iopte_bits);
  360. while (len > 0) {
  361. *iopte++ = __iopte(pteval);
  362. pteval += IO_PAGE_SIZE;
  363. len -= (IO_PAGE_SIZE - offset);
  364. offset = 0;
  365. dma_npages--;
  366. }
  367. pteval = (pteval & IOPTE_PAGE) + len;
  368. sg++;
  369. /* Skip over any tail mappings we've fully mapped,
  370.  * adjusting pteval along the way.  Stop when we
  371.  * detect a page crossing event.
  372.  */
  373. while (sg < sg_end &&
  374.        (pteval << (64 - IO_PAGE_SHIFT)) != 0UL &&
  375.        (pteval == SG_ENT_PHYS_ADDRESS(sg)) &&
  376.        ((pteval ^
  377.  (SG_ENT_PHYS_ADDRESS(sg) + sg->length - 1UL)) >> IO_PAGE_SHIFT) == 0UL) {
  378. pteval += sg->length;
  379. sg++;
  380. }
  381. if ((pteval << (64 - IO_PAGE_SHIFT)) == 0UL)
  382. pteval = ~0UL;
  383. } while (dma_npages != 0);
  384. dma_sg++;
  385. }
  386. }
  387. int sbus_map_sg(struct sbus_dev *sdev, struct scatterlist *sg, int nents, int dir)
  388. {
  389. struct sbus_iommu *iommu = sdev->bus->iommu;
  390. unsigned long flags, npages;
  391. iopte_t *iopte;
  392. u32 dma_base;
  393. struct scatterlist *sgtmp;
  394. int used;
  395. unsigned long iopte_bits;
  396. if (dir == SBUS_DMA_NONE)
  397. BUG();
  398. /* Fast path single entry scatterlists. */
  399. if (nents == 1) {
  400. sg->dma_address =
  401. sbus_map_single(sdev,
  402. (sg->address ?
  403.  sg->address :
  404.  (page_address(sg->page) + sg->offset)),
  405. sg->length, dir);
  406. sg->dma_length = sg->length;
  407. return 1;
  408. }
  409. npages = prepare_sg(sg, nents);
  410. spin_lock_irqsave(&iommu->lock, flags);
  411. iopte = alloc_streaming_cluster(iommu, npages);
  412. if (iopte == NULL)
  413. goto bad;
  414. dma_base = MAP_BASE + ((iopte - iommu->page_table) << IO_PAGE_SHIFT);
  415. /* Normalize DVMA addresses. */
  416. sgtmp = sg;
  417. used = nents;
  418. while (used && sgtmp->dma_length) {
  419. sgtmp->dma_address += dma_base;
  420. sgtmp++;
  421. used--;
  422. }
  423. used = nents - used;
  424. iopte_bits = IOPTE_VALID | IOPTE_STBUF | IOPTE_CACHE;
  425. if (dir != SBUS_DMA_TODEVICE)
  426. iopte_bits |= IOPTE_WRITE;
  427. fill_sg(iopte, sg, used, nents, iopte_bits);
  428. #ifdef VERIFY_SG
  429. verify_sglist(sg, nents, iopte, npages);
  430. #endif
  431. spin_unlock_irqrestore(&iommu->lock, flags);
  432. return used;
  433. bad:
  434. spin_unlock_irqrestore(&iommu->lock, flags);
  435. BUG();
  436. return 0;
  437. }
  438. void sbus_unmap_sg(struct sbus_dev *sdev, struct scatterlist *sg, int nents, int direction)
  439. {
  440. unsigned long size, flags;
  441. struct sbus_iommu *iommu;
  442. u32 dvma_base;
  443. int i;
  444. /* Fast path single entry scatterlists. */
  445. if (nents == 1) {
  446. sbus_unmap_single(sdev, sg->dma_address, sg->dma_length, direction);
  447. return;
  448. }
  449. dvma_base = sg[0].dma_address & IO_PAGE_MASK;
  450. for (i = 0; i < nents; i++) {
  451. if (sg[i].dma_length == 0)
  452. break;
  453. }
  454. i--;
  455. size = IO_PAGE_ALIGN(sg[i].dma_address + sg[i].dma_length) - dvma_base;
  456. iommu = sdev->bus->iommu;
  457. spin_lock_irqsave(&iommu->lock, flags);
  458. free_streaming_cluster(iommu, dvma_base, size >> IO_PAGE_SHIFT);
  459. strbuf_flush(iommu, dvma_base, size >> IO_PAGE_SHIFT);
  460. spin_unlock_irqrestore(&iommu->lock, flags);
  461. }
  462. void sbus_dma_sync_single(struct sbus_dev *sdev, dma_addr_t base, size_t size, int direction)
  463. {
  464. struct sbus_iommu *iommu = sdev->bus->iommu;
  465. unsigned long flags;
  466. size = (IO_PAGE_ALIGN(base + size) - (base & IO_PAGE_MASK));
  467. spin_lock_irqsave(&iommu->lock, flags);
  468. strbuf_flush(iommu, base & IO_PAGE_MASK, size >> IO_PAGE_SHIFT);
  469. spin_unlock_irqrestore(&iommu->lock, flags);
  470. }
  471. void sbus_dma_sync_sg(struct sbus_dev *sdev, struct scatterlist *sg, int nents, int direction)
  472. {
  473. struct sbus_iommu *iommu = sdev->bus->iommu;
  474. unsigned long flags, size;
  475. u32 base;
  476. int i;
  477. base = sg[0].dma_address & IO_PAGE_MASK;
  478. for (i = 0; i < nents; i++) {
  479. if (sg[i].dma_length == 0)
  480. break;
  481. }
  482. i--;
  483. size = IO_PAGE_ALIGN(sg[i].dma_address + sg[i].dma_length) - base;
  484. spin_lock_irqsave(&iommu->lock, flags);
  485. strbuf_flush(iommu, base, size >> IO_PAGE_SHIFT);
  486. spin_unlock_irqrestore(&iommu->lock, flags);
  487. }
  488. /* Enable 64-bit DVMA mode for the given device. */
  489. void sbus_set_sbus64(struct sbus_dev *sdev, int bursts)
  490. {
  491. struct sbus_iommu *iommu = sdev->bus->iommu;
  492. int slot = sdev->slot;
  493. unsigned long cfg_reg;
  494. u64 val;
  495. cfg_reg = iommu->sbus_control_reg;
  496. switch (slot) {
  497. case 0:
  498. cfg_reg += 0x20UL;
  499. break;
  500. case 1:
  501. cfg_reg += 0x28UL;
  502. break;
  503. case 2:
  504. cfg_reg += 0x30UL;
  505. break;
  506. case 3:
  507. cfg_reg += 0x38UL;
  508. break;
  509. case 13:
  510. cfg_reg += 0x40UL;
  511. break;
  512. case 14:
  513. cfg_reg += 0x48UL;
  514. break;
  515. case 15:
  516. cfg_reg += 0x50UL;
  517. break;
  518. default:
  519. return;
  520. };
  521. val = upa_readq(cfg_reg);
  522. if (val & (1UL << 14UL)) {
  523. /* Extended transfer mode already enabled. */
  524. return;
  525. }
  526. val |= (1UL << 14UL);
  527. if (bursts & DMA_BURST8)
  528. val |= (1UL << 1UL);
  529. if (bursts & DMA_BURST16)
  530. val |= (1UL << 2UL);
  531. if (bursts & DMA_BURST32)
  532. val |= (1UL << 3UL);
  533. if (bursts & DMA_BURST64)
  534. val |= (1UL << 4UL);
  535. upa_writeq(val, cfg_reg);
  536. }
  537. /* SBUS SYSIO INO number to Sparc PIL level. */
  538. static unsigned char sysio_ino_to_pil[] = {
  539. 0, 1, 2, 7, 5, 7, 8, 9, /* SBUS slot 0 */
  540. 0, 1, 2, 7, 5, 7, 8, 9, /* SBUS slot 1 */
  541. 0, 1, 2, 7, 5, 7, 8, 9, /* SBUS slot 2 */
  542. 0, 1, 2, 7, 5, 7, 8, 9, /* SBUS slot 3 */
  543. 3, /* Onboard SCSI */
  544. 5, /* Onboard Ethernet */
  545. /*XXX*/ 8, /* Onboard BPP */
  546. 0, /* Bogon */
  547.        13, /* Audio */
  548. /*XXX*/15, /* PowerFail */
  549. 0, /* Bogon */
  550. 0, /* Bogon */
  551.        12, /* Zilog Serial Channels (incl. Keyboard/Mouse lines) */
  552.        11, /* Floppy */
  553. 0, /* Spare Hardware (bogon for now) */
  554. 0, /* Keyboard (bogon for now) */
  555. 0, /* Mouse (bogon for now) */
  556. 0, /* Serial (bogon for now) */
  557.      0, 0, /* Bogon, Bogon */
  558.        10, /* Timer 0 */
  559.        11, /* Timer 1 */
  560.      0, 0, /* Bogon, Bogon */
  561.        15, /* Uncorrectable SBUS Error */
  562.        15, /* Correctable SBUS Error */
  563.        15, /* SBUS Error */
  564. /*XXX*/ 0, /* Power Management (bogon for now) */
  565. };
  566. /* INO number to IMAP register offset for SYSIO external IRQ's.
  567.  * This should conform to both Sunfire/Wildfire server and Fusion
  568.  * desktop designs.
  569.  */
  570. #define SYSIO_IMAP_SLOT0 0x2c04UL
  571. #define SYSIO_IMAP_SLOT1 0x2c0cUL
  572. #define SYSIO_IMAP_SLOT2 0x2c14UL
  573. #define SYSIO_IMAP_SLOT3 0x2c1cUL
  574. #define SYSIO_IMAP_SCSI 0x3004UL
  575. #define SYSIO_IMAP_ETH 0x300cUL
  576. #define SYSIO_IMAP_BPP 0x3014UL
  577. #define SYSIO_IMAP_AUDIO 0x301cUL
  578. #define SYSIO_IMAP_PFAIL 0x3024UL
  579. #define SYSIO_IMAP_KMS 0x302cUL
  580. #define SYSIO_IMAP_FLPY 0x3034UL
  581. #define SYSIO_IMAP_SHW 0x303cUL
  582. #define SYSIO_IMAP_KBD 0x3044UL
  583. #define SYSIO_IMAP_MS 0x304cUL
  584. #define SYSIO_IMAP_SER 0x3054UL
  585. #define SYSIO_IMAP_TIM0 0x3064UL
  586. #define SYSIO_IMAP_TIM1 0x306cUL
  587. #define SYSIO_IMAP_UE 0x3074UL
  588. #define SYSIO_IMAP_CE 0x307cUL
  589. #define SYSIO_IMAP_SBERR 0x3084UL
  590. #define SYSIO_IMAP_PMGMT 0x308cUL
  591. #define SYSIO_IMAP_GFX 0x3094UL
  592. #define SYSIO_IMAP_EUPA 0x309cUL
  593. #define bogon     ((unsigned long) -1)
  594. static unsigned long sysio_irq_offsets[] = {
  595. /* SBUS Slot 0 --> 3, level 1 --> 7 */
  596. SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0,
  597. SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0, SYSIO_IMAP_SLOT0,
  598. SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1,
  599. SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1, SYSIO_IMAP_SLOT1,
  600. SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2,
  601. SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2, SYSIO_IMAP_SLOT2,
  602. SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3,
  603. SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3, SYSIO_IMAP_SLOT3,
  604. /* Onboard devices (not relevant/used on SunFire). */
  605. SYSIO_IMAP_SCSI,
  606. SYSIO_IMAP_ETH,
  607. SYSIO_IMAP_BPP,
  608. bogon,
  609. SYSIO_IMAP_AUDIO,
  610. SYSIO_IMAP_PFAIL,
  611. bogon,
  612. bogon,
  613. SYSIO_IMAP_KMS,
  614. SYSIO_IMAP_FLPY,
  615. SYSIO_IMAP_SHW,
  616. SYSIO_IMAP_KBD,
  617. SYSIO_IMAP_MS,
  618. SYSIO_IMAP_SER,
  619. bogon,
  620. bogon,
  621. SYSIO_IMAP_TIM0,
  622. SYSIO_IMAP_TIM1,
  623. bogon,
  624. bogon,
  625. SYSIO_IMAP_UE,
  626. SYSIO_IMAP_CE,
  627. SYSIO_IMAP_SBERR,
  628. SYSIO_IMAP_PMGMT,
  629. };
  630. #undef bogon
  631. #define NUM_SYSIO_OFFSETS (sizeof(sysio_irq_offsets) / sizeof(sysio_irq_offsets[0]))
  632. /* Convert Interrupt Mapping register pointer to assosciated
  633.  * Interrupt Clear register pointer, SYSIO specific version.
  634.  */
  635. #define SYSIO_ICLR_UNUSED0 0x3400UL
  636. #define SYSIO_ICLR_SLOT0 0x340cUL
  637. #define SYSIO_ICLR_SLOT1 0x344cUL
  638. #define SYSIO_ICLR_SLOT2 0x348cUL
  639. #define SYSIO_ICLR_SLOT3 0x34ccUL
  640. static unsigned long sysio_imap_to_iclr(unsigned long imap)
  641. {
  642. unsigned long diff = SYSIO_ICLR_UNUSED0 - SYSIO_IMAP_SLOT0;
  643. return imap + diff;
  644. }
  645. unsigned int sbus_build_irq(void *buscookie, unsigned int ino)
  646. {
  647. struct sbus_bus *sbus = (struct sbus_bus *)buscookie;
  648. struct sbus_iommu *iommu = sbus->iommu;
  649. unsigned long reg_base = iommu->sbus_control_reg - 0x2000UL;
  650. unsigned long imap, iclr;
  651. int pil, sbus_level = 0;
  652. pil = sysio_ino_to_pil[ino];
  653. if (!pil) {
  654. printk("sbus_irq_build: Bad SYSIO INO[%x]n", ino);
  655. panic("Bad SYSIO IRQ translations...");
  656. }
  657. imap = sysio_irq_offsets[ino];
  658. if (imap == ((unsigned long)-1)) {
  659. prom_printf("get_irq_translations: Bad SYSIO INO[%x] cpu[%d]n",
  660.     ino, pil);
  661. prom_halt();
  662. }
  663. imap += reg_base;
  664. /* SYSIO inconsistancy.  For external SLOTS, we have to select
  665.  * the right ICLR register based upon the lower SBUS irq level
  666.  * bits.
  667.  */
  668. if (ino >= 0x20) {
  669. iclr = sysio_imap_to_iclr(imap);
  670. } else {
  671. int sbus_slot = (ino & 0x18)>>3;
  672. sbus_level = ino & 0x7;
  673. switch(sbus_slot) {
  674. case 0:
  675. iclr = reg_base + SYSIO_ICLR_SLOT0;
  676. break;
  677. case 1:
  678. iclr = reg_base + SYSIO_ICLR_SLOT1;
  679. break;
  680. case 2:
  681. iclr = reg_base + SYSIO_ICLR_SLOT2;
  682. break;
  683. default:
  684. case 3:
  685. iclr = reg_base + SYSIO_ICLR_SLOT3;
  686. break;
  687. };
  688. iclr += ((unsigned long)sbus_level - 1UL) * 8UL;
  689. }
  690. return build_irq(pil, sbus_level, iclr, imap);
  691. }
  692. /* Error interrupt handling. */
  693. #define SYSIO_UE_AFSR 0x0030UL
  694. #define SYSIO_UE_AFAR 0x0038UL
  695. #define  SYSIO_UEAFSR_PPIO 0x8000000000000000 /* Primary PIO is cause         */
  696. #define  SYSIO_UEAFSR_PDRD 0x4000000000000000 /* Primary DVMA read is cause   */
  697. #define  SYSIO_UEAFSR_PDWR 0x2000000000000000 /* Primary DVMA write is cause  */
  698. #define  SYSIO_UEAFSR_SPIO 0x1000000000000000 /* Secondary PIO is cause       */
  699. #define  SYSIO_UEAFSR_SDRD 0x0800000000000000 /* Secondary DVMA read is cause */
  700. #define  SYSIO_UEAFSR_SDWR 0x0400000000000000 /* Secondary DVMA write is cause*/
  701. #define  SYSIO_UEAFSR_RESV1 0x03ff000000000000 /* Reserved                     */
  702. #define  SYSIO_UEAFSR_DOFF 0x0000e00000000000 /* Doubleword Offset            */
  703. #define  SYSIO_UEAFSR_SIZE 0x00001c0000000000 /* Bad transfer size is 2**SIZE */
  704. #define  SYSIO_UEAFSR_MID 0x000003e000000000 /* UPA MID causing the fault    */
  705. #define  SYSIO_UEAFSR_RESV2 0x0000001fffffffff /* Reserved                     */
  706. static void sysio_ue_handler(int irq, void *dev_id, struct pt_regs *regs)
  707. {
  708. struct sbus_bus *sbus = dev_id;
  709. struct sbus_iommu *iommu = sbus->iommu;
  710. unsigned long reg_base = iommu->sbus_control_reg - 0x2000UL;
  711. unsigned long afsr_reg, afar_reg;
  712. unsigned long afsr, afar, error_bits;
  713. int reported;
  714. afsr_reg = reg_base + SYSIO_UE_AFSR;
  715. afar_reg = reg_base + SYSIO_UE_AFAR;
  716. /* Latch error status. */
  717. afsr = upa_readq(afsr_reg);
  718. afar = upa_readq(afar_reg);
  719. /* Clear primary/secondary error status bits. */
  720. error_bits = afsr &
  721. (SYSIO_UEAFSR_PPIO | SYSIO_UEAFSR_PDRD | SYSIO_UEAFSR_PDWR |
  722.  SYSIO_UEAFSR_SPIO | SYSIO_UEAFSR_SDRD | SYSIO_UEAFSR_SDWR);
  723. upa_writeq(error_bits, afsr_reg);
  724. /* Log the error. */
  725. printk("SYSIO[%x]: Uncorrectable ECC Error, primary error type[%s]n",
  726.        sbus->portid,
  727.        (((error_bits & SYSIO_UEAFSR_PPIO) ?
  728.  "PIO" :
  729.  ((error_bits & SYSIO_UEAFSR_PDRD) ?
  730.   "DVMA Read" :
  731.   ((error_bits & SYSIO_UEAFSR_PDWR) ?
  732.    "DVMA Write" : "???")))));
  733. printk("SYSIO[%x]: DOFF[%lx] SIZE[%lx] MID[%lx]n",
  734.        sbus->portid,
  735.        (afsr & SYSIO_UEAFSR_DOFF) >> 45UL,
  736.        (afsr & SYSIO_UEAFSR_SIZE) >> 42UL,
  737.        (afsr & SYSIO_UEAFSR_MID) >> 37UL);
  738. printk("SYSIO[%x]: AFAR[%016lx]n", sbus->portid, afar);
  739. printk("SYSIO[%x]: Secondary UE errors [", sbus->portid);
  740. reported = 0;
  741. if (afsr & SYSIO_UEAFSR_SPIO) {
  742. reported++;
  743. printk("(PIO)");
  744. }
  745. if (afsr & SYSIO_UEAFSR_SDRD) {
  746. reported++;
  747. printk("(DVMA Read)");
  748. }
  749. if (afsr & SYSIO_UEAFSR_SDWR) {
  750. reported++;
  751. printk("(DVMA Write)");
  752. }
  753. if (!reported)
  754. printk("(none)");
  755. printk("]n");
  756. }
  757. #define SYSIO_CE_AFSR 0x0040UL
  758. #define SYSIO_CE_AFAR 0x0048UL
  759. #define  SYSIO_CEAFSR_PPIO 0x8000000000000000 /* Primary PIO is cause         */
  760. #define  SYSIO_CEAFSR_PDRD 0x4000000000000000 /* Primary DVMA read is cause   */
  761. #define  SYSIO_CEAFSR_PDWR 0x2000000000000000 /* Primary DVMA write is cause  */
  762. #define  SYSIO_CEAFSR_SPIO 0x1000000000000000 /* Secondary PIO is cause       */
  763. #define  SYSIO_CEAFSR_SDRD 0x0800000000000000 /* Secondary DVMA read is cause */
  764. #define  SYSIO_CEAFSR_SDWR 0x0400000000000000 /* Secondary DVMA write is cause*/
  765. #define  SYSIO_CEAFSR_RESV1 0x0300000000000000 /* Reserved                     */
  766. #define  SYSIO_CEAFSR_ESYND 0x00ff000000000000 /* Syndrome Bits                */
  767. #define  SYSIO_CEAFSR_DOFF 0x0000e00000000000 /* Double Offset                */
  768. #define  SYSIO_CEAFSR_SIZE 0x00001c0000000000 /* Bad transfer size is 2**SIZE */
  769. #define  SYSIO_CEAFSR_MID 0x000003e000000000 /* UPA MID causing the fault    */
  770. #define  SYSIO_CEAFSR_RESV2 0x0000001fffffffff /* Reserved                     */
  771. static void sysio_ce_handler(int irq, void *dev_id, struct pt_regs *regs)
  772. {
  773. struct sbus_bus *sbus = dev_id;
  774. struct sbus_iommu *iommu = sbus->iommu;
  775. unsigned long reg_base = iommu->sbus_control_reg - 0x2000UL;
  776. unsigned long afsr_reg, afar_reg;
  777. unsigned long afsr, afar, error_bits;
  778. int reported;
  779. afsr_reg = reg_base + SYSIO_CE_AFSR;
  780. afar_reg = reg_base + SYSIO_CE_AFAR;
  781. /* Latch error status. */
  782. afsr = upa_readq(afsr_reg);
  783. afar = upa_readq(afar_reg);
  784. /* Clear primary/secondary error status bits. */
  785. error_bits = afsr &
  786. (SYSIO_CEAFSR_PPIO | SYSIO_CEAFSR_PDRD | SYSIO_CEAFSR_PDWR |
  787.  SYSIO_CEAFSR_SPIO | SYSIO_CEAFSR_SDRD | SYSIO_CEAFSR_SDWR);
  788. upa_writeq(error_bits, afsr_reg);
  789. printk("SYSIO[%x]: Correctable ECC Error, primary error type[%s]n",
  790.        sbus->portid,
  791.        (((error_bits & SYSIO_CEAFSR_PPIO) ?
  792.  "PIO" :
  793.  ((error_bits & SYSIO_CEAFSR_PDRD) ?
  794.   "DVMA Read" :
  795.   ((error_bits & SYSIO_CEAFSR_PDWR) ?
  796.    "DVMA Write" : "???")))));
  797. /* XXX Use syndrome and afar to print out module string just like
  798.  * XXX UDB CE trap handler does... -DaveM
  799.  */
  800. printk("SYSIO[%x]: DOFF[%lx] ECC Syndrome[%lx] Size[%lx] MID[%lx]n",
  801.        sbus->portid,
  802.        (afsr & SYSIO_CEAFSR_DOFF) >> 45UL,
  803.        (afsr & SYSIO_CEAFSR_ESYND) >> 48UL,
  804.        (afsr & SYSIO_CEAFSR_SIZE) >> 42UL,
  805.        (afsr & SYSIO_CEAFSR_MID) >> 37UL);
  806. printk("SYSIO[%x]: AFAR[%016lx]n", sbus->portid, afar);
  807. printk("SYSIO[%x]: Secondary CE errors [", sbus->portid);
  808. reported = 0;
  809. if (afsr & SYSIO_CEAFSR_SPIO) {
  810. reported++;
  811. printk("(PIO)");
  812. }
  813. if (afsr & SYSIO_CEAFSR_SDRD) {
  814. reported++;
  815. printk("(DVMA Read)");
  816. }
  817. if (afsr & SYSIO_CEAFSR_SDWR) {
  818. reported++;
  819. printk("(DVMA Write)");
  820. }
  821. if (!reported)
  822. printk("(none)");
  823. printk("]n");
  824. }
  825. #define SYSIO_SBUS_AFSR 0x2010UL
  826. #define SYSIO_SBUS_AFAR 0x2018UL
  827. #define  SYSIO_SBAFSR_PLE 0x8000000000000000 /* Primary Late PIO Error       */
  828. #define  SYSIO_SBAFSR_PTO 0x4000000000000000 /* Primary SBUS Timeout         */
  829. #define  SYSIO_SBAFSR_PBERR 0x2000000000000000 /* Primary SBUS Error ACK       */
  830. #define  SYSIO_SBAFSR_SLE 0x1000000000000000 /* Secondary Late PIO Error     */
  831. #define  SYSIO_SBAFSR_STO 0x0800000000000000 /* Secondary SBUS Timeout       */
  832. #define  SYSIO_SBAFSR_SBERR 0x0400000000000000 /* Secondary SBUS Error ACK     */
  833. #define  SYSIO_SBAFSR_RESV1 0x03ff000000000000 /* Reserved                     */
  834. #define  SYSIO_SBAFSR_RD 0x0000800000000000 /* Primary was late PIO read    */
  835. #define  SYSIO_SBAFSR_RESV2 0x0000600000000000 /* Reserved                     */
  836. #define  SYSIO_SBAFSR_SIZE 0x00001c0000000000 /* Size of transfer             */
  837. #define  SYSIO_SBAFSR_MID 0x000003e000000000 /* MID causing the error        */
  838. #define  SYSIO_SBAFSR_RESV3 0x0000001fffffffff /* Reserved                     */
  839. static void sysio_sbus_error_handler(int irq, void *dev_id, struct pt_regs *regs)
  840. {
  841. struct sbus_bus *sbus = dev_id;
  842. struct sbus_iommu *iommu = sbus->iommu;
  843. unsigned long afsr_reg, afar_reg, reg_base;
  844. unsigned long afsr, afar, error_bits;
  845. int reported;
  846. reg_base = iommu->sbus_control_reg - 0x2000UL;
  847. afsr_reg = reg_base + SYSIO_SBUS_AFSR;
  848. afar_reg = reg_base + SYSIO_SBUS_AFAR;
  849. afsr = upa_readq(afsr_reg);
  850. afar = upa_readq(afar_reg);
  851. /* Clear primary/secondary error status bits. */
  852. error_bits = afsr &
  853. (SYSIO_SBAFSR_PLE | SYSIO_SBAFSR_PTO | SYSIO_SBAFSR_PBERR |
  854.  SYSIO_SBAFSR_SLE | SYSIO_SBAFSR_STO | SYSIO_SBAFSR_SBERR);
  855. upa_writeq(error_bits, afsr_reg);
  856. /* Log the error. */
  857. printk("SYSIO[%x]: SBUS Error, primary error type[%s] read(%d)n",
  858.        sbus->portid,
  859.        (((error_bits & SYSIO_SBAFSR_PLE) ?
  860.  "Late PIO Error" :
  861.  ((error_bits & SYSIO_SBAFSR_PTO) ?
  862.   "Time Out" :
  863.   ((error_bits & SYSIO_SBAFSR_PBERR) ?
  864.    "Error Ack" : "???")))),
  865.        (afsr & SYSIO_SBAFSR_RD) ? 1 : 0);
  866. printk("SYSIO[%x]: size[%lx] MID[%lx]n",
  867.        sbus->portid,
  868.        (afsr & SYSIO_SBAFSR_SIZE) >> 42UL,
  869.        (afsr & SYSIO_SBAFSR_MID) >> 37UL);
  870. printk("SYSIO[%x]: AFAR[%016lx]n", sbus->portid, afar);
  871. printk("SYSIO[%x]: Secondary SBUS errors [", sbus->portid);
  872. reported = 0;
  873. if (afsr & SYSIO_SBAFSR_SLE) {
  874. reported++;
  875. printk("(Late PIO Error)");
  876. }
  877. if (afsr & SYSIO_SBAFSR_STO) {
  878. reported++;
  879. printk("(Time Out)");
  880. }
  881. if (afsr & SYSIO_SBAFSR_SBERR) {
  882. reported++;
  883. printk("(Error Ack)");
  884. }
  885. if (!reported)
  886. printk("(none)");
  887. printk("]n");
  888. /* XXX check iommu/strbuf for further error status XXX */
  889. }
  890. #define ECC_CONTROL 0x0020UL
  891. #define  SYSIO_ECNTRL_ECCEN 0x8000000000000000 /* Enable ECC Checking          */
  892. #define  SYSIO_ECNTRL_UEEN 0x4000000000000000 /* Enable UE Interrupts         */
  893. #define  SYSIO_ECNTRL_CEEN 0x2000000000000000 /* Enable CE Interrupts         */
  894. #define SYSIO_UE_INO 0x34
  895. #define SYSIO_CE_INO 0x35
  896. #define SYSIO_SBUSERR_INO 0x36
  897. static void __init sysio_register_error_handlers(struct sbus_bus *sbus)
  898. {
  899. struct sbus_iommu *iommu = sbus->iommu;
  900. unsigned long reg_base = iommu->sbus_control_reg - 0x2000UL;
  901. unsigned int irq;
  902. u64 control;
  903. irq = sbus_build_irq(sbus, SYSIO_UE_INO);
  904. if (request_irq(irq, sysio_ue_handler,
  905. SA_SHIRQ, "SYSIO UE", sbus) < 0) {
  906. prom_printf("SYSIO[%x]: Cannot register UE interrupt.n",
  907.     sbus->portid);
  908. prom_halt();
  909. }
  910. irq = sbus_build_irq(sbus, SYSIO_CE_INO);
  911. if (request_irq(irq, sysio_ce_handler,
  912. SA_SHIRQ, "SYSIO CE", sbus) < 0) {
  913. prom_printf("SYSIO[%x]: Cannot register CE interrupt.n",
  914.     sbus->portid);
  915. prom_halt();
  916. }
  917. irq = sbus_build_irq(sbus, SYSIO_SBUSERR_INO);
  918. if (request_irq(irq, sysio_sbus_error_handler,
  919. SA_SHIRQ, "SYSIO SBUS Error", sbus) < 0) {
  920. prom_printf("SYSIO[%x]: Cannot register SBUS Error interrupt.n",
  921.     sbus->portid);
  922. prom_halt();
  923. }
  924. /* Now turn the error interrupts on and also enable ECC checking. */
  925. upa_writeq((SYSIO_ECNTRL_ECCEN |
  926.     SYSIO_ECNTRL_UEEN  |
  927.     SYSIO_ECNTRL_CEEN),
  928.    reg_base + ECC_CONTROL);
  929. control = upa_readq(iommu->sbus_control_reg);
  930. control |= 0x100UL; /* SBUS Error Interrupt Enable */
  931. upa_writeq(control, iommu->sbus_control_reg);
  932. }
  933. /* Boot time initialization. */
  934. void __init sbus_iommu_init(int prom_node, struct sbus_bus *sbus)
  935. {
  936. struct linux_prom64_registers rprop;
  937. struct sbus_iommu *iommu;
  938. unsigned long regs, tsb_base;
  939. u64 control;
  940. int err, i;
  941. sbus->portid = prom_getintdefault(sbus->prom_node,
  942.   "upa-portid", -1);
  943. err = prom_getproperty(prom_node, "reg",
  944.        (char *)&rprop, sizeof(rprop));
  945. if (err < 0) {
  946. prom_printf("sbus_iommu_init: Cannot map SYSIO control registers.n");
  947. prom_halt();
  948. }
  949. regs = rprop.phys_addr;
  950. iommu = kmalloc(sizeof(*iommu) + SMP_CACHE_BYTES, GFP_ATOMIC);
  951. if (iommu == NULL) {
  952. prom_printf("sbus_iommu_init: Fatal error, kmalloc(iommu) failedn");
  953. prom_halt();
  954. }
  955. /* Align on E$ line boundry. */
  956. iommu = (struct sbus_iommu *)
  957. (((unsigned long)iommu + (SMP_CACHE_BYTES - 1UL)) &
  958.  ~(SMP_CACHE_BYTES - 1UL));
  959. memset(iommu, 0, sizeof(*iommu));
  960. /* We start with no consistent mappings. */
  961. iommu->lowest_consistent_map = CLUSTER_NPAGES;
  962. for (i = 0; i < NCLUSTERS; i++) {
  963. iommu->alloc_info[i].flush = 0;
  964. iommu->alloc_info[i].next = 0;
  965. }
  966. /* Setup spinlock. */
  967. spin_lock_init(&iommu->lock);
  968. /* Init register offsets. */
  969. iommu->iommu_regs = regs + SYSIO_IOMMUREG_BASE;
  970. iommu->strbuf_regs = regs + SYSIO_STRBUFREG_BASE;
  971. /* The SYSIO SBUS control register is used for dummy reads
  972.  * in order to ensure write completion.
  973.  */
  974. iommu->sbus_control_reg = regs + 0x2000UL;
  975. /* Link into SYSIO software state. */
  976. sbus->iommu = iommu;
  977. printk("SYSIO: UPA portID %x, at %016lxn",
  978.        sbus->portid, regs);
  979. /* Setup for TSB_SIZE=7, TBW_SIZE=0, MMU_DE=1, MMU_EN=1 */
  980. control = upa_readq(iommu->iommu_regs + IOMMU_CONTROL);
  981. control = ((7UL << 16UL) |
  982.    (0UL << 2UL) |
  983.    (1UL << 1UL) |
  984.    (1UL << 0UL));
  985. /* Using the above configuration we need 1MB iommu page
  986.  * table (128K ioptes * 8 bytes per iopte).  This is
  987.  * page order 7 on UltraSparc.
  988.  */
  989. tsb_base = __get_free_pages(GFP_ATOMIC, get_order(IO_TSB_SIZE));
  990. if (tsb_base == 0UL) {
  991. prom_printf("sbus_iommu_init: Fatal error, cannot alloc TSB table.n");
  992. prom_halt();
  993. }
  994. iommu->page_table = (iopte_t *) tsb_base;
  995. memset(iommu->page_table, 0, IO_TSB_SIZE);
  996. upa_writeq(control, iommu->iommu_regs + IOMMU_CONTROL);
  997. /* Clean out any cruft in the IOMMU using
  998.  * diagnostic accesses.
  999.  */
  1000. for (i = 0; i < 16; i++) {
  1001. unsigned long dram = iommu->iommu_regs + IOMMU_DRAMDIAG;
  1002. unsigned long tag = iommu->iommu_regs + IOMMU_TAGDIAG;
  1003. dram += (unsigned long)i * 8UL;
  1004. tag += (unsigned long)i * 8UL;
  1005. upa_writeq(0, dram);
  1006. upa_writeq(0, tag);
  1007. }
  1008. upa_readq(iommu->sbus_control_reg);
  1009. /* Give the TSB to SYSIO. */
  1010. upa_writeq(__pa(tsb_base), iommu->iommu_regs + IOMMU_TSBBASE);
  1011. /* Setup streaming buffer, DE=1 SB_EN=1 */
  1012. control = (1UL << 1UL) | (1UL << 0UL);
  1013. upa_writeq(control, iommu->strbuf_regs + STRBUF_CONTROL);
  1014. /* Clear out the tags using diagnostics. */
  1015. for (i = 0; i < 16; i++) {
  1016. unsigned long ptag, ltag;
  1017. ptag = iommu->strbuf_regs + STRBUF_PTAGDIAG;
  1018. ltag = iommu->strbuf_regs + STRBUF_LTAGDIAG;
  1019. ptag += (unsigned long)i * 8UL;
  1020. ltag += (unsigned long)i * 8UL;
  1021. upa_writeq(0UL, ptag);
  1022. upa_writeq(0UL, ltag);
  1023. }
  1024. /* Enable DVMA arbitration for all devices/slots. */
  1025. control = upa_readq(iommu->sbus_control_reg);
  1026. control |= 0x3fUL;
  1027. upa_writeq(control, iommu->sbus_control_reg);
  1028. /* Now some Xfire specific grot... */
  1029. if (this_is_starfire)
  1030. sbus->starfire_cookie = starfire_hookup(sbus->portid);
  1031. else
  1032. sbus->starfire_cookie = NULL;
  1033. sysio_register_error_handlers(sbus);
  1034. }