qlogicpti.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:42k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* qlogicpti.c: Performance Technologies QlogicISP sbus card driver.
  2.  *
  3.  * Copyright (C) 1996 David S. Miller (davem@caipfs.rutgers.edu)
  4.  *
  5.  * A lot of this driver was directly stolen from Erik H. Moe's PCI
  6.  * Qlogic ISP driver.  Mucho kudos to him for this code.
  7.  *
  8.  * An even bigger kudos to John Grana at Performance Technologies
  9.  * for providing me with the hardware to write this driver, you rule
  10.  * John you really do.
  11.  *
  12.  * May, 2, 1997: Added support for QLGC,isp --jj
  13.  */
  14. #include <linux/kernel.h>
  15. #include <linux/delay.h>
  16. #include <linux/types.h>
  17. #include <linux/string.h>
  18. #include <linux/slab.h>
  19. #include <linux/blk.h>
  20. #include <linux/proc_fs.h>
  21. #include <linux/stat.h>
  22. #include <linux/init.h>
  23. #include <linux/spinlock.h>
  24. #include <asm/byteorder.h>
  25. #include "scsi.h"
  26. #include "hosts.h"
  27. #include "qlogicpti.h"
  28. #include <asm/sbus.h>
  29. #include <asm/dma.h>
  30. #include <asm/system.h>
  31. #include <asm/ptrace.h>
  32. #include <asm/pgtable.h>
  33. #include <asm/oplib.h>
  34. #include <asm/io.h>
  35. #include <asm/irq.h>
  36. #include <linux/module.h>
  37. #define MAX_TARGETS 16
  38. #define MAX_LUNS 8 /* 32 for 1.31 F/W */
  39. #define DEFAULT_LOOP_COUNT 10000
  40. #include "qlogicpti_asm.c"
  41. static struct qlogicpti *qptichain = NULL;
  42. static spinlock_t qptichain_lock = SPIN_LOCK_UNLOCKED;
  43. static int qptis_running = 0;
  44. #define PACKB(a, b) (((a)<<4)|(b))
  45. const u_char mbox_param[] = {
  46. PACKB(1, 1), /* MBOX_NO_OP */
  47. PACKB(5, 5), /* MBOX_LOAD_RAM */
  48. PACKB(2, 0), /* MBOX_EXEC_FIRMWARE */
  49. PACKB(5, 5), /* MBOX_DUMP_RAM */
  50. PACKB(3, 3), /* MBOX_WRITE_RAM_WORD */
  51. PACKB(2, 3), /* MBOX_READ_RAM_WORD */
  52. PACKB(6, 6), /* MBOX_MAILBOX_REG_TEST */
  53. PACKB(2, 3), /* MBOX_VERIFY_CHECKSUM */
  54. PACKB(1, 3), /* MBOX_ABOUT_FIRMWARE */
  55. PACKB(0, 0), /* 0x0009 */
  56. PACKB(0, 0), /* 0x000a */
  57. PACKB(0, 0), /* 0x000b */
  58. PACKB(0, 0), /* 0x000c */
  59. PACKB(0, 0), /* 0x000d */
  60. PACKB(1, 2), /* MBOX_CHECK_FIRMWARE */
  61. PACKB(0, 0), /* 0x000f */
  62. PACKB(5, 5), /* MBOX_INIT_REQ_QUEUE */
  63. PACKB(6, 6), /* MBOX_INIT_RES_QUEUE */
  64. PACKB(4, 4), /* MBOX_EXECUTE_IOCB */
  65. PACKB(2, 2), /* MBOX_WAKE_UP */
  66. PACKB(1, 6), /* MBOX_STOP_FIRMWARE */
  67. PACKB(4, 4), /* MBOX_ABORT */
  68. PACKB(2, 2), /* MBOX_ABORT_DEVICE */
  69. PACKB(3, 3), /* MBOX_ABORT_TARGET */
  70. PACKB(2, 2), /* MBOX_BUS_RESET */
  71. PACKB(2, 3), /* MBOX_STOP_QUEUE */
  72. PACKB(2, 3), /* MBOX_START_QUEUE */
  73. PACKB(2, 3), /* MBOX_SINGLE_STEP_QUEUE */
  74. PACKB(2, 3), /* MBOX_ABORT_QUEUE */
  75. PACKB(2, 4), /* MBOX_GET_DEV_QUEUE_STATUS */
  76. PACKB(0, 0), /* 0x001e */
  77. PACKB(1, 3), /* MBOX_GET_FIRMWARE_STATUS */
  78. PACKB(1, 2), /* MBOX_GET_INIT_SCSI_ID */
  79. PACKB(1, 2), /* MBOX_GET_SELECT_TIMEOUT */
  80. PACKB(1, 3), /* MBOX_GET_RETRY_COUNT */
  81. PACKB(1, 2), /* MBOX_GET_TAG_AGE_LIMIT */
  82. PACKB(1, 2), /* MBOX_GET_CLOCK_RATE */
  83. PACKB(1, 2), /* MBOX_GET_ACT_NEG_STATE */
  84. PACKB(1, 2), /* MBOX_GET_ASYNC_DATA_SETUP_TIME */
  85. PACKB(1, 3), /* MBOX_GET_SBUS_PARAMS */
  86. PACKB(2, 4), /* MBOX_GET_TARGET_PARAMS */
  87. PACKB(2, 4), /* MBOX_GET_DEV_QUEUE_PARAMS */
  88. PACKB(0, 0), /* 0x002a */
  89. PACKB(0, 0), /* 0x002b */
  90. PACKB(0, 0), /* 0x002c */
  91. PACKB(0, 0), /* 0x002d */
  92. PACKB(0, 0), /* 0x002e */
  93. PACKB(0, 0), /* 0x002f */
  94. PACKB(2, 2), /* MBOX_SET_INIT_SCSI_ID */
  95. PACKB(2, 2), /* MBOX_SET_SELECT_TIMEOUT */
  96. PACKB(3, 3), /* MBOX_SET_RETRY_COUNT */
  97. PACKB(2, 2), /* MBOX_SET_TAG_AGE_LIMIT */
  98. PACKB(2, 2), /* MBOX_SET_CLOCK_RATE */
  99. PACKB(2, 2), /* MBOX_SET_ACTIVE_NEG_STATE */
  100. PACKB(2, 2), /* MBOX_SET_ASYNC_DATA_SETUP_TIME */
  101. PACKB(3, 3), /* MBOX_SET_SBUS_CONTROL_PARAMS */
  102. PACKB(4, 4), /* MBOX_SET_TARGET_PARAMS */
  103. PACKB(4, 4), /* MBOX_SET_DEV_QUEUE_PARAMS */
  104. PACKB(0, 0), /* 0x003a */
  105. PACKB(0, 0), /* 0x003b */
  106. PACKB(0, 0), /* 0x003c */
  107. PACKB(0, 0), /* 0x003d */
  108. PACKB(0, 0), /* 0x003e */
  109. PACKB(0, 0), /* 0x003f */
  110. PACKB(0, 0), /* 0x0040 */
  111. PACKB(0, 0), /* 0x0041 */
  112. PACKB(0, 0) /* 0x0042 */
  113. };
  114. #define MAX_MBOX_COMMAND (sizeof(mbox_param)/sizeof(u_short))
  115. /* queue length's _must_ be power of two: */
  116. #define QUEUE_DEPTH(in, out, ql) ((in - out) & (ql))
  117. #define REQ_QUEUE_DEPTH(in, out) QUEUE_DEPTH(in, out,       
  118.     QLOGICPTI_REQ_QUEUE_LEN)
  119. #define RES_QUEUE_DEPTH(in, out) QUEUE_DEPTH(in, out, RES_QUEUE_LEN)
  120. static inline void qlogicpti_enable_irqs(struct qlogicpti *qpti)
  121. {
  122. sbus_writew(SBUS_CTRL_ERIRQ | SBUS_CTRL_GENAB,
  123.     qpti->qregs + SBUS_CTRL);
  124. }
  125. static inline void qlogicpti_disable_irqs(struct qlogicpti *qpti)
  126. {
  127. sbus_writew(0, qpti->qregs + SBUS_CTRL);
  128. }
  129. static inline void set_sbus_cfg1(struct qlogicpti *qpti)
  130. {
  131. u16 val;
  132. u8 bursts = qpti->bursts;
  133. #if 0 /* It appears that at least PTI cards do not support
  134.  * 64-byte bursts and that setting the B64 bit actually
  135.  * is a nop and the chip ends up using the smallest burst
  136.  * size. -DaveM
  137.  */
  138. if (sbus_can_burst64(qpti->sdev) && (bursts & DMA_BURST64)) {
  139. val = (SBUS_CFG1_BENAB | SBUS_CFG1_B64);
  140. } else
  141. #endif
  142. if (bursts & DMA_BURST32) {
  143. val = (SBUS_CFG1_BENAB | SBUS_CFG1_B32);
  144. } else if (bursts & DMA_BURST16) {
  145. val = (SBUS_CFG1_BENAB | SBUS_CFG1_B16);
  146. } else if (bursts & DMA_BURST8) {
  147. val = (SBUS_CFG1_BENAB | SBUS_CFG1_B8);
  148. } else {
  149. val = 0; /* No sbus bursts for you... */
  150. }
  151. sbus_writew(val, qpti->qregs + SBUS_CFG1);
  152. }
  153. static int qlogicpti_mbox_command(struct qlogicpti *qpti, u_short param[], int force)
  154. {
  155. int loop_count;
  156. u16 tmp;
  157. if (mbox_param[param[0]] == 0)
  158. return 1;
  159. /* Set SBUS semaphore. */
  160. tmp = sbus_readw(qpti->qregs + SBUS_SEMAPHORE);
  161. tmp |= SBUS_SEMAPHORE_LCK;
  162. sbus_writew(tmp, qpti->qregs + SBUS_SEMAPHORE);
  163. /* Wait for host IRQ bit to clear. */
  164. loop_count = DEFAULT_LOOP_COUNT;
  165. while (--loop_count && (sbus_readw(qpti->qregs + HCCTRL) & HCCTRL_HIRQ)) {
  166. barrier();
  167. cpu_relax();
  168. }
  169. if (!loop_count)
  170. printk(KERN_EMERG "qlogicpti: mbox_command loop timeout #1n");
  171. /* Write mailbox command registers. */
  172. switch (mbox_param[param[0]] >> 4) {
  173. case 6: sbus_writew(param[5], qpti->qregs + MBOX5);
  174. case 5: sbus_writew(param[4], qpti->qregs + MBOX4);
  175. case 4: sbus_writew(param[3], qpti->qregs + MBOX3);
  176. case 3: sbus_writew(param[2], qpti->qregs + MBOX2);
  177. case 2: sbus_writew(param[1], qpti->qregs + MBOX1);
  178. case 1: sbus_writew(param[0], qpti->qregs + MBOX0);
  179. }
  180. /* Clear RISC interrupt. */
  181. tmp = sbus_readw(qpti->qregs + HCCTRL);
  182. tmp |= HCCTRL_CRIRQ;
  183. sbus_writew(tmp, qpti->qregs + HCCTRL);
  184. /* Clear SBUS semaphore. */
  185. sbus_writew(0, qpti->qregs + SBUS_SEMAPHORE);
  186. /* Set HOST interrupt. */
  187. tmp = sbus_readw(qpti->qregs + HCCTRL);
  188. tmp |= HCCTRL_SHIRQ;
  189. sbus_writew(tmp, qpti->qregs + HCCTRL);
  190. /* Wait for HOST interrupt clears. */
  191. loop_count = DEFAULT_LOOP_COUNT;
  192. while (--loop_count &&
  193.        (sbus_readw(qpti->qregs + HCCTRL) & HCCTRL_CRIRQ))
  194. udelay(20);
  195. if (!loop_count)
  196. printk(KERN_EMERG "qlogicpti: mbox_command[%04x] loop timeout #2n",
  197.        param[0]);
  198. /* Wait for SBUS semaphore to get set. */
  199. loop_count = DEFAULT_LOOP_COUNT;
  200. while (--loop_count &&
  201.        !(sbus_readw(qpti->qregs + SBUS_SEMAPHORE) & SBUS_SEMAPHORE_LCK)) {
  202. udelay(20);
  203. /* Workaround for some buggy chips. */
  204. if (sbus_readw(qpti->qregs + MBOX0) & 0x4000)
  205. break;
  206. }
  207. if (!loop_count)
  208. printk(KERN_EMERG "qlogicpti: mbox_command[%04x] loop timeout #3n",
  209.        param[0]);
  210. /* Wait for MBOX busy condition to go away. */
  211. loop_count = DEFAULT_LOOP_COUNT;
  212. while (--loop_count && (sbus_readw(qpti->qregs + MBOX0) == 0x04))
  213. udelay(20);
  214. if (!loop_count)
  215. printk(KERN_EMERG "qlogicpti: mbox_command[%04x] loop timeout #4n",
  216.        param[0]);
  217. /* Read back output parameters. */
  218. switch (mbox_param[param[0]] & 0xf) {
  219. case 6: param[5] = sbus_readw(qpti->qregs + MBOX5);
  220. case 5: param[4] = sbus_readw(qpti->qregs + MBOX4);
  221. case 4: param[3] = sbus_readw(qpti->qregs + MBOX3);
  222. case 3: param[2] = sbus_readw(qpti->qregs + MBOX2);
  223. case 2: param[1] = sbus_readw(qpti->qregs + MBOX1);
  224. case 1: param[0] = sbus_readw(qpti->qregs + MBOX0);
  225. }
  226. /* Clear RISC interrupt. */
  227. tmp = sbus_readw(qpti->qregs + HCCTRL);
  228. tmp |= HCCTRL_CRIRQ;
  229. sbus_writew(tmp, qpti->qregs + HCCTRL);
  230. /* Release SBUS semaphore. */
  231. tmp = sbus_readw(qpti->qregs + SBUS_SEMAPHORE);
  232. tmp &= ~(SBUS_SEMAPHORE_LCK);
  233. sbus_writew(tmp, qpti->qregs + SBUS_SEMAPHORE);
  234. /* We're done. */
  235. return 0;
  236. }
  237. static inline void qlogicpti_set_hostdev_defaults(struct qlogicpti *qpti)
  238. {
  239. int i;
  240. qpti->host_param.initiator_scsi_id = qpti->scsi_id;
  241. qpti->host_param.bus_reset_delay = 3;
  242. qpti->host_param.retry_count = 0;
  243. qpti->host_param.retry_delay = 5;
  244. qpti->host_param.async_data_setup_time = 3;
  245. qpti->host_param.req_ack_active_negation = 1;
  246. qpti->host_param.data_line_active_negation = 1;
  247. qpti->host_param.data_dma_burst_enable = 1;
  248. qpti->host_param.command_dma_burst_enable = 1;
  249. qpti->host_param.tag_aging = 8;
  250. qpti->host_param.selection_timeout = 250;
  251. qpti->host_param.max_queue_depth = 256;
  252. for(i = 0; i < MAX_TARGETS; i++) {
  253. /*
  254.  * disconnect, parity, arq, reneg on reset, and, oddly enough
  255.  * tags...the midlayer's notion of tagged support has to match
  256.  * our device settings, and since we base whether we enable a
  257.  * tag on a  per-cmnd basis upon what the midlayer sez, we
  258.  * actually enable the capability here.
  259.  */
  260. qpti->dev_param[i].device_flags = 0xcd;
  261. qpti->dev_param[i].execution_throttle = 16;
  262. if (qpti->ultra) {
  263. qpti->dev_param[i].synchronous_period = 12;
  264. qpti->dev_param[i].synchronous_offset = 8;
  265. } else {
  266. qpti->dev_param[i].synchronous_period = 25;
  267. qpti->dev_param[i].synchronous_offset = 12;
  268. }
  269. qpti->dev_param[i].device_enable = 1;
  270. }
  271. /* this is very important to set! */
  272. qpti->sbits = 1 << qpti->scsi_id;
  273. }
  274. static int qlogicpti_reset_hardware(struct Scsi_Host *host)
  275. {
  276. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  277. u_short param[6];
  278. unsigned short risc_code_addr;
  279. int loop_count, i;
  280. unsigned long flags;
  281. risc_code_addr = 0x1000; /* all load addresses are at 0x1000 */
  282. save_flags(flags); cli();
  283. sbus_writew(HCCTRL_PAUSE, qpti->qregs + HCCTRL);
  284. /* Only reset the scsi bus if it is not free. */
  285. if (sbus_readw(qpti->qregs + CPU_PCTRL) & CPU_PCTRL_BSY) {
  286. sbus_writew(CPU_ORIDE_RMOD, qpti->qregs + CPU_ORIDE);
  287. sbus_writew(CPU_CMD_BRESET, qpti->qregs + CPU_CMD);
  288. udelay(400);
  289. }
  290. sbus_writew(SBUS_CTRL_RESET, qpti->qregs + SBUS_CTRL);
  291. sbus_writew((DMA_CTRL_CCLEAR | DMA_CTRL_CIRQ), qpti->qregs + CMD_DMA_CTRL);
  292. sbus_writew((DMA_CTRL_CCLEAR | DMA_CTRL_CIRQ), qpti->qregs + DATA_DMA_CTRL);
  293. loop_count = DEFAULT_LOOP_COUNT;
  294. while (--loop_count && ((sbus_readw(qpti->qregs + MBOX0) & 0xff) == 0x04))
  295. udelay(20);
  296. if (!loop_count)
  297. printk(KERN_EMERG "qlogicpti: reset_hardware loop timeoutn");
  298. sbus_writew(HCCTRL_PAUSE, qpti->qregs + HCCTRL);
  299. set_sbus_cfg1(qpti);
  300. qlogicpti_enable_irqs(qpti);
  301. if (sbus_readw(qpti->qregs + RISC_PSR) & RISC_PSR_ULTRA) {
  302. qpti->ultra = 1;
  303. sbus_writew((RISC_MTREG_P0ULTRA | RISC_MTREG_P1ULTRA),
  304.     qpti->qregs + RISC_MTREG);
  305. } else {
  306. qpti->ultra = 0;
  307. sbus_writew((RISC_MTREG_P0DFLT | RISC_MTREG_P1DFLT),
  308.     qpti->qregs + RISC_MTREG);
  309. }
  310. /* reset adapter and per-device default values. */
  311. /* do it after finding out whether we're ultra mode capable */
  312. qlogicpti_set_hostdev_defaults(qpti);
  313. /* Release the RISC processor. */
  314. sbus_writew(HCCTRL_REL, qpti->qregs + HCCTRL);
  315. /* Get RISC to start executing the firmware code. */
  316. param[0] = MBOX_EXEC_FIRMWARE;
  317. param[1] = risc_code_addr;
  318. if (qlogicpti_mbox_command(qpti, param, 1)) {
  319. printk(KERN_EMERG "qlogicpti%d: Cannot execute ISP firmware.n",
  320.        qpti->qpti_id);
  321. restore_flags(flags);
  322. return 1;
  323. }
  324. /* Set initiator scsi ID. */
  325. param[0] = MBOX_SET_INIT_SCSI_ID;
  326. param[1] = qpti->host_param.initiator_scsi_id;
  327. if (qlogicpti_mbox_command(qpti, param, 1) ||
  328.    (param[0] != MBOX_COMMAND_COMPLETE)) {
  329. printk(KERN_EMERG "qlogicpti%d: Cannot set initiator SCSI ID.n",
  330.        qpti->qpti_id);
  331. restore_flags(flags);
  332. return 1;
  333. }
  334. /* Initialize state of the queues, both hw and sw. */
  335. qpti->req_in_ptr = qpti->res_out_ptr = 0;
  336. param[0] = MBOX_INIT_RES_QUEUE;
  337. param[1] = RES_QUEUE_LEN + 1;
  338. param[2] = (u_short) (qpti->res_dvma >> 16);
  339. param[3] = (u_short) (qpti->res_dvma & 0xffff);
  340. param[4] = param[5] = 0;
  341. if (qlogicpti_mbox_command(qpti, param, 1)) {
  342. printk(KERN_EMERG "qlogicpti%d: Cannot init response queue.n",
  343.        qpti->qpti_id);
  344. restore_flags(flags);
  345. return 1;
  346. }
  347. param[0] = MBOX_INIT_REQ_QUEUE;
  348. param[1] = QLOGICPTI_REQ_QUEUE_LEN + 1;
  349. param[2] = (u_short) (qpti->req_dvma >> 16);
  350. param[3] = (u_short) (qpti->req_dvma & 0xffff);
  351. param[4] = param[5] = 0;
  352. if (qlogicpti_mbox_command(qpti, param, 1)) {
  353. printk(KERN_EMERG "qlogicpti%d: Cannot init request queue.n",
  354.        qpti->qpti_id);
  355. restore_flags(flags);
  356. return 1;
  357. }
  358. param[0] = MBOX_SET_RETRY_COUNT;
  359. param[1] = qpti->host_param.retry_count;
  360. param[2] = qpti->host_param.retry_delay;
  361. qlogicpti_mbox_command(qpti, param, 0);
  362. param[0] = MBOX_SET_TAG_AGE_LIMIT;
  363. param[1] = qpti->host_param.tag_aging;
  364. qlogicpti_mbox_command(qpti, param, 0);
  365. for (i = 0; i < MAX_TARGETS; i++) {
  366. param[0] = MBOX_GET_DEV_QUEUE_PARAMS;
  367. param[1] = (i << 8);
  368. qlogicpti_mbox_command(qpti, param, 0);
  369. }
  370. param[0] = MBOX_GET_FIRMWARE_STATUS;
  371. qlogicpti_mbox_command(qpti, param, 0);
  372. param[0] = MBOX_SET_SELECT_TIMEOUT;
  373. param[1] = qpti->host_param.selection_timeout;
  374. qlogicpti_mbox_command(qpti, param, 0);
  375. for (i = 0; i < MAX_TARGETS; i++) {
  376. param[0] = MBOX_SET_TARGET_PARAMS;
  377. param[1] = (i << 8);
  378. param[2] = (qpti->dev_param[i].device_flags << 8);
  379. /*
  380.  * Since we're now loading 1.31 f/w, force narrow/async.
  381.  */
  382. param[2] |= 0xc0;
  383. param[3] = 0; /* no offset, we do not have sync mode yet */
  384. qlogicpti_mbox_command(qpti, param, 0);
  385. }
  386. /*
  387.  * Always (sigh) do an initial bus reset (kicks f/w).
  388.  */
  389. param[0] = MBOX_BUS_RESET;
  390. param[1] = qpti->host_param.bus_reset_delay;
  391. qlogicpti_mbox_command(qpti, param, 0);
  392. qpti->send_marker = 1;
  393. restore_flags(flags);
  394. return 0;
  395. }
  396. #define PTI_RESET_LIMIT 400
  397. static int __init qlogicpti_load_firmware(struct qlogicpti *qpti)
  398. {
  399. unsigned short csum = 0;
  400. unsigned short param[6];
  401. unsigned short *risc_code, risc_code_addr, risc_code_length;
  402. unsigned long flags;
  403. int i, timeout;
  404. risc_code = &sbus_risc_code01[0];
  405. risc_code_addr = 0x1000; /* all f/w modules load at 0x1000 */
  406. risc_code_length = sbus_risc_code_length01;
  407. save_flags(flags); cli();
  408. /* Verify the checksum twice, one before loading it, and once
  409.  * afterwards via the mailbox commands.
  410.  */
  411. for (i = 0; i < risc_code_length; i++)
  412. csum += risc_code[i];
  413. if (csum) {
  414. restore_flags(flags);
  415. printk(KERN_EMERG "qlogicpti%d: Aieee, firmware checksum failed!",
  416.        qpti->qpti_id);
  417. return 1;
  418. }
  419. sbus_writew(SBUS_CTRL_RESET, qpti->qregs + SBUS_CTRL);
  420. sbus_writew((DMA_CTRL_CCLEAR | DMA_CTRL_CIRQ), qpti->qregs + CMD_DMA_CTRL);
  421. sbus_writew((DMA_CTRL_CCLEAR | DMA_CTRL_CIRQ), qpti->qregs + DATA_DMA_CTRL);
  422. timeout = PTI_RESET_LIMIT;
  423. while (--timeout && (sbus_readw(qpti->qregs + SBUS_CTRL) & SBUS_CTRL_RESET))
  424. udelay(20);
  425. if (!timeout) {
  426. restore_flags(flags);
  427. printk(KERN_EMERG "qlogicpti%d: Cannot reset the ISP.", qpti->qpti_id);
  428. return 1;
  429. }
  430. sbus_writew(HCCTRL_RESET, qpti->qregs + HCCTRL);
  431. mdelay(1);
  432. sbus_writew((SBUS_CTRL_GENAB | SBUS_CTRL_ERIRQ), qpti->qregs + SBUS_CTRL);
  433. set_sbus_cfg1(qpti);
  434. sbus_writew(0, qpti->qregs + SBUS_SEMAPHORE);
  435. if (sbus_readw(qpti->qregs + RISC_PSR) & RISC_PSR_ULTRA) {
  436. qpti->ultra = 1;
  437. sbus_writew((RISC_MTREG_P0ULTRA | RISC_MTREG_P1ULTRA),
  438.     qpti->qregs + RISC_MTREG);
  439. } else {
  440. qpti->ultra = 0;
  441. sbus_writew((RISC_MTREG_P0DFLT | RISC_MTREG_P1DFLT),
  442.     qpti->qregs + RISC_MTREG);
  443. }
  444. sbus_writew(HCCTRL_REL, qpti->qregs + HCCTRL);
  445. /* Pin lines are only stable while RISC is paused. */
  446. sbus_writew(HCCTRL_PAUSE, qpti->qregs + HCCTRL);
  447. if (sbus_readw(qpti->qregs + CPU_PDIFF) & CPU_PDIFF_MODE)
  448. qpti->differential = 1;
  449. else
  450. qpti->differential = 0;
  451. sbus_writew(HCCTRL_REL, qpti->qregs + HCCTRL);
  452. /* This shouldn't be necessary- we've reset things so we should be
  453.    running from the ROM now.. */
  454. param[0] = MBOX_STOP_FIRMWARE;
  455. param[1] = param[2] = param[3] = param[4] = param[5] = 0;
  456. if (qlogicpti_mbox_command(qpti, param, 1)) {
  457. printk(KERN_EMERG "qlogicpti%d: Cannot stop firmware for reload.n",
  458.        qpti->qpti_id);
  459. restore_flags(flags);
  460. return 1;
  461. }
  462. /* Load it up.. */
  463. for (i = 0; i < risc_code_length; i++) {
  464. param[0] = MBOX_WRITE_RAM_WORD;
  465. param[1] = risc_code_addr + i;
  466. param[2] = risc_code[i];
  467. if (qlogicpti_mbox_command(qpti, param, 1) ||
  468.     param[0] != MBOX_COMMAND_COMPLETE) {
  469. printk("qlogicpti%d: Firmware dload failed, I'm bolixed!n",
  470.        qpti->qpti_id);
  471. restore_flags(flags);
  472. return 1;
  473. }
  474. }
  475. /* Reset the ISP again. */
  476. sbus_writew(HCCTRL_RESET, qpti->qregs + HCCTRL);
  477. mdelay(1);
  478. qlogicpti_enable_irqs(qpti);
  479. sbus_writew(0, qpti->qregs + SBUS_SEMAPHORE);
  480. sbus_writew(HCCTRL_REL, qpti->qregs + HCCTRL);
  481. /* Ask ISP to verify the checksum of the new code. */
  482. param[0] = MBOX_VERIFY_CHECKSUM;
  483. param[1] = risc_code_addr;
  484. if (qlogicpti_mbox_command(qpti, param, 1) ||
  485.     (param[0] != MBOX_COMMAND_COMPLETE)) {
  486. printk(KERN_EMERG "qlogicpti%d: New firmware csum failure!n",
  487.        qpti->qpti_id);
  488. restore_flags(flags);
  489. return 1;
  490. }
  491. /* Start using newly downloaded firmware. */
  492. param[0] = MBOX_EXEC_FIRMWARE;
  493. param[1] = risc_code_addr;
  494. qlogicpti_mbox_command(qpti, param, 1);
  495. param[0] = MBOX_ABOUT_FIRMWARE;
  496. if (qlogicpti_mbox_command(qpti, param, 1) ||
  497.     (param[0] != MBOX_COMMAND_COMPLETE)) {
  498. printk(KERN_EMERG "qlogicpti%d: AboutFirmware cmd fails.n",
  499.        qpti->qpti_id);
  500. restore_flags(flags);
  501. return 1;
  502. }
  503. /* Snag the major and minor revisions from the result. */
  504. qpti->fware_majrev = param[1];
  505. qpti->fware_minrev = param[2];
  506. qpti->fware_micrev = param[3];
  507. /* Set the clock rate */
  508. param[0] = MBOX_SET_CLOCK_RATE;
  509. param[1] = qpti->clock;
  510. if (qlogicpti_mbox_command(qpti, param, 1) ||
  511.     (param[0] != MBOX_COMMAND_COMPLETE)) {
  512. printk(KERN_EMERG "qlogicpti%d: could not set clock rate.n",
  513.        qpti->qpti_id);
  514. restore_flags(flags);
  515. return 1;
  516. }
  517. if (qpti->is_pti != 0) {
  518. /* Load scsi initiator ID and interrupt level into sbus static ram. */
  519. param[0] = MBOX_WRITE_RAM_WORD;
  520. param[1] = 0xff80;
  521. param[2] = (unsigned short) qpti->scsi_id;
  522. qlogicpti_mbox_command(qpti, param, 1);
  523. param[0] = MBOX_WRITE_RAM_WORD;
  524. param[1] = 0xff00;
  525. param[2] = (unsigned short) 3;
  526. qlogicpti_mbox_command(qpti, param, 1);
  527. }
  528. restore_flags(flags);
  529. return 0;
  530. }
  531. static int qlogicpti_verify_tmon(struct qlogicpti *qpti)
  532. {
  533. int curstat = sbus_readb(qpti->sreg);
  534. curstat &= 0xf0;
  535. if (!(curstat & SREG_FUSE) && (qpti->swsreg & SREG_FUSE))
  536. printk("qlogicpti%d: Fuse returned to normal state.n", qpti->qpti_id);
  537. if (!(curstat & SREG_TPOWER) && (qpti->swsreg & SREG_TPOWER))
  538. printk("qlogicpti%d: termpwr back to normal state.n", qpti->qpti_id);
  539. if (curstat != qpti->swsreg) {
  540. int error = 0;
  541. if (curstat & SREG_FUSE) {
  542. error++;
  543. printk("qlogicpti%d: Fuse is open!n", qpti->qpti_id);
  544. }
  545. if (curstat & SREG_TPOWER) {
  546. error++;
  547. printk("qlogicpti%d: termpwr failuren", qpti->qpti_id);
  548. }
  549. if (qpti->differential &&
  550.     (curstat & SREG_DSENSE) != SREG_DSENSE) {
  551. error++;
  552. printk("qlogicpti%d: You have a single ended device on a "
  553.        "differential bus!  Please fix!n", qpti->qpti_id);
  554. }
  555. qpti->swsreg = curstat;
  556. return error;
  557. }
  558. return 0;
  559. }
  560. static void qpti_intr(int irq, void *dev_id, struct pt_regs *regs);
  561. static void __init qpti_chain_add(struct qlogicpti *qpti)
  562. {
  563. spin_lock_irq(&qptichain_lock);
  564. if (qptichain != NULL) {
  565. struct qlogicpti *qlink = qptichain;
  566. while(qlink->next)
  567. qlink = qlink->next;
  568. qlink->next = qpti;
  569. } else {
  570. qptichain = qpti;
  571. }
  572. qpti->next = NULL;
  573. spin_unlock_irq(&qptichain_lock);
  574. }
  575. static void __init qpti_chain_del(struct qlogicpti *qpti)
  576. {
  577. spin_lock_irq(&qptichain_lock);
  578. if (qptichain == qpti) {
  579. qptichain = qpti->next;
  580. } else {
  581. struct qlogicpti *qlink = qptichain;
  582. while(qlink->next != qpti)
  583. qlink = qlink->next;
  584. qlink->next = qpti->next;
  585. }
  586. qpti->next = NULL;
  587. spin_unlock_irq(&qptichain_lock);
  588. }
  589. static int __init qpti_map_regs(struct qlogicpti *qpti)
  590. {
  591. struct sbus_dev *sdev = qpti->sdev;
  592. qpti->qregs = sbus_ioremap(&sdev->resource[0], 0,
  593.    sdev->reg_addrs[0].reg_size,
  594.    "PTI Qlogic/ISP");
  595. if (!qpti->qregs) {
  596. printk("PTI: Qlogic/ISP registers are unmappablen");
  597. return -1;
  598. }
  599. if (qpti->is_pti) {
  600. qpti->sreg = sbus_ioremap(&sdev->resource[0], (16 * 4096),
  601.   sizeof(unsigned char),
  602.   "PTI Qlogic/ISP statreg");
  603. if (!qpti->sreg) {
  604. printk("PTI: Qlogic/ISP status register is unmappablen");
  605. return -1;
  606. }
  607. }
  608. return 0;
  609. }
  610. static int __init qpti_register_irq(struct qlogicpti *qpti)
  611. {
  612. struct sbus_dev *sdev = qpti->sdev;
  613. qpti->qhost->irq = qpti->irq = sdev->irqs[0];
  614. /* We used to try various overly-clever things to
  615.  * reduce the interrupt processing overhead on
  616.  * sun4c/sun4m when multiple PTI's shared the
  617.  * same IRQ.  It was too complex and messy to
  618.  * sanely maintain.
  619.  */
  620. if (request_irq(qpti->irq, qpti_intr,
  621. SA_SHIRQ, "Qlogic/PTI", qpti))
  622. goto fail;
  623. printk("qpti%d: IRQ %s ", qpti->qpti_id, __irq_itoa(qpti->irq));
  624. return 0;
  625. fail:
  626. printk("qpti%d: Cannot acquire irq linen", qpti->qpti_id);
  627. return -1;
  628. }
  629. static void __init qpti_get_scsi_id(struct qlogicpti *qpti)
  630. {
  631. qpti->scsi_id = prom_getintdefault(qpti->prom_node,
  632.    "initiator-id",
  633.    -1);
  634. if (qpti->scsi_id == -1)
  635. qpti->scsi_id = prom_getintdefault(qpti->prom_node,
  636.    "scsi-initiator-id",
  637.    -1);
  638. if (qpti->scsi_id == -1)
  639. qpti->scsi_id =
  640. prom_getintdefault(qpti->sdev->bus->prom_node,
  641.    "scsi-initiator-id", 7);
  642. qpti->qhost->this_id = qpti->scsi_id;
  643. qpti->qhost->max_sectors = 64;
  644. printk("SCSI ID %d ", qpti->scsi_id);
  645. }
  646. static void qpti_get_bursts(struct qlogicpti *qpti)
  647. {
  648. struct sbus_dev *sdev = qpti->sdev;
  649. u8 bursts, bmask;
  650. bursts = prom_getintdefault(qpti->prom_node, "burst-sizes", 0xff);
  651. bmask = prom_getintdefault(sdev->bus->prom_node,
  652.    "burst-sizes", 0xff);
  653. if (bmask != 0xff)
  654. bursts &= bmask;
  655. if (bursts == 0xff ||
  656.     (bursts & DMA_BURST16) == 0 ||
  657.     (bursts & DMA_BURST32) == 0)
  658. bursts = (DMA_BURST32 - 1);
  659. qpti->bursts = bursts;
  660. }
  661. static void qpti_get_clock(struct qlogicpti *qpti)
  662. {
  663. unsigned int cfreq;
  664. /* Check for what the clock input to this card is.
  665.  * Default to 40Mhz.
  666.  */
  667. cfreq = prom_getintdefault(qpti->prom_node,"clock-frequency",40000000);
  668. qpti->clock = (cfreq + 500000)/1000000;
  669. if (qpti->clock == 0) /* bullshit */
  670. qpti->clock = 40;
  671. }
  672. /* The request and response queues must each be aligned
  673.  * on a page boundry.
  674.  */
  675. static int __init qpti_map_queues(struct qlogicpti *qpti)
  676. {
  677. struct sbus_dev *sdev = qpti->sdev;
  678. #define QSIZE(entries) (((entries) + 1) * QUEUE_ENTRY_LEN)
  679. qpti->res_cpu = sbus_alloc_consistent(sdev,
  680.       QSIZE(RES_QUEUE_LEN),
  681.       &qpti->res_dvma);
  682. if (qpti->res_cpu == NULL ||
  683.     qpti->res_dvma == 0) {
  684. printk("QPTI: Cannot map response queue.n");
  685. return -1;
  686. }
  687. qpti->req_cpu = sbus_alloc_consistent(sdev,
  688.       QSIZE(QLOGICPTI_REQ_QUEUE_LEN),
  689.       &qpti->req_dvma);
  690. if (qpti->req_cpu == NULL ||
  691.     qpti->req_dvma == 0) {
  692. sbus_free_consistent(sdev, QSIZE(RES_QUEUE_LEN),
  693.      qpti->res_cpu, qpti->res_dvma);
  694. printk("QPTI: Cannot map request queue.n");
  695. return -1;
  696. }
  697. memset(qpti->res_cpu, 0, QSIZE(RES_QUEUE_LEN));
  698. memset(qpti->req_cpu, 0, QSIZE(QLOGICPTI_REQ_QUEUE_LEN));
  699. return 0;
  700. }
  701. /* Detect all PTI Qlogic ISP's in the machine. */
  702. int __init qlogicpti_detect(Scsi_Host_Template *tpnt)
  703. {
  704. struct qlogicpti *qpti;
  705. struct Scsi_Host *qpti_host;
  706. struct sbus_bus *sbus;
  707. struct sbus_dev *sdev;
  708. int nqptis = 0, nqptis_in_use = 0;
  709. tpnt->proc_name = "qlogicpti";
  710. for_each_sbus(sbus) {
  711. for_each_sbusdev(sdev, sbus) {
  712. /* Is this a red snapper? */
  713. if (strcmp(sdev->prom_name, "ptisp") &&
  714.     strcmp(sdev->prom_name, "PTI,ptisp") &&
  715.     strcmp(sdev->prom_name, "QLGC,isp") &&
  716.     strcmp(sdev->prom_name, "SUNW,isp"))
  717. continue;
  718. /* Sometimes Antares cards come up not completely
  719.  * setup, and we get a report of a zero IRQ.
  720.  * Skip over them in such cases so we survive.
  721.  */
  722. if (sdev->irqs[0] == 0) {
  723. printk("qpti%d: Adapter reports no interrupt, "
  724.        "skipping over this card.", nqptis);
  725. continue;
  726. }
  727. /* Yep, register and allocate software state. */
  728. qpti_host = scsi_register(tpnt, sizeof(struct qlogicpti));
  729. if (!qpti_host) {
  730. printk("QPTI: Cannot register PTI Qlogic ISP SCSI host");
  731. continue;
  732. }
  733. qpti = (struct qlogicpti *) qpti_host->hostdata;
  734. spin_lock_init(&qpti->lock);
  735. /* We are wide capable, 16 targets. */
  736. qpti_host->max_id = MAX_TARGETS;
  737. /* Setup back pointers and misc. state. */
  738. qpti->qhost = qpti_host;
  739. qpti->sdev = sdev;
  740. qpti->qpti_id = nqptis++;
  741. qpti->prom_node = sdev->prom_node;
  742. prom_getstring(qpti->prom_node, "name",
  743.        qpti->prom_name,
  744.        sizeof(qpti->prom_name));
  745. /* This is not correct, actually. There's a switch
  746.  * on the PTI cards that put them into "emulation"
  747.  * mode- i.e., report themselves as QLGC,isp
  748.  * instead of PTI,ptisp. The only real substantive
  749.  * difference between non-pti and pti cards is
  750.  * the tmon register. Which is possibly even
  751.  * there for Qlogic cards, but non-functional.
  752.  */
  753. qpti->is_pti = (strcmp (qpti->prom_name, "QLGC,isp") != 0);
  754. qpti_chain_add(qpti);
  755. if (qpti_map_regs(qpti) < 0)
  756. goto fail_unlink;
  757. if (qpti_register_irq(qpti) < 0)
  758. goto fail_unmap_regs;
  759. qpti_get_scsi_id(qpti);
  760. qpti_get_bursts(qpti);
  761. qpti_get_clock(qpti);
  762. /* Clear out Scsi_Cmnd array. */
  763. memset(qpti->cmd_slots, 0, sizeof(qpti->cmd_slots));
  764. if (qpti_map_queues(qpti) < 0)
  765. goto fail_free_irq;
  766. /* Load the firmware. */
  767. if (qlogicpti_load_firmware(qpti))
  768. goto fail_unmap_queues;
  769. if (qpti->is_pti) {
  770. /* Check the PTI status reg. */
  771. if (qlogicpti_verify_tmon(qpti))
  772. goto fail_unmap_queues;
  773. }
  774. /* Reset the ISP and init res/req queues. */
  775. if (qlogicpti_reset_hardware(qpti_host))
  776. goto fail_unmap_queues;
  777. printk("(Firmware v%d.%d.%d)", qpti->fware_majrev,
  778.     qpti->fware_minrev, qpti->fware_micrev);
  779. {
  780. char buffer[60];
  781. prom_getstring (qpti->prom_node,
  782. "isp-fcode", buffer, 60);
  783. if (buffer[0])
  784. printk("(Firmware %s)", buffer);
  785. if (prom_getbool(qpti->prom_node, "differential"))
  786. qpti->differential = 1;
  787. }
  788. printk (" [%s Wide, using %s interface]n",
  789.        (qpti->ultra ? "Ultra" : "Fast"),
  790.        (qpti->differential ? "differential" : "single ended"));
  791. nqptis_in_use++;
  792. continue;
  793. fail_unmap_queues:
  794. #define QSIZE(entries) (((entries) + 1) * QUEUE_ENTRY_LEN)
  795. sbus_free_consistent(qpti->sdev,
  796.      QSIZE(RES_QUEUE_LEN),
  797.      qpti->res_cpu, qpti->res_dvma);
  798. sbus_free_consistent(qpti->sdev,
  799.      QSIZE(QLOGICPTI_REQ_QUEUE_LEN),
  800.      qpti->req_cpu, qpti->req_dvma);
  801. #undef QSIZE
  802. fail_free_irq:
  803. free_irq(qpti->irq, qpti);
  804. fail_unmap_regs:
  805. sbus_iounmap(qpti->qregs,
  806.      qpti->sdev->reg_addrs[0].reg_size);
  807. if (qpti->is_pti)
  808. sbus_iounmap(qpti->sreg, sizeof(unsigned char));
  809. fail_unlink:
  810. qpti_chain_del(qpti);
  811. scsi_unregister(qpti->qhost);
  812. }
  813. }
  814. if (nqptis)
  815. printk("QPTI: Total of %d PTI Qlogic/ISP hosts found, %d actually in use.n",
  816.        nqptis, nqptis_in_use);
  817. qptis_running = nqptis_in_use;
  818. return nqptis;
  819. }
  820. int qlogicpti_release(struct Scsi_Host *host)
  821. {
  822. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  823. /* Remove visibility from IRQ handlers. */
  824. qpti_chain_del(qpti);
  825. /* Shut up the card. */
  826. sbus_writew(0, qpti->qregs + SBUS_CTRL);
  827. /* Free IRQ handler and unmap Qlogic,ISP and PTI status regs. */
  828. free_irq(qpti->irq, qpti);
  829. #define QSIZE(entries) (((entries) + 1) * QUEUE_ENTRY_LEN)
  830. sbus_free_consistent(qpti->sdev,
  831.      QSIZE(RES_QUEUE_LEN),
  832.      qpti->res_cpu, qpti->res_dvma);
  833. sbus_free_consistent(qpti->sdev,
  834.      QSIZE(QLOGICPTI_REQ_QUEUE_LEN),
  835.      qpti->req_cpu, qpti->req_dvma);
  836. #undef QSIZE
  837. sbus_iounmap(qpti->qregs, qpti->sdev->reg_addrs[0].reg_size);
  838. if (qpti->is_pti)
  839. sbus_iounmap(qpti->sreg, sizeof(unsigned char));
  840. return 0;
  841. }
  842. const char *qlogicpti_info(struct Scsi_Host *host)
  843. {
  844. static char buf[80];
  845. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  846. sprintf(buf, "PTI Qlogic,ISP SBUS SCSI irq %s regs at %lx",
  847. __irq_itoa(qpti->qhost->irq), qpti->qregs);
  848. return buf;
  849. }
  850. /* I am a certified frobtronicist. */
  851. static inline void marker_frob(struct Command_Entry *cmd)
  852. {
  853. struct Marker_Entry *marker = (struct Marker_Entry *) cmd;
  854. memset(marker, 0, sizeof(struct Marker_Entry));
  855. marker->hdr.entry_cnt = 1;
  856. marker->hdr.entry_type = ENTRY_MARKER;
  857. marker->modifier = SYNC_ALL;
  858. marker->rsvd = 0;
  859. }
  860. static inline void cmd_frob(struct Command_Entry *cmd, Scsi_Cmnd *Cmnd,
  861.     struct qlogicpti *qpti)
  862. {
  863. memset(cmd, 0, sizeof(struct Command_Entry));
  864. cmd->hdr.entry_cnt = 1;
  865. cmd->hdr.entry_type = ENTRY_COMMAND;
  866. cmd->target_id = Cmnd->target;
  867. cmd->target_lun = Cmnd->lun;
  868. cmd->cdb_length = Cmnd->cmd_len;
  869. cmd->control_flags = 0;
  870. if (Cmnd->device->tagged_supported) {
  871. if (qpti->cmd_count[Cmnd->target] == 0)
  872. qpti->tag_ages[Cmnd->target] = jiffies;
  873. if ((jiffies - qpti->tag_ages[Cmnd->target]) > (5*HZ)) {
  874. cmd->control_flags = CFLAG_ORDERED_TAG;
  875. qpti->tag_ages[Cmnd->target] = jiffies;
  876. } else
  877. cmd->control_flags = CFLAG_SIMPLE_TAG;
  878. }
  879. if ((Cmnd->cmnd[0] == WRITE_6) ||
  880.     (Cmnd->cmnd[0] == WRITE_10) ||
  881.     (Cmnd->cmnd[0] == WRITE_12))
  882. cmd->control_flags |= CFLAG_WRITE;
  883. else
  884. cmd->control_flags |= CFLAG_READ;
  885. cmd->time_out = 30;
  886. memcpy(cmd->cdb, Cmnd->cmnd, Cmnd->cmd_len);
  887. }
  888. /* Do it to it baby. */
  889. static inline int load_cmd(Scsi_Cmnd *Cmnd, struct Command_Entry *cmd,
  890.    struct qlogicpti *qpti, u_int in_ptr, u_int out_ptr)
  891. {
  892. struct dataseg *ds;
  893. struct scatterlist *sg;
  894. int i, n;
  895. if (Cmnd->use_sg) {
  896. int sg_count;
  897. sg = (struct scatterlist *) Cmnd->buffer;
  898. sg_count = sbus_map_sg(qpti->sdev, sg, Cmnd->use_sg, scsi_to_sbus_dma_dir(Cmnd->sc_data_direction));
  899. ds = cmd->dataseg;
  900. cmd->segment_cnt = sg_count;
  901. /* Fill in first four sg entries: */
  902. n = sg_count;
  903. if (n > 4)
  904. n = 4;
  905. for (i = 0; i < n; i++, sg++) {
  906. ds[i].d_base = sg_dma_address(sg);
  907. ds[i].d_count = sg_dma_len(sg);
  908. }
  909. sg_count -= 4;
  910. while (sg_count > 0) {
  911. struct Continuation_Entry *cont;
  912. ++cmd->hdr.entry_cnt;
  913. cont = (struct Continuation_Entry *) &qpti->req_cpu[in_ptr];
  914. in_ptr = NEXT_REQ_PTR(in_ptr);
  915. if (in_ptr == out_ptr)
  916. return -1;
  917. cont->hdr.entry_type = ENTRY_CONTINUATION;
  918. cont->hdr.entry_cnt = 0;
  919. cont->hdr.sys_def_1 = 0;
  920. cont->hdr.flags = 0;
  921. cont->reserved = 0;
  922. ds = cont->dataseg;
  923. n = sg_count;
  924. if (n > 7)
  925. n = 7;
  926. for (i = 0; i < n; i++, sg++) {
  927. ds[i].d_base = sg_dma_address(sg);
  928. ds[i].d_count = sg_dma_len(sg);
  929. }
  930. sg_count -= n;
  931. }
  932. } else if (Cmnd->request_bufflen) {
  933. Cmnd->SCp.ptr = (char *)(unsigned long)
  934. sbus_map_single(qpti->sdev,
  935. Cmnd->request_buffer,
  936. Cmnd->request_bufflen,
  937. scsi_to_sbus_dma_dir(Cmnd->sc_data_direction));
  938. cmd->dataseg[0].d_base = (u32) ((unsigned long)Cmnd->SCp.ptr);
  939. cmd->dataseg[0].d_count = Cmnd->request_bufflen;
  940. cmd->segment_cnt = 1;
  941. } else {
  942. cmd->dataseg[0].d_base = 0;
  943. cmd->dataseg[0].d_count = 0;
  944. cmd->segment_cnt = 1; /* Shouldn't this be 0? */
  945. }
  946. /* Committed, record Scsi_Cmd so we can find it later. */
  947. cmd->handle = in_ptr;
  948. qpti->cmd_slots[in_ptr] = Cmnd;
  949. qpti->cmd_count[Cmnd->target]++;
  950. sbus_writew(in_ptr, qpti->qregs + MBOX4);
  951. qpti->req_in_ptr = in_ptr;
  952. return in_ptr;
  953. }
  954. static inline void update_can_queue(struct Scsi_Host *host, u_int in_ptr, u_int out_ptr)
  955. {
  956. /* Temporary workaround until bug is found and fixed (one bug has been found
  957.    already, but fixing it makes things even worse) -jj */
  958. int num_free = QLOGICPTI_REQ_QUEUE_LEN - REQ_QUEUE_DEPTH(in_ptr, out_ptr) - 64;
  959. host->can_queue = host->host_busy + num_free;
  960. host->sg_tablesize = QLOGICPTI_MAX_SG(num_free);
  961. }
  962. /*
  963.  * Until we scan the entire bus with inquiries, go throught this fella...
  964.  */
  965. static void ourdone(Scsi_Cmnd *Cmnd)
  966. {
  967. struct qlogicpti *qpti = (struct qlogicpti *) Cmnd->host->hostdata;
  968. int tgt = Cmnd->target;
  969. void (*done) (Scsi_Cmnd *);
  970. /* This grot added by DaveM, blame him for ugliness.
  971.  * The issue is that in the 2.3.x driver we use the
  972.  * host_scribble portion of the scsi command as a
  973.  * completion linked list at interrupt service time,
  974.  * so we have to store the done function pointer elsewhere.
  975.  */
  976. done = (void (*)(Scsi_Cmnd *))
  977. (((unsigned long) Cmnd->SCp.Message)
  978. #ifdef __sparc_v9__
  979.  | ((unsigned long) Cmnd->SCp.Status << 32UL)
  980. #endif
  981.  );
  982. if ((qpti->sbits & (1 << tgt)) == 0) {
  983. int ok = host_byte(Cmnd->result) == DID_OK;
  984. if (Cmnd->cmnd[0] == 0x12 && ok) {
  985. unsigned char *iqd;
  986. if (Cmnd->use_sg == 0) {
  987. iqd = ((unsigned char *)Cmnd->buffer);
  988. } else {
  989. iqd = ((struct scatterlist *) Cmnd->request_buffer)->address;
  990. }
  991. /* tags handled in midlayer */
  992. /* enable sync mode? */
  993. if (iqd[7] & 0x10) {
  994. qpti->dev_param[tgt].device_flags |= 0x10;
  995. } else {
  996. qpti->dev_param[tgt].synchronous_offset = 0;
  997. qpti->dev_param[tgt].synchronous_period = 0;
  998. }
  999. /* are we wide capable? */
  1000. if (iqd[7] & 0x20) {
  1001. qpti->dev_param[tgt].device_flags |= 0x20;
  1002. }
  1003. qpti->sbits |= (1 << tgt);
  1004. } else if (!ok) {
  1005. qpti->sbits |= (1 << tgt);
  1006. }
  1007. }
  1008. done(Cmnd);
  1009. }
  1010. int qlogicpti_queuecommand_slow(Scsi_Cmnd *Cmnd, void (*done)(Scsi_Cmnd *))
  1011. {
  1012. unsigned long flags;
  1013. struct qlogicpti *qpti = (struct qlogicpti *) Cmnd->host->hostdata;
  1014. /*
  1015.  * done checking this host adapter?
  1016.  * If not, then rewrite the command
  1017.  * to finish through ourdone so we
  1018.  * can peek at Inquiry data results.
  1019.  */
  1020. if (qpti->sbits && qpti->sbits != 0xffff) {
  1021. /* See above about in ourdone this ugliness... */
  1022. Cmnd->SCp.Message = ((unsigned long)done) & 0xffffffff;
  1023. #ifdef __sparc_v9__
  1024. Cmnd->SCp.Status = ((unsigned long)done >> 32UL) & 0xffffffff;
  1025. #endif
  1026. return qlogicpti_queuecommand(Cmnd, ourdone);
  1027. }
  1028. save_flags(flags); cli();
  1029. /*
  1030.  * We've peeked at all targets for this bus- time
  1031.  * to set parameters for devices for real now.
  1032.  */
  1033. if (qpti->sbits == 0xffff) {
  1034. int i;
  1035. for(i = 0; i < MAX_TARGETS; i++) {
  1036. u_short param[6];
  1037. param[0] = MBOX_SET_TARGET_PARAMS;
  1038. param[1] = (i << 8);
  1039. param[2] = (qpti->dev_param[i].device_flags << 8);
  1040. if (qpti->dev_param[i].device_flags & 0x10) {
  1041. param[3] = (qpti->dev_param[i].synchronous_offset << 8) |
  1042. qpti->dev_param[i].synchronous_period;
  1043. } else {
  1044. param[3] = 0;
  1045. }
  1046. (void) qlogicpti_mbox_command(qpti, param, 0);
  1047. }
  1048. /*
  1049.  * set to zero so any traverse through ourdone
  1050.  * doesn't start the whole process again,
  1051.  */
  1052. qpti->sbits = 0;
  1053. }
  1054. /* check to see if we're done with all adapters... */
  1055. for (qpti = qptichain; qpti != NULL; qpti = qpti->next) {
  1056. if (qpti->sbits) {
  1057. break;
  1058. }
  1059. }
  1060. /*
  1061.  * if we hit the end of the chain w/o finding adapters still
  1062.  * capability-configuring, then we're done with all adapters
  1063.  * and can rock on..
  1064.  */
  1065. if (qpti == NULL)
  1066. Cmnd->host->hostt->queuecommand = qlogicpti_queuecommand;
  1067. restore_flags(flags);
  1068. return qlogicpti_queuecommand(Cmnd, done);
  1069. }
  1070. /*
  1071.  * The middle SCSI layer ensures that queuecommand never gets invoked
  1072.  * concurrently with itself or the interrupt handler (though the
  1073.  * interrupt handler may call this routine as part of
  1074.  * request-completion handling).
  1075.  *
  1076.  * "This code must fly." -davem
  1077.  */
  1078. int qlogicpti_queuecommand(Scsi_Cmnd *Cmnd, void (*done)(Scsi_Cmnd *))
  1079. {
  1080. struct Scsi_Host *host = Cmnd->host;
  1081. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  1082. struct Command_Entry *cmd;
  1083. unsigned long flags;
  1084. u_int out_ptr;
  1085. int in_ptr;
  1086. Cmnd->scsi_done = done;
  1087. spin_lock_irqsave(&qpti->lock, flags);
  1088. in_ptr = qpti->req_in_ptr;
  1089. cmd = (struct Command_Entry *) &qpti->req_cpu[in_ptr];
  1090. out_ptr = sbus_readw(qpti->qregs + MBOX4);
  1091. in_ptr = NEXT_REQ_PTR(in_ptr);
  1092. if (in_ptr == out_ptr)
  1093. goto toss_command;
  1094. if (qpti->send_marker) {
  1095. marker_frob(cmd);
  1096. qpti->send_marker = 0;
  1097. if (NEXT_REQ_PTR(in_ptr) == out_ptr) {
  1098. sbus_writew(in_ptr, qpti->qregs + MBOX4);
  1099. qpti->req_in_ptr = in_ptr;
  1100. goto toss_command;
  1101. }
  1102. cmd = (struct Command_Entry *) &qpti->req_cpu[in_ptr];
  1103. in_ptr = NEXT_REQ_PTR(in_ptr);
  1104. }
  1105. cmd_frob(cmd, Cmnd, qpti);
  1106. if ((in_ptr = load_cmd(Cmnd, cmd, qpti, in_ptr, out_ptr)) == -1)
  1107. goto toss_command;
  1108. update_can_queue(host, in_ptr, out_ptr);
  1109. spin_unlock_irqrestore(&qpti->lock, flags);
  1110. return 0;
  1111. toss_command:
  1112. printk(KERN_EMERG "qlogicpti%d: request queue overflown",
  1113.        qpti->qpti_id);
  1114. spin_unlock_irqrestore(&qpti->lock, flags);
  1115. /* Unfortunately, unless you use the new EH code, which
  1116.  * we don't, the midlayer will ignore the return value,
  1117.  * which is insane.  We pick up the pieces like this.
  1118.  */
  1119. Cmnd->result = DID_BUS_BUSY;
  1120. done(Cmnd);
  1121. return 1;
  1122. }
  1123. static int qlogicpti_return_status(struct Status_Entry *sts, int id)
  1124. {
  1125. int host_status = DID_ERROR;
  1126. switch (sts->completion_status) {
  1127.       case CS_COMPLETE:
  1128. host_status = DID_OK;
  1129. break;
  1130.       case CS_INCOMPLETE:
  1131. if (!(sts->state_flags & SF_GOT_BUS))
  1132. host_status = DID_NO_CONNECT;
  1133. else if (!(sts->state_flags & SF_GOT_TARGET))
  1134. host_status = DID_BAD_TARGET;
  1135. else if (!(sts->state_flags & SF_SENT_CDB))
  1136. host_status = DID_ERROR;
  1137. else if (!(sts->state_flags & SF_TRANSFERRED_DATA))
  1138. host_status = DID_ERROR;
  1139. else if (!(sts->state_flags & SF_GOT_STATUS))
  1140. host_status = DID_ERROR;
  1141. else if (!(sts->state_flags & SF_GOT_SENSE))
  1142. host_status = DID_ERROR;
  1143. break;
  1144.       case CS_DMA_ERROR:
  1145.       case CS_TRANSPORT_ERROR:
  1146. host_status = DID_ERROR;
  1147. break;
  1148.       case CS_RESET_OCCURRED:
  1149.       case CS_BUS_RESET:
  1150. host_status = DID_RESET;
  1151. break;
  1152.       case CS_ABORTED:
  1153. host_status = DID_ABORT;
  1154. break;
  1155.       case CS_TIMEOUT:
  1156. host_status = DID_TIME_OUT;
  1157. break;
  1158.       case CS_DATA_OVERRUN:
  1159.       case CS_COMMAND_OVERRUN:
  1160.       case CS_STATUS_OVERRUN:
  1161.       case CS_BAD_MESSAGE:
  1162.       case CS_NO_MESSAGE_OUT:
  1163.       case CS_EXT_ID_FAILED:
  1164.       case CS_IDE_MSG_FAILED:
  1165.       case CS_ABORT_MSG_FAILED:
  1166.       case CS_NOP_MSG_FAILED:
  1167.       case CS_PARITY_ERROR_MSG_FAILED:
  1168.       case CS_DEVICE_RESET_MSG_FAILED:
  1169.       case CS_ID_MSG_FAILED:
  1170.       case CS_UNEXP_BUS_FREE:
  1171. host_status = DID_ERROR;
  1172. break;
  1173.       case CS_DATA_UNDERRUN:
  1174. host_status = DID_OK;
  1175. break;
  1176.       default:
  1177. printk(KERN_EMERG "qpti%d: unknown completion status 0x%04xn",
  1178.        id, sts->completion_status);
  1179. host_status = DID_ERROR;
  1180. break;
  1181. }
  1182. return (sts->scsi_status & STATUS_MASK) | (host_status << 16);
  1183. }
  1184. static Scsi_Cmnd *qlogicpti_intr_handler(struct qlogicpti *qpti)
  1185. {
  1186. Scsi_Cmnd *Cmnd, *done_queue = NULL;
  1187. struct Status_Entry *sts;
  1188. u_int in_ptr, out_ptr;
  1189. if (!(sbus_readw(qpti->qregs + SBUS_STAT) & SBUS_STAT_RINT))
  1190. return NULL;
  1191. in_ptr = sbus_readw(qpti->qregs + MBOX5);
  1192. sbus_writew(HCCTRL_CRIRQ, qpti->qregs + HCCTRL);
  1193. if (sbus_readw(qpti->qregs + SBUS_SEMAPHORE) & SBUS_SEMAPHORE_LCK) {
  1194. switch (sbus_readw(qpti->qregs + MBOX0)) {
  1195. case ASYNC_SCSI_BUS_RESET:
  1196. case EXECUTION_TIMEOUT_RESET:
  1197. qpti->send_marker = 1;
  1198. break;
  1199. case INVALID_COMMAND:
  1200. case HOST_INTERFACE_ERROR:
  1201. case COMMAND_ERROR:
  1202. case COMMAND_PARAM_ERROR:
  1203. break;
  1204. };
  1205. sbus_writew(0, qpti->qregs + SBUS_SEMAPHORE);
  1206. }
  1207. /* This looks like a network driver! */
  1208. out_ptr = qpti->res_out_ptr;
  1209. while (out_ptr != in_ptr) {
  1210. u_int cmd_slot;
  1211. sts = (struct Status_Entry *) &qpti->res_cpu[out_ptr];
  1212. out_ptr = NEXT_RES_PTR(out_ptr);
  1213. /* We store an index in the handle, not the pointer in
  1214.  * some form.  This avoids problems due to the fact
  1215.  * that the handle provided is only 32-bits. -DaveM
  1216.  */
  1217. cmd_slot = sts->handle;
  1218. Cmnd = qpti->cmd_slots[cmd_slot];
  1219. qpti->cmd_slots[cmd_slot] = NULL;
  1220. if (sts->completion_status == CS_RESET_OCCURRED ||
  1221.     sts->completion_status == CS_ABORTED ||
  1222.     (sts->status_flags & STF_BUS_RESET))
  1223. qpti->send_marker = 1;
  1224. if (sts->state_flags & SF_GOT_SENSE)
  1225. memcpy(Cmnd->sense_buffer, sts->req_sense_data,
  1226.        sizeof(Cmnd->sense_buffer));
  1227. if (sts->hdr.entry_type == ENTRY_STATUS)
  1228. Cmnd->result =
  1229.     qlogicpti_return_status(sts, qpti->qpti_id);
  1230. else
  1231. Cmnd->result = DID_ERROR << 16;
  1232. if (Cmnd->use_sg) {
  1233. sbus_unmap_sg(qpti->sdev,
  1234.       (struct scatterlist *)Cmnd->buffer,
  1235.       Cmnd->use_sg,
  1236.       scsi_to_sbus_dma_dir(Cmnd->sc_data_direction));
  1237. } else {
  1238. sbus_unmap_single(qpti->sdev,
  1239.   (__u32)((unsigned long)Cmnd->SCp.ptr),
  1240.   Cmnd->request_bufflen,
  1241.   scsi_to_sbus_dma_dir(Cmnd->sc_data_direction));
  1242. }
  1243. qpti->cmd_count[Cmnd->target]--;
  1244. sbus_writew(out_ptr, qpti->qregs + MBOX5);
  1245. Cmnd->host_scribble = (unsigned char *) done_queue;
  1246. done_queue = Cmnd;
  1247. }
  1248. qpti->res_out_ptr = out_ptr;
  1249. return done_queue;
  1250. }
  1251. static void qpti_intr(int irq, void *dev_id, struct pt_regs *regs)
  1252. {
  1253. struct qlogicpti *qpti = dev_id;
  1254. unsigned long flags;
  1255. Scsi_Cmnd *dq;
  1256. spin_lock_irqsave(&qpti->lock, flags);
  1257. dq = qlogicpti_intr_handler(qpti);
  1258. spin_unlock(&qpti->lock);
  1259. if (dq != NULL) {
  1260. spin_lock(&io_request_lock);
  1261. do {
  1262. Scsi_Cmnd *next;
  1263. next = (Scsi_Cmnd *) dq->host_scribble;
  1264. dq->scsi_done(dq);
  1265. dq = next;
  1266. } while (dq != NULL);
  1267. spin_unlock(&io_request_lock);
  1268. }
  1269. __restore_flags(flags);
  1270. }
  1271. int qlogicpti_abort(Scsi_Cmnd *Cmnd)
  1272. {
  1273. u_short param[6];
  1274. struct Scsi_Host *host = Cmnd->host;
  1275. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  1276. int return_status = SCSI_ABORT_SUCCESS;
  1277. unsigned long flags;
  1278. u32 cmd_cookie;
  1279. int i;
  1280. printk(KERN_WARNING "qlogicpti : Aborting cmd for tgt[%d] lun[%d]n",
  1281.        (int)Cmnd->target, (int)Cmnd->lun);
  1282. spin_lock_irqsave(&qpti->lock, flags);
  1283. qlogicpti_disable_irqs(qpti);
  1284. /* Find the 32-bit cookie we gave to the firmware for
  1285.  * this command.
  1286.  */
  1287. for (i = 0; i < QLOGICPTI_REQ_QUEUE_LEN + 1; i++)
  1288. if (qpti->cmd_slots[i] == Cmnd)
  1289. break;
  1290. cmd_cookie = i;
  1291. param[0] = MBOX_ABORT;
  1292. param[1] = (((u_short) Cmnd->target) << 8) | Cmnd->lun;
  1293. param[2] = cmd_cookie >> 16;
  1294. param[3] = cmd_cookie & 0xffff;
  1295. if (qlogicpti_mbox_command(qpti, param, 0) ||
  1296.     (param[0] != MBOX_COMMAND_COMPLETE)) {
  1297. printk(KERN_EMERG "qlogicpti : scsi abort failure: %xn", param[0]);
  1298. return_status = SCSI_ABORT_ERROR;
  1299. }
  1300. qlogicpti_enable_irqs(qpti);
  1301. spin_unlock_irqrestore(&qpti->lock, flags);
  1302. return return_status;
  1303. }
  1304. int qlogicpti_reset(Scsi_Cmnd *Cmnd, unsigned int reset_flags)
  1305. {
  1306. u_short param[6];
  1307. struct Scsi_Host *host = Cmnd->host;
  1308. struct qlogicpti *qpti = (struct qlogicpti *) host->hostdata;
  1309. int return_status = SCSI_RESET_SUCCESS;
  1310. unsigned long flags;
  1311. printk(KERN_WARNING "qlogicpti : Resetting SCSI bus!n");
  1312. spin_lock_irqsave(&qpti->lock, flags);
  1313. qlogicpti_disable_irqs(qpti);
  1314. param[0] = MBOX_BUS_RESET;
  1315. param[1] = qpti->host_param.bus_reset_delay;
  1316. if (qlogicpti_mbox_command(qpti, param, 0) ||
  1317.    (param[0] != MBOX_COMMAND_COMPLETE)) {
  1318. printk(KERN_EMERG "qlogicisp : scsi bus reset failure: %xn", param[0]);
  1319. return_status = SCSI_RESET_ERROR;
  1320. }
  1321. qlogicpti_enable_irqs(qpti);
  1322. spin_unlock_irqrestore(&qpti->lock, flags);
  1323. return return_status;
  1324. }
  1325. static Scsi_Host_Template driver_template = QLOGICPTI;
  1326. #include "scsi_module.c"
  1327. EXPORT_NO_SYMBOLS;