hpt366.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:35k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * linux/drivers/ide/hpt366.c Version 0.22 20 Sep 2001
  3.  *
  4.  * Copyright (C) 1999-2000 Andre Hedrick <andre@linux-ide.org>
  5.  * Portions Copyright (C) 2001         Sun Microsystems, Inc.
  6.  * May be copied or modified under the terms of the GNU General Public License
  7.  *
  8.  * Thanks to HighPoint Technologies for their assistance, and hardware.
  9.  * Special Thanks to Jon Burchmore in SanDiego for the deep pockets, his
  10.  * donation of an ABit BP6 mainboard, processor, and memory acellerated
  11.  * development and support.
  12.  *
  13.  * Note that final HPT370 support was done by force extraction of GPL.
  14.  *
  15.  * - add function for getting/setting power status of drive
  16.  * - the HPT370's state machine can get confused. reset it before each dma 
  17.  *   xfer to prevent that from happening.
  18.  * - reset state engine whenever we get an error.
  19.  * - check for busmaster state at end of dma. 
  20.  * - use new highpoint timings.
  21.  * - detect bus speed using highpoint register.
  22.  * - use pll if we don't have a clock table. added a 66MHz table that's
  23.  *   just 2x the 33MHz table.
  24.  * - removed turnaround. NOTE: we never want to switch between pll and
  25.  *   pci clocks as the chip can glitch in those cases. the highpoint
  26.  *   approved workaround slows everything down too much to be useful. in
  27.  *   addition, we would have to serialize access to each chip.
  28.  *  Adrian Sun <a.sun@sun.com>
  29.  *
  30.  * add drive timings for 66MHz PCI bus,
  31.  * fix ATA Cable signal detection, fix incorrect /proc info
  32.  * add /proc display for per-drive PIO/DMA/UDMA mode and
  33.  * per-channel ATA-33/66 Cable detect.
  34.  *  Duncan Laurie <void@sun.com>
  35.  *
  36.  * fixup /proc output for multiple controllers
  37.  * Tim Hockin <thockin@sun.com>
  38.  *
  39.  * On hpt366: 
  40.  * Reset the hpt366 on error, reset on dma
  41.  * Fix disabling Fast Interrupt hpt366.
  42.  *  Mike Waychison <crlf@sun.com>
  43.  */
  44. #include <linux/config.h>
  45. #include <linux/types.h>
  46. #include <linux/kernel.h>
  47. #include <linux/delay.h>
  48. #include <linux/timer.h>
  49. #include <linux/mm.h>
  50. #include <linux/ioport.h>
  51. #include <linux/blkdev.h>
  52. #include <linux/hdreg.h>
  53. #include <linux/interrupt.h>
  54. #include <linux/pci.h>
  55. #include <linux/init.h>
  56. #include <linux/ide.h>
  57. #include <asm/uaccess.h>
  58. #include <asm/io.h>
  59. #include <asm/irq.h>
  60. #include "ide_modes.h"
  61. #define DISPLAY_HPT366_TIMINGS
  62. /* various tuning parameters */
  63. #define HPT_RESET_STATE_ENGINE
  64. /*#define HPT_DELAY_INTERRUPT*/
  65. /*#define HPT_SERIALIZE_IO*/
  66. #if defined(DISPLAY_HPT366_TIMINGS) && defined(CONFIG_PROC_FS)
  67. #include <linux/stat.h>
  68. #include <linux/proc_fs.h>
  69. #endif  /* defined(DISPLAY_HPT366_TIMINGS) && defined(CONFIG_PROC_FS) */
  70. extern char *ide_dmafunc_verbose(ide_dma_action_t dmafunc);
  71. const char *quirk_drives[] = {
  72. "QUANTUM FIREBALLlct08 08",
  73. "QUANTUM FIREBALLP KA6.4",
  74. "QUANTUM FIREBALLP LM20.4",
  75. "QUANTUM FIREBALLP LM20.5",
  76.         NULL
  77. };
  78. const char *bad_ata100_5[] = {
  79. "IBM-DTLA-307075",
  80. "IBM-DTLA-307060",
  81. "IBM-DTLA-307045",
  82. "IBM-DTLA-307030",
  83. "IBM-DTLA-307020",
  84. "IBM-DTLA-307015",
  85. "IBM-DTLA-305040",
  86. "IBM-DTLA-305030",
  87. "IBM-DTLA-305020",
  88. "IC35L010AVER07-0",
  89. "IC35L020AVER07-0",
  90. "IC35L030AVER07-0",
  91. "IC35L040AVER07-0",
  92. "IC35L060AVER07-0",
  93. "WDC AC310200R",
  94. NULL
  95. };
  96. const char *bad_ata66_4[] = {
  97. "IBM-DTLA-307075",
  98. "IBM-DTLA-307060",
  99. "IBM-DTLA-307045",
  100. "IBM-DTLA-307030",
  101. "IBM-DTLA-307020",
  102. "IBM-DTLA-307015",
  103. "IBM-DTLA-305040",
  104. "IBM-DTLA-305030",
  105. "IBM-DTLA-305020",
  106. "IC35L010AVER07-0",
  107. "IC35L020AVER07-0",
  108. "IC35L030AVER07-0",
  109. "IC35L040AVER07-0",
  110. "IC35L060AVER07-0",
  111. "WDC AC310200R",
  112. NULL
  113. };
  114. const char *bad_ata66_3[] = {
  115. "WDC AC310200R",
  116. NULL
  117. };
  118. const char *bad_ata33[] = {
  119. "Maxtor 92720U8", "Maxtor 92040U6", "Maxtor 91360U4", "Maxtor 91020U3", "Maxtor 90845U3", "Maxtor 90650U2",
  120. "Maxtor 91360D8", "Maxtor 91190D7", "Maxtor 91020D6", "Maxtor 90845D5", "Maxtor 90680D4", "Maxtor 90510D3", "Maxtor 90340D2",
  121. "Maxtor 91152D8", "Maxtor 91008D7", "Maxtor 90845D6", "Maxtor 90840D6", "Maxtor 90720D5", "Maxtor 90648D5", "Maxtor 90576D4",
  122. "Maxtor 90510D4",
  123. "Maxtor 90432D3", "Maxtor 90288D2", "Maxtor 90256D2",
  124. "Maxtor 91000D8", "Maxtor 90910D8", "Maxtor 90875D7", "Maxtor 90840D7", "Maxtor 90750D6", "Maxtor 90625D5", "Maxtor 90500D4",
  125. "Maxtor 91728D8", "Maxtor 91512D7", "Maxtor 91303D6", "Maxtor 91080D5", "Maxtor 90845D4", "Maxtor 90680D4", "Maxtor 90648D3", "Maxtor 90432D2",
  126. NULL
  127. };
  128. struct chipset_bus_clock_list_entry {
  129. byte xfer_speed;
  130. unsigned int chipset_settings;
  131. };
  132. /* key for bus clock timings
  133.  * bit
  134.  * 0:3    data_high_time. inactive time of DIOW_/DIOR_ for PIO and MW
  135.  *        DMA. cycles = value + 1
  136.  * 4:8    data_low_time. active time of DIOW_/DIOR_ for PIO and MW
  137.  *        DMA. cycles = value + 1
  138.  * 9:12   cmd_high_time. inactive time of DIOW_/DIOR_ during task file
  139.  *        register access.
  140.  * 13:17  cmd_low_time. active time of DIOW_/DIOR_ during task file
  141.  *        register access.
  142.  * 18:21  udma_cycle_time. clock freq and clock cycles for UDMA xfer.
  143.  *        during task file register access.
  144.  * 22:24  pre_high_time. time to initialize 1st cycle for PIO and MW DMA
  145.  *        xfer.
  146.  * 25:27  cmd_pre_high_time. time to initialize 1st PIO cycle for task
  147.  *        register access.
  148.  * 28     UDMA enable
  149.  * 29     DMA enable
  150.  * 30     PIO_MST enable. if set, the chip is in bus master mode during
  151.  *        PIO.
  152.  * 31     FIFO enable.
  153.  */
  154. struct chipset_bus_clock_list_entry forty_base [] = {
  155. { XFER_UDMA_4,    0x900fd943 },
  156. { XFER_UDMA_3, 0x900ad943 },
  157. { XFER_UDMA_2, 0x900bd943 },
  158. { XFER_UDMA_1, 0x9008d943 },
  159. { XFER_UDMA_0, 0x9008d943 },
  160. { XFER_MW_DMA_2, 0xa008d943 },
  161. { XFER_MW_DMA_1, 0xa010d955 },
  162. { XFER_MW_DMA_0, 0xa010d9fc },
  163. { XFER_PIO_4, 0xc008d963 },
  164. { XFER_PIO_3, 0xc010d974 },
  165. { XFER_PIO_2, 0xc010d997 },
  166. { XFER_PIO_1, 0xc010d9c7 },
  167. { XFER_PIO_0, 0xc018d9d9 },
  168. { 0, 0x0120d9d9 }
  169. };
  170. struct chipset_bus_clock_list_entry thirty_three_base [] = {
  171. { XFER_UDMA_4, 0x90c9a731 },
  172. { XFER_UDMA_3, 0x90cfa731 },
  173. { XFER_UDMA_2, 0x90caa731 },
  174. { XFER_UDMA_1, 0x90cba731 },
  175. { XFER_UDMA_0, 0x90c8a731 },
  176. { XFER_MW_DMA_2, 0xa0c8a731 },
  177. { XFER_MW_DMA_1, 0xa0c8a732 }, /* 0xa0c8a733 */
  178. { XFER_MW_DMA_0, 0xa0c8a797 },
  179. { XFER_PIO_4, 0xc0c8a731 },
  180. { XFER_PIO_3, 0xc0c8a742 },
  181. { XFER_PIO_2, 0xc0d0a753 },
  182. { XFER_PIO_1, 0xc0d0a7a3 }, /* 0xc0d0a793 */
  183. { XFER_PIO_0, 0xc0d0a7aa }, /* 0xc0d0a7a7 */
  184. { 0, 0x0120a7a7 }
  185. };
  186. struct chipset_bus_clock_list_entry twenty_five_base [] = {
  187. { XFER_UDMA_4, 0x90c98521 },
  188. { XFER_UDMA_3, 0x90cf8521 },
  189. { XFER_UDMA_2, 0x90cf8521 },
  190. { XFER_UDMA_1, 0x90cb8521 },
  191. { XFER_UDMA_0, 0x90cb8521 },
  192. { XFER_MW_DMA_2, 0xa0ca8521 },
  193. { XFER_MW_DMA_1, 0xa0ca8532 },
  194. { XFER_MW_DMA_0, 0xa0ca8575 },
  195. { XFER_PIO_4, 0xc0ca8521 },
  196. { XFER_PIO_3, 0xc0ca8532 },
  197. { XFER_PIO_2, 0xc0ca8542 },
  198. { XFER_PIO_1, 0xc0d08572 },
  199. { XFER_PIO_0, 0xc0d08585 },
  200. { 0, 0x01208585 }
  201. };
  202. #if 1
  203. /* these are the current (4 sep 2001) timings from highpoint */
  204. struct chipset_bus_clock_list_entry thirty_three_base_hpt370[] = {
  205.         {       XFER_UDMA_5,    0x12446231      },
  206.         {       XFER_UDMA_4,    0x12446231      },
  207.         {       XFER_UDMA_3,    0x126c6231      },
  208.         {       XFER_UDMA_2,    0x12486231      },
  209.         {       XFER_UDMA_1,    0x124c6233      },
  210.         {       XFER_UDMA_0,    0x12506297      },
  211.         {       XFER_MW_DMA_2,  0x22406c31      },
  212.         {       XFER_MW_DMA_1,  0x22406c33      },
  213.         {       XFER_MW_DMA_0,  0x22406c97      },
  214.         {       XFER_PIO_4,     0x06414e31      },
  215.         {       XFER_PIO_3,     0x06414e42      },
  216.         {       XFER_PIO_2,     0x06414e53      },
  217.         {       XFER_PIO_1,     0x06814e93      },
  218.         {       XFER_PIO_0,     0x06814ea7      },
  219.         {       0,              0x06814ea7      }
  220. };
  221. /* 2x 33MHz timings */
  222. struct chipset_bus_clock_list_entry sixty_six_base_hpt370[] = {
  223. {       XFER_UDMA_5,    0x1488e673       },
  224. {       XFER_UDMA_4,    0x1488e673       },
  225. {       XFER_UDMA_3,    0x1498e673       },
  226. {       XFER_UDMA_2,    0x1490e673       },
  227. {       XFER_UDMA_1,    0x1498e677       },
  228. {       XFER_UDMA_0,    0x14a0e73f       },
  229. {       XFER_MW_DMA_2,  0x2480fa73       },
  230. {       XFER_MW_DMA_1,  0x2480fa77       }, 
  231. {       XFER_MW_DMA_0,  0x2480fb3f       },
  232. {       XFER_PIO_4,     0x0c82be73       },
  233. {       XFER_PIO_3,     0x0c82be95       },
  234. {       XFER_PIO_2,     0x0c82beb7       },
  235. {       XFER_PIO_1,     0x0d02bf37       },
  236. {       XFER_PIO_0,     0x0d02bf5f       },
  237. {       0,              0x0d02bf5f       }
  238. };
  239. #else
  240. /* from highpoint documentation. these are old values */
  241. struct chipset_bus_clock_list_entry thirty_three_base_hpt370[] = {
  242. { XFER_UDMA_5, 0x16454e31 },
  243. { XFER_UDMA_4, 0x16454e31 },
  244. { XFER_UDMA_3, 0x166d4e31 },
  245. { XFER_UDMA_2, 0x16494e31 },
  246. { XFER_UDMA_1, 0x164d4e31 },
  247. { XFER_UDMA_0, 0x16514e31 },
  248. { XFER_MW_DMA_2, 0x26514e21 },
  249. { XFER_MW_DMA_1, 0x26514e33 },
  250. { XFER_MW_DMA_0, 0x26514e97 },
  251. { XFER_PIO_4, 0x06514e21 },
  252. { XFER_PIO_3, 0x06514e22 },
  253. { XFER_PIO_2, 0x06514e33 },
  254. { XFER_PIO_1, 0x06914e43 },
  255. { XFER_PIO_0, 0x06914e57 },
  256. { 0, 0x06514e57 }
  257. };
  258. struct chipset_bus_clock_list_entry sixty_six_base_hpt370[] = {
  259. {       XFER_UDMA_5,    0x14846231      },
  260. {       XFER_UDMA_4,    0x14886231      },
  261. {       XFER_UDMA_3,    0x148c6231      },
  262. {       XFER_UDMA_2,    0x148c6231      },
  263. {       XFER_UDMA_1,    0x14906231      },
  264. {       XFER_UDMA_0,    0x14986231      },
  265. {       XFER_MW_DMA_2,  0x26514e21      },
  266. {       XFER_MW_DMA_1,  0x26514e33      },
  267. {       XFER_MW_DMA_0,  0x26514e97      },
  268. {       XFER_PIO_4,     0x06514e21      },
  269. {       XFER_PIO_3,     0x06514e22      },
  270. {       XFER_PIO_2,     0x06514e33      },
  271. {       XFER_PIO_1,     0x06914e43      },
  272. {       XFER_PIO_0,     0x06914e57      },
  273. {       0,              0x06514e57      }
  274. };
  275. #endif
  276. struct chipset_bus_clock_list_entry fifty_base_hpt370[] = {
  277. {       XFER_UDMA_5,    0x12848242      },
  278. {       XFER_UDMA_4,    0x12ac8242      },
  279. {       XFER_UDMA_3,    0x128c8242      },
  280. {       XFER_UDMA_2,    0x120c8242      },
  281. {       XFER_UDMA_1,    0x12148254      },
  282. {       XFER_UDMA_0,    0x121882ea      },
  283. {       XFER_MW_DMA_2,  0x22808242      },
  284. {       XFER_MW_DMA_1,  0x22808254      },
  285. {       XFER_MW_DMA_0,  0x228082ea      },
  286. {       XFER_PIO_4,     0x0a81f442      },
  287. {       XFER_PIO_3,     0x0a81f443      },
  288. {       XFER_PIO_2,     0x0a81f454      },
  289. {       XFER_PIO_1,     0x0ac1f465      },
  290. {       XFER_PIO_0,     0x0ac1f48a      },
  291. {       0,              0x0ac1f48a      }
  292. };
  293. #define HPT366_DEBUG_DRIVE_INFO 0
  294. #define HPT370_ALLOW_ATA100_5 1
  295. #define HPT366_ALLOW_ATA66_4 1
  296. #define HPT366_ALLOW_ATA66_3 1
  297. #define HPT366_MAX_DEVS 8
  298. #define F_LOW_PCI_33      0x23
  299. #define F_LOW_PCI_40      0x29
  300. #define F_LOW_PCI_50      0x2d
  301. #define F_LOW_PCI_66      0x42
  302. static struct pci_dev *hpt_devs[HPT366_MAX_DEVS];
  303. static int n_hpt_devs;
  304. static unsigned int pci_rev_check_hpt3xx(struct pci_dev *dev);
  305. static unsigned int pci_rev2_check_hpt3xx(struct pci_dev *dev);
  306. byte hpt366_proc = 0;
  307. byte hpt363_shared_irq;
  308. byte hpt363_shared_pin;
  309. extern char *ide_xfer_verbose (byte xfer_rate);
  310. #if defined(DISPLAY_HPT366_TIMINGS) && defined(CONFIG_PROC_FS)
  311. static int hpt366_get_info(char *, char **, off_t, int);
  312. extern int (*hpt366_display_info)(char *, char **, off_t, int); /* ide-proc.c */
  313. extern char *ide_media_verbose(ide_drive_t *);
  314. static int hpt366_get_info (char *buffer, char **addr, off_t offset, int count)
  315. {
  316. char *p = buffer;
  317. char *chipset_nums[] = {"366", "366", "368", "370", "370A"};
  318. int i;
  319. p += sprintf(p, "n                             "
  320. "HighPoint HPT366/368/370n");
  321. for (i = 0; i < n_hpt_devs; i++) {
  322. struct pci_dev *dev = hpt_devs[i];
  323. unsigned long iobase = dev->resource[4].start;
  324. u32 class_rev;
  325. u8 c0, c1;
  326. pci_read_config_dword(dev, PCI_CLASS_REVISION, &class_rev);
  327. class_rev &= 0xff;
  328. p += sprintf(p, "nController: %dn", i);
  329. p += sprintf(p, "Chipset: HPT%sn", chipset_nums[class_rev]);
  330. p += sprintf(p, "--------------- Primary Channel "
  331. "--------------- Secondary Channel "
  332. "--------------n");
  333. /* get the bus master status registers */
  334. c0 = inb_p(iobase + 0x2);
  335. c1 = inb_p(iobase + 0xa);
  336. p += sprintf(p, "Enabled:        %s"
  337. "                             %sn",
  338. (c0 & 0x80) ? "no" : "yes",
  339. (c1 & 0x80) ? "no" : "yes");
  340. if (pci_rev_check_hpt3xx(dev)) {
  341. u8 cbl;
  342. cbl = inb_p(iobase + 0x7b);
  343. outb_p(cbl | 1, iobase + 0x7b);
  344. outb_p(cbl & ~1, iobase + 0x7b);
  345. cbl = inb_p(iobase + 0x7a);
  346. p += sprintf(p, "Cable:          ATA-%d"
  347. "                          ATA-%dn",
  348. (cbl & 0x02) ? 33 : 66,
  349. (cbl & 0x01) ? 33 : 66);
  350. p += sprintf(p, "n");
  351. }
  352. p += sprintf(p, "--------------- drive0 --------- drive1 "
  353. "------- drive0 ---------- drive1 -------n");
  354. p += sprintf(p, "DMA capable:    %s              %s" 
  355. "            %s               %sn",
  356. (c0 & 0x20) ? "yes" : "no ", 
  357. (c0 & 0x40) ? "yes" : "no ",
  358. (c1 & 0x20) ? "yes" : "no ", 
  359. (c1 & 0x40) ? "yes" : "no ");
  360. {
  361. u8 c2, c3;
  362. /* older revs don't have these registers mapped 
  363.  * into io space */
  364. pci_read_config_byte(dev, 0x43, &c0);
  365. pci_read_config_byte(dev, 0x47, &c1);
  366. pci_read_config_byte(dev, 0x4b, &c2);
  367. pci_read_config_byte(dev, 0x4f, &c3);
  368. p += sprintf(p, "Mode:           %s             %s"
  369. "           %s              %sn",
  370. (c0 & 0x10) ? "UDMA" : (c0 & 0x20) ? "DMA " : 
  371. (c0 & 0x80) ? "PIO " : "off ",
  372. (c1 & 0x10) ? "UDMA" : (c1 & 0x20) ? "DMA " :
  373. (c1 & 0x80) ? "PIO " : "off ",
  374. (c2 & 0x10) ? "UDMA" : (c2 & 0x20) ? "DMA " :
  375. (c2 & 0x80) ? "PIO " : "off ",
  376. (c3 & 0x10) ? "UDMA" : (c3 & 0x20) ? "DMA " :
  377. (c3 & 0x80) ? "PIO " : "off ");
  378. }
  379. }
  380. p += sprintf(p, "n");
  381. return p-buffer;/* => must be less than 4k! */
  382. }
  383. #endif  /* defined(DISPLAY_HPT366_TIMINGS) && defined(CONFIG_PROC_FS) */
  384. static unsigned int pci_rev_check_hpt3xx (struct pci_dev *dev)
  385. {
  386. unsigned int class_rev;
  387. pci_read_config_dword(dev, PCI_CLASS_REVISION, &class_rev);
  388. class_rev &= 0xff;
  389. return ((int) (class_rev > 0x02) ? 1 : 0);
  390. }
  391. static unsigned int pci_rev2_check_hpt3xx (struct pci_dev *dev)
  392. {
  393. unsigned int class_rev;
  394. pci_read_config_dword(dev, PCI_CLASS_REVISION, &class_rev);
  395. class_rev &= 0xff;
  396. return ((int) (class_rev > 0x01) ? 1 : 0);
  397. }
  398. static int check_in_drive_lists (ide_drive_t *drive, const char **list)
  399. {
  400. struct hd_driveid *id = drive->id;
  401. if (quirk_drives == list) {
  402. while (*list) {
  403. if (strstr(id->model, *list++)) {
  404. return 1;
  405. }
  406. }
  407. } else {
  408. while (*list) {
  409. if (!strcmp(*list++,id->model)) {
  410. return 1;
  411. }
  412. }
  413. }
  414. return 0;
  415. }
  416. static unsigned int pci_bus_clock_list (byte speed, struct chipset_bus_clock_list_entry * chipset_table)
  417. {
  418. for ( ; chipset_table->xfer_speed ; chipset_table++)
  419. if (chipset_table->xfer_speed == speed) {
  420. return chipset_table->chipset_settings;
  421. }
  422. return chipset_table->chipset_settings;
  423. }
  424. static void hpt366_tune_chipset (ide_drive_t *drive, byte speed)
  425. {
  426. byte regtime = (drive->select.b.unit & 0x01) ? 0x44 : 0x40;
  427. byte regfast = (HWIF(drive)->channel) ? 0x55 : 0x51;
  428. /*
  429.  * since the channel is always 0 it does not matter.
  430.  */
  431. unsigned int reg1 = 0;
  432. unsigned int reg2 = 0;
  433. byte drive_fast = 0;
  434. /*
  435.  * Disable the "fast interrupt" prediction. 
  436.  */
  437. pci_read_config_byte(HWIF(drive)->pci_dev, regfast, &drive_fast);
  438. if (drive_fast & 0x02)
  439. pci_write_config_byte(HWIF(drive)->pci_dev, regfast, drive_fast & ~0x20);
  440. pci_read_config_dword(HWIF(drive)->pci_dev, regtime, &reg1);
  441. /* detect bus speed by looking at control reg timing: */
  442. switch((reg1 >> 8) & 7) {
  443. case 5:
  444. reg2 = pci_bus_clock_list(speed, forty_base);
  445. break;
  446. case 9:
  447. reg2 = pci_bus_clock_list(speed, twenty_five_base);
  448. break;
  449. default:
  450. case 7:
  451. reg2 = pci_bus_clock_list(speed, thirty_three_base);
  452. break;
  453. }
  454. #if 0
  455. /* this is a nice idea ... */
  456. list_conf = pci_bus_clock_list(speed,
  457.        (struct chipset_bus_clock_list_entry *)
  458.        dev->sysdata);
  459. #endif
  460. /*
  461.  * Disable on-chip PIO FIFO/buffer (to avoid problems handling I/O errors later)
  462.  */
  463. if (speed >= XFER_MW_DMA_0) {
  464. reg2 = (reg2 & ~0xc0000000) | (reg1 & 0xc0000000);
  465. } else {
  466. reg2 = (reg2 & ~0x30070000) | (reg1 & 0x30070000);
  467. }
  468. reg2 &= ~0x80000000;
  469. pci_write_config_dword(HWIF(drive)->pci_dev, regtime, reg2);
  470. }
  471. static void hpt370_tune_chipset (ide_drive_t *drive, byte speed)
  472. {
  473. byte regfast = (HWIF(drive)->channel) ? 0x55 : 0x51;
  474. unsigned int list_conf = 0;
  475. unsigned int drive_conf = 0;
  476. unsigned int conf_mask = (speed >= XFER_MW_DMA_0) ? 0xc0000000 : 0x30070000;
  477. byte drive_pci = 0x40 + (drive->dn * 4);
  478. byte new_fast, drive_fast = 0;
  479. struct pci_dev *dev  = HWIF(drive)->pci_dev;
  480. /*
  481.  * Disable the "fast interrupt" prediction.
  482.  * don't holdoff on interrupts. (== 0x01 despite what the docs say) 
  483.  */
  484. pci_read_config_byte(dev, regfast, &drive_fast);
  485. new_fast = drive_fast;
  486. if (new_fast & 0x02)
  487. new_fast &= ~0x02;
  488. #ifdef HPT_DELAY_INTERRUPT
  489. if (new_fast & 0x01)
  490. new_fast &= ~0x01;
  491. #else
  492. if ((new_fast & 0x01) == 0)
  493. new_fast |= 0x01;
  494. #endif
  495. if (new_fast != drive_fast)
  496. pci_write_config_byte(HWIF(drive)->pci_dev, regfast, new_fast);
  497. list_conf = pci_bus_clock_list(speed, 
  498.        (struct chipset_bus_clock_list_entry *)
  499.        dev->sysdata);
  500. pci_read_config_dword(dev, drive_pci, &drive_conf);
  501. list_conf = (list_conf & ~conf_mask) | (drive_conf & conf_mask);
  502. if (speed < XFER_MW_DMA_0) {
  503. list_conf &= ~0x80000000; /* Disable on-chip PIO FIFO/buffer */
  504. }
  505. pci_write_config_dword(dev, drive_pci, list_conf);
  506. }
  507. static int hpt3xx_tune_chipset (ide_drive_t *drive, byte speed)
  508. {
  509. if ((drive->media != ide_disk) && (speed < XFER_SW_DMA_0))
  510. return -1;
  511. if (!drive->init_speed)
  512. drive->init_speed = speed;
  513. if (pci_rev_check_hpt3xx(HWIF(drive)->pci_dev)) {
  514. hpt370_tune_chipset(drive, speed);
  515.         } else {
  516.                 hpt366_tune_chipset(drive, speed);
  517.         }
  518. drive->current_speed = speed;
  519. return ((int) ide_config_drive_speed(drive, speed));
  520. }
  521. static void config_chipset_for_pio (ide_drive_t *drive)
  522. {
  523. unsigned short eide_pio_timing[6] = {960, 480, 240, 180, 120, 90};
  524. unsigned short xfer_pio = drive->id->eide_pio_modes;
  525. byte timing, speed, pio;
  526. pio = ide_get_best_pio_mode(drive, 255, 5, NULL);
  527. if (xfer_pio> 4)
  528. xfer_pio = 0;
  529. if (drive->id->eide_pio_iordy > 0) {
  530. for (xfer_pio = 5;
  531. xfer_pio>0 &&
  532. drive->id->eide_pio_iordy>eide_pio_timing[xfer_pio];
  533. xfer_pio--);
  534. } else {
  535. xfer_pio = (drive->id->eide_pio_modes & 4) ? 0x05 :
  536.    (drive->id->eide_pio_modes & 2) ? 0x04 :
  537.    (drive->id->eide_pio_modes & 1) ? 0x03 :
  538.    (drive->id->tPIO & 2) ? 0x02 :
  539.    (drive->id->tPIO & 1) ? 0x01 : xfer_pio;
  540. }
  541. timing = (xfer_pio >= pio) ? xfer_pio : pio;
  542. switch(timing) {
  543. case 4: speed = XFER_PIO_4;break;
  544. case 3: speed = XFER_PIO_3;break;
  545. case 2: speed = XFER_PIO_2;break;
  546. case 1: speed = XFER_PIO_1;break;
  547. default:
  548. speed = (!drive->id->tPIO) ? XFER_PIO_0 : XFER_PIO_SLOW;
  549. break;
  550. }
  551. (void) hpt3xx_tune_chipset(drive, speed);
  552. }
  553. static void hpt3xx_tune_drive (ide_drive_t *drive, byte pio)
  554. {
  555. byte speed;
  556. switch(pio) {
  557. case 4: speed = XFER_PIO_4;break;
  558. case 3: speed = XFER_PIO_3;break;
  559. case 2: speed = XFER_PIO_2;break;
  560. case 1: speed = XFER_PIO_1;break;
  561. default: speed = XFER_PIO_0;break;
  562. }
  563. (void) hpt3xx_tune_chipset(drive, speed);
  564. }
  565. #ifdef CONFIG_BLK_DEV_IDEDMA
  566. /*
  567.  * This allows the configuration of ide_pci chipset registers
  568.  * for cards that learn about the drive's UDMA, DMA, PIO capabilities
  569.  * after the drive is reported by the OS.  Initally for designed for
  570.  * HPT366 UDMA chipset by HighPoint|Triones Technologies, Inc.
  571.  *
  572.  * check_in_drive_lists(drive, bad_ata66_4)
  573.  * check_in_drive_lists(drive, bad_ata66_3)
  574.  * check_in_drive_lists(drive, bad_ata33)
  575.  *
  576.  */
  577. static int config_chipset_for_dma (ide_drive_t *drive)
  578. {
  579. struct hd_driveid *id = drive->id;
  580. byte speed = 0x00;
  581. byte ultra66 = eighty_ninty_three(drive);
  582. int  rval;
  583. if ((drive->media != ide_disk) && (speed < XFER_SW_DMA_0))
  584. return ((int) ide_dma_off_quietly);
  585. if ((id->dma_ultra & 0x0020) &&
  586.     (!check_in_drive_lists(drive, bad_ata100_5)) &&
  587.     (HPT370_ALLOW_ATA100_5) &&
  588.     (pci_rev_check_hpt3xx(HWIF(drive)->pci_dev)) &&
  589.     (ultra66)) {
  590. speed = XFER_UDMA_5;
  591. } else if ((id->dma_ultra & 0x0010) &&
  592.    (!check_in_drive_lists(drive, bad_ata66_4)) &&
  593.    (HPT366_ALLOW_ATA66_4) &&
  594.    (ultra66)) {
  595. speed = XFER_UDMA_4;
  596. } else if ((id->dma_ultra & 0x0008) &&
  597.    (!check_in_drive_lists(drive, bad_ata66_3)) &&
  598.    (HPT366_ALLOW_ATA66_3) &&
  599.    (ultra66)) {
  600. speed = XFER_UDMA_3;
  601. } else if (id->dma_ultra && (!check_in_drive_lists(drive, bad_ata33))) {
  602. if (id->dma_ultra & 0x0004) {
  603. speed = XFER_UDMA_2;
  604. } else if (id->dma_ultra & 0x0002) {
  605. speed = XFER_UDMA_1;
  606. } else if (id->dma_ultra & 0x0001) {
  607. speed = XFER_UDMA_0;
  608. }
  609. } else if (id->dma_mword & 0x0004) {
  610. speed = XFER_MW_DMA_2;
  611. } else if (id->dma_mword & 0x0002) {
  612. speed = XFER_MW_DMA_1;
  613. } else if (id->dma_mword & 0x0001) {
  614. speed = XFER_MW_DMA_0;
  615. } else {
  616. return ((int) ide_dma_off_quietly);
  617. }
  618. (void) hpt3xx_tune_chipset(drive, speed);
  619. rval = (int)( ((id->dma_ultra >> 11) & 7) ? ide_dma_on :
  620. ((id->dma_ultra >> 8) & 7) ? ide_dma_on :
  621. ((id->dma_mword >> 8) & 7) ? ide_dma_on :
  622.      ide_dma_off_quietly);
  623. return rval;
  624. }
  625. int hpt3xx_quirkproc (ide_drive_t *drive)
  626. {
  627. return ((int) check_in_drive_lists(drive, quirk_drives));
  628. }
  629. void hpt3xx_intrproc (ide_drive_t *drive)
  630. {
  631. if (drive->quirk_list) {
  632. /* drives in the quirk_list may not like intr setups/cleanups */
  633. } else {
  634. OUT_BYTE((drive)->ctl|2, HWIF(drive)->io_ports[IDE_CONTROL_OFFSET]);
  635. }
  636. }
  637. void hpt3xx_maskproc (ide_drive_t *drive, int mask)
  638. {
  639. if (drive->quirk_list) {
  640. if (pci_rev_check_hpt3xx(HWIF(drive)->pci_dev)) {
  641. byte reg5a = 0;
  642. pci_read_config_byte(HWIF(drive)->pci_dev, 0x5a, &reg5a);
  643. if (((reg5a & 0x10) >> 4) != mask)
  644. pci_write_config_byte(HWIF(drive)->pci_dev, 0x5a, mask ? (reg5a | 0x10) : (reg5a & ~0x10));
  645. } else {
  646. if (mask) {
  647. disable_irq(HWIF(drive)->irq);
  648. } else {
  649. enable_irq(HWIF(drive)->irq);
  650. }
  651. }
  652. } else {
  653. if (IDE_CONTROL_REG)
  654. OUT_BYTE(mask ? (drive->ctl | 2) : (drive->ctl & ~2), IDE_CONTROL_REG);
  655. }
  656. }
  657. static int config_drive_xfer_rate (ide_drive_t *drive)
  658. {
  659. struct hd_driveid *id = drive->id;
  660. ide_dma_action_t dma_func = ide_dma_on;
  661. if (id && (id->capability & 1) && HWIF(drive)->autodma) {
  662. /* Consult the list of known "bad" drives */
  663. if (ide_dmaproc(ide_dma_bad_drive, drive)) {
  664. dma_func = ide_dma_off;
  665. goto fast_ata_pio;
  666. }
  667. dma_func = ide_dma_off_quietly;
  668. if (id->field_valid & 4) {
  669. if (id->dma_ultra & 0x002F) {
  670. /* Force if Capable UltraDMA */
  671. dma_func = config_chipset_for_dma(drive);
  672. if ((id->field_valid & 2) &&
  673.     (dma_func != ide_dma_on))
  674. goto try_dma_modes;
  675. }
  676. } else if (id->field_valid & 2) {
  677. try_dma_modes:
  678. if (id->dma_mword & 0x0007) {
  679. /* Force if Capable regular DMA modes */
  680. dma_func = config_chipset_for_dma(drive);
  681. if (dma_func != ide_dma_on)
  682. goto no_dma_set;
  683. }
  684. } else if (ide_dmaproc(ide_dma_good_drive, drive)) {
  685. if (id->eide_dma_time > 150) {
  686. goto no_dma_set;
  687. }
  688. /* Consult the list of known "good" drives */
  689. dma_func = config_chipset_for_dma(drive);
  690. if (dma_func != ide_dma_on)
  691. goto no_dma_set;
  692. } else {
  693. goto fast_ata_pio;
  694. }
  695. } else if ((id->capability & 8) || (id->field_valid & 2)) {
  696. fast_ata_pio:
  697. dma_func = ide_dma_off_quietly;
  698. no_dma_set:
  699. config_chipset_for_pio(drive);
  700. }
  701. return HWIF(drive)->dmaproc(dma_func, drive);
  702. }
  703. /*
  704.  * hpt366_dmaproc() initiates/aborts (U)DMA read/write operations on a drive.
  705.  *
  706.  * This is specific to the HPT366 UDMA bios chipset
  707.  * by HighPoint|Triones Technologies, Inc.
  708.  */
  709. int hpt366_dmaproc (ide_dma_action_t func, ide_drive_t *drive)
  710. {
  711. byte reg50h = 0, reg52h = 0, reg5ah = 0, dma_stat = 0;
  712. unsigned long dma_base = HWIF(drive)->dma_base;
  713. switch (func) {
  714. case ide_dma_check:
  715. return config_drive_xfer_rate(drive);
  716. case ide_dma_test_irq: /* returns 1 if dma irq issued, 0 otherwise */
  717. dma_stat = inb(dma_base+2);
  718. return (dma_stat & 4) == 4; /* return 1 if INTR asserted */
  719. case ide_dma_lostirq:
  720. pci_read_config_byte(HWIF(drive)->pci_dev, 0x50, &reg50h);
  721. pci_read_config_byte(HWIF(drive)->pci_dev, 0x52, &reg52h);
  722. pci_read_config_byte(HWIF(drive)->pci_dev, 0x5a, &reg5ah);
  723. printk("%s: (%s)  reg50h=0x%02x, reg52h=0x%02x, reg5ah=0x%02xn",
  724. drive->name,
  725. ide_dmafunc_verbose(func),
  726. reg50h, reg52h, reg5ah);
  727. if (reg5ah & 0x10)
  728. pci_write_config_byte(HWIF(drive)->pci_dev, 0x5a, reg5ah & ~0x10);
  729. /* fall through to a reset */
  730. #if 0
  731. case ide_dma_begin:
  732. case ide_dma_end:
  733. /* reset the chips state over and over.. */
  734. pci_write_config_byte(HWIF(drive)->pci_dev, 0x51, 0x13);
  735. #endif
  736. break;
  737. case ide_dma_timeout:
  738. default:
  739. break;
  740. }
  741. return ide_dmaproc(func, drive); /* use standard DMA stuff */
  742. }
  743. int hpt370_dmaproc (ide_dma_action_t func, ide_drive_t *drive)
  744. {
  745. ide_hwif_t *hwif = HWIF(drive);
  746. unsigned long dma_base = hwif->dma_base;
  747. byte regstate = hwif->channel ? 0x54 : 0x50;
  748. byte reginfo = hwif->channel ? 0x56 : 0x52;
  749. byte dma_stat;
  750. switch (func) {
  751. case ide_dma_check:
  752. return config_drive_xfer_rate(drive);
  753. case ide_dma_test_irq: /* returns 1 if dma irq issued, 0 otherwise */
  754. dma_stat = inb(dma_base+2);
  755. return (dma_stat & 4) == 4; /* return 1 if INTR asserted */
  756. case ide_dma_end:
  757. dma_stat = inb(dma_base + 2);
  758. if (dma_stat & 0x01) {
  759. udelay(20); /* wait a little */
  760. dma_stat = inb(dma_base + 2);
  761. }
  762. if ((dma_stat & 0x01) == 0) 
  763. break;
  764. func = ide_dma_timeout;
  765. /* fallthrough */
  766. case ide_dma_timeout:
  767. case ide_dma_lostirq:
  768. pci_read_config_byte(hwif->pci_dev, reginfo, 
  769.      &dma_stat); 
  770. printk("%s: %d bytes in FIFOn", drive->name, 
  771.        dma_stat);
  772. pci_write_config_byte(hwif->pci_dev, regstate, 0x37);
  773. udelay(10);
  774. dma_stat = inb(dma_base);
  775. outb(dma_stat & ~0x1, dma_base); /* stop dma */
  776. dma_stat = inb(dma_base + 2); 
  777. outb(dma_stat | 0x6, dma_base+2); /* clear errors */
  778. /* fallthrough */
  779. #ifdef HPT_RESET_STATE_ENGINE
  780.         case ide_dma_begin:
  781. #endif
  782. pci_write_config_byte(hwif->pci_dev, regstate, 0x37);
  783. udelay(10);
  784. break;
  785. default:
  786. break;
  787. }
  788. return ide_dmaproc(func, drive); /* use standard DMA stuff */
  789. }
  790. #endif /* CONFIG_BLK_DEV_IDEDMA */
  791. /*
  792.  * Since SUN Cobalt is attempting to do this operation, I should disclose
  793.  * this has been a long time ago Thu Jul 27 16:40:57 2000 was the patch date
  794.  * HOTSWAP ATA Infrastructure.
  795.  */
  796. void hpt3xx_reset (ide_drive_t *drive)
  797. {
  798. #if 0
  799. unsigned long high_16 = pci_resource_start(HWIF(drive)->pci_dev, 4);
  800. byte reset = (HWIF(drive)->channel) ? 0x80 : 0x40;
  801. byte reg59h = 0;
  802. pci_read_config_byte(HWIF(drive)->pci_dev, 0x59, &reg59h);
  803. pci_write_config_byte(HWIF(drive)->pci_dev, 0x59, reg59h|reset);
  804. pci_write_config_byte(HWIF(drive)->pci_dev, 0x59, reg59h);
  805. #endif
  806. }
  807. static int hpt3xx_tristate (ide_drive_t * drive, int state)
  808. {
  809. ide_hwif_t *hwif = HWIF(drive);
  810. struct pci_dev *dev = hwif->pci_dev;
  811. byte reset = (hwif->channel) ? 0x80 : 0x40;
  812. byte state_reg = (hwif->channel) ? 0x57 : 0x53;
  813. byte reg59h = 0;
  814. byte regXXh = 0;
  815. if (!hwif)
  816. return -EINVAL;
  817. // hwif->bus_state = state;
  818. pci_read_config_byte(dev, 0x59, &reg59h);
  819. pci_read_config_byte(dev, state_reg, &regXXh);
  820. if (state) {
  821. (void) ide_do_reset(drive);
  822. pci_write_config_byte(dev, state_reg, regXXh|0x80);
  823. pci_write_config_byte(dev, 0x59, reg59h|reset);
  824. } else {
  825. pci_write_config_byte(dev, 0x59, reg59h & ~(reset));
  826. pci_write_config_byte(dev, state_reg, regXXh & ~(0x80));
  827. (void) ide_do_reset(drive);
  828. }
  829. return 0;
  830. }
  831. /* 
  832.  * set/get power state for a drive.
  833.  * turning the power off does the following things:
  834.  *   1) soft-reset the drive
  835.  *   2) tri-states the ide bus
  836.  *
  837.  * when we turn things back on, we need to re-initialize things.
  838.  */
  839. #define TRISTATE_BIT  0x8000
  840. static int hpt370_busproc(ide_drive_t * drive, int state)
  841. {
  842. ide_hwif_t *hwif = HWIF(drive);
  843. byte tristate, resetmask, bus_reg;
  844. u16 tri_reg;
  845. if (!hwif)
  846. return -EINVAL;
  847. hwif->bus_state = state;
  848. if (hwif->channel) { 
  849. /* secondary channel */
  850. tristate = 0x56;
  851. resetmask = 0x80; 
  852. } else { 
  853. /* primary channel */
  854. tristate = 0x52;
  855. resetmask = 0x40;
  856. }
  857. /* grab status */
  858. pci_read_config_word(hwif->pci_dev, tristate, &tri_reg);
  859. pci_read_config_byte(hwif->pci_dev, 0x59, &bus_reg);
  860. /* set the state. we don't set it if we don't need to do so.
  861.  * make sure that the drive knows that it has failed if it's off */
  862. switch (state) {
  863. case BUSSTATE_ON:
  864. hwif->drives[0].failures = 0;
  865. hwif->drives[1].failures = 0;
  866. if ((bus_reg & resetmask) == 0)
  867. return 0;
  868. tri_reg &= ~TRISTATE_BIT;
  869. bus_reg &= ~resetmask;
  870. break;
  871. case BUSSTATE_OFF:
  872. hwif->drives[0].failures = hwif->drives[0].max_failures + 1;
  873. hwif->drives[1].failures = hwif->drives[1].max_failures + 1;
  874. if ((tri_reg & TRISTATE_BIT) == 0 && (bus_reg & resetmask))
  875. return 0;
  876. tri_reg &= ~TRISTATE_BIT;
  877. bus_reg |= resetmask;
  878. break;
  879. case BUSSTATE_TRISTATE:
  880. hwif->drives[0].failures = hwif->drives[0].max_failures + 1;
  881. hwif->drives[1].failures = hwif->drives[1].max_failures + 1;
  882. if ((tri_reg & TRISTATE_BIT) && (bus_reg & resetmask))
  883. return 0;
  884. tri_reg |= TRISTATE_BIT;
  885. bus_reg |= resetmask;
  886. break;
  887. }
  888. pci_write_config_byte(hwif->pci_dev, 0x59, bus_reg);
  889. pci_write_config_word(hwif->pci_dev, tristate, tri_reg);
  890. return 0;
  891. }
  892. static void __init init_hpt370(struct pci_dev *dev)
  893. {
  894. int adjust, i;
  895. u16 freq;
  896. u32 pll;
  897. byte reg5bh;
  898. /*
  899.  * default to pci clock. make sure MA15/16 are set to output
  900.  * to prevent drives having problems with 40-pin cables.
  901.  */
  902. pci_write_config_byte(dev, 0x5b, 0x23);
  903. /*
  904.  * set up the PLL. we need to adjust it so that it's stable. 
  905.  * freq = Tpll * 192 / Tpci
  906.  */
  907. pci_read_config_word(dev, 0x78, &freq);
  908. freq &= 0x1FF;
  909. if (freq < 0x9c) {
  910. pll = F_LOW_PCI_33;
  911. dev->sysdata = (void *) thirty_three_base_hpt370;
  912. printk("HPT370: using 33MHz PCI clockn");
  913. } else if (freq < 0xb0) {
  914. pll = F_LOW_PCI_40;
  915. } else if (freq < 0xc8) {
  916. pll = F_LOW_PCI_50;
  917. dev->sysdata = (void *) fifty_base_hpt370;
  918. printk("HPT370: using 50MHz PCI clockn");
  919. } else {
  920. pll = F_LOW_PCI_66;
  921. dev->sysdata = (void *) sixty_six_base_hpt370;
  922. printk("HPT370: using 66MHz PCI clockn");
  923. }
  924. /*
  925.  * only try the pll if we don't have a table for the clock
  926.  * speed that we're running at. NOTE: the internal PLL will
  927.  * result in slow reads when using a 33MHz PCI clock. we also
  928.  * don't like to use the PLL because it will cause glitches
  929.  * on PRST/SRST when the HPT state engine gets reset.
  930.  */
  931. if (dev->sysdata) 
  932. goto init_hpt370_done;
  933. /*
  934.  * adjust PLL based upon PCI clock, enable it, and wait for
  935.  * stabilization.
  936.  */
  937. adjust = 0;
  938. freq = (pll < F_LOW_PCI_50) ? 2 : 4;
  939. while (adjust++ < 6) {
  940. pci_write_config_dword(dev, 0x5c, (freq + pll) << 16 |
  941.        pll | 0x100);
  942. /* wait for clock stabilization */
  943. for (i = 0; i < 0x50000; i++) {
  944. pci_read_config_byte(dev, 0x5b, &reg5bh);
  945. if (reg5bh & 0x80) {
  946. /* spin looking for the clock to destabilize */
  947. for (i = 0; i < 0x1000; ++i) {
  948. pci_read_config_byte(dev, 0x5b, 
  949.      &reg5bh);
  950. if ((reg5bh & 0x80) == 0)
  951. goto pll_recal;
  952. }
  953. pci_read_config_dword(dev, 0x5c, &pll);
  954. pci_write_config_dword(dev, 0x5c, 
  955.        pll & ~0x100);
  956. pci_write_config_byte(dev, 0x5b, 0x21);
  957. dev->sysdata = (void *) fifty_base_hpt370;
  958. printk("HPT370: using 50MHz internal PLLn");
  959. goto init_hpt370_done;
  960. }
  961. }
  962. pll_recal:
  963. if (adjust & 1)
  964. pll -= (adjust >> 1);
  965. else
  966. pll += (adjust >> 1);
  967. init_hpt370_done:
  968. /* reset state engine */
  969. pci_write_config_byte(dev, 0x50, 0x37); 
  970. pci_write_config_byte(dev, 0x54, 0x37); 
  971. udelay(100);
  972. }
  973. unsigned int __init pci_init_hpt366 (struct pci_dev *dev, const char *name)
  974. {
  975. byte test = 0;
  976. if (dev->resource[PCI_ROM_RESOURCE].start)
  977. pci_write_config_byte(dev, PCI_ROM_ADDRESS, dev->resource[PCI_ROM_RESOURCE].start | PCI_ROM_ADDRESS_ENABLE);
  978. pci_read_config_byte(dev, PCI_CACHE_LINE_SIZE, &test);
  979. if (test != (L1_CACHE_BYTES / 4))
  980. pci_write_config_byte(dev, PCI_CACHE_LINE_SIZE, (L1_CACHE_BYTES / 4));
  981. pci_read_config_byte(dev, PCI_LATENCY_TIMER, &test);
  982. if (test != 0x78)
  983. pci_write_config_byte(dev, PCI_LATENCY_TIMER, 0x78);
  984. pci_read_config_byte(dev, PCI_MIN_GNT, &test);
  985. if (test != 0x08)
  986. pci_write_config_byte(dev, PCI_MIN_GNT, 0x08);
  987. pci_read_config_byte(dev, PCI_MAX_LAT, &test);
  988. if (test != 0x08)
  989. pci_write_config_byte(dev, PCI_MAX_LAT, 0x08);
  990. if (pci_rev_check_hpt3xx(dev)) {
  991. init_hpt370(dev);
  992. hpt_devs[n_hpt_devs++] = dev;
  993. } else {
  994. hpt_devs[n_hpt_devs++] = dev;
  995. }
  996. #if defined(DISPLAY_HPT366_TIMINGS) && defined(CONFIG_PROC_FS)
  997. if (!hpt366_proc) {
  998. hpt366_proc = 1;
  999. hpt366_display_info = &hpt366_get_info;
  1000. }
  1001. #endif /* DISPLAY_HPT366_TIMINGS && CONFIG_PROC_FS */
  1002. return dev->irq;
  1003. }
  1004. unsigned int __init ata66_hpt366 (ide_hwif_t *hwif)
  1005. {
  1006. byte ata66 = 0;
  1007. byte regmask = (hwif->channel) ? 0x01 : 0x02;
  1008. pci_read_config_byte(hwif->pci_dev, 0x5a, &ata66);
  1009. #ifdef DEBUG
  1010. printk("HPT366: reg5ah=0x%02x ATA-%s Cable Port%dn",
  1011. ata66, (ata66 & regmask) ? "33" : "66",
  1012. PCI_FUNC(hwif->pci_dev->devfn));
  1013. #endif /* DEBUG */
  1014. return ((ata66 & regmask) ? 0 : 1);
  1015. }
  1016. void __init ide_init_hpt366 (ide_hwif_t *hwif)
  1017. {
  1018. int hpt_rev;
  1019. hwif->tuneproc = &hpt3xx_tune_drive;
  1020. hwif->speedproc = &hpt3xx_tune_chipset;
  1021. hwif->quirkproc = &hpt3xx_quirkproc;
  1022. hwif->intrproc = &hpt3xx_intrproc;
  1023. hwif->maskproc = &hpt3xx_maskproc;
  1024. #ifdef HPT_SERIALIZE_IO
  1025. /* serialize access to this device */
  1026. if (hwif->mate)
  1027. hwif->serialized = hwif->mate->serialized = 1;
  1028. #endif
  1029. hpt_rev = pci_rev_check_hpt3xx(hwif->pci_dev);
  1030. if (hpt_rev) {
  1031. /* set up ioctl for power status. note: power affects both
  1032.  * drives on each channel */
  1033. hwif->busproc   = &hpt370_busproc;
  1034. }
  1035. if (pci_rev2_check_hpt3xx(hwif->pci_dev)) {
  1036. /* do nothing now but will split device types */
  1037. hwif->resetproc = &hpt3xx_reset;
  1038. /*
  1039.  * don't do until we can parse out the cobalt box argh ...
  1040.  * hwif->busproc   = &hpt3xx_tristate;
  1041.  */
  1042. }
  1043. #ifdef CONFIG_BLK_DEV_IDEDMA
  1044. if (hwif->dma_base) {
  1045. if (hpt_rev) {
  1046. byte reg5ah = 0;
  1047. pci_read_config_byte(hwif->pci_dev, 0x5a, &reg5ah);
  1048. if (reg5ah & 0x10) /* interrupt force enable */
  1049. pci_write_config_byte(hwif->pci_dev, 0x5a, reg5ah & ~0x10);
  1050. hwif->dmaproc = &hpt370_dmaproc;
  1051. } else {
  1052. hwif->dmaproc = &hpt366_dmaproc;
  1053. }
  1054. if (!noautodma)
  1055. hwif->autodma = 1;
  1056. else
  1057. hwif->autodma = 0;
  1058. } else {
  1059. hwif->autodma = 0;
  1060. hwif->drives[0].autotune = 1;
  1061. hwif->drives[1].autotune = 1;
  1062. }
  1063. #else /* !CONFIG_BLK_DEV_IDEDMA */
  1064. hwif->drives[0].autotune = 1;
  1065. hwif->drives[1].autotune = 1;
  1066. hwif->autodma = 0;
  1067. #endif /* CONFIG_BLK_DEV_IDEDMA */
  1068. }
  1069. void __init ide_dmacapable_hpt366 (ide_hwif_t *hwif, unsigned long dmabase)
  1070. {
  1071. byte masterdma = 0, slavedma = 0;
  1072. byte dma_new = 0, dma_old = inb(dmabase+2);
  1073. byte primary = hwif->channel ? 0x4b : 0x43;
  1074. byte secondary = hwif->channel ? 0x4f : 0x47;
  1075. unsigned long flags;
  1076. __save_flags(flags); /* local CPU only */
  1077. __cli(); /* local CPU only */
  1078. dma_new = dma_old;
  1079. pci_read_config_byte(hwif->pci_dev, primary, &masterdma);
  1080. pci_read_config_byte(hwif->pci_dev, secondary, &slavedma);
  1081. if (masterdma & 0x30) dma_new |= 0x20;
  1082. if (slavedma & 0x30) dma_new |= 0x40;
  1083. if (dma_new != dma_old) outb(dma_new, dmabase+2);
  1084. __restore_flags(flags); /* local CPU only */
  1085. ide_setup_dma(hwif, dmabase, 8);
  1086. }