3c59x.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:98k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* EtherLinkXL.c: A 3Com EtherLink PCI III/XL ethernet driver for linux. */
  2. /*
  3. Written 1996-1999 by Donald Becker.
  4. This software may be used and distributed according to the terms
  5. of the GNU General Public License, incorporated herein by reference.
  6. This driver is for the 3Com "Vortex" and "Boomerang" series ethercards.
  7. Members of the series include Fast EtherLink 3c590/3c592/3c595/3c597
  8. and the EtherLink XL 3c900 and 3c905 cards.
  9. Problem reports and questions should be directed to
  10. vortex@scyld.com
  11. The author may be reached as becker@scyld.com, or C/O
  12. Scyld Computing Corporation
  13. 410 Severn Ave., Suite 210
  14. Annapolis MD 21403
  15. Linux Kernel Additions:
  16.   0.99H+lk0.9 - David S. Miller - softnet, PCI DMA updates
  17.   0.99H+lk1.0 - Jeff Garzik <jgarzik@mandrakesoft.com>
  18. Remove compatibility defines for kernel versions < 2.2.x.
  19. Update for new 2.3.x module interface
  20. LK1.1.2 (March 19, 2000)
  21. * New PCI interface (jgarzik)
  22.     LK1.1.3 25 April 2000, Andrew Morton <andrewm@uow.edu.au>
  23.     - Merged with 3c575_cb.c
  24.     - Don't set RxComplete in boomerang interrupt enable reg
  25.     - spinlock in vortex_timer to protect mdio functions
  26.     - disable local interrupts around call to vortex_interrupt in
  27.       vortex_tx_timeout() (So vortex_interrupt can use spin_lock())
  28.     - Select window 3 in vortex_timer()'s write to Wn3_MAC_Ctrl
  29.     - In vortex_start_xmit(), move the lock to _after_ we've altered
  30.       vp->cur_tx and vp->tx_full.  This defeats the race between
  31.       vortex_start_xmit() and vortex_interrupt which was identified
  32.       by Bogdan Costescu.
  33.     - Merged back support for six new cards from various sources
  34.     - Set vortex_have_pci if pci_module_init returns zero (fixes cardbus
  35.       insertion oops)
  36.     - Tell it that 3c905C has NWAY for 100bT autoneg
  37.     - Fix handling of SetStatusEnd in 'Too much work..' code, as
  38.       per 2.3.99's 3c575_cb (Dave Hinds).
  39.     - Split ISR into two for vortex & boomerang
  40.     - Fix MOD_INC/DEC races
  41.     - Handle resource allocation failures.
  42.     - Fix 3CCFE575CT LED polarity
  43.     - Make tx_interrupt_mitigation the default
  44.     LK1.1.4 25 April 2000, Andrew Morton <andrewm@uow.edu.au>    
  45.     - Add extra TxReset to vortex_up() to fix 575_cb hotplug initialisation probs.
  46.     - Put vortex_info_tbl into __devinitdata
  47.     - In the vortex_error StatsFull HACK, disable stats in vp->intr_enable as well
  48.       as in the hardware.
  49.     - Increased the loop counter in issue_and_wait from 2,000 to 4,000.
  50.     LK1.1.5 28 April 2000, andrewm
  51.     - Added powerpc defines (John Daniel <jdaniel@etresoft.com> said these work...)
  52.     - Some extra diagnostics
  53.     - In vortex_error(), reset the Tx on maxCollisions.  Otherwise most
  54.       chips usually get a Tx timeout.
  55.     - Added extra_reset module parm
  56.     - Replaced some inline timer manip with mod_timer
  57.       (Franois romieu <Francois.Romieu@nic.fr>)
  58.     - In vortex_up(), don't make Wn3_config initialisation dependent upon has_nway
  59.       (this came across from 3c575_cb).
  60.     LK1.1.6 06 Jun 2000, andrewm
  61.     - Backed out the PPC defines.
  62.     - Use del_timer_sync(), mod_timer().
  63.     - Fix wrapped ulong comparison in boomerang_rx()
  64.     - Add IS_TORNADO, use it to suppress 3c905C checksum error msg
  65.       (Donald Becker, I Lee Hetherington <ilh@sls.lcs.mit.edu>)
  66.     - Replace union wn3_config with BFINS/BFEXT manipulation for
  67.       sparc64 (Pete Zaitcev, Peter Jones)
  68.     - In vortex_error, do_tx_reset and vortex_tx_timeout(Vortex):
  69.       do a netif_wake_queue() to better recover from errors. (Anders Pedersen,
  70.       Donald Becker)
  71.     - Print a warning on out-of-memory (rate limited to 1 per 10 secs)
  72.     - Added two more Cardbus 575 NICs: 5b57 and 6564 (Paul Wagland)
  73.     LK1.1.7 2 Jul 2000 andrewm
  74.     - Better handling of shared IRQs
  75.     - Reset the transmitter on a Tx reclaim error
  76.     - Fixed crash under OOM during vortex_open() (Mark Hemment)
  77.     - Fix Rx cessation problem during OOM (help from Mark Hemment)
  78.     - The spinlocks around the mdio access were blocking interrupts for 300uS.
  79.       Fix all this to use spin_lock_bh() within mdio_read/write
  80.     - Only write to TxFreeThreshold if it's a boomerang - other NICs don't
  81.       have one.
  82.     - Added 802.3x MAC-layer flow control support
  83.    LK1.1.8 13 Aug 2000 andrewm
  84.     - Ignore request_region() return value - already reserved if Cardbus.
  85.     - Merged some additional Cardbus flags from Don's 0.99Qk
  86.     - Some fixes for 3c556 (Fred Maciel)
  87.     - Fix for EISA initialisation (Jan Rekorajski)
  88.     - Renamed MII_XCVR_PWR and EEPROM_230 to align with 3c575_cb and D. Becker's drivers
  89.     - Fixed MII_XCVR_PWR for 3CCFE575CT
  90.     - Added INVERT_LED_PWR, used it.
  91.     - Backed out the extra_reset stuff
  92.    LK1.1.9 12 Sep 2000 andrewm
  93.     - Backed out the tx_reset_resume flags.  It was a no-op.
  94.     - In vortex_error, don't reset the Tx on txReclaim errors
  95.     - In vortex_error, don't reset the Tx on maxCollisions errors.
  96.       Hence backed out all the DownListPtr logic here.
  97.     - In vortex_error, give Tornado cards a partial TxReset on
  98.       maxCollisions (David Hinds).  Defined MAX_COLLISION_RESET for this.
  99.     - Redid some driver flags and device names based on pcmcia_cs-3.1.20.
  100.     - Fixed a bug where, if vp->tx_full is set when the interface
  101.       is downed, it remains set when the interface is upped.  Bad
  102.       things happen.
  103.    LK1.1.10 17 Sep 2000 andrewm
  104.     - Added EEPROM_8BIT for 3c555 (Fred Maciel)
  105.     - Added experimental support for the 3c556B Laptop Hurricane (Louis Gerbarg)
  106.     - Add HAS_NWAY to "3c900 Cyclone 10Mbps TPO"
  107.    LK1.1.11 13 Nov 2000 andrewm
  108.     - Dump MOD_INC/DEC_USE_COUNT, use SET_MODULE_OWNER
  109.    LK1.1.12 1 Jan 2001 andrewm (2.4.0-pre1)
  110.     - Call pci_enable_device before we request our IRQ (Tobias Ringstrom)
  111.     - Add 3c590 PCI latency timer hack to vortex_probe1 (from 0.99Ra)
  112.     - Added extended issue_and_wait for the 3c905CX.
  113.     - Look for an MII on PHY index 24 first (3c905CX oddity).
  114.     - Add HAS_NWAY to 3cSOHO100-TX (Brett Frankenberger)
  115.     - Don't free skbs we don't own on oom path in vortex_open().
  116.    LK1.1.13 27 Jan 2001
  117.     - Added explicit `medialock' flag so we can truly
  118.       lock the media type down with `options'.
  119.     - "check ioremap return and some tidbits" (Arnaldo Carvalho de Melo <acme@conectiva.com.br>)
  120.     - Added and used EEPROM_NORESET for 3c556B PM resumes.
  121.     - Fixed leakage of vp->rx_ring.
  122.     - Break out separate HAS_HWCKSM device capability flag.
  123.     - Kill vp->tx_full (ANK)
  124.     - Merge zerocopy fragment handling (ANK?)
  125.    LK1.1.14 15 Feb 2001
  126.     - Enable WOL.  Can be turned on with `enable_wol' module option.
  127.     - EISA and PCI initialisation fixes (jgarzik, Manfred Spraul)
  128.     - If a device's internalconfig register reports it has NWAY,
  129.       use it, even if autoselect is enabled.
  130.    LK1.1.15 6 June 2001 akpm
  131.     - Prevent double counting of received bytes (Lars Christensen)
  132.     - Add ethtool support (jgarzik)
  133.     - Add module parm descriptions (Andrzej M. Krzysztofowicz)
  134.     - Implemented alloc_etherdev() API
  135.     - Special-case the 'Tx error 82' message.
  136.    LK1.1.16 18 July 2001 akpm
  137.     - Make NETIF_F_SG dependent upon nr_free_highpages(), not on CONFIG_HIGHMEM
  138.     - Lessen verbosity of bootup messages
  139.     - Fix WOL - use new PM API functions.
  140.     - Use netif_running() instead of vp->open in suspend/resume.
  141.     - Don't reset the interface logic on open/close/rmmod.  It upsets
  142.       autonegotiation, and hence DHCP (from 0.99T).
  143.     - Back out EEPROM_NORESET flag because of the above (we do it for all
  144.       NICs).
  145.     - Correct 3c982 identification string
  146.     - Rename wait_for_completion() to issue_and_wait() to avoid completion.h
  147.       clash.
  148.     - See http://www.uow.edu.au/~andrewm/linux/#3c59x-2.3 for more details.
  149.     - Also see Documentation/networking/vortex.txt
  150. */
  151. /*
  152.  * FIXME: This driver _could_ support MTU changing, but doesn't.  See Don's hamachi.c implementation
  153.  * as well as other drivers
  154.  *
  155.  * NOTE: If you make 'vortex_debug' a constant (#define vortex_debug 0) the driver shrinks by 2k
  156.  * due to dead code elimination.  There will be some performance benefits from this due to
  157.  * elimination of all the tests and reduced cache footprint.
  158.  */
  159. #define DRV_NAME "3c59x"
  160. #define DRV_VERSION "LK1.1.16"
  161. #define DRV_RELDATE "19 July 2001"
  162. /* A few values that may be tweaked. */
  163. /* Keep the ring sizes a power of two for efficiency. */
  164. #define TX_RING_SIZE 16
  165. #define RX_RING_SIZE 32
  166. #define PKT_BUF_SZ 1536 /* Size of each temporary Rx buffer.*/
  167. /* "Knobs" that adjust features and parameters. */
  168. /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
  169.    Setting to > 1512 effectively disables this feature. */
  170. #ifndef __arm__
  171. static const int rx_copybreak = 200;
  172. #else
  173. /* ARM systems perform better by disregarding the bus-master
  174.    transfer capability of these cards. -- rmk */
  175. static const int rx_copybreak = 1513;
  176. #endif
  177. /* Allow setting MTU to a larger size, bypassing the normal ethernet setup. */
  178. static const int mtu = 1500;
  179. /* Maximum events (Rx packets, etc.) to handle at each interrupt. */
  180. static int max_interrupt_work = 32;
  181. /* Tx timeout interval (millisecs) */
  182. static int watchdog = 5000;
  183. /* Allow aggregation of Tx interrupts.  Saves CPU load at the cost
  184.  * of possible Tx stalls if the system is blocking interrupts
  185.  * somewhere else.  Undefine this to disable.
  186.  */
  187. #define tx_interrupt_mitigation 1
  188. /* Put out somewhat more debugging messages. (0: no msg, 1 minimal .. 6). */
  189. #define vortex_debug debug
  190. #ifdef VORTEX_DEBUG
  191. static int vortex_debug = VORTEX_DEBUG;
  192. #else
  193. static int vortex_debug = 1;
  194. #endif
  195. #ifndef __OPTIMIZE__
  196. #error You must compile this file with the correct options!
  197. #error See the last lines of the source file.
  198. #error You must compile this driver with "-O".
  199. #endif
  200. #include <linux/config.h>
  201. #include <linux/module.h>
  202. #include <linux/kernel.h>
  203. #include <linux/sched.h>
  204. #include <linux/string.h>
  205. #include <linux/timer.h>
  206. #include <linux/errno.h>
  207. #include <linux/in.h>
  208. #include <linux/ioport.h>
  209. #include <linux/slab.h>
  210. #include <linux/interrupt.h>
  211. #include <linux/pci.h>
  212. #include <linux/mii.h>
  213. #include <linux/init.h>
  214. #include <linux/netdevice.h>
  215. #include <linux/etherdevice.h>
  216. #include <linux/skbuff.h>
  217. #include <linux/ethtool.h>
  218. #include <linux/highmem.h>
  219. #include <asm/irq.h> /* For NR_IRQS only. */
  220. #include <asm/bitops.h>
  221. #include <asm/io.h>
  222. #include <asm/uaccess.h>
  223. /* Kernel compatibility defines, some common to David Hinds' PCMCIA package.
  224.    This is only in the support-all-kernels source code. */
  225. #define RUN_AT(x) (jiffies + (x))
  226. #include <linux/delay.h>
  227. static char version[] __devinitdata =
  228. DRV_NAME ": Donald Becker and others. www.scyld.com/network/vortex.htmln";
  229. MODULE_AUTHOR("Donald Becker <becker@scyld.com>");
  230. MODULE_DESCRIPTION("3Com 3c59x/3c9xx ethernet driver "
  231. DRV_VERSION " " DRV_RELDATE);
  232. MODULE_LICENSE("GPL");
  233. MODULE_PARM(debug, "i");
  234. MODULE_PARM(options, "1-" __MODULE_STRING(8) "i");
  235. MODULE_PARM(full_duplex, "1-" __MODULE_STRING(8) "i");
  236. MODULE_PARM(hw_checksums, "1-" __MODULE_STRING(8) "i");
  237. MODULE_PARM(flow_ctrl, "1-" __MODULE_STRING(8) "i");
  238. MODULE_PARM(enable_wol, "1-" __MODULE_STRING(8) "i");
  239. MODULE_PARM(rx_copybreak, "i");
  240. MODULE_PARM(max_interrupt_work, "i");
  241. MODULE_PARM(compaq_ioaddr, "i");
  242. MODULE_PARM(compaq_irq, "i");
  243. MODULE_PARM(compaq_device_id, "i");
  244. MODULE_PARM(watchdog, "i");
  245. MODULE_PARM_DESC(debug, "3c59x debug level (0-6)");
  246. MODULE_PARM_DESC(options, "3c59x: Bits 0-3: media type, bit 4: bus mastering, bit 9: full duplex");
  247. MODULE_PARM_DESC(full_duplex, "3c59x full duplex setting(s) (1)");
  248. MODULE_PARM_DESC(hw_checksums, "3c59x Hardware checksum checking by adapter(s) (0-1)");
  249. MODULE_PARM_DESC(flow_ctrl, "3c59x 802.3x flow control usage (PAUSE only) (0-1)");
  250. MODULE_PARM_DESC(enable_wol, "3c59x: Turn on Wake-on-LAN for adapter(s) (0-1)");
  251. MODULE_PARM_DESC(rx_copybreak, "3c59x copy breakpoint for copy-only-tiny-frames");
  252. MODULE_PARM_DESC(max_interrupt_work, "3c59x maximum events handled per interrupt");
  253. MODULE_PARM_DESC(compaq_ioaddr, "3c59x PCI I/O base address (Compaq BIOS problem workaround)");
  254. MODULE_PARM_DESC(compaq_irq, "3c59x PCI IRQ number (Compaq BIOS problem workaround)");
  255. MODULE_PARM_DESC(compaq_device_id, "3c59x PCI device ID (Compaq BIOS problem workaround)");
  256. MODULE_PARM_DESC(watchdog, "3c59x transmit timeout in milliseconds");
  257. /* Operational parameter that usually are not changed. */
  258. /* The Vortex size is twice that of the original EtherLinkIII series: the
  259.    runtime register window, window 1, is now always mapped in.
  260.    The Boomerang size is twice as large as the Vortex -- it has additional
  261.    bus master control registers. */
  262. #define VORTEX_TOTAL_SIZE 0x20
  263. #define BOOMERANG_TOTAL_SIZE 0x40
  264. /* Set iff a MII transceiver on any interface requires mdio preamble.
  265.    This only set with the original DP83840 on older 3c905 boards, so the extra
  266.    code size of a per-interface flag is not worthwhile. */
  267. static char mii_preamble_required;
  268. #define PFX DRV_NAME ": "
  269. /*
  270. Theory of Operation
  271. I. Board Compatibility
  272. This device driver is designed for the 3Com FastEtherLink and FastEtherLink
  273. XL, 3Com's PCI to 10/100baseT adapters.  It also works with the 10Mbs
  274. versions of the FastEtherLink cards.  The supported product IDs are
  275.   3c590, 3c592, 3c595, 3c597, 3c900, 3c905
  276. The related ISA 3c515 is supported with a separate driver, 3c515.c, included
  277. with the kernel source or available from
  278.     cesdis.gsfc.nasa.gov:/pub/linux/drivers/3c515.html
  279. II. Board-specific settings
  280. PCI bus devices are configured by the system at boot time, so no jumpers
  281. need to be set on the board.  The system BIOS should be set to assign the
  282. PCI INTA signal to an otherwise unused system IRQ line.
  283. The EEPROM settings for media type and forced-full-duplex are observed.
  284. The EEPROM media type should be left at the default "autoselect" unless using
  285. 10base2 or AUI connections which cannot be reliably detected.
  286. III. Driver operation
  287. The 3c59x series use an interface that's very similar to the previous 3c5x9
  288. series.  The primary interface is two programmed-I/O FIFOs, with an
  289. alternate single-contiguous-region bus-master transfer (see next).
  290. The 3c900 "Boomerang" series uses a full-bus-master interface with separate
  291. lists of transmit and receive descriptors, similar to the AMD LANCE/PCnet,
  292. DEC Tulip and Intel Speedo3.  The first chip version retains a compatible
  293. programmed-I/O interface that has been removed in 'B' and subsequent board
  294. revisions.
  295. One extension that is advertised in a very large font is that the adapters
  296. are capable of being bus masters.  On the Vortex chip this capability was
  297. only for a single contiguous region making it far less useful than the full
  298. bus master capability.  There is a significant performance impact of taking
  299. an extra interrupt or polling for the completion of each transfer, as well
  300. as difficulty sharing the single transfer engine between the transmit and
  301. receive threads.  Using DMA transfers is a win only with large blocks or
  302. with the flawed versions of the Intel Orion motherboard PCI controller.
  303. The Boomerang chip's full-bus-master interface is useful, and has the
  304. currently-unused advantages over other similar chips that queued transmit
  305. packets may be reordered and receive buffer groups are associated with a
  306. single frame.
  307. With full-bus-master support, this driver uses a "RX_COPYBREAK" scheme.
  308. Rather than a fixed intermediate receive buffer, this scheme allocates
  309. full-sized skbuffs as receive buffers.  The value RX_COPYBREAK is used as
  310. the copying breakpoint: it is chosen to trade-off the memory wasted by
  311. passing the full-sized skbuff to the queue layer for all frames vs. the
  312. copying cost of copying a frame to a correctly-sized skbuff.
  313. IIIC. Synchronization
  314. The driver runs as two independent, single-threaded flows of control.  One
  315. is the send-packet routine, which enforces single-threaded use by the
  316. dev->tbusy flag.  The other thread is the interrupt handler, which is single
  317. threaded by the hardware and other software.
  318. IV. Notes
  319. Thanks to Cameron Spitzer and Terry Murphy of 3Com for providing development
  320. 3c590, 3c595, and 3c900 boards.
  321. The name "Vortex" is the internal 3Com project name for the PCI ASIC, and
  322. the EISA version is called "Demon".  According to Terry these names come
  323. from rides at the local amusement park.
  324. The new chips support both ethernet (1.5K) and FDDI (4.5K) packet sizes!
  325. This driver only supports ethernet packets because of the skbuff allocation
  326. limit of 4K.
  327. */
  328. /* This table drives the PCI probe routines.  It's mostly boilerplate in all
  329.    of the drivers, and will likely be provided by some future kernel.
  330. */
  331. enum pci_flags_bit {
  332. PCI_USES_IO=1, PCI_USES_MEM=2, PCI_USES_MASTER=4,
  333. PCI_ADDR0=0x10<<0, PCI_ADDR1=0x10<<1, PCI_ADDR2=0x10<<2, PCI_ADDR3=0x10<<3,
  334. };
  335. enum { IS_VORTEX=1, IS_BOOMERANG=2, IS_CYCLONE=4, IS_TORNADO=8,
  336. EEPROM_8BIT=0x10, /* AKPM: Uses 0x230 as the base bitmaps for EEPROM reads */
  337. HAS_PWR_CTRL=0x20, HAS_MII=0x40, HAS_NWAY=0x80, HAS_CB_FNS=0x100,
  338. INVERT_MII_PWR=0x200, INVERT_LED_PWR=0x400, MAX_COLLISION_RESET=0x800,
  339. EEPROM_OFFSET=0x1000, HAS_HWCKSM=0x2000 };
  340. enum vortex_chips {
  341. CH_3C590 = 0,
  342. CH_3C592,
  343. CH_3C597,
  344. CH_3C595_1,
  345. CH_3C595_2,
  346. CH_3C595_3,
  347. CH_3C900_1,
  348. CH_3C900_2,
  349. CH_3C900_3,
  350. CH_3C900_4,
  351. CH_3C900_5,
  352. CH_3C900B_FL,
  353. CH_3C905_1,
  354. CH_3C905_2,
  355. CH_3C905B_1,
  356. CH_3C905B_2,
  357. CH_3C905B_FX,
  358. CH_3C905C,
  359. CH_3C980,
  360. CH_3C9805,
  361. CH_3CSOHO100_TX,
  362. CH_3C555,
  363. CH_3C556,
  364. CH_3C556B,
  365. CH_3C575,
  366. CH_3C575_1,
  367. CH_3CCFE575,
  368. CH_3CCFE575CT,
  369. CH_3CCFE656,
  370. CH_3CCFEM656,
  371. CH_3CCFEM656_1,
  372. CH_3C450,
  373. };
  374. /* note: this array directly indexed by above enums, and MUST
  375.  * be kept in sync with both the enums above, and the PCI device
  376.  * table below
  377.  */
  378. static struct vortex_chip_info {
  379. const char *name;
  380. int flags;
  381. int drv_flags;
  382. int io_size;
  383. } vortex_info_tbl[] __devinitdata = {
  384. #define EISA_TBL_OFFSET 0 /* Offset of this entry for vortex_eisa_init */
  385. {"3c590 Vortex 10Mbps",
  386.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  387. {"3c592 EISA 10Mbps Demon/Vortex", /* AKPM: from Don's 3c59x_cb.c 0.49H */
  388.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  389. {"3c597 EISA Fast Demon/Vortex", /* AKPM: from Don's 3c59x_cb.c 0.49H */
  390.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  391. {"3c595 Vortex 100baseTx",
  392.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  393. {"3c595 Vortex 100baseT4",
  394.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  395. {"3c595 Vortex 100base-MII",
  396.  PCI_USES_IO|PCI_USES_MASTER, IS_VORTEX, 32, },
  397. {"3c900 Boomerang 10baseT",
  398.  PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG, 64, },
  399. {"3c900 Boomerang 10Mbps Combo",
  400.  PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG, 64, },
  401. {"3c900 Cyclone 10Mbps TPO", /* AKPM: from Don's 0.99M */
  402.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_HWCKSM, 128, },
  403. {"3c900 Cyclone 10Mbps Combo",
  404.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  405. {"3c900 Cyclone 10Mbps TPC", /* AKPM: from Don's 0.99M */
  406.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  407. {"3c900B-FL Cyclone 10base-FL",
  408.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  409. {"3c905 Boomerang 100baseTx",
  410.  PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG|HAS_MII, 64, },
  411. {"3c905 Boomerang 100baseT4",
  412.  PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG|HAS_MII, 64, },
  413. {"3c905B Cyclone 100baseTx",
  414.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_HWCKSM, 128, },
  415. {"3c905B Cyclone 10/100/BNC",
  416.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_HWCKSM, 128, },
  417. {"3c905B-FX Cyclone 100baseFx",
  418.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  419. {"3c905C Tornado",
  420.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|HAS_HWCKSM, 128, },
  421. {"3c980 Cyclone",
  422.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  423. {"3c982 Dual Port Server Cyclone",
  424.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_HWCKSM, 128, },
  425. {"3cSOHO100-TX Hurricane",
  426.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_HWCKSM, 128, },
  427. {"3c555 Laptop Hurricane",
  428.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|EEPROM_8BIT|HAS_HWCKSM, 128, },
  429. {"3c556 Laptop Tornado",
  430.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|EEPROM_8BIT|HAS_CB_FNS|INVERT_MII_PWR|
  431. HAS_HWCKSM, 128, },
  432. {"3c556B Laptop Hurricane",
  433.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|EEPROM_OFFSET|HAS_CB_FNS|INVERT_MII_PWR|
  434. HAS_HWCKSM, 128, },
  435. {"3c575 [Megahertz] 10/100 LAN  CardBus",
  436. PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG|HAS_MII|EEPROM_8BIT, 128, },
  437. {"3c575 Boomerang CardBus",
  438.  PCI_USES_IO|PCI_USES_MASTER, IS_BOOMERANG|HAS_MII|EEPROM_8BIT, 128, },
  439. {"3CCFE575BT Cyclone CardBus",
  440.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_CB_FNS|EEPROM_8BIT|
  441. INVERT_LED_PWR|HAS_HWCKSM, 128, },
  442. {"3CCFE575CT Tornado CardBus",
  443.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|HAS_CB_FNS|EEPROM_8BIT|INVERT_MII_PWR|
  444. MAX_COLLISION_RESET|HAS_HWCKSM, 128, },
  445. {"3CCFE656 Cyclone CardBus",
  446.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_CB_FNS|EEPROM_8BIT|INVERT_MII_PWR|
  447. INVERT_LED_PWR|HAS_HWCKSM, 128, },
  448. {"3CCFEM656B Cyclone+Winmodem CardBus",
  449.  PCI_USES_IO|PCI_USES_MASTER, IS_CYCLONE|HAS_NWAY|HAS_CB_FNS|EEPROM_8BIT|INVERT_MII_PWR|
  450. INVERT_LED_PWR|HAS_HWCKSM, 128, },
  451. {"3CXFEM656C Tornado+Winmodem CardBus", /* From pcmcia-cs-3.1.5 */
  452.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|HAS_CB_FNS|EEPROM_8BIT|INVERT_MII_PWR|
  453. MAX_COLLISION_RESET|HAS_HWCKSM, 128, },
  454. {"3c450 HomePNA Tornado", /* AKPM: from Don's 0.99Q */
  455.  PCI_USES_IO|PCI_USES_MASTER, IS_TORNADO|HAS_NWAY|HAS_HWCKSM, 128, },
  456. {0,}, /* 0 terminated list. */
  457. };
  458. static struct pci_device_id vortex_pci_tbl[] __devinitdata = {
  459. { 0x10B7, 0x5900, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C590 },
  460. { 0x10B7, 0x5920, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C592 },
  461. { 0x10B7, 0x5970, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C597 },
  462. { 0x10B7, 0x5950, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C595_1 },
  463. { 0x10B7, 0x5951, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C595_2 },
  464. { 0x10B7, 0x5952, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C595_3 },
  465. { 0x10B7, 0x9000, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900_1 },
  466. { 0x10B7, 0x9001, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900_2 },
  467. { 0x10B7, 0x9004, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900_3 },
  468. { 0x10B7, 0x9005, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900_4 },
  469. { 0x10B7, 0x9006, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900_5 },
  470. { 0x10B7, 0x900A, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C900B_FL },
  471. { 0x10B7, 0x9050, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905_1 },
  472. { 0x10B7, 0x9051, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905_2 },
  473. { 0x10B7, 0x9055, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905B_1 },
  474. { 0x10B7, 0x9058, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905B_2 },
  475. { 0x10B7, 0x905A, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905B_FX },
  476. { 0x10B7, 0x9200, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C905C },
  477. { 0x10B7, 0x9800, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C980 },
  478. { 0x10B7, 0x9805, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C9805 },
  479. { 0x10B7, 0x7646, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CSOHO100_TX },
  480. { 0x10B7, 0x5055, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C555 },
  481. { 0x10B7, 0x6055, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C556 },
  482. { 0x10B7, 0x6056, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C556B },
  483. { 0x10B7, 0x5b57, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C575 },
  484. { 0x10B7, 0x5057, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C575_1 },
  485. { 0x10B7, 0x5157, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CCFE575 },
  486. { 0x10B7, 0x5257, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CCFE575CT },
  487. { 0x10B7, 0x6560, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CCFE656 },
  488. { 0x10B7, 0x6562, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CCFEM656 },
  489. { 0x10B7, 0x6564, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3CCFEM656_1 },
  490. { 0x10B7, 0x4500, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CH_3C450 },
  491. {0,} /* 0 terminated list. */
  492. };
  493. MODULE_DEVICE_TABLE(pci, vortex_pci_tbl);
  494. /* Operational definitions.
  495.    These are not used by other compilation units and thus are not
  496.    exported in a ".h" file.
  497.    First the windows.  There are eight register windows, with the command
  498.    and status registers available in each.
  499.    */
  500. #define EL3WINDOW(win_num) outw(SelectWindow + (win_num), ioaddr + EL3_CMD)
  501. #define EL3_CMD 0x0e
  502. #define EL3_STATUS 0x0e
  503. /* The top five bits written to EL3_CMD are a command, the lower
  504.    11 bits are the parameter, if applicable.
  505.    Note that 11 parameters bits was fine for ethernet, but the new chip
  506.    can handle FDDI length frames (~4500 octets) and now parameters count
  507.    32-bit 'Dwords' rather than octets. */
  508. enum vortex_cmd {
  509. TotalReset = 0<<11, SelectWindow = 1<<11, StartCoax = 2<<11,
  510. RxDisable = 3<<11, RxEnable = 4<<11, RxReset = 5<<11,
  511. UpStall = 6<<11, UpUnstall = (6<<11)+1,
  512. DownStall = (6<<11)+2, DownUnstall = (6<<11)+3,
  513. RxDiscard = 8<<11, TxEnable = 9<<11, TxDisable = 10<<11, TxReset = 11<<11,
  514. FakeIntr = 12<<11, AckIntr = 13<<11, SetIntrEnb = 14<<11,
  515. SetStatusEnb = 15<<11, SetRxFilter = 16<<11, SetRxThreshold = 17<<11,
  516. SetTxThreshold = 18<<11, SetTxStart = 19<<11,
  517. StartDMAUp = 20<<11, StartDMADown = (20<<11)+1, StatsEnable = 21<<11,
  518. StatsDisable = 22<<11, StopCoax = 23<<11, SetFilterBit = 25<<11,};
  519. /* The SetRxFilter command accepts the following classes: */
  520. enum RxFilter {
  521. RxStation = 1, RxMulticast = 2, RxBroadcast = 4, RxProm = 8 };
  522. /* Bits in the general status register. */
  523. enum vortex_status {
  524. IntLatch = 0x0001, HostError = 0x0002, TxComplete = 0x0004,
  525. TxAvailable = 0x0008, RxComplete = 0x0010, RxEarly = 0x0020,
  526. IntReq = 0x0040, StatsFull = 0x0080,
  527. DMADone = 1<<8, DownComplete = 1<<9, UpComplete = 1<<10,
  528. DMAInProgress = 1<<11, /* DMA controller is still busy.*/
  529. CmdInProgress = 1<<12, /* EL3_CMD is still busy.*/
  530. };
  531. /* Register window 1 offsets, the window used in normal operation.
  532.    On the Vortex this window is always mapped at offsets 0x10-0x1f. */
  533. enum Window1 {
  534. TX_FIFO = 0x10,  RX_FIFO = 0x10,  RxErrors = 0x14,
  535. RxStatus = 0x18,  Timer=0x1A, TxStatus = 0x1B,
  536. TxFree = 0x1C, /* Remaining free bytes in Tx buffer. */
  537. };
  538. enum Window0 {
  539. Wn0EepromCmd = 10, /* Window 0: EEPROM command register. */
  540. Wn0EepromData = 12, /* Window 0: EEPROM results register. */
  541. IntrStatus=0x0E, /* Valid in all windows. */
  542. };
  543. enum Win0_EEPROM_bits {
  544. EEPROM_Read = 0x80, EEPROM_WRITE = 0x40, EEPROM_ERASE = 0xC0,
  545. EEPROM_EWENB = 0x30, /* Enable erasing/writing for 10 msec. */
  546. EEPROM_EWDIS = 0x00, /* Disable EWENB before 10 msec timeout. */
  547. };
  548. /* EEPROM locations. */
  549. enum eeprom_offset {
  550. PhysAddr01=0, PhysAddr23=1, PhysAddr45=2, ModelID=3,
  551. EtherLink3ID=7, IFXcvrIO=8, IRQLine=9,
  552. NodeAddr01=10, NodeAddr23=11, NodeAddr45=12,
  553. DriverTune=13, Checksum=15};
  554. enum Window2 { /* Window 2. */
  555. Wn2_ResetOptions=12,
  556. };
  557. enum Window3 { /* Window 3: MAC/config bits. */
  558. Wn3_Config=0, Wn3_MAC_Ctrl=6, Wn3_Options=8,
  559. };
  560. #define BFEXT(value, offset, bitcount)  
  561.     ((((unsigned long)(value)) >> (offset)) & ((1 << (bitcount)) - 1))
  562. #define BFINS(lhs, rhs, offset, bitcount)
  563. (((lhs) & ~((((1 << (bitcount)) - 1)) << (offset))) |
  564. (((rhs) & ((1 << (bitcount)) - 1)) << (offset)))
  565. #define RAM_SIZE(v) BFEXT(v, 0, 3)
  566. #define RAM_WIDTH(v) BFEXT(v, 3, 1)
  567. #define RAM_SPEED(v) BFEXT(v, 4, 2)
  568. #define ROM_SIZE(v) BFEXT(v, 6, 2)
  569. #define RAM_SPLIT(v) BFEXT(v, 16, 2)
  570. #define XCVR(v) BFEXT(v, 20, 4)
  571. #define AUTOSELECT(v) BFEXT(v, 24, 1)
  572. enum Window4 { /* Window 4: Xcvr/media bits. */
  573. Wn4_FIFODiag = 4, Wn4_NetDiag = 6, Wn4_PhysicalMgmt=8, Wn4_Media = 10,
  574. };
  575. enum Win4_Media_bits {
  576. Media_SQE = 0x0008, /* Enable SQE error counting for AUI. */
  577. Media_10TP = 0x00C0, /* Enable link beat and jabber for 10baseT. */
  578. Media_Lnk = 0x0080, /* Enable just link beat for 100TX/100FX. */
  579. Media_LnkBeat = 0x0800,
  580. };
  581. enum Window7 { /* Window 7: Bus Master control. */
  582. Wn7_MasterAddr = 0, Wn7_MasterLen = 6, Wn7_MasterStatus = 12,
  583. };
  584. /* Boomerang bus master control registers. */
  585. enum MasterCtrl {
  586. PktStatus = 0x20, DownListPtr = 0x24, FragAddr = 0x28, FragLen = 0x2c,
  587. TxFreeThreshold = 0x2f, UpPktStatus = 0x30, UpListPtr = 0x38,
  588. };
  589. /* The Rx and Tx descriptor lists.
  590.    Caution Alpha hackers: these types are 32 bits!  Note also the 8 byte
  591.    alignment contraint on tx_ring[] and rx_ring[]. */
  592. #define LAST_FRAG  0x80000000 /* Last Addr/Len pair in descriptor. */
  593. #define DN_COMPLETE 0x00010000 /* This packet has been downloaded */
  594. struct boom_rx_desc {
  595. u32 next; /* Last entry points to 0.   */
  596. s32 status;
  597. u32 addr; /* Up to 63 addr/len pairs possible. */
  598. s32 length; /* Set LAST_FRAG to indicate last pair. */
  599. };
  600. /* Values for the Rx status entry. */
  601. enum rx_desc_status {
  602. RxDComplete=0x00008000, RxDError=0x4000,
  603. /* See boomerang_rx() for actual error bits */
  604. IPChksumErr=1<<25, TCPChksumErr=1<<26, UDPChksumErr=1<<27,
  605. IPChksumValid=1<<29, TCPChksumValid=1<<30, UDPChksumValid=1<<31,
  606. };
  607. #ifdef MAX_SKB_FRAGS
  608. #define DO_ZEROCOPY 1
  609. #else
  610. #define DO_ZEROCOPY 0
  611. #endif
  612. struct boom_tx_desc {
  613. u32 next; /* Last entry points to 0.   */
  614. s32 status; /* bits 0:12 length, others see below.  */
  615. #if DO_ZEROCOPY
  616. struct {
  617. u32 addr;
  618. s32 length;
  619. } frag[1+MAX_SKB_FRAGS];
  620. #else
  621. u32 addr;
  622. s32 length;
  623. #endif
  624. };
  625. /* Values for the Tx status entry. */
  626. enum tx_desc_status {
  627. CRCDisable=0x2000, TxDComplete=0x8000,
  628. AddIPChksum=0x02000000, AddTCPChksum=0x04000000, AddUDPChksum=0x08000000,
  629. TxIntrUploaded=0x80000000, /* IRQ when in FIFO, but maybe not sent. */
  630. };
  631. /* Chip features we care about in vp->capabilities, read from the EEPROM. */
  632. enum ChipCaps { CapBusMaster=0x20, CapPwrMgmt=0x2000 };
  633. struct vortex_private {
  634. /* The Rx and Tx rings should be quad-word-aligned. */
  635. struct boom_rx_desc* rx_ring;
  636. struct boom_tx_desc* tx_ring;
  637. dma_addr_t rx_ring_dma;
  638. dma_addr_t tx_ring_dma;
  639. /* The addresses of transmit- and receive-in-place skbuffs. */
  640. struct sk_buff* rx_skbuff[RX_RING_SIZE];
  641. struct sk_buff* tx_skbuff[TX_RING_SIZE];
  642. struct net_device *next_module; /* NULL if PCI device */
  643. unsigned int cur_rx, cur_tx; /* The next free ring entry */
  644. unsigned int dirty_rx, dirty_tx; /* The ring entries to be free()ed. */
  645. struct net_device_stats stats;
  646. struct sk_buff *tx_skb; /* Packet being eaten by bus master ctrl.  */
  647. dma_addr_t tx_skb_dma; /* Allocated DMA address for bus master ctrl DMA.   */
  648. /* PCI configuration space information. */
  649. struct pci_dev *pdev;
  650. char *cb_fn_base; /* CardBus function status addr space. */
  651. /* Some values here only for performance evaluation and path-coverage */
  652. int rx_nocopy, rx_copy, queued_packet, rx_csumhits;
  653. int card_idx;
  654. /* The remainder are related to chip state, mostly media selection. */
  655. struct timer_list timer; /* Media selection timer. */
  656. struct timer_list rx_oom_timer; /* Rx skb allocation retry timer */
  657. int options; /* User-settable misc. driver options. */
  658. unsigned int media_override:4,  /* Passed-in media type. */
  659. default_media:4, /* Read from the EEPROM/Wn3_Config. */
  660. full_duplex:1, force_fd:1, autoselect:1,
  661. bus_master:1, /* Vortex can only do a fragment bus-m. */
  662. full_bus_master_tx:1, full_bus_master_rx:2, /* Boomerang  */
  663. flow_ctrl:1, /* Use 802.3x flow control (PAUSE only) */
  664. partner_flow_ctrl:1, /* Partner supports flow control */
  665. has_nway:1,
  666. enable_wol:1, /* Wake-on-LAN is enabled */
  667. pm_state_valid:1, /* power_state[] has sane contents */
  668. open:1,
  669. medialock:1,
  670. must_free_region:1; /* Flag: if zero, Cardbus owns the I/O region */
  671. int drv_flags;
  672. u16 status_enable;
  673. u16 intr_enable;
  674. u16 available_media; /* From Wn3_Options. */
  675. u16 capabilities, info1, info2; /* Various, from EEPROM. */
  676. u16 advertising; /* NWay media advertisement */
  677. unsigned char phys[2]; /* MII device addresses. */
  678. u16 deferred; /* Resend these interrupts when we
  679.  * bale from the ISR */
  680. u16 io_size; /* Size of PCI region (for release_region) */
  681. spinlock_t lock; /* Serialise access to device & its vortex_private */
  682. spinlock_t mdio_lock; /* Serialise access to mdio hardware */
  683. u32 power_state[16];
  684. };
  685. /* The action to take with a media selection timer tick.
  686.    Note that we deviate from the 3Com order by checking 10base2 before AUI.
  687.  */
  688. enum xcvr_types {
  689. XCVR_10baseT=0, XCVR_AUI, XCVR_10baseTOnly, XCVR_10base2, XCVR_100baseTx,
  690. XCVR_100baseFx, XCVR_MII=6, XCVR_NWAY=8, XCVR_ExtMII=9, XCVR_Default=10,
  691. };
  692. static struct media_table {
  693. char *name;
  694. unsigned int media_bits:16, /* Bits to set in Wn4_Media register. */
  695. mask:8, /* The transceiver-present bit in Wn3_Config.*/
  696. next:8; /* The media type to try next. */
  697. int wait; /* Time before we check media status. */
  698. } media_tbl[] = {
  699.   { "10baseT",   Media_10TP,0x08, XCVR_10base2, (14*HZ)/10},
  700.   { "10Mbs AUI", Media_SQE, 0x20, XCVR_Default, (1*HZ)/10},
  701.   { "undefined", 0, 0x80, XCVR_10baseT, 10000},
  702.   { "10base2",   0, 0x10, XCVR_AUI, (1*HZ)/10},
  703.   { "100baseTX", Media_Lnk, 0x02, XCVR_100baseFx, (14*HZ)/10},
  704.   { "100baseFX", Media_Lnk, 0x04, XCVR_MII, (14*HZ)/10},
  705.   { "MII",  0, 0x41, XCVR_10baseT, 3*HZ },
  706.   { "undefined", 0, 0x01, XCVR_10baseT, 10000},
  707.   { "Autonegotiate", 0, 0x41, XCVR_10baseT, 3*HZ},
  708.   { "MII-External",  0, 0x41, XCVR_10baseT, 3*HZ },
  709.   { "Default",  0, 0xFF, XCVR_10baseT, 10000},
  710. };
  711. static int vortex_probe1(struct pci_dev *pdev, long ioaddr, int irq,
  712.    int chip_idx, int card_idx);
  713. static void vortex_up(struct net_device *dev);
  714. static void vortex_down(struct net_device *dev);
  715. static int vortex_open(struct net_device *dev);
  716. static void mdio_sync(long ioaddr, int bits);
  717. static int mdio_read(struct net_device *dev, int phy_id, int location);
  718. static void mdio_write(struct net_device *vp, int phy_id, int location, int value);
  719. static void vortex_timer(unsigned long arg);
  720. static void rx_oom_timer(unsigned long arg);
  721. static int vortex_start_xmit(struct sk_buff *skb, struct net_device *dev);
  722. static int boomerang_start_xmit(struct sk_buff *skb, struct net_device *dev);
  723. static int vortex_rx(struct net_device *dev);
  724. static int boomerang_rx(struct net_device *dev);
  725. static void vortex_interrupt(int irq, void *dev_id, struct pt_regs *regs);
  726. static void boomerang_interrupt(int irq, void *dev_id, struct pt_regs *regs);
  727. static int vortex_close(struct net_device *dev);
  728. static void dump_tx_ring(struct net_device *dev);
  729. static void update_stats(long ioaddr, struct net_device *dev);
  730. static struct net_device_stats *vortex_get_stats(struct net_device *dev);
  731. static void set_rx_mode(struct net_device *dev);
  732. static int vortex_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
  733. static void vortex_tx_timeout(struct net_device *dev);
  734. static void acpi_set_WOL(struct net_device *dev);
  735. /* This driver uses 'options' to pass the media type, full-duplex flag, etc. */
  736. /* Option count limit only -- unlimited interfaces are supported. */
  737. #define MAX_UNITS 8
  738. static int options[MAX_UNITS] = { -1, -1, -1, -1, -1, -1, -1, -1,};
  739. static int full_duplex[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  740. static int hw_checksums[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  741. static int flow_ctrl[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  742. static int enable_wol[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  743. /* #define dev_alloc_skb dev_alloc_skb_debug */
  744. /* A list of all installed Vortex EISA devices, for removing the driver module. */
  745. static struct net_device *root_vortex_eisa_dev;
  746. /* Variables to work-around the Compaq PCI BIOS32 problem. */
  747. static int compaq_ioaddr, compaq_irq, compaq_device_id = 0x5900;
  748. static int vortex_cards_found;
  749. #ifdef CONFIG_PM
  750. static int vortex_suspend (struct pci_dev *pdev, u32 state)
  751. {
  752. struct net_device *dev = pci_get_drvdata(pdev);
  753. if (dev && dev->priv) {
  754. if (netif_running(dev)) {
  755. netif_device_detach(dev);
  756. vortex_down(dev);
  757. }
  758. }
  759. return 0;
  760. }
  761. static int vortex_resume (struct pci_dev *pdev)
  762. {
  763. struct net_device *dev = pci_get_drvdata(pdev);
  764. if (dev && dev->priv) {
  765. if (netif_running(dev)) {
  766. vortex_up(dev);
  767. netif_device_attach(dev);
  768. }
  769. }
  770. return 0;
  771. }
  772. #endif /* CONFIG_PM */
  773. /* returns count found (>= 0), or negative on error */
  774. static int __init vortex_eisa_init (void)
  775. {
  776. long ioaddr;
  777. int rc;
  778. int orig_cards_found = vortex_cards_found;
  779. /* Now check all slots of the EISA bus. */
  780. if (!EISA_bus)
  781. return 0;
  782. for (ioaddr = 0x1000; ioaddr < 0x9000; ioaddr += 0x1000) {
  783. int device_id;
  784. if (request_region(ioaddr, VORTEX_TOTAL_SIZE, DRV_NAME) == NULL)
  785. continue;
  786. /* Check the standard EISA ID register for an encoded '3Com'. */
  787. if (inw(ioaddr + 0xC80) != 0x6d50) {
  788. release_region (ioaddr, VORTEX_TOTAL_SIZE);
  789. continue;
  790. }
  791. /* Check for a product that we support, 3c59{2,7} any rev. */
  792. device_id = (inb(ioaddr + 0xC82)<<8) + inb(ioaddr + 0xC83);
  793. if ((device_id & 0xFF00) != 0x5900) {
  794. release_region (ioaddr, VORTEX_TOTAL_SIZE);
  795. continue;
  796. }
  797. rc = vortex_probe1(NULL, ioaddr, inw(ioaddr + 0xC88) >> 12,
  798.    EISA_TBL_OFFSET, vortex_cards_found);
  799. if (rc == 0)
  800. vortex_cards_found++;
  801. else
  802. release_region (ioaddr, VORTEX_TOTAL_SIZE);
  803. }
  804. /* Special code to work-around the Compaq PCI BIOS32 problem. */
  805. if (compaq_ioaddr) {
  806. vortex_probe1(NULL, compaq_ioaddr, compaq_irq,
  807.   compaq_device_id, vortex_cards_found++);
  808. }
  809. return vortex_cards_found - orig_cards_found;
  810. }
  811. /* returns count (>= 0), or negative on error */
  812. static int __devinit vortex_init_one (struct pci_dev *pdev,
  813.       const struct pci_device_id *ent)
  814. {
  815. int rc;
  816. /* wake up and enable device */
  817. if (pci_enable_device (pdev)) {
  818. rc = -EIO;
  819. } else {
  820. rc = vortex_probe1 (pdev, pci_resource_start (pdev, 0), pdev->irq,
  821.     ent->driver_data, vortex_cards_found);
  822. if (rc == 0)
  823. vortex_cards_found++;
  824. }
  825. return rc;
  826. }
  827. /*
  828.  * Start up the PCI device which is described by *pdev.
  829.  * Return 0 on success.
  830.  *
  831.  * NOTE: pdev can be NULL, for the case of an EISA driver
  832.  */
  833. static int __devinit vortex_probe1(struct pci_dev *pdev,
  834.    long ioaddr, int irq,
  835.    int chip_idx, int card_idx)
  836. {
  837. struct vortex_private *vp;
  838. int option;
  839. unsigned int eeprom[0x40], checksum = 0; /* EEPROM contents */
  840. int i, step;
  841. struct net_device *dev;
  842. static int printed_version;
  843. int retval, print_info;
  844. struct vortex_chip_info * const vci = &vortex_info_tbl[chip_idx];
  845. char *print_name;
  846. if (!printed_version) {
  847. printk (version);
  848. printed_version = 1;
  849. }
  850. print_name = pdev ? pdev->slot_name : "3c59x";
  851. dev = alloc_etherdev(sizeof(*vp));
  852. retval = -ENOMEM;
  853. if (!dev) {
  854. printk (KERN_ERR PFX "unable to allocate etherdev, abortingn");
  855. goto out;
  856. }
  857. SET_MODULE_OWNER(dev);
  858. vp = dev->priv;
  859. /* The lower four bits are the media type. */
  860. if (dev->mem_start) {
  861. /*
  862.  * The 'options' param is passed in as the third arg to the
  863.  * LILO 'ether=' argument for non-modular use
  864.  */
  865. option = dev->mem_start;
  866. }
  867. else if (card_idx < MAX_UNITS)
  868. option = options[card_idx];
  869. else
  870. option = -1;
  871. if (option > 0) {
  872. if (option & 0x8000)
  873. vortex_debug = 7;
  874. if (option & 0x4000)
  875. vortex_debug = 2;
  876. if (option & 0x0400)
  877. vp->enable_wol = 1;
  878. }
  879. print_info = (vortex_debug > 1);
  880. if (print_info)
  881. printk (KERN_INFO "See Documentation/networking/vortex.txtn");
  882. printk(KERN_INFO "%s: 3Com %s %s at 0x%lx. Vers " DRV_VERSION "n",
  883.        print_name,
  884.        pdev ? "PCI" : "EISA",
  885.        vci->name,
  886.        ioaddr);
  887. dev->base_addr = ioaddr;
  888. dev->irq = irq;
  889. dev->mtu = mtu;
  890. vp->drv_flags = vci->drv_flags;
  891. vp->has_nway = (vci->drv_flags & HAS_NWAY) ? 1 : 0;
  892. vp->io_size = vci->io_size;
  893. vp->card_idx = card_idx;
  894. /* module list only for EISA devices */
  895. if (pdev == NULL) {
  896. vp->next_module = root_vortex_eisa_dev;
  897. root_vortex_eisa_dev = dev;
  898. }
  899. /* PCI-only startup logic */
  900. if (pdev) {
  901. /* EISA resources already marked, so only PCI needs to do this here */
  902. /* Ignore return value, because Cardbus drivers already allocate for us */
  903. if (request_region(ioaddr, vci->io_size, print_name) != NULL)
  904. vp->must_free_region = 1;
  905. /* enable bus-mastering if necessary */
  906. if (vci->flags & PCI_USES_MASTER)
  907. pci_set_master (pdev);
  908. if (vci->drv_flags & IS_VORTEX) {
  909. u8 pci_latency;
  910. u8 new_latency = 248;
  911. /* Check the PCI latency value.  On the 3c590 series the latency timer
  912.    must be set to the maximum value to avoid data corruption that occurs
  913.    when the timer expires during a transfer.  This bug exists the Vortex
  914.    chip only. */
  915. pci_read_config_byte(pdev, PCI_LATENCY_TIMER, &pci_latency);
  916. if (pci_latency < new_latency) {
  917. printk(KERN_INFO "%s: Overriding PCI latency"
  918. " timer (CFLT) setting of %d, new value is %d.n",
  919. print_name, pci_latency, new_latency);
  920. pci_write_config_byte(pdev, PCI_LATENCY_TIMER, new_latency);
  921. }
  922. }
  923. }
  924. spin_lock_init(&vp->lock);
  925. spin_lock_init(&vp->mdio_lock);
  926. vp->pdev = pdev;
  927. /* Makes sure rings are at least 16 byte aligned. */
  928. vp->rx_ring = pci_alloc_consistent(pdev, sizeof(struct boom_rx_desc) * RX_RING_SIZE
  929.    + sizeof(struct boom_tx_desc) * TX_RING_SIZE,
  930.    &vp->rx_ring_dma);
  931. retval = -ENOMEM;
  932. if (vp->rx_ring == 0)
  933. goto free_region;
  934. vp->tx_ring = (struct boom_tx_desc *)(vp->rx_ring + RX_RING_SIZE);
  935. vp->tx_ring_dma = vp->rx_ring_dma + sizeof(struct boom_rx_desc) * RX_RING_SIZE;
  936. /* if we are a PCI driver, we store info in pdev->driver_data
  937.  * instead of a module list */
  938. if (pdev)
  939. pci_set_drvdata(pdev, dev);
  940. vp->media_override = 7;
  941. if (option >= 0) {
  942. vp->media_override = ((option & 7) == 2)  ?  0  :  option & 15;
  943. if (vp->media_override != 7)
  944. vp->medialock = 1;
  945. vp->full_duplex = (option & 0x200) ? 1 : 0;
  946. vp->bus_master = (option & 16) ? 1 : 0;
  947. }
  948. if (card_idx < MAX_UNITS) {
  949. if (full_duplex[card_idx] > 0)
  950. vp->full_duplex = 1;
  951. if (flow_ctrl[card_idx] > 0)
  952. vp->flow_ctrl = 1;
  953. if (enable_wol[card_idx] > 0)
  954. vp->enable_wol = 1;
  955. }
  956. vp->force_fd = vp->full_duplex;
  957. vp->options = option;
  958. /* Read the station address from the EEPROM. */
  959. EL3WINDOW(0);
  960. {
  961. int base;
  962. if (vci->drv_flags & EEPROM_8BIT)
  963. base = 0x230;
  964. else if (vci->drv_flags & EEPROM_OFFSET)
  965. base = EEPROM_Read + 0x30;
  966. else
  967. base = EEPROM_Read;
  968. for (i = 0; i < 0x40; i++) {
  969. int timer;
  970. outw(base + i, ioaddr + Wn0EepromCmd);
  971. /* Pause for at least 162 us. for the read to take place. */
  972. for (timer = 10; timer >= 0; timer--) {
  973. udelay(162);
  974. if ((inw(ioaddr + Wn0EepromCmd) & 0x8000) == 0)
  975. break;
  976. }
  977. eeprom[i] = inw(ioaddr + Wn0EepromData);
  978. }
  979. }
  980. for (i = 0; i < 0x18; i++)
  981. checksum ^= eeprom[i];
  982. checksum = (checksum ^ (checksum >> 8)) & 0xff;
  983. if (checksum != 0x00) { /* Grrr, needless incompatible change 3Com. */
  984. while (i < 0x21)
  985. checksum ^= eeprom[i++];
  986. checksum = (checksum ^ (checksum >> 8)) & 0xff;
  987. }
  988. if ((checksum != 0x00) && !(vci->drv_flags & IS_TORNADO))
  989. printk(" ***INVALID CHECKSUM %4.4x*** ", checksum);
  990. for (i = 0; i < 3; i++)
  991. ((u16 *)dev->dev_addr)[i] = htons(eeprom[i + 10]);
  992. if (print_info) {
  993. for (i = 0; i < 6; i++)
  994. printk("%c%2.2x", i ? ':' : ' ', dev->dev_addr[i]);
  995. }
  996. EL3WINDOW(2);
  997. for (i = 0; i < 6; i++)
  998. outb(dev->dev_addr[i], ioaddr + i);
  999. #ifdef __sparc__
  1000. if (print_info)
  1001. printk(", IRQ %sn", __irq_itoa(dev->irq));
  1002. #else
  1003. if (print_info)
  1004. printk(", IRQ %dn", dev->irq);
  1005. /* Tell them about an invalid IRQ. */
  1006. if (dev->irq <= 0 || dev->irq >= NR_IRQS)
  1007. printk(KERN_WARNING " *** Warning: IRQ %d is unlikely to work! ***n",
  1008.    dev->irq);
  1009. #endif
  1010. EL3WINDOW(4);
  1011. step = (inb(ioaddr + Wn4_NetDiag) & 0x1e) >> 1;
  1012. if (print_info) {
  1013. printk(KERN_INFO "  product code %02x%02x rev %02x.%d date %02d-"
  1014. "%02d-%02dn", eeprom[6]&0xff, eeprom[6]>>8, eeprom[0x14],
  1015. step, (eeprom[4]>>5) & 15, eeprom[4] & 31, eeprom[4]>>9);
  1016. }
  1017. if (pdev && vci->drv_flags & HAS_CB_FNS) {
  1018. unsigned long fn_st_addr; /* Cardbus function status space */
  1019. unsigned short n;
  1020. fn_st_addr = pci_resource_start (pdev, 2);
  1021. if (fn_st_addr) {
  1022. vp->cb_fn_base = ioremap(fn_st_addr, 128);
  1023. retval = -ENOMEM;
  1024. if (!vp->cb_fn_base)
  1025. goto free_ring;
  1026. }
  1027. if (print_info) {
  1028. printk(KERN_INFO "%s: CardBus functions mapped %8.8lx->%pn",
  1029. print_name, fn_st_addr, vp->cb_fn_base);
  1030. }
  1031. EL3WINDOW(2);
  1032. n = inw(ioaddr + Wn2_ResetOptions) & ~0x4010;
  1033. if (vp->drv_flags & INVERT_LED_PWR)
  1034. n |= 0x10;
  1035. if (vp->drv_flags & INVERT_MII_PWR)
  1036. n |= 0x4000;
  1037. outw(n, ioaddr + Wn2_ResetOptions);
  1038. }
  1039. /* Extract our information from the EEPROM data. */
  1040. vp->info1 = eeprom[13];
  1041. vp->info2 = eeprom[15];
  1042. vp->capabilities = eeprom[16];
  1043. if (vp->info1 & 0x8000) {
  1044. vp->full_duplex = 1;
  1045. if (print_info)
  1046. printk(KERN_INFO "Full duplex capablen");
  1047. }
  1048. {
  1049. static const char * ram_split[] = {"5:3", "3:1", "1:1", "3:5"};
  1050. unsigned int config;
  1051. EL3WINDOW(3);
  1052. vp->available_media = inw(ioaddr + Wn3_Options);
  1053. if ((vp->available_media & 0xff) == 0) /* Broken 3c916 */
  1054. vp->available_media = 0x40;
  1055. config = inl(ioaddr + Wn3_Config);
  1056. if (print_info) {
  1057. printk(KERN_DEBUG "  Internal config register is %4.4x, "
  1058.    "transceivers %#x.n", config, inw(ioaddr + Wn3_Options));
  1059. printk(KERN_INFO "  %dK %s-wide RAM %s Rx:Tx split, %s%s interface.n",
  1060.    8 << RAM_SIZE(config),
  1061.    RAM_WIDTH(config) ? "word" : "byte",
  1062.    ram_split[RAM_SPLIT(config)],
  1063.    AUTOSELECT(config) ? "autoselect/" : "",
  1064.    XCVR(config) > XCVR_ExtMII ? "<invalid transceiver>" :
  1065.    media_tbl[XCVR(config)].name);
  1066. }
  1067. vp->default_media = XCVR(config);
  1068. if (vp->default_media == XCVR_NWAY)
  1069. vp->has_nway = 1;
  1070. vp->autoselect = AUTOSELECT(config);
  1071. }
  1072. if (vp->media_override != 7) {
  1073. printk(KERN_INFO "%s:  Media override to transceiver type %d (%s).n",
  1074. print_name, vp->media_override,
  1075. media_tbl[vp->media_override].name);
  1076. dev->if_port = vp->media_override;
  1077. } else
  1078. dev->if_port = vp->default_media;
  1079. if (dev->if_port == XCVR_MII || dev->if_port == XCVR_NWAY) {
  1080. int phy, phy_idx = 0;
  1081. EL3WINDOW(4);
  1082. mii_preamble_required++;
  1083. mii_preamble_required++;
  1084. mdio_read(dev, 24, 1);
  1085. for (phy = 0; phy < 32 && phy_idx < 1; phy++) {
  1086. int mii_status, phyx;
  1087. /*
  1088.  * For the 3c905CX we look at index 24 first, because it bogusly
  1089.  * reports an external PHY at all indices
  1090.  */
  1091. if (phy == 0)
  1092. phyx = 24;
  1093. else if (phy <= 24)
  1094. phyx = phy - 1;
  1095. else
  1096. phyx = phy;
  1097. mii_status = mdio_read(dev, phyx, 1);
  1098. if (mii_status  &&  mii_status != 0xffff) {
  1099. vp->phys[phy_idx++] = phyx;
  1100. if (print_info) {
  1101. printk(KERN_INFO "  MII transceiver found at address %d,"
  1102. " status %4x.n", phyx, mii_status);
  1103. }
  1104. if ((mii_status & 0x0040) == 0)
  1105. mii_preamble_required++;
  1106. }
  1107. }
  1108. mii_preamble_required--;
  1109. if (phy_idx == 0) {
  1110. printk(KERN_WARNING"  ***WARNING*** No MII transceivers found!n");
  1111. vp->phys[0] = 24;
  1112. } else {
  1113. vp->advertising = mdio_read(dev, vp->phys[0], 4);
  1114. if (vp->full_duplex) {
  1115. /* Only advertise the FD media types. */
  1116. vp->advertising &= ~0x02A0;
  1117. mdio_write(dev, vp->phys[0], 4, vp->advertising);
  1118. }
  1119. }
  1120. }
  1121. if (vp->capabilities & CapBusMaster) {
  1122. vp->full_bus_master_tx = 1;
  1123. if (print_info) {
  1124. printk(KERN_INFO "  Enabling bus-master transmits and %s receives.n",
  1125. (vp->info2 & 1) ? "early" : "whole-frame" );
  1126. }
  1127. vp->full_bus_master_rx = (vp->info2 & 1) ? 1 : 2;
  1128. vp->bus_master = 0; /* AKPM: vortex only */
  1129. }
  1130. /* The 3c59x-specific entries in the device structure. */
  1131. dev->open = vortex_open;
  1132. if (vp->full_bus_master_tx) {
  1133. dev->hard_start_xmit = boomerang_start_xmit;
  1134. /* Actually, it still should work with iommu. */
  1135. dev->features |= NETIF_F_SG;
  1136. if (((hw_checksums[card_idx] == -1) && (vp->drv_flags & HAS_HWCKSM)) ||
  1137. (hw_checksums[card_idx] == 1)) {
  1138. dev->features |= NETIF_F_IP_CSUM;
  1139. }
  1140. } else {
  1141. dev->hard_start_xmit = vortex_start_xmit;
  1142. }
  1143. if (print_info) {
  1144. printk(KERN_INFO "%s: scatter/gather %sabled. h/w checksums %sabledn",
  1145. print_name,
  1146. (dev->features & NETIF_F_SG) ? "en":"dis",
  1147. (dev->features & NETIF_F_IP_CSUM) ? "en":"dis");
  1148. }
  1149. dev->stop = vortex_close;
  1150. dev->get_stats = vortex_get_stats;
  1151. dev->do_ioctl = vortex_ioctl;
  1152. dev->set_multicast_list = set_rx_mode;
  1153. dev->tx_timeout = vortex_tx_timeout;
  1154. dev->watchdog_timeo = (watchdog * HZ) / 1000;
  1155. if (pdev && vp->enable_wol) {
  1156. vp->pm_state_valid = 1;
  1157.   pci_save_state(vp->pdev, vp->power_state);
  1158.   acpi_set_WOL(dev);
  1159. }
  1160. retval = register_netdev(dev);
  1161. if (retval == 0)
  1162. return 0;
  1163. free_ring:
  1164. pci_free_consistent(pdev,
  1165. sizeof(struct boom_rx_desc) * RX_RING_SIZE
  1166. + sizeof(struct boom_tx_desc) * TX_RING_SIZE,
  1167. vp->rx_ring,
  1168. vp->rx_ring_dma);
  1169. free_region:
  1170. if (vp->must_free_region)
  1171. release_region(ioaddr, vci->io_size);
  1172. kfree (dev);
  1173. printk(KERN_ERR PFX "vortex_probe1 fails.  Returns %dn", retval);
  1174. out:
  1175. return retval;
  1176. }
  1177. static void
  1178. issue_and_wait(struct net_device *dev, int cmd)
  1179. {
  1180. int i;
  1181. outw(cmd, dev->base_addr + EL3_CMD);
  1182. for (i = 0; i < 2000; i++) {
  1183. if (!(inw(dev->base_addr + EL3_STATUS) & CmdInProgress))
  1184. return;
  1185. }
  1186. /* OK, that didn't work.  Do it the slow way.  One second */
  1187. for (i = 0; i < 100000; i++) {
  1188. if (!(inw(dev->base_addr + EL3_STATUS) & CmdInProgress)) {
  1189. if (vortex_debug > 1)
  1190. printk(KERN_INFO "%s: command 0x%04x took %d usecsn",
  1191.    dev->name, cmd, i * 10);
  1192. return;
  1193. }
  1194. udelay(10);
  1195. }
  1196. printk(KERN_ERR "%s: command 0x%04x did not complete! Status=0x%xn",
  1197.    dev->name, cmd, inw(dev->base_addr + EL3_STATUS));
  1198. }
  1199. static void
  1200. vortex_up(struct net_device *dev)
  1201. {
  1202. long ioaddr = dev->base_addr;
  1203. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1204. unsigned int config;
  1205. int i;
  1206. if (vp->pdev && vp->enable_wol) {
  1207. pci_set_power_state(vp->pdev, 0); /* Go active */
  1208. pci_restore_state(vp->pdev, vp->power_state);
  1209. }
  1210. /* Before initializing select the active media port. */
  1211. EL3WINDOW(3);
  1212. config = inl(ioaddr + Wn3_Config);
  1213. if (vp->media_override != 7) {
  1214. printk(KERN_INFO "%s: Media override to transceiver %d (%s).n",
  1215.    dev->name, vp->media_override,
  1216.    media_tbl[vp->media_override].name);
  1217. dev->if_port = vp->media_override;
  1218. } else if (vp->autoselect) {
  1219. if (vp->has_nway) {
  1220. if (vortex_debug > 1)
  1221. printk(KERN_INFO "%s: using NWAY device table, not %dn",
  1222. dev->name, dev->if_port);
  1223. dev->if_port = XCVR_NWAY;
  1224. } else {
  1225. /* Find first available media type, starting with 100baseTx. */
  1226. dev->if_port = XCVR_100baseTx;
  1227. while (! (vp->available_media & media_tbl[dev->if_port].mask))
  1228. dev->if_port = media_tbl[dev->if_port].next;
  1229. if (vortex_debug > 1)
  1230. printk(KERN_INFO "%s: first available media type: %sn",
  1231. dev->name, media_tbl[dev->if_port].name);
  1232. }
  1233. } else {
  1234. dev->if_port = vp->default_media;
  1235. if (vortex_debug > 1)
  1236. printk(KERN_INFO "%s: using default media %sn",
  1237. dev->name, media_tbl[dev->if_port].name);
  1238. }
  1239. init_timer(&vp->timer);
  1240. vp->timer.expires = RUN_AT(media_tbl[dev->if_port].wait);
  1241. vp->timer.data = (unsigned long)dev;
  1242. vp->timer.function = vortex_timer; /* timer handler */
  1243. add_timer(&vp->timer);
  1244. init_timer(&vp->rx_oom_timer);
  1245. vp->rx_oom_timer.data = (unsigned long)dev;
  1246. vp->rx_oom_timer.function = rx_oom_timer;
  1247. if (vortex_debug > 1)
  1248. printk(KERN_DEBUG "%s: Initial media type %s.n",
  1249.    dev->name, media_tbl[dev->if_port].name);
  1250. vp->full_duplex = vp->force_fd;
  1251. config = BFINS(config, dev->if_port, 20, 4);
  1252. if (vortex_debug > 6)
  1253. printk(KERN_DEBUG "vortex_up(): writing 0x%x to InternalConfign", config);
  1254. outl(config, ioaddr + Wn3_Config);
  1255. if (dev->if_port == XCVR_MII || dev->if_port == XCVR_NWAY) {
  1256. int mii_reg1, mii_reg5;
  1257. EL3WINDOW(4);
  1258. /* Read BMSR (reg1) only to clear old status. */
  1259. mii_reg1 = mdio_read(dev, vp->phys[0], 1);
  1260. mii_reg5 = mdio_read(dev, vp->phys[0], 5);
  1261. if (mii_reg5 == 0xffff  ||  mii_reg5 == 0x0000) {
  1262. netif_carrier_off(dev); /* No MII device or no link partner report */
  1263. } else {
  1264. if ((mii_reg5 & 0x0100) != 0 /* 100baseTx-FD */
  1265.  || (mii_reg5 & 0x00C0) == 0x0040) /* 10T-FD, but not 100-HD */
  1266. vp->full_duplex = 1;
  1267. netif_carrier_on(dev);
  1268. }
  1269. vp->partner_flow_ctrl = ((mii_reg5 & 0x0400) != 0);
  1270. if (vortex_debug > 1)
  1271. printk(KERN_INFO "%s: MII #%d status %4.4x, link partner capability %4.4x,"
  1272.    " info1 %04x, setting %s-duplex.n",
  1273. dev->name, vp->phys[0],
  1274. mii_reg1, mii_reg5,
  1275. vp->info1, ((vp->info1 & 0x8000) || vp->full_duplex) ? "full" : "half");
  1276. EL3WINDOW(3);
  1277. }
  1278. /* Set the full-duplex bit. */
  1279. outw( ((vp->info1 & 0x8000) || vp->full_duplex ? 0x20 : 0) |
  1280.   (dev->mtu > 1500 ? 0x40 : 0) |
  1281. ((vp->full_duplex && vp->flow_ctrl && vp->partner_flow_ctrl) ? 0x100 : 0),
  1282. ioaddr + Wn3_MAC_Ctrl);
  1283. if (vortex_debug > 1) {
  1284. printk(KERN_DEBUG "%s: vortex_up() InternalConfig %8.8x.n",
  1285. dev->name, config);
  1286. }
  1287. issue_and_wait(dev, TxReset);
  1288. /*
  1289.  * Don't reset the PHY - that upsets autonegotiation during DHCP operations.
  1290.  */
  1291. issue_and_wait(dev, RxReset|0x04);
  1292. outw(SetStatusEnb | 0x00, ioaddr + EL3_CMD);
  1293. if (vortex_debug > 1) {
  1294. EL3WINDOW(4);
  1295. printk(KERN_DEBUG "%s: vortex_up() irq %d media status %4.4x.n",
  1296.    dev->name, dev->irq, inw(ioaddr + Wn4_Media));
  1297. }
  1298. /* Set the station address and mask in window 2 each time opened. */
  1299. EL3WINDOW(2);
  1300. for (i = 0; i < 6; i++)
  1301. outb(dev->dev_addr[i], ioaddr + i);
  1302. for (; i < 12; i+=2)
  1303. outw(0, ioaddr + i);
  1304. if (vp->cb_fn_base) {
  1305. unsigned short n = inw(ioaddr + Wn2_ResetOptions) & ~0x4010;
  1306. if (vp->drv_flags & INVERT_LED_PWR)
  1307. n |= 0x10;
  1308. if (vp->drv_flags & INVERT_MII_PWR)
  1309. n |= 0x4000;
  1310. outw(n, ioaddr + Wn2_ResetOptions);
  1311. }
  1312. if (dev->if_port == XCVR_10base2)
  1313. /* Start the thinnet transceiver. We should really wait 50ms...*/
  1314. outw(StartCoax, ioaddr + EL3_CMD);
  1315. if (dev->if_port != XCVR_NWAY) {
  1316. EL3WINDOW(4);
  1317. outw((inw(ioaddr + Wn4_Media) & ~(Media_10TP|Media_SQE)) |
  1318.  media_tbl[dev->if_port].media_bits, ioaddr + Wn4_Media);
  1319. }
  1320. /* Switch to the stats window, and clear all stats by reading. */
  1321. outw(StatsDisable, ioaddr + EL3_CMD);
  1322. EL3WINDOW(6);
  1323. for (i = 0; i < 10; i++)
  1324. inb(ioaddr + i);
  1325. inw(ioaddr + 10);
  1326. inw(ioaddr + 12);
  1327. /* New: On the Vortex we must also clear the BadSSD counter. */
  1328. EL3WINDOW(4);
  1329. inb(ioaddr + 12);
  1330. /* ..and on the Boomerang we enable the extra statistics bits. */
  1331. outw(0x0040, ioaddr + Wn4_NetDiag);
  1332. /* Switch to register set 7 for normal use. */
  1333. EL3WINDOW(7);
  1334. if (vp->full_bus_master_rx) { /* Boomerang bus master. */
  1335. vp->cur_rx = vp->dirty_rx = 0;
  1336. /* Initialize the RxEarly register as recommended. */
  1337. outw(SetRxThreshold + (1536>>2), ioaddr + EL3_CMD);
  1338. outl(0x0020, ioaddr + PktStatus);
  1339. outl(vp->rx_ring_dma, ioaddr + UpListPtr);
  1340. }
  1341. if (vp->full_bus_master_tx) {  /* Boomerang bus master Tx. */
  1342. vp->cur_tx = vp->dirty_tx = 0;
  1343. if (vp->drv_flags & IS_BOOMERANG)
  1344. outb(PKT_BUF_SZ>>8, ioaddr + TxFreeThreshold); /* Room for a packet. */
  1345. /* Clear the Rx, Tx rings. */
  1346. for (i = 0; i < RX_RING_SIZE; i++) /* AKPM: this is done in vortex_open, too */
  1347. vp->rx_ring[i].status = 0;
  1348. for (i = 0; i < TX_RING_SIZE; i++)
  1349. vp->tx_skbuff[i] = 0;
  1350. outl(0, ioaddr + DownListPtr);
  1351. }
  1352. /* Set receiver mode: presumably accept b-case and phys addr only. */
  1353. set_rx_mode(dev);
  1354. outw(StatsEnable, ioaddr + EL3_CMD); /* Turn on statistics. */
  1355. // issue_and_wait(dev, SetTxStart|0x07ff);
  1356. outw(RxEnable, ioaddr + EL3_CMD); /* Enable the receiver. */
  1357. outw(TxEnable, ioaddr + EL3_CMD); /* Enable transmitter. */
  1358. /* Allow status bits to be seen. */
  1359. vp->status_enable = SetStatusEnb | HostError|IntReq|StatsFull|TxComplete|
  1360. (vp->full_bus_master_tx ? DownComplete : TxAvailable) |
  1361. (vp->full_bus_master_rx ? UpComplete : RxComplete) |
  1362. (vp->bus_master ? DMADone : 0);
  1363. vp->intr_enable = SetIntrEnb | IntLatch | TxAvailable |
  1364. (vp->full_bus_master_rx ? 0 : RxComplete) |
  1365. StatsFull | HostError | TxComplete | IntReq
  1366. | (vp->bus_master ? DMADone : 0) | UpComplete | DownComplete;
  1367. outw(vp->status_enable, ioaddr + EL3_CMD);
  1368. /* Ack all pending events, and set active indicator mask. */
  1369. outw(AckIntr | IntLatch | TxAvailable | RxEarly | IntReq,
  1370.  ioaddr + EL3_CMD);
  1371. outw(vp->intr_enable, ioaddr + EL3_CMD);
  1372. if (vp->cb_fn_base) /* The PCMCIA people are idiots.  */
  1373. writel(0x8000, vp->cb_fn_base + 4);
  1374. netif_start_queue (dev);
  1375. }
  1376. static int
  1377. vortex_open(struct net_device *dev)
  1378. {
  1379. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1380. int i;
  1381. int retval;
  1382. /* Use the now-standard shared IRQ implementation. */
  1383. if ((retval = request_irq(dev->irq, vp->full_bus_master_rx ?
  1384. &boomerang_interrupt : &vortex_interrupt, SA_SHIRQ, dev->name, dev))) {
  1385. printk(KERN_ERR "%s: Could not reserve IRQ %dn", dev->name, dev->irq);
  1386. goto out;
  1387. }
  1388. if (vp->full_bus_master_rx) { /* Boomerang bus master. */
  1389. if (vortex_debug > 2)
  1390. printk(KERN_DEBUG "%s:  Filling in the Rx ring.n", dev->name);
  1391. for (i = 0; i < RX_RING_SIZE; i++) {
  1392. struct sk_buff *skb;
  1393. vp->rx_ring[i].next = cpu_to_le32(vp->rx_ring_dma + sizeof(struct boom_rx_desc) * (i+1));
  1394. vp->rx_ring[i].status = 0; /* Clear complete bit. */
  1395. vp->rx_ring[i].length = cpu_to_le32(PKT_BUF_SZ | LAST_FRAG);
  1396. skb = dev_alloc_skb(PKT_BUF_SZ);
  1397. vp->rx_skbuff[i] = skb;
  1398. if (skb == NULL)
  1399. break; /* Bad news!  */
  1400. skb->dev = dev; /* Mark as being used by this device. */
  1401. skb_reserve(skb, 2); /* Align IP on 16 byte boundaries */
  1402. vp->rx_ring[i].addr = cpu_to_le32(pci_map_single(vp->pdev, skb->tail, PKT_BUF_SZ, PCI_DMA_FROMDEVICE));
  1403. }
  1404. if (i != RX_RING_SIZE) {
  1405. int j;
  1406. printk(KERN_EMERG "%s: no memory for rx ringn", dev->name);
  1407. for (j = 0; j < i; j++) {
  1408. if (vp->rx_skbuff[j]) {
  1409. dev_kfree_skb(vp->rx_skbuff[j]);
  1410. vp->rx_skbuff[j] = 0;
  1411. }
  1412. }
  1413. retval = -ENOMEM;
  1414. goto out_free_irq;
  1415. }
  1416. /* Wrap the ring. */
  1417. vp->rx_ring[i-1].next = cpu_to_le32(vp->rx_ring_dma);
  1418. }
  1419. vortex_up(dev);
  1420. return 0;
  1421. out_free_irq:
  1422. free_irq(dev->irq, dev);
  1423. out:
  1424. if (vortex_debug > 1)
  1425. printk(KERN_ERR "%s: vortex_open() fails: returning %dn", dev->name, retval);
  1426. return retval;
  1427. }
  1428. static void
  1429. vortex_timer(unsigned long data)
  1430. {
  1431. struct net_device *dev = (struct net_device *)data;
  1432. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1433. long ioaddr = dev->base_addr;
  1434. int next_tick = 60*HZ;
  1435. int ok = 0;
  1436. int media_status, mii_status, old_window;
  1437. if (vortex_debug > 2) {
  1438. printk(KERN_DEBUG "%s: Media selection timer tick happened, %s.n",
  1439.    dev->name, media_tbl[dev->if_port].name);
  1440. printk(KERN_DEBUG "dev->watchdog_timeo=%dn", dev->watchdog_timeo);
  1441. }
  1442. if (vp->medialock)
  1443. goto leave_media_alone;
  1444. disable_irq(dev->irq);
  1445. old_window = inw(ioaddr + EL3_CMD) >> 13;
  1446. EL3WINDOW(4);
  1447. media_status = inw(ioaddr + Wn4_Media);
  1448. switch (dev->if_port) {
  1449. case XCVR_10baseT:  case XCVR_100baseTx:  case XCVR_100baseFx:
  1450. if (media_status & Media_LnkBeat) {
  1451. netif_carrier_on(dev);
  1452. ok = 1;
  1453. if (vortex_debug > 1)
  1454. printk(KERN_DEBUG "%s: Media %s has link beat, %x.n",
  1455.    dev->name, media_tbl[dev->if_port].name, media_status);
  1456. } else if (vortex_debug > 1) {
  1457. netif_carrier_off(dev);
  1458. printk(KERN_DEBUG "%s: Media %s has no link beat, %x.n",
  1459.    dev->name, media_tbl[dev->if_port].name, media_status);
  1460. }
  1461. break;
  1462. case XCVR_MII: case XCVR_NWAY:
  1463. {
  1464. mii_status = mdio_read(dev, vp->phys[0], 1);
  1465. ok = 1;
  1466. if (vortex_debug > 2)
  1467. printk(KERN_DEBUG "%s: MII transceiver has status %4.4x.n",
  1468. dev->name, mii_status);
  1469. if (mii_status & BMSR_LSTATUS) {
  1470. int mii_reg5 = mdio_read(dev, vp->phys[0], 5);
  1471. if (! vp->force_fd  &&  mii_reg5 != 0xffff) {
  1472. int duplex = (mii_reg5&0x0100) ||
  1473. (mii_reg5 & 0x01C0) == 0x0040;
  1474. if (vp->full_duplex != duplex) {
  1475. vp->full_duplex = duplex;
  1476. printk(KERN_INFO "%s: Setting %s-duplex based on MII "
  1477. "#%d link partner capability of %4.4x.n",
  1478. dev->name, vp->full_duplex ? "full" : "half",
  1479. vp->phys[0], mii_reg5);
  1480. /* Set the full-duplex bit. */
  1481. EL3WINDOW(3);
  1482. outw( (vp->full_duplex ? 0x20 : 0) |
  1483. (dev->mtu > 1500 ? 0x40 : 0) |
  1484. ((vp->full_duplex && vp->flow_ctrl && vp->partner_flow_ctrl) ? 0x100 : 0),
  1485. ioaddr + Wn3_MAC_Ctrl);
  1486. if (vortex_debug > 1)
  1487. printk(KERN_DEBUG "Setting duplex in Wn3_MAC_Ctrln");
  1488. /* AKPM: bug: should reset Tx and Rx after setting Duplex.  Page 180 */
  1489. }
  1490. }
  1491. netif_carrier_on(dev);
  1492. } else {
  1493. netif_carrier_off(dev);
  1494. }
  1495. }
  1496. break;
  1497.   default: /* Other media types handled by Tx timeouts. */
  1498. if (vortex_debug > 1)
  1499.   printk(KERN_DEBUG "%s: Media %s has no indication, %x.n",
  1500.  dev->name, media_tbl[dev->if_port].name, media_status);
  1501. ok = 1;
  1502. }
  1503. if ( ! ok) {
  1504. unsigned int config;
  1505. do {
  1506. dev->if_port = media_tbl[dev->if_port].next;
  1507. } while ( ! (vp->available_media & media_tbl[dev->if_port].mask));
  1508. if (dev->if_port == XCVR_Default) { /* Go back to default. */
  1509.   dev->if_port = vp->default_media;
  1510.   if (vortex_debug > 1)
  1511. printk(KERN_DEBUG "%s: Media selection failing, using default "
  1512.    "%s port.n",
  1513.    dev->name, media_tbl[dev->if_port].name);
  1514. } else {
  1515. if (vortex_debug > 1)
  1516. printk(KERN_DEBUG "%s: Media selection failed, now trying "
  1517.    "%s port.n",
  1518.    dev->name, media_tbl[dev->if_port].name);
  1519. next_tick = media_tbl[dev->if_port].wait;
  1520. }
  1521. outw((media_status & ~(Media_10TP|Media_SQE)) |
  1522.  media_tbl[dev->if_port].media_bits, ioaddr + Wn4_Media);
  1523. EL3WINDOW(3);
  1524. config = inl(ioaddr + Wn3_Config);
  1525. config = BFINS(config, dev->if_port, 20, 4);
  1526. outl(config, ioaddr + Wn3_Config);
  1527. outw(dev->if_port == XCVR_10base2 ? StartCoax : StopCoax,
  1528.  ioaddr + EL3_CMD);
  1529. if (vortex_debug > 1)
  1530. printk(KERN_DEBUG "wrote 0x%08x to Wn3_Confign", config);
  1531. /* AKPM: FIXME: Should reset Rx & Tx here.  P60 of 3c90xc.pdf */
  1532. }
  1533. EL3WINDOW(old_window);
  1534. enable_irq(dev->irq);
  1535. leave_media_alone:
  1536. if (vortex_debug > 2)
  1537.   printk(KERN_DEBUG "%s: Media selection timer finished, %s.n",
  1538.  dev->name, media_tbl[dev->if_port].name);
  1539. mod_timer(&vp->timer, RUN_AT(next_tick));
  1540. if (vp->deferred)
  1541. outw(FakeIntr, ioaddr + EL3_CMD);
  1542. return;
  1543. }
  1544. static void vortex_tx_timeout(struct net_device *dev)
  1545. {
  1546. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1547. long ioaddr = dev->base_addr;
  1548. printk(KERN_ERR "%s: transmit timed out, tx_status %2.2x status %4.4x.n",
  1549.    dev->name, inb(ioaddr + TxStatus),
  1550.    inw(ioaddr + EL3_STATUS));
  1551. EL3WINDOW(4);
  1552. printk(KERN_ERR "  diagnostics: net %04x media %04x dma %8.8x.n",
  1553.    inw(ioaddr + Wn4_NetDiag), inw(ioaddr + Wn4_Media),
  1554.    inl(ioaddr + PktStatus));
  1555. /* Slight code bloat to be user friendly. */
  1556. if ((inb(ioaddr + TxStatus) & 0x88) == 0x88)
  1557. printk(KERN_ERR "%s: Transmitter encountered 16 collisions --"
  1558.    " network cable problem?n", dev->name);
  1559. if (inw(ioaddr + EL3_STATUS) & IntLatch) {
  1560. printk(KERN_ERR "%s: Interrupt posted but not delivered --"
  1561.    " IRQ blocked by another device?n", dev->name);
  1562. /* Bad idea here.. but we might as well handle a few events. */
  1563. {
  1564. /*
  1565.  * Block interrupts because vortex_interrupt does a bare spin_lock()
  1566.  */
  1567. unsigned long flags;
  1568. local_irq_save(flags);
  1569. if (vp->full_bus_master_tx)
  1570. boomerang_interrupt(dev->irq, dev, 0);
  1571. else
  1572. vortex_interrupt(dev->irq, dev, 0);
  1573. local_irq_restore(flags);
  1574. }
  1575. }
  1576. if (vortex_debug > 0)
  1577. dump_tx_ring(dev);
  1578. issue_and_wait(dev, TxReset);
  1579. vp->stats.tx_errors++;
  1580. if (vp->full_bus_master_tx) {
  1581. printk(KERN_DEBUG "%s: Resetting the Tx ring pointer.n", dev->name);
  1582. if (vp->cur_tx - vp->dirty_tx > 0  &&  inl(ioaddr + DownListPtr) == 0)
  1583. outl(vp->tx_ring_dma + (vp->dirty_tx % TX_RING_SIZE) * sizeof(struct boom_tx_desc),
  1584.  ioaddr + DownListPtr);
  1585. if (vp->cur_tx - vp->dirty_tx < TX_RING_SIZE)
  1586. netif_wake_queue (dev);
  1587. if (vp->drv_flags & IS_BOOMERANG)
  1588. outb(PKT_BUF_SZ>>8, ioaddr + TxFreeThreshold);
  1589. outw(DownUnstall, ioaddr + EL3_CMD);
  1590. } else {
  1591. vp->stats.tx_dropped++;
  1592. netif_wake_queue(dev);
  1593. }
  1594. /* Issue Tx Enable */
  1595. outw(TxEnable, ioaddr + EL3_CMD);
  1596. dev->trans_start = jiffies;
  1597. /* Switch to register set 7 for normal use. */
  1598. EL3WINDOW(7);
  1599. }
  1600. /*
  1601.  * Handle uncommon interrupt sources.  This is a separate routine to minimize
  1602.  * the cache impact.
  1603.  */
  1604. static void
  1605. vortex_error(struct net_device *dev, int status)
  1606. {
  1607. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1608. long ioaddr = dev->base_addr;
  1609. int do_tx_reset = 0, reset_mask = 0;
  1610. unsigned char tx_status = 0;
  1611. if (vortex_debug > 2) {
  1612. printk(KERN_ERR "%s: vortex_error(), status=0x%xn", dev->name, status);
  1613. }
  1614. if (status & TxComplete) { /* Really "TxError" for us. */
  1615. tx_status = inb(ioaddr + TxStatus);
  1616. /* Presumably a tx-timeout. We must merely re-enable. */
  1617. if (vortex_debug > 2
  1618. || (tx_status != 0x88 && vortex_debug > 0)) {
  1619. printk(KERN_ERR "%s: Transmit error, Tx status register %2.2x.n",
  1620.    dev->name, tx_status);
  1621. if (tx_status == 0x82) {
  1622. printk(KERN_ERR "Probably a duplex mismatch.  See "
  1623. "Documentation/networking/vortex.txtn");
  1624. }
  1625. dump_tx_ring(dev);
  1626. }
  1627. if (tx_status & 0x14)  vp->stats.tx_fifo_errors++;
  1628. if (tx_status & 0x38)  vp->stats.tx_aborted_errors++;
  1629. outb(0, ioaddr + TxStatus);
  1630. if (tx_status & 0x30) { /* txJabber or txUnderrun */
  1631. do_tx_reset = 1;
  1632. } else if ((tx_status & 0x08) && (vp->drv_flags & MAX_COLLISION_RESET)) { /* maxCollisions */
  1633. do_tx_reset = 1;
  1634. reset_mask = 0x0108; /* Reset interface logic, but not download logic */
  1635. } else { /* Merely re-enable the transmitter. */
  1636. outw(TxEnable, ioaddr + EL3_CMD);
  1637. }
  1638. }
  1639. if (status & RxEarly) { /* Rx early is unused. */
  1640. vortex_rx(dev);
  1641. outw(AckIntr | RxEarly, ioaddr + EL3_CMD);
  1642. }
  1643. if (status & StatsFull) { /* Empty statistics. */
  1644. static int DoneDidThat;
  1645. if (vortex_debug > 4)
  1646. printk(KERN_DEBUG "%s: Updating stats.n", dev->name);
  1647. update_stats(ioaddr, dev);
  1648. /* HACK: Disable statistics as an interrupt source. */
  1649. /* This occurs when we have the wrong media type! */
  1650. if (DoneDidThat == 0  &&
  1651. inw(ioaddr + EL3_STATUS) & StatsFull) {
  1652. printk(KERN_WARNING "%s: Updating statistics failed, disabling "
  1653.    "stats as an interrupt source.n", dev->name);
  1654. EL3WINDOW(5);
  1655. outw(SetIntrEnb | (inw(ioaddr + 10) & ~StatsFull), ioaddr + EL3_CMD);
  1656. vp->intr_enable &= ~StatsFull;
  1657. EL3WINDOW(7);
  1658. DoneDidThat++;
  1659. }
  1660. }
  1661. if (status & IntReq) { /* Restore all interrupt sources.  */
  1662. outw(vp->status_enable, ioaddr + EL3_CMD);
  1663. outw(vp->intr_enable, ioaddr + EL3_CMD);
  1664. }
  1665. if (status & HostError) {
  1666. u16 fifo_diag;
  1667. EL3WINDOW(4);
  1668. fifo_diag = inw(ioaddr + Wn4_FIFODiag);
  1669. printk(KERN_ERR "%s: Host error, FIFO diagnostic register %4.4x.n",
  1670.    dev->name, fifo_diag);
  1671. /* Adapter failure requires Tx/Rx reset and reinit. */
  1672. if (vp->full_bus_master_tx) {
  1673. int bus_status = inl(ioaddr + PktStatus);
  1674. /* 0x80000000 PCI master abort. */
  1675. /* 0x40000000 PCI target abort. */
  1676. if (vortex_debug)
  1677. printk(KERN_ERR "%s: PCI bus error, bus status %8.8xn", dev->name, bus_status);
  1678. /* In this case, blow the card away */
  1679. vortex_down(dev);
  1680. issue_and_wait(dev, TotalReset | 0xff);
  1681. vortex_up(dev); /* AKPM: bug.  vortex_up() assumes that the rx ring is full. It may not be. */
  1682. } else if (fifo_diag & 0x0400)
  1683. do_tx_reset = 1;
  1684. if (fifo_diag & 0x3000) {
  1685. /* Reset Rx fifo and upload logic */
  1686. issue_and_wait(dev, RxReset|0x07);
  1687. /* Set the Rx filter to the current state. */
  1688. set_rx_mode(dev);
  1689. outw(RxEnable, ioaddr + EL3_CMD); /* Re-enable the receiver. */
  1690. outw(AckIntr | HostError, ioaddr + EL3_CMD);
  1691. }
  1692. }
  1693. if (do_tx_reset) {
  1694. issue_and_wait(dev, TxReset|reset_mask);
  1695. outw(TxEnable, ioaddr + EL3_CMD);
  1696. if (!vp->full_bus_master_tx)
  1697. netif_wake_queue(dev);
  1698. }
  1699. }
  1700. static int
  1701. vortex_start_xmit(struct sk_buff *skb, struct net_device *dev)
  1702. {
  1703. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1704. long ioaddr = dev->base_addr;
  1705. /* Put out the doubleword header... */
  1706. outl(skb->len, ioaddr + TX_FIFO);
  1707. if (vp->bus_master) {
  1708. /* Set the bus-master controller to transfer the packet. */
  1709. int len = (skb->len + 3) & ~3;
  1710. outl( vp->tx_skb_dma = pci_map_single(vp->pdev, skb->data, len, PCI_DMA_TODEVICE),
  1711. ioaddr + Wn7_MasterAddr);
  1712. outw(len, ioaddr + Wn7_MasterLen);
  1713. vp->tx_skb = skb;
  1714. outw(StartDMADown, ioaddr + EL3_CMD);
  1715. /* netif_wake_queue() will be called at the DMADone interrupt. */
  1716. } else {
  1717. /* ... and the packet rounded to a doubleword. */
  1718. outsl(ioaddr + TX_FIFO, skb->data, (skb->len + 3) >> 2);
  1719. dev_kfree_skb (skb);
  1720. if (inw(ioaddr + TxFree) > 1536) {
  1721. netif_start_queue (dev); /* AKPM: redundant? */
  1722. } else {
  1723. /* Interrupt us when the FIFO has room for max-sized packet. */
  1724. netif_stop_queue(dev);
  1725. outw(SetTxThreshold + (1536>>2), ioaddr + EL3_CMD);
  1726. }
  1727. }
  1728. dev->trans_start = jiffies;
  1729. /* Clear the Tx status stack. */
  1730. {
  1731. int tx_status;
  1732. int i = 32;
  1733. while (--i > 0 && (tx_status = inb(ioaddr + TxStatus)) > 0) {
  1734. if (tx_status & 0x3C) { /* A Tx-disabling error occurred.  */
  1735. if (vortex_debug > 2)
  1736.   printk(KERN_DEBUG "%s: Tx error, status %2.2x.n",
  1737.  dev->name, tx_status);
  1738. if (tx_status & 0x04) vp->stats.tx_fifo_errors++;
  1739. if (tx_status & 0x38) vp->stats.tx_aborted_errors++;
  1740. if (tx_status & 0x30) {
  1741. issue_and_wait(dev, TxReset);
  1742. }
  1743. outw(TxEnable, ioaddr + EL3_CMD);
  1744. }
  1745. outb(0x00, ioaddr + TxStatus); /* Pop the status stack. */
  1746. }
  1747. }
  1748. return 0;
  1749. }
  1750. static int
  1751. boomerang_start_xmit(struct sk_buff *skb, struct net_device *dev)
  1752. {
  1753. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1754. long ioaddr = dev->base_addr;
  1755. /* Calculate the next Tx descriptor entry. */
  1756. int entry = vp->cur_tx % TX_RING_SIZE;
  1757. struct boom_tx_desc *prev_entry = &vp->tx_ring[(vp->cur_tx-1) % TX_RING_SIZE];
  1758. unsigned long flags;
  1759. if (vortex_debug > 6) {
  1760. printk(KERN_DEBUG "boomerang_start_xmit()n");
  1761. if (vortex_debug > 3)
  1762. printk(KERN_DEBUG "%s: Trying to send a packet, Tx index %d.n",
  1763.    dev->name, vp->cur_tx);
  1764. }
  1765. if (vp->cur_tx - vp->dirty_tx >= TX_RING_SIZE) {
  1766. if (vortex_debug > 0)
  1767. printk(KERN_WARNING "%s: BUG! Tx Ring full, refusing to send buffer.n",
  1768.    dev->name);
  1769. netif_stop_queue(dev);
  1770. return 1;
  1771. }
  1772. vp->tx_skbuff[entry] = skb;
  1773. vp->tx_ring[entry].next = 0;
  1774. #if DO_ZEROCOPY
  1775. if (skb->ip_summed != CHECKSUM_HW)
  1776. vp->tx_ring[entry].status = cpu_to_le32(skb->len | TxIntrUploaded);
  1777. else
  1778. vp->tx_ring[entry].status = cpu_to_le32(skb->len | TxIntrUploaded | AddTCPChksum);
  1779. if (!skb_shinfo(skb)->nr_frags) {
  1780. vp->tx_ring[entry].frag[0].addr = cpu_to_le32(pci_map_single(vp->pdev, skb->data,
  1781. skb->len, PCI_DMA_TODEVICE));
  1782. vp->tx_ring[entry].frag[0].length = cpu_to_le32(skb->len | LAST_FRAG);
  1783. } else {
  1784. int i;
  1785. vp->tx_ring[entry].frag[0].addr = cpu_to_le32(pci_map_single(vp->pdev, skb->data,
  1786. skb->len-skb->data_len, PCI_DMA_TODEVICE));
  1787. vp->tx_ring[entry].frag[0].length = cpu_to_le32(skb->len-skb->data_len);
  1788. for (i = 0; i < skb_shinfo(skb)->nr_frags; i++) {
  1789. skb_frag_t *frag = &skb_shinfo(skb)->frags[i];
  1790. vp->tx_ring[entry].frag[i+1].addr =
  1791. cpu_to_le32(pci_map_single(vp->pdev,
  1792.    (void*)page_address(frag->page) + frag->page_offset,
  1793.    frag->size, PCI_DMA_TODEVICE));
  1794. if (i == skb_shinfo(skb)->nr_frags-1)
  1795. vp->tx_ring[entry].frag[i+1].length = cpu_to_le32(frag->size|LAST_FRAG);
  1796. else
  1797. vp->tx_ring[entry].frag[i+1].length = cpu_to_le32(frag->size);
  1798. }
  1799. }
  1800. #else
  1801. vp->tx_ring[entry].addr = cpu_to_le32(pci_map_single(vp->pdev, skb->data, skb->len, PCI_DMA_TODEVICE));
  1802. vp->tx_ring[entry].length = cpu_to_le32(skb->len | LAST_FRAG);
  1803. vp->tx_ring[entry].status = cpu_to_le32(skb->len | TxIntrUploaded);
  1804. #endif
  1805. spin_lock_irqsave(&vp->lock, flags);
  1806. /* Wait for the stall to complete. */
  1807. issue_and_wait(dev, DownStall);
  1808. prev_entry->next = cpu_to_le32(vp->tx_ring_dma + entry * sizeof(struct boom_tx_desc));
  1809. if (inl(ioaddr + DownListPtr) == 0) {
  1810. outl(vp->tx_ring_dma + entry * sizeof(struct boom_tx_desc), ioaddr + DownListPtr);
  1811. vp->queued_packet++;
  1812. }
  1813. vp->cur_tx++;
  1814. if (vp->cur_tx - vp->dirty_tx > TX_RING_SIZE - 1) {
  1815. netif_stop_queue (dev);
  1816. } else { /* Clear previous interrupt enable. */
  1817. #if defined(tx_interrupt_mitigation)
  1818. /* Dubious. If in boomeang_interrupt "faster" cyclone ifdef
  1819.  * were selected, this would corrupt DN_COMPLETE. No?
  1820.  */
  1821. prev_entry->status &= cpu_to_le32(~TxIntrUploaded);
  1822. #endif
  1823. }
  1824. outw(DownUnstall, ioaddr + EL3_CMD);
  1825. spin_unlock_irqrestore(&vp->lock, flags);
  1826. dev->trans_start = jiffies;
  1827. return 0;
  1828. }
  1829. /* The interrupt handler does all of the Rx thread work and cleans up
  1830.    after the Tx thread. */
  1831. /*
  1832.  * This is the ISR for the vortex series chips.
  1833.  * full_bus_master_tx == 0 && full_bus_master_rx == 0
  1834.  */
  1835. static void vortex_interrupt(int irq, void *dev_id, struct pt_regs *regs)
  1836. {
  1837. struct net_device *dev = dev_id;
  1838. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1839. long ioaddr;
  1840. int status;
  1841. int work_done = max_interrupt_work;
  1842. ioaddr = dev->base_addr;
  1843. spin_lock(&vp->lock);
  1844. status = inw(ioaddr + EL3_STATUS);
  1845. if (vortex_debug > 6)
  1846. printk("vortex_interrupt(). status=0x%4xn", status);
  1847. if ((status & IntLatch) == 0)
  1848. goto handler_exit; /* No interrupt: shared IRQs cause this */
  1849. if (status & IntReq) {
  1850. status |= vp->deferred;
  1851. vp->deferred = 0;
  1852. }
  1853. if (status == 0xffff) /* h/w no longer present (hotplug)? */
  1854. goto handler_exit;
  1855. if (vortex_debug > 4)
  1856. printk(KERN_DEBUG "%s: interrupt, status %4.4x, latency %d ticks.n",
  1857.    dev->name, status, inb(ioaddr + Timer));
  1858. do {
  1859. if (vortex_debug > 5)
  1860. printk(KERN_DEBUG "%s: In interrupt loop, status %4.4x.n",
  1861.    dev->name, status);
  1862. if (status & RxComplete)
  1863. vortex_rx(dev);
  1864. if (status & TxAvailable) {
  1865. if (vortex_debug > 5)
  1866. printk(KERN_DEBUG " TX room bit was handled.n");
  1867. /* There's room in the FIFO for a full-sized packet. */
  1868. outw(AckIntr | TxAvailable, ioaddr + EL3_CMD);
  1869. netif_wake_queue (dev);
  1870. }
  1871. if (status & DMADone) {
  1872. if (inw(ioaddr + Wn7_MasterStatus) & 0x1000) {
  1873. outw(0x1000, ioaddr + Wn7_MasterStatus); /* Ack the event. */
  1874. pci_unmap_single(vp->pdev, vp->tx_skb_dma, (vp->tx_skb->len + 3) & ~3, PCI_DMA_TODEVICE);
  1875. dev_kfree_skb_irq(vp->tx_skb); /* Release the transferred buffer */
  1876. if (inw(ioaddr + TxFree) > 1536) {
  1877. /*
  1878.  * AKPM: FIXME: I don't think we need this.  If the queue was stopped due to
  1879.  * insufficient FIFO room, the TxAvailable test will succeed and call
  1880.  * netif_wake_queue()
  1881.  */
  1882. netif_wake_queue(dev);
  1883. } else { /* Interrupt when FIFO has room for max-sized packet. */
  1884. outw(SetTxThreshold + (1536>>2), ioaddr + EL3_CMD);
  1885. netif_stop_queue(dev);
  1886. }
  1887. }
  1888. }
  1889. /* Check for all uncommon interrupts at once. */
  1890. if (status & (HostError | RxEarly | StatsFull | TxComplete | IntReq)) {
  1891. if (status == 0xffff)
  1892. break;
  1893. vortex_error(dev, status);
  1894. }
  1895. if (--work_done < 0) {
  1896. printk(KERN_WARNING "%s: Too much work in interrupt, status "
  1897.    "%4.4x.n", dev->name, status);
  1898. /* Disable all pending interrupts. */
  1899. do {
  1900. vp->deferred |= status;
  1901. outw(SetStatusEnb | (~vp->deferred & vp->status_enable),
  1902.  ioaddr + EL3_CMD);
  1903. outw(AckIntr | (vp->deferred & 0x7ff), ioaddr + EL3_CMD);
  1904. } while ((status = inw(ioaddr + EL3_CMD)) & IntLatch);
  1905. /* The timer will reenable interrupts. */
  1906. mod_timer(&vp->timer, jiffies + 1*HZ);
  1907. break;
  1908. }
  1909. /* Acknowledge the IRQ. */
  1910. outw(AckIntr | IntReq | IntLatch, ioaddr + EL3_CMD);
  1911. } while ((status = inw(ioaddr + EL3_STATUS)) & (IntLatch | RxComplete));
  1912. if (vortex_debug > 4)
  1913. printk(KERN_DEBUG "%s: exiting interrupt, status %4.4x.n",
  1914.    dev->name, status);
  1915. handler_exit:
  1916. spin_unlock(&vp->lock);
  1917. }
  1918. /*
  1919.  * This is the ISR for the boomerang series chips.
  1920.  * full_bus_master_tx == 1 && full_bus_master_rx == 1
  1921.  */
  1922. static void boomerang_interrupt(int irq, void *dev_id, struct pt_regs *regs)
  1923. {
  1924. struct net_device *dev = dev_id;
  1925. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  1926. long ioaddr;
  1927. int status;
  1928. int work_done = max_interrupt_work;
  1929. ioaddr = dev->base_addr;
  1930. /*
  1931.  * It seems dopey to put the spinlock this early, but we could race against vortex_tx_timeout
  1932.  * and boomerang_start_xmit
  1933.  */
  1934. spin_lock(&vp->lock);
  1935. status = inw(ioaddr + EL3_STATUS);
  1936. if (vortex_debug > 6)
  1937. printk(KERN_DEBUG "boomerang_interrupt. status=0x%4xn", status);
  1938. if ((status & IntLatch) == 0)
  1939. goto handler_exit; /* No interrupt: shared IRQs can cause this */
  1940. if (status == 0xffff) { /* h/w no longer present (hotplug)? */
  1941. if (vortex_debug > 1)
  1942. printk(KERN_DEBUG "boomerang_interrupt(1): status = 0xffffn");
  1943. goto handler_exit;
  1944. }
  1945. if (status & IntReq) {
  1946. status |= vp->deferred;
  1947. vp->deferred = 0;
  1948. }
  1949. if (vortex_debug > 4)
  1950. printk(KERN_DEBUG "%s: interrupt, status %4.4x, latency %d ticks.n",
  1951.    dev->name, status, inb(ioaddr + Timer));
  1952. do {
  1953. if (vortex_debug > 5)
  1954. printk(KERN_DEBUG "%s: In interrupt loop, status %4.4x.n",
  1955.    dev->name, status);
  1956. if (status & UpComplete) {
  1957. outw(AckIntr | UpComplete, ioaddr + EL3_CMD);
  1958. if (vortex_debug > 5)
  1959. printk(KERN_DEBUG "boomerang_interrupt->boomerang_rxn");
  1960. boomerang_rx(dev);
  1961. }
  1962. if (status & DownComplete) {
  1963. unsigned int dirty_tx = vp->dirty_tx;
  1964. outw(AckIntr | DownComplete, ioaddr + EL3_CMD);
  1965. while (vp->cur_tx - dirty_tx > 0) {
  1966. int entry = dirty_tx % TX_RING_SIZE;
  1967. #if 1 /* AKPM: the latter is faster, but cyclone-only */
  1968. if (inl(ioaddr + DownListPtr) ==
  1969. vp->tx_ring_dma + entry * sizeof(struct boom_tx_desc))
  1970. break; /* It still hasn't been processed. */
  1971. #else
  1972. if ((vp->tx_ring[entry].status & DN_COMPLETE) == 0)
  1973. break; /* It still hasn't been processed. */
  1974. #endif
  1975. if (vp->tx_skbuff[entry]) {
  1976. struct sk_buff *skb = vp->tx_skbuff[entry];
  1977. #if DO_ZEROCOPY
  1978. int i;
  1979. for (i=0; i<=skb_shinfo(skb)->nr_frags; i++)
  1980. pci_unmap_single(vp->pdev,
  1981.  le32_to_cpu(vp->tx_ring[entry].frag[i].addr),
  1982.  le32_to_cpu(vp->tx_ring[entry].frag[i].length)&0xFFF,
  1983.  PCI_DMA_TODEVICE);
  1984. #else
  1985. pci_unmap_single(vp->pdev,
  1986. le32_to_cpu(vp->tx_ring[entry].addr), skb->len, PCI_DMA_TODEVICE);
  1987. #endif
  1988. dev_kfree_skb_irq(skb);
  1989. vp->tx_skbuff[entry] = 0;
  1990. } else {
  1991. printk(KERN_DEBUG "boomerang_interrupt: no skb!n");
  1992. }
  1993. /* vp->stats.tx_packets++;  Counted below. */
  1994. dirty_tx++;
  1995. }
  1996. vp->dirty_tx = dirty_tx;
  1997. if (vp->cur_tx - dirty_tx <= TX_RING_SIZE - 1) {
  1998. if (vortex_debug > 6)
  1999. printk(KERN_DEBUG "boomerang_interrupt: wake queuen");
  2000. netif_wake_queue (dev);
  2001. }
  2002. }
  2003. /* Check for all uncommon interrupts at once. */
  2004. if (status & (HostError | RxEarly | StatsFull | TxComplete | IntReq))
  2005. vortex_error(dev, status);
  2006. if (--work_done < 0) {
  2007. printk(KERN_WARNING "%s: Too much work in interrupt, status "
  2008.    "%4.4x.n", dev->name, status);
  2009. /* Disable all pending interrupts. */
  2010. do {
  2011. vp->deferred |= status;
  2012. outw(SetStatusEnb | (~vp->deferred & vp->status_enable),
  2013.  ioaddr + EL3_CMD);
  2014. outw(AckIntr | (vp->deferred & 0x7ff), ioaddr + EL3_CMD);
  2015. } while ((status = inw(ioaddr + EL3_CMD)) & IntLatch);
  2016. /* The timer will reenable interrupts. */
  2017. mod_timer(&vp->timer, jiffies + 1*HZ);
  2018. break;
  2019. }
  2020. /* Acknowledge the IRQ. */
  2021. outw(AckIntr | IntReq | IntLatch, ioaddr + EL3_CMD);
  2022. if (vp->cb_fn_base) /* The PCMCIA people are idiots.  */
  2023. writel(0x8000, vp->cb_fn_base + 4);
  2024. } while ((status = inw(ioaddr + EL3_STATUS)) & IntLatch);
  2025. if (vortex_debug > 4)
  2026. printk(KERN_DEBUG "%s: exiting interrupt, status %4.4x.n",
  2027.    dev->name, status);
  2028. handler_exit:
  2029. spin_unlock(&vp->lock);
  2030. }
  2031. static int vortex_rx(struct net_device *dev)
  2032. {
  2033. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2034. long ioaddr = dev->base_addr;
  2035. int i;
  2036. short rx_status;
  2037. if (vortex_debug > 5)
  2038. printk(KERN_DEBUG "vortex_rx(): status %4.4x, rx_status %4.4x.n",
  2039.    inw(ioaddr+EL3_STATUS), inw(ioaddr+RxStatus));
  2040. while ((rx_status = inw(ioaddr + RxStatus)) > 0) {
  2041. if (rx_status & 0x4000) { /* Error, update stats. */
  2042. unsigned char rx_error = inb(ioaddr + RxErrors);
  2043. if (vortex_debug > 2)
  2044. printk(KERN_DEBUG " Rx error: status %2.2x.n", rx_error);
  2045. vp->stats.rx_errors++;
  2046. if (rx_error & 0x01)  vp->stats.rx_over_errors++;
  2047. if (rx_error & 0x02)  vp->stats.rx_length_errors++;
  2048. if (rx_error & 0x04)  vp->stats.rx_frame_errors++;
  2049. if (rx_error & 0x08)  vp->stats.rx_crc_errors++;
  2050. if (rx_error & 0x10)  vp->stats.rx_length_errors++;
  2051. } else {
  2052. /* The packet length: up to 4.5K!. */
  2053. int pkt_len = rx_status & 0x1fff;
  2054. struct sk_buff *skb;
  2055. skb = dev_alloc_skb(pkt_len + 5);
  2056. if (vortex_debug > 4)
  2057. printk(KERN_DEBUG "Receiving packet size %d status %4.4x.n",
  2058.    pkt_len, rx_status);
  2059. if (skb != NULL) {
  2060. skb->dev = dev;
  2061. skb_reserve(skb, 2); /* Align IP on 16 byte boundaries */
  2062. /* 'skb_put()' points to the start of sk_buff data area. */
  2063. if (vp->bus_master &&
  2064. ! (inw(ioaddr + Wn7_MasterStatus) & 0x8000)) {
  2065. dma_addr_t dma = pci_map_single(vp->pdev, skb_put(skb, pkt_len),
  2066.    pkt_len, PCI_DMA_FROMDEVICE);
  2067. outl(dma, ioaddr + Wn7_MasterAddr);
  2068. outw((skb->len + 3) & ~3, ioaddr + Wn7_MasterLen);
  2069. outw(StartDMAUp, ioaddr + EL3_CMD);
  2070. while (inw(ioaddr + Wn7_MasterStatus) & 0x8000)
  2071. ;
  2072. pci_unmap_single(vp->pdev, dma, pkt_len, PCI_DMA_FROMDEVICE);
  2073. } else {
  2074. insl(ioaddr + RX_FIFO, skb_put(skb, pkt_len),
  2075.  (pkt_len + 3) >> 2);
  2076. }
  2077. outw(RxDiscard, ioaddr + EL3_CMD); /* Pop top Rx packet. */
  2078. skb->protocol = eth_type_trans(skb, dev);
  2079. netif_rx(skb);
  2080. dev->last_rx = jiffies;
  2081. vp->stats.rx_packets++;
  2082. /* Wait a limited time to go to next packet. */
  2083. for (i = 200; i >= 0; i--)
  2084. if ( ! (inw(ioaddr + EL3_STATUS) & CmdInProgress))
  2085. break;
  2086. continue;
  2087. } else if (vortex_debug > 0)
  2088. printk(KERN_NOTICE "%s: No memory to allocate a sk_buff of "
  2089.    "size %d.n", dev->name, pkt_len);
  2090. }
  2091. vp->stats.rx_dropped++;
  2092. issue_and_wait(dev, RxDiscard);
  2093. }
  2094. return 0;
  2095. }
  2096. static int
  2097. boomerang_rx(struct net_device *dev)
  2098. {
  2099. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2100. int entry = vp->cur_rx % RX_RING_SIZE;
  2101. long ioaddr = dev->base_addr;
  2102. int rx_status;
  2103. int rx_work_limit = vp->dirty_rx + RX_RING_SIZE - vp->cur_rx;
  2104. if (vortex_debug > 5)
  2105. printk(KERN_DEBUG "boomerang_rx(): status %4.4xn", inw(ioaddr+EL3_STATUS));
  2106. while ((rx_status = le32_to_cpu(vp->rx_ring[entry].status)) & RxDComplete){
  2107. if (--rx_work_limit < 0)
  2108. break;
  2109. if (rx_status & RxDError) { /* Error, update stats. */
  2110. unsigned char rx_error = rx_status >> 16;
  2111. if (vortex_debug > 2)
  2112. printk(KERN_DEBUG " Rx error: status %2.2x.n", rx_error);
  2113. vp->stats.rx_errors++;
  2114. if (rx_error & 0x01)  vp->stats.rx_over_errors++;
  2115. if (rx_error & 0x02)  vp->stats.rx_length_errors++;
  2116. if (rx_error & 0x04)  vp->stats.rx_frame_errors++;
  2117. if (rx_error & 0x08)  vp->stats.rx_crc_errors++;
  2118. if (rx_error & 0x10)  vp->stats.rx_length_errors++;
  2119. } else {
  2120. /* The packet length: up to 4.5K!. */
  2121. int pkt_len = rx_status & 0x1fff;
  2122. struct sk_buff *skb;
  2123. dma_addr_t dma = le32_to_cpu(vp->rx_ring[entry].addr);
  2124. if (vortex_debug > 4)
  2125. printk(KERN_DEBUG "Receiving packet size %d status %4.4x.n",
  2126.    pkt_len, rx_status);
  2127. /* Check if the packet is long enough to just accept without
  2128.    copying to a properly sized skbuff. */
  2129. if (pkt_len < rx_copybreak && (skb = dev_alloc_skb(pkt_len + 2)) != 0) {
  2130. skb->dev = dev;
  2131. skb_reserve(skb, 2); /* Align IP on 16 byte boundaries */
  2132. pci_dma_sync_single(vp->pdev, dma, PKT_BUF_SZ, PCI_DMA_FROMDEVICE);
  2133. /* 'skb_put()' points to the start of sk_buff data area. */
  2134. memcpy(skb_put(skb, pkt_len),
  2135.    vp->rx_skbuff[entry]->tail,
  2136.    pkt_len);
  2137. vp->rx_copy++;
  2138. } else {
  2139. /* Pass up the skbuff already on the Rx ring. */
  2140. skb = vp->rx_skbuff[entry];
  2141. vp->rx_skbuff[entry] = NULL;
  2142. skb_put(skb, pkt_len);
  2143. pci_unmap_single(vp->pdev, dma, PKT_BUF_SZ, PCI_DMA_FROMDEVICE);
  2144. vp->rx_nocopy++;
  2145. }
  2146. skb->protocol = eth_type_trans(skb, dev);
  2147. { /* Use hardware checksum info. */
  2148. int csum_bits = rx_status & 0xee000000;
  2149. if (csum_bits &&
  2150. (csum_bits == (IPChksumValid | TCPChksumValid) ||
  2151.  csum_bits == (IPChksumValid | UDPChksumValid))) {
  2152. skb->ip_summed = CHECKSUM_UNNECESSARY;
  2153. vp->rx_csumhits++;
  2154. }
  2155. }
  2156. netif_rx(skb);
  2157. dev->last_rx = jiffies;
  2158. vp->stats.rx_packets++;
  2159. }
  2160. entry = (++vp->cur_rx) % RX_RING_SIZE;
  2161. }
  2162. /* Refill the Rx ring buffers. */
  2163. for (; vp->cur_rx - vp->dirty_rx > 0; vp->dirty_rx++) {
  2164. struct sk_buff *skb;
  2165. entry = vp->dirty_rx % RX_RING_SIZE;
  2166. if (vp->rx_skbuff[entry] == NULL) {
  2167. skb = dev_alloc_skb(PKT_BUF_SZ);
  2168. if (skb == NULL) {
  2169. static unsigned long last_jif;
  2170. if ((jiffies - last_jif) > 10 * HZ) {
  2171. printk(KERN_WARNING "%s: memory shortagen", dev->name);
  2172. last_jif = jiffies;
  2173. }
  2174. if ((vp->cur_rx - vp->dirty_rx) == RX_RING_SIZE)
  2175. mod_timer(&vp->rx_oom_timer, RUN_AT(HZ * 1));
  2176. break; /* Bad news!  */
  2177. }
  2178. skb->dev = dev; /* Mark as being used by this device. */
  2179. skb_reserve(skb, 2); /* Align IP on 16 byte boundaries */
  2180. vp->rx_ring[entry].addr = cpu_to_le32(pci_map_single(vp->pdev, skb->tail, PKT_BUF_SZ, PCI_DMA_FROMDEVICE));
  2181. vp->rx_skbuff[entry] = skb;
  2182. }
  2183. vp->rx_ring[entry].status = 0; /* Clear complete bit. */
  2184. outw(UpUnstall, ioaddr + EL3_CMD);
  2185. }
  2186. return 0;
  2187. }
  2188. /*
  2189.  * If we've hit a total OOM refilling the Rx ring we poll once a second
  2190.  * for some memory.  Otherwise there is no way to restart the rx process.
  2191.  */
  2192. static void
  2193. rx_oom_timer(unsigned long arg)
  2194. {
  2195. struct net_device *dev = (struct net_device *)arg;
  2196. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2197. spin_lock_irq(&vp->lock);
  2198. if ((vp->cur_rx - vp->dirty_rx) == RX_RING_SIZE) /* This test is redundant, but makes me feel good */
  2199. boomerang_rx(dev);
  2200. if (vortex_debug > 1) {
  2201. printk(KERN_DEBUG "%s: rx_oom_timer %sn", dev->name,
  2202. ((vp->cur_rx - vp->dirty_rx) != RX_RING_SIZE) ? "succeeded" : "retrying");
  2203. }
  2204. spin_unlock_irq(&vp->lock);
  2205. }
  2206. static void
  2207. vortex_down(struct net_device *dev)
  2208. {
  2209. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2210. long ioaddr = dev->base_addr;
  2211. netif_stop_queue (dev);
  2212. del_timer_sync(&vp->rx_oom_timer);
  2213. del_timer_sync(&vp->timer);
  2214. /* Turn off statistics ASAP.  We update vp->stats below. */
  2215. outw(StatsDisable, ioaddr + EL3_CMD);
  2216. /* Disable the receiver and transmitter. */
  2217. outw(RxDisable, ioaddr + EL3_CMD);
  2218. outw(TxDisable, ioaddr + EL3_CMD);
  2219. if (dev->if_port == XCVR_10base2)
  2220. /* Turn off thinnet power.  Green! */
  2221. outw(StopCoax, ioaddr + EL3_CMD);
  2222. outw(SetIntrEnb | 0x0000, ioaddr + EL3_CMD);
  2223. update_stats(ioaddr, dev);
  2224. if (vp->full_bus_master_rx)
  2225. outl(0, ioaddr + UpListPtr);
  2226. if (vp->full_bus_master_tx)
  2227. outl(0, ioaddr + DownListPtr);
  2228. if (vp->pdev && vp->enable_wol) {
  2229. pci_save_state(vp->pdev, vp->power_state);
  2230. acpi_set_WOL(dev);
  2231. }
  2232. }
  2233. static int
  2234. vortex_close(struct net_device *dev)
  2235. {
  2236. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2237. long ioaddr = dev->base_addr;
  2238. int i;
  2239. if (netif_device_present(dev))
  2240. vortex_down(dev);
  2241. if (vortex_debug > 1) {
  2242. printk(KERN_DEBUG"%s: vortex_close() status %4.4x, Tx status %2.2x.n",
  2243.    dev->name, inw(ioaddr + EL3_STATUS), inb(ioaddr + TxStatus));
  2244. printk(KERN_DEBUG "%s: vortex close stats: rx_nocopy %d rx_copy %d"
  2245.    " tx_queued %d Rx pre-checksummed %d.n",
  2246.    dev->name, vp->rx_nocopy, vp->rx_copy, vp->queued_packet, vp->rx_csumhits);
  2247. }
  2248. #if DO_ZEROCOPY
  2249. if ( vp->rx_csumhits &&
  2250. ((vp->drv_flags & HAS_HWCKSM) == 0) &&
  2251. (hw_checksums[vp->card_idx] == -1)) {
  2252. printk(KERN_WARNING "%s supports hardware checksums, and we're not using them!n", dev->name);
  2253. printk(KERN_WARNING "Please see http://www.uow.edu.au/~andrewm/zerocopy.htmln");
  2254. }
  2255. #endif
  2256. free_irq(dev->irq, dev);
  2257. if (vp->full_bus_master_rx) { /* Free Boomerang bus master Rx buffers. */
  2258. for (i = 0; i < RX_RING_SIZE; i++)
  2259. if (vp->rx_skbuff[i]) {
  2260. pci_unmap_single( vp->pdev, le32_to_cpu(vp->rx_ring[i].addr),
  2261. PKT_BUF_SZ, PCI_DMA_FROMDEVICE);
  2262. dev_kfree_skb(vp->rx_skbuff[i]);
  2263. vp->rx_skbuff[i] = 0;
  2264. }
  2265. }
  2266. if (vp->full_bus_master_tx) { /* Free Boomerang bus master Tx buffers. */
  2267. for (i = 0; i < TX_RING_SIZE; i++) {
  2268. if (vp->tx_skbuff[i]) {
  2269. struct sk_buff *skb = vp->tx_skbuff[i];
  2270. #if DO_ZEROCOPY
  2271. int k;
  2272. for (k=0; k<=skb_shinfo(skb)->nr_frags; k++)
  2273. pci_unmap_single(vp->pdev,
  2274.  le32_to_cpu(vp->tx_ring[i].frag[k].addr),
  2275.  le32_to_cpu(vp->tx_ring[i].frag[k].length)&0xFFF,
  2276.  PCI_DMA_TODEVICE);
  2277. #else
  2278. pci_unmap_single(vp->pdev, le32_to_cpu(vp->tx_ring[i].addr), skb->len, PCI_DMA_TODEVICE);
  2279. #endif
  2280. dev_kfree_skb(skb);
  2281. vp->tx_skbuff[i] = 0;
  2282. }
  2283. }
  2284. }
  2285. return 0;
  2286. }
  2287. static void
  2288. dump_tx_ring(struct net_device *dev)
  2289. {
  2290. if (vortex_debug > 0) {
  2291. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2292. long ioaddr = dev->base_addr;
  2293. if (vp->full_bus_master_tx) {
  2294. int i;
  2295. int stalled = inl(ioaddr + PktStatus) & 0x04; /* Possible racy. But it's only debug stuff */
  2296. printk(KERN_ERR "  Flags; bus-master %d, dirty %d(%d) current %d(%d)n",
  2297. vp->full_bus_master_tx,
  2298. vp->dirty_tx, vp->dirty_tx % TX_RING_SIZE,
  2299. vp->cur_tx, vp->cur_tx % TX_RING_SIZE);
  2300. printk(KERN_ERR "  Transmit list %8.8x vs. %p.n",
  2301.    inl(ioaddr + DownListPtr),
  2302.    &vp->tx_ring[vp->dirty_tx % TX_RING_SIZE]);
  2303. issue_and_wait(dev, DownStall);
  2304. for (i = 0; i < TX_RING_SIZE; i++) {
  2305. printk(KERN_ERR "  %d: @%p  length %8.8x status %8.8xn", i,
  2306.    &vp->tx_ring[i],
  2307. #if DO_ZEROCOPY
  2308.    le32_to_cpu(vp->tx_ring[i].frag[0].length),
  2309. #else
  2310.    le32_to_cpu(vp->tx_ring[i].length),
  2311. #endif
  2312.    le32_to_cpu(vp->tx_ring[i].status));
  2313. }
  2314. if (!stalled)
  2315. outw(DownUnstall, ioaddr + EL3_CMD);
  2316. }
  2317. }
  2318. }
  2319. static struct net_device_stats *vortex_get_stats(struct net_device *dev)
  2320. {
  2321. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2322. unsigned long flags;
  2323. if (netif_device_present(dev)) { /* AKPM: Used to be netif_running */
  2324. spin_lock_irqsave (&vp->lock, flags);
  2325. update_stats(dev->base_addr, dev);
  2326. spin_unlock_irqrestore (&vp->lock, flags);
  2327. }
  2328. return &vp->stats;
  2329. }
  2330. /*  Update statistics.
  2331. Unlike with the EL3 we need not worry about interrupts changing
  2332. the window setting from underneath us, but we must still guard
  2333. against a race condition with a StatsUpdate interrupt updating the
  2334. table.  This is done by checking that the ASM (!) code generated uses
  2335. atomic updates with '+='.
  2336. */
  2337. static void update_stats(long ioaddr, struct net_device *dev)
  2338. {
  2339. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2340. int old_window = inw(ioaddr + EL3_CMD);
  2341. if (old_window == 0xffff) /* Chip suspended or ejected. */
  2342. return;
  2343. /* Unlike the 3c5x9 we need not turn off stats updates while reading. */
  2344. /* Switch to the stats window, and read everything. */
  2345. EL3WINDOW(6);
  2346. vp->stats.tx_carrier_errors += inb(ioaddr + 0);
  2347. vp->stats.tx_heartbeat_errors += inb(ioaddr + 1);
  2348. /* Multiple collisions. */ inb(ioaddr + 2);
  2349. vp->stats.collisions += inb(ioaddr + 3);
  2350. vp->stats.tx_window_errors += inb(ioaddr + 4);
  2351. vp->stats.rx_fifo_errors += inb(ioaddr + 5);
  2352. vp->stats.tx_packets += inb(ioaddr + 6);
  2353. vp->stats.tx_packets += (inb(ioaddr + 9)&0x30) << 4;
  2354. /* Rx packets */ inb(ioaddr + 7);   /* Must read to clear */
  2355. /* Tx deferrals */ inb(ioaddr + 8);
  2356. /* Don't bother with register 9, an extension of registers 6&7.
  2357.    If we do use the 6&7 values the atomic update assumption above
  2358.    is invalid. */
  2359. vp->stats.rx_bytes += inw(ioaddr + 10);
  2360. vp->stats.tx_bytes += inw(ioaddr + 12);
  2361. /* New: On the Vortex we must also clear the BadSSD counter. */
  2362. EL3WINDOW(4);
  2363. inb(ioaddr + 12);
  2364. {
  2365. u8 up = inb(ioaddr + 13);
  2366. vp->stats.rx_bytes += (up & 0x0f) << 16;
  2367. vp->stats.tx_bytes += (up & 0xf0) << 12;
  2368. }
  2369. EL3WINDOW(old_window >> 13);
  2370. return;
  2371. }
  2372. static int netdev_ethtool_ioctl(struct net_device *dev, void *useraddr)
  2373. {
  2374. struct vortex_private *vp = dev->priv;
  2375. u32 ethcmd;
  2376. if (copy_from_user(&ethcmd, useraddr, sizeof(ethcmd)))
  2377. return -EFAULT;
  2378.         switch (ethcmd) {
  2379.         case ETHTOOL_GDRVINFO: {
  2380. struct ethtool_drvinfo info = {ETHTOOL_GDRVINFO};
  2381. strcpy(info.driver, DRV_NAME);
  2382. strcpy(info.version, DRV_VERSION);
  2383. if (vp->pdev)
  2384. strcpy(info.bus_info, vp->pdev->slot_name);
  2385. else
  2386. sprintf(info.bus_info, "EISA 0x%lx %d",
  2387. dev->base_addr, dev->irq);
  2388. if (copy_to_user(useraddr, &info, sizeof(info)))
  2389. return -EFAULT;
  2390. return 0;
  2391. }
  2392.         }
  2393. return -EOPNOTSUPP;
  2394. }
  2395. static int vortex_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
  2396. {
  2397. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2398. long ioaddr = dev->base_addr;
  2399. struct mii_ioctl_data *data = (struct mii_ioctl_data *)&rq->ifr_data;
  2400. int phy = vp->phys[0] & 0x1f;
  2401. int retval;
  2402. switch(cmd) {
  2403. case SIOCETHTOOL:
  2404. return netdev_ethtool_ioctl(dev, (void *) rq->ifr_data);
  2405. case SIOCGMIIPHY: /* Get address of MII PHY in use. */
  2406. case SIOCDEVPRIVATE: /* for binary compat, remove in 2.5 */
  2407. data->phy_id = phy;
  2408. case SIOCGMIIREG: /* Read MII PHY register. */
  2409. case SIOCDEVPRIVATE+1: /* for binary compat, remove in 2.5 */
  2410. EL3WINDOW(4);
  2411. data->val_out = mdio_read(dev, data->phy_id & 0x1f, data->reg_num & 0x1f);
  2412. retval = 0;
  2413. break;
  2414. case SIOCSMIIREG: /* Write MII PHY register. */
  2415. case SIOCDEVPRIVATE+2: /* for binary compat, remove in 2.5 */
  2416. if (!capable(CAP_NET_ADMIN)) {
  2417. retval = -EPERM;
  2418. } else {
  2419. EL3WINDOW(4);
  2420. mdio_write(dev, data->phy_id & 0x1f, data->reg_num & 0x1f, data->val_in);
  2421. retval = 0;
  2422. }
  2423. break;
  2424. default:
  2425. retval = -EOPNOTSUPP;
  2426. break;
  2427. }
  2428. return retval;
  2429. }
  2430. /* Pre-Cyclone chips have no documented multicast filter, so the only
  2431.    multicast setting is to receive all multicast frames.  At least
  2432.    the chip has a very clean way to set the mode, unlike many others. */
  2433. static void set_rx_mode(struct net_device *dev)
  2434. {
  2435. long ioaddr = dev->base_addr;
  2436. int new_mode;
  2437. if (dev->flags & IFF_PROMISC) {
  2438. if (vortex_debug > 0)
  2439. printk(KERN_NOTICE "%s: Setting promiscuous mode.n", dev->name);
  2440. new_mode = SetRxFilter|RxStation|RxMulticast|RxBroadcast|RxProm;
  2441. } else if ((dev->mc_list)  ||  (dev->flags & IFF_ALLMULTI)) {
  2442. new_mode = SetRxFilter|RxStation|RxMulticast|RxBroadcast;
  2443. } else
  2444. new_mode = SetRxFilter | RxStation | RxBroadcast;
  2445. outw(new_mode, ioaddr + EL3_CMD);
  2446. }
  2447. /* MII transceiver control section.
  2448.    Read and write the MII registers using software-generated serial
  2449.    MDIO protocol.  See the MII specifications or DP83840A data sheet
  2450.    for details. */
  2451. /* The maximum data clock rate is 2.5 Mhz.  The minimum timing is usually
  2452.    met by back-to-back PCI I/O cycles, but we insert a delay to avoid
  2453.    "overclocking" issues. */
  2454. #define mdio_delay() inl(mdio_addr)
  2455. #define MDIO_SHIFT_CLK 0x01
  2456. #define MDIO_DIR_WRITE 0x04
  2457. #define MDIO_DATA_WRITE0 (0x00 | MDIO_DIR_WRITE)
  2458. #define MDIO_DATA_WRITE1 (0x02 | MDIO_DIR_WRITE)
  2459. #define MDIO_DATA_READ 0x02
  2460. #define MDIO_ENB_IN 0x00
  2461. /* Generate the preamble required for initial synchronization and
  2462.    a few older transceivers. */
  2463. static void mdio_sync(long ioaddr, int bits)
  2464. {
  2465. long mdio_addr = ioaddr + Wn4_PhysicalMgmt;
  2466. /* Establish sync by sending at least 32 logic ones. */
  2467. while (-- bits >= 0) {
  2468. outw(MDIO_DATA_WRITE1, mdio_addr);
  2469. mdio_delay();
  2470. outw(MDIO_DATA_WRITE1 | MDIO_SHIFT_CLK, mdio_addr);
  2471. mdio_delay();
  2472. }
  2473. }
  2474. static int mdio_read(struct net_device *dev, int phy_id, int location)
  2475. {
  2476. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2477. int i;
  2478. long ioaddr = dev->base_addr;
  2479. int read_cmd = (0xf6 << 10) | (phy_id << 5) | location;
  2480. unsigned int retval = 0;
  2481. long mdio_addr = ioaddr + Wn4_PhysicalMgmt;
  2482. spin_lock_bh(&vp->mdio_lock);
  2483. if (mii_preamble_required)
  2484. mdio_sync(ioaddr, 32);
  2485. /* Shift the read command bits out. */
  2486. for (i = 14; i >= 0; i--) {
  2487. int dataval = (read_cmd&(1<<i)) ? MDIO_DATA_WRITE1 : MDIO_DATA_WRITE0;
  2488. outw(dataval, mdio_addr);
  2489. mdio_delay();
  2490. outw(dataval | MDIO_SHIFT_CLK, mdio_addr);
  2491. mdio_delay();
  2492. }
  2493. /* Read the two transition, 16 data, and wire-idle bits. */
  2494. for (i = 19; i > 0; i--) {
  2495. outw(MDIO_ENB_IN, mdio_addr);
  2496. mdio_delay();
  2497. retval = (retval << 1) | ((inw(mdio_addr) & MDIO_DATA_READ) ? 1 : 0);
  2498. outw(MDIO_ENB_IN | MDIO_SHIFT_CLK, mdio_addr);
  2499. mdio_delay();
  2500. }
  2501. spin_unlock_bh(&vp->mdio_lock);
  2502. return retval & 0x20000 ? 0xffff : retval>>1 & 0xffff;
  2503. }
  2504. static void mdio_write(struct net_device *dev, int phy_id, int location, int value)
  2505. {
  2506. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2507. long ioaddr = dev->base_addr;
  2508. int write_cmd = 0x50020000 | (phy_id << 23) | (location << 18) | value;
  2509. long mdio_addr = ioaddr + Wn4_PhysicalMgmt;
  2510. int i;
  2511. spin_lock_bh(&vp->mdio_lock);
  2512. if (mii_preamble_required)
  2513. mdio_sync(ioaddr, 32);
  2514. /* Shift the command bits out. */
  2515. for (i = 31; i >= 0; i--) {
  2516. int dataval = (write_cmd&(1<<i)) ? MDIO_DATA_WRITE1 : MDIO_DATA_WRITE0;
  2517. outw(dataval, mdio_addr);
  2518. mdio_delay();
  2519. outw(dataval | MDIO_SHIFT_CLK, mdio_addr);
  2520. mdio_delay();
  2521. }
  2522. /* Leave the interface idle. */
  2523. for (i = 1; i >= 0; i--) {
  2524. outw(MDIO_ENB_IN, mdio_addr);
  2525. mdio_delay();
  2526. outw(MDIO_ENB_IN | MDIO_SHIFT_CLK, mdio_addr);
  2527. mdio_delay();
  2528. }
  2529. spin_unlock_bh(&vp->mdio_lock);
  2530. return;
  2531. }
  2532. /* ACPI: Advanced Configuration and Power Interface. */
  2533. /* Set Wake-On-LAN mode and put the board into D3 (power-down) state. */
  2534. static void acpi_set_WOL(struct net_device *dev)
  2535. {
  2536. struct vortex_private *vp = (struct vortex_private *)dev->priv;
  2537. long ioaddr = dev->base_addr;
  2538. /* Power up on: 1==Downloaded Filter, 2==Magic Packets, 4==Link Status. */
  2539. EL3WINDOW(7);
  2540. outw(2, ioaddr + 0x0c);
  2541. /* The RxFilter must accept the WOL frames. */
  2542. outw(SetRxFilter|RxStation|RxMulticast|RxBroadcast, ioaddr + EL3_CMD);
  2543. outw(RxEnable, ioaddr + EL3_CMD);
  2544. /* Change the power state to D3; RxEnable doesn't take effect. */
  2545. pci_enable_wake(vp->pdev, 0, 1);
  2546. pci_set_power_state(vp->pdev, 3);
  2547. }
  2548. static void __devexit vortex_remove_one (struct pci_dev *pdev)
  2549. {
  2550. struct net_device *dev = pci_get_drvdata(pdev);
  2551. struct vortex_private *vp;
  2552. if (!dev) {
  2553. printk("vortex_remove_one called for EISA device!n");
  2554. BUG();
  2555. }
  2556. vp = dev->priv;
  2557. /* AKPM: FIXME: we should have
  2558.  * if (vp->cb_fn_base) iounmap(vp->cb_fn_base);
  2559.  * here
  2560.  */
  2561. unregister_netdev(dev);
  2562. /* Should really use issue_and_wait() here */
  2563. outw(TotalReset|0x14, dev->base_addr + EL3_CMD);
  2564. if (vp->pdev && vp->enable_wol) {
  2565. pci_set_power_state(vp->pdev, 0); /* Go active */
  2566. if (vp->pm_state_valid)
  2567. pci_restore_state(vp->pdev, vp->power_state);
  2568. }
  2569. pci_free_consistent(pdev,
  2570. sizeof(struct boom_rx_desc) * RX_RING_SIZE
  2571. + sizeof(struct boom_tx_desc) * TX_RING_SIZE,
  2572. vp->rx_ring,
  2573. vp->rx_ring_dma);
  2574. if (vp->must_free_region)
  2575. release_region(dev->base_addr, vp->io_size);
  2576. kfree(dev);
  2577. }
  2578. static struct pci_driver vortex_driver = {
  2579. name: "3c59x",
  2580. probe: vortex_init_one,
  2581. remove: __devexit_p(vortex_remove_one),
  2582. id_table: vortex_pci_tbl,
  2583. #ifdef CONFIG_PM
  2584. suspend: vortex_suspend,
  2585. resume: vortex_resume,
  2586. #endif
  2587. };
  2588. static int vortex_have_pci;
  2589. static int vortex_have_eisa;
  2590. static int __init vortex_init (void)
  2591. {
  2592. int pci_rc, eisa_rc;
  2593. pci_rc = pci_module_init(&vortex_driver);
  2594. eisa_rc = vortex_eisa_init();
  2595. if (pci_rc == 0)
  2596. vortex_have_pci = 1;
  2597. if (eisa_rc > 0)
  2598. vortex_have_eisa = 1;
  2599. return (vortex_have_pci + vortex_have_eisa) ? 0 : -ENODEV;
  2600. }
  2601. static void __exit vortex_eisa_cleanup (void)
  2602. {
  2603. struct net_device *dev, *tmp;
  2604. struct vortex_private *vp;
  2605. long ioaddr;
  2606. dev = root_vortex_eisa_dev;
  2607. while (dev) {
  2608. vp = dev->priv;
  2609. ioaddr = dev->base_addr;
  2610. unregister_netdev (dev);
  2611. outw (TotalReset, ioaddr + EL3_CMD);
  2612. release_region (ioaddr, VORTEX_TOTAL_SIZE);
  2613. tmp = dev;
  2614. dev = vp->next_module;
  2615. kfree (tmp);
  2616. }
  2617. }
  2618. static void __exit vortex_cleanup (void)
  2619. {
  2620. if (vortex_have_pci)
  2621. pci_unregister_driver (&vortex_driver);
  2622. if (vortex_have_eisa)
  2623. vortex_eisa_cleanup ();
  2624. }
  2625. module_init(vortex_init);
  2626. module_exit(vortex_cleanup);
  2627. /*
  2628.  * Local variables:
  2629.  *  c-indent-level: 4
  2630.  *  c-basic-offset: 4
  2631.  *  tab-width: 4
  2632.  * End:
  2633.  */