natsemi.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:71k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* natsemi.c: A Linux PCI Ethernet driver for the NatSemi DP8381x series. */
  2. /*
  3. Written/copyright 1999-2001 by Donald Becker.
  4. Portions copyright (c) 2001 Sun Microsystems (thockin@sun.com)
  5. This software may be used and distributed according to the terms of
  6. the GNU General Public License (GPL), incorporated herein by reference.
  7. Drivers based on or derived from this code fall under the GPL and must
  8. retain the authorship, copyright and license notice.  This file is not
  9. a complete program and may only be used when the entire operating
  10. system is licensed under the GPL.  License for under other terms may be
  11. available.  Contact the original author for details.
  12. The original author may be reached as becker@scyld.com, or at
  13. Scyld Computing Corporation
  14. 410 Severn Ave., Suite 210
  15. Annapolis MD 21403
  16. Support information and updates available at
  17. http://www.scyld.com/network/netsemi.html
  18. Linux kernel modifications:
  19. Version 1.0.1:
  20. - Spinlock fixes
  21. - Bug fixes and better intr performance (Tjeerd)
  22. Version 1.0.2:
  23. - Now reads correct MAC address from eeprom
  24. Version 1.0.3:
  25. - Eliminate redundant priv->tx_full flag
  26. - Call netif_start_queue from dev->tx_timeout
  27. - wmb() in start_tx() to flush data
  28. - Update Tx locking
  29. - Clean up PCI enable (davej)
  30. Version 1.0.4:
  31. - Merge Donald Becker's natsemi.c version 1.07
  32. Version 1.0.5:
  33. - { fill me in }
  34. Version 1.0.6:
  35. * ethtool support (jgarzik)
  36. * Proper initialization of the card (which sometimes
  37. fails to occur and leaves the card in a non-functional
  38. state). (uzi)
  39. * Some documented register settings to optimize some
  40. of the 100Mbit autodetection circuitry in rev C cards. (uzi)
  41. * Polling of the PHY intr for stuff like link state
  42. change and auto- negotiation to finally work properly. (uzi)
  43. * One-liner removal of a duplicate declaration of
  44. netdev_error(). (uzi)
  45. Version 1.0.7: (Manfred Spraul)
  46. * pci dma
  47. * SMP locking update
  48. * full reset added into tx_timeout
  49. * correct multicast hash generation (both big and little endian)
  50. [copied from a natsemi driver version
  51.  from Myrio Corporation, Greg Smith]
  52. * suspend/resume
  53. version 1.0.8 (Tim Hockin <thockin@sun.com>)
  54. * ETHTOOL_* support
  55. * Wake on lan support (Erik Gilling)
  56. * MXDMA fixes for serverworks
  57. * EEPROM reload
  58. version 1.0.9 (Manfred Spraul)
  59. * Main change: fix lack of synchronize
  60. netif_close/netif_suspend against a last interrupt
  61. or packet.
  62. * do not enable superflous interrupts (e.g. the
  63. drivers relies on TxDone - TxIntr not needed)
  64. * wait that the hardware has really stopped in close
  65. and suspend.
  66. * workaround for the (at least) gcc-2.95.1 compiler
  67. problem. Also simplifies the code a bit.
  68. * disable_irq() in tx_timeout - needed to protect
  69. against rx interrupts.
  70. * stop the nic before switching into silent rx mode
  71. for wol (required according to docu).
  72. version 1.0.10:
  73. * use long for ee_addr (various)
  74. * print pointers properly (DaveM)
  75. * include asm/irq.h (?)
  76. version 1.0.11:
  77. * check and reset if PHY errors appear (Adrian Sun)
  78. * WoL cleanup (Tim Hockin)
  79. * Magic number cleanup (Tim Hockin)
  80. * Don't reload EEPROM on every reset (Tim Hockin)
  81. * Save and restore EEPROM state across reset (Tim Hockin)
  82. * MDIO Cleanup (Tim Hockin)
  83. * Reformat register offsets/bits (jgarzik)
  84. version 1.0.12:
  85. * ETHTOOL_* further support (Tim Hockin)
  86. version 1.0.13:
  87. * ETHTOOL_GEEPROM support (Tim Hockin)
  88. version 1.0.14:
  89. * Cleanup some messages and autoneg in ethtool (Tim Hockin)
  90. TODO:
  91. * big endian support with CFG:BEM instead of cpu_to_le32
  92. * support for an external PHY
  93. * flow control
  94. */
  95. #if !defined(__OPTIMIZE__)
  96. #warning  You must compile this file with the correct options!
  97. #warning  See the last lines of the source file.
  98. #error You must compile this driver with "-O".
  99. #endif
  100. #include <linux/config.h>
  101. #include <linux/module.h>
  102. #include <linux/kernel.h>
  103. #include <linux/string.h>
  104. #include <linux/timer.h>
  105. #include <linux/errno.h>
  106. #include <linux/ioport.h>
  107. #include <linux/slab.h>
  108. #include <linux/interrupt.h>
  109. #include <linux/pci.h>
  110. #include <linux/netdevice.h>
  111. #include <linux/etherdevice.h>
  112. #include <linux/skbuff.h>
  113. #include <linux/init.h>
  114. #include <linux/spinlock.h>
  115. #include <linux/ethtool.h>
  116. #include <linux/delay.h>
  117. #include <linux/rtnetlink.h>
  118. #include <linux/mii.h>
  119. #include <asm/processor.h> /* Processor type for cache alignment. */
  120. #include <asm/bitops.h>
  121. #include <asm/io.h>
  122. #include <asm/irq.h>
  123. #include <asm/uaccess.h>
  124. #define DRV_NAME "natsemi"
  125. #define DRV_VERSION "1.07+LK1.0.14"
  126. #define DRV_RELDATE "Nov 27, 2001"
  127. /* Updated to recommendations in pci-skeleton v2.03. */
  128. /* Automatically extracted configuration info:
  129. probe-func: natsemi_probe
  130. config-in: tristate 'National Semiconductor DP8381x series PCI Ethernet support' CONFIG_NATSEMI
  131. c-help-name: National Semiconductor DP8381x series PCI Ethernet support
  132. c-help-symbol: CONFIG_NATSEMI
  133. c-help: This driver is for the National Semiconductor DP8381x series,
  134. c-help: including the 8381[56] chips.
  135. c-help: More specific information and updates are available from 
  136. c-help: http://www.scyld.com/network/natsemi.html
  137. */
  138. /* The user-configurable values.
  139.    These may be modified when a driver module is loaded.*/
  140. #define NATSEMI_DEF_MSG (NETIF_MSG_DRV | 
  141.  NETIF_MSG_LINK | 
  142.  NETIF_MSG_WOL | 
  143.  NETIF_MSG_RX_ERR | 
  144.  NETIF_MSG_TX_ERR)
  145. static int debug = NATSEMI_DEF_MSG;
  146. /* Maximum events (Rx packets, etc.) to handle at each interrupt. */
  147. static int max_interrupt_work = 20;
  148. static int mtu;
  149. /* Maximum number of multicast addresses to filter (vs. rx-all-multicast).
  150.    This chip uses a 512 element hash table based on the Ethernet CRC.  */
  151. static int multicast_filter_limit = 100;
  152. /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
  153.    Setting to > 1518 effectively disables this feature. */
  154. static int rx_copybreak;
  155. /* Used to pass the media type, etc.
  156.    Both 'options[]' and 'full_duplex[]' should exist for driver
  157.    interoperability.
  158.    The media type is usually passed in 'options[]'.
  159. */
  160. #define MAX_UNITS 8 /* More are supported, limit only on options */
  161. static int options[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  162. static int full_duplex[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
  163. /* Operational parameters that are set at compile time. */
  164. /* Keep the ring sizes a power of two for compile efficiency.
  165.    The compiler will convert <unsigned>'%'<2^N> into a bit mask.
  166.    Making the Tx ring too large decreases the effectiveness of channel
  167.    bonding and packet priority.
  168.    There are no ill effects from too-large receive rings. */
  169. #define TX_RING_SIZE 16
  170. #define TX_QUEUE_LEN 10 /* Limit ring entries actually used, min 4. */
  171. #define RX_RING_SIZE 64
  172. /* Operational parameters that usually are not changed. */
  173. /* Time in jiffies before concluding the transmitter is hung. */
  174. #define TX_TIMEOUT  (2*HZ)
  175. #define NATSEMI_HW_TIMEOUT 400
  176. #define NATSEMI_TIMER_FREQ 3*HZ
  177. #define NATSEMI_PG0_NREGS 64
  178. #define NATSEMI_RFDR_NREGS 8
  179. #define NATSEMI_PG1_NREGS 4
  180. #define NATSEMI_NREGS (NATSEMI_PG0_NREGS + NATSEMI_RFDR_NREGS + 
  181.  NATSEMI_PG1_NREGS)
  182. #define NATSEMI_REGS_VER 1 /* v1 added RFDR registers */
  183. #define NATSEMI_REGS_SIZE (NATSEMI_NREGS * sizeof(u32))
  184. #define NATSEMI_EEPROM_SIZE 24 /* 12 16-bit values */
  185. #define PKT_BUF_SZ 1536 /* Size of each temporary Rx buffer. */
  186. /* These identify the driver base version and may not be removed. */
  187. static char version[] __devinitdata =
  188. KERN_INFO DRV_NAME ".c:v1.07 1/9/2001  Written by Donald Becker <becker@scyld.com>n"
  189. KERN_INFO "  http://www.scyld.com/network/natsemi.htmln"
  190. KERN_INFO "  (unofficial 2.4.x kernel port, version " DRV_VERSION ", " DRV_RELDATE "  Jeff Garzik, Tjeerd Mulder)n";
  191. MODULE_AUTHOR("Donald Becker <becker@scyld.com>");
  192. MODULE_DESCRIPTION("National Semiconductor DP8381x series PCI Ethernet driver");
  193. MODULE_LICENSE("GPL");
  194. MODULE_PARM(max_interrupt_work, "i");
  195. MODULE_PARM(mtu, "i");
  196. MODULE_PARM(debug, "i");
  197. MODULE_PARM(rx_copybreak, "i");
  198. MODULE_PARM(options, "1-" __MODULE_STRING(MAX_UNITS) "i");
  199. MODULE_PARM(full_duplex, "1-" __MODULE_STRING(MAX_UNITS) "i");
  200. MODULE_PARM_DESC(max_interrupt_work, "DP8381x maximum events handled per interrupt");
  201. MODULE_PARM_DESC(mtu, "DP8381x MTU (all boards)");
  202. MODULE_PARM_DESC(debug, "DP8381x debug bitmask");
  203. MODULE_PARM_DESC(rx_copybreak, "DP8381x copy breakpoint for copy-only-tiny-frames");
  204. MODULE_PARM_DESC(options, "DP8381x: Bits 0-3: media type, bit 17: full duplex");
  205. MODULE_PARM_DESC(full_duplex, "DP8381x full duplex setting(s) (1)");
  206. /*
  207. Theory of Operation
  208. I. Board Compatibility
  209. This driver is designed for National Semiconductor DP83815 PCI Ethernet NIC.
  210. It also works with other chips in in the DP83810 series.
  211. II. Board-specific settings
  212. This driver requires the PCI interrupt line to be valid.
  213. It honors the EEPROM-set values. 
  214. III. Driver operation
  215. IIIa. Ring buffers
  216. This driver uses two statically allocated fixed-size descriptor lists
  217. formed into rings by a branch from the final descriptor to the beginning of
  218. the list.  The ring sizes are set at compile time by RX/TX_RING_SIZE.
  219. The NatSemi design uses a 'next descriptor' pointer that the driver forms
  220. into a list. 
  221. IIIb/c. Transmit/Receive Structure
  222. This driver uses a zero-copy receive and transmit scheme.
  223. The driver allocates full frame size skbuffs for the Rx ring buffers at
  224. open() time and passes the skb->data field to the chip as receive data
  225. buffers.  When an incoming frame is less than RX_COPYBREAK bytes long,
  226. a fresh skbuff is allocated and the frame is copied to the new skbuff.
  227. When the incoming frame is larger, the skbuff is passed directly up the
  228. protocol stack.  Buffers consumed this way are replaced by newly allocated
  229. skbuffs in a later phase of receives.
  230. The RX_COPYBREAK value is chosen to trade-off the memory wasted by
  231. using a full-sized skbuff for small frames vs. the copying costs of larger
  232. frames.  New boards are typically used in generously configured machines
  233. and the underfilled buffers have negligible impact compared to the benefit of
  234. a single allocation size, so the default value of zero results in never
  235. copying packets.  When copying is done, the cost is usually mitigated by using
  236. a combined copy/checksum routine.  Copying also preloads the cache, which is
  237. most useful with small frames.
  238. A subtle aspect of the operation is that unaligned buffers are not permitted
  239. by the hardware.  Thus the IP header at offset 14 in an ethernet frame isn't
  240. longword aligned for further processing.  On copies frames are put into the
  241. skbuff at an offset of "+2", 16-byte aligning the IP header.
  242. IIId. Synchronization
  243. The driver runs as two independent, single-threaded flows of control.  One
  244. is the send-packet routine, which enforces single-threaded use by the
  245. dev->tbusy flag.  The other thread is the interrupt handler, which is single
  246. threaded by the hardware and interrupt handling software.
  247. The send packet thread has partial control over the Tx ring and 'dev->tbusy'
  248. flag.  It sets the tbusy flag whenever it's queuing a Tx packet. If the next
  249. queue slot is empty, it clears the tbusy flag when finished otherwise it sets
  250. the 'lp->tx_full' flag.
  251. The interrupt handler has exclusive control over the Rx ring and records stats
  252. from the Tx ring.  After reaping the stats, it marks the Tx queue entry as
  253. empty by incrementing the dirty_tx mark. Iff the 'lp->tx_full' flag is set, it
  254. clears both the tx_full and tbusy flags.
  255. IV. Notes
  256. NatSemi PCI network controllers are very uncommon.
  257. IVb. References
  258. http://www.scyld.com/expert/100mbps.html
  259. http://www.scyld.com/expert/NWay.html
  260. Datasheet is available from:
  261. http://www.national.com/pf/DP/DP83815.html
  262. IVc. Errata
  263. None characterised.
  264. */
  265. enum pcistuff {
  266. PCI_USES_IO = 0x01,
  267. PCI_USES_MEM = 0x02,
  268. PCI_USES_MASTER = 0x04,
  269. PCI_ADDR0 = 0x08,
  270. PCI_ADDR1 = 0x10,
  271. };
  272. /* MMIO operations required */
  273. #define PCI_IOTYPE (PCI_USES_MASTER | PCI_USES_MEM | PCI_ADDR1)
  274. /* array of board data directly indexed by pci_tbl[x].driver_data */
  275. static struct {
  276. const char *name;
  277. unsigned long flags;
  278. } natsemi_pci_info[] __devinitdata = {
  279. { "NatSemi DP8381[56]", PCI_IOTYPE },
  280. };
  281. static struct pci_device_id natsemi_pci_tbl[] __devinitdata = {
  282. { PCI_VENDOR_ID_NS, PCI_DEVICE_ID_NS_83815, PCI_ANY_ID, PCI_ANY_ID, },
  283. { 0, },
  284. };
  285. MODULE_DEVICE_TABLE(pci, natsemi_pci_tbl);
  286. /* Offsets to the device registers.
  287.    Unlike software-only systems, device drivers interact with complex hardware.
  288.    It's not useful to define symbolic names for every register bit in the
  289.    device.
  290. */
  291. enum register_offsets {
  292. ChipCmd = 0x00,
  293. ChipConfig = 0x04,
  294. EECtrl = 0x08,
  295. PCIBusCfg = 0x0C,
  296. IntrStatus = 0x10,
  297. IntrMask = 0x14,
  298. IntrEnable = 0x18,
  299. TxRingPtr = 0x20,
  300. TxConfig = 0x24,
  301. RxRingPtr = 0x30,
  302. RxConfig = 0x34,
  303. ClkRun = 0x3C,
  304. WOLCmd = 0x40,
  305. PauseCmd = 0x44,
  306. RxFilterAddr = 0x48,
  307. RxFilterData = 0x4C,
  308. BootRomAddr = 0x50,
  309. BootRomData = 0x54,
  310. SiliconRev = 0x58,
  311. StatsCtrl = 0x5C,
  312. StatsData = 0x60,
  313. RxPktErrs = 0x60,
  314. RxMissed = 0x68,
  315. RxCRCErrs = 0x64,
  316. BasicControl = 0x80,
  317. BasicStatus = 0x84,
  318. AnegAdv = 0x90,
  319. AnegPeer = 0x94,
  320. PhyStatus = 0xC0,
  321. MIntrCtrl = 0xC4,
  322. MIntrStatus = 0xC8,
  323. PhyCtrl = 0xE4,
  324. /* These are from the spec, around page 78... on a separate table.
  325.  * The meaning of these registers depend on the value of PGSEL. */
  326. PGSEL = 0xCC,
  327. PMDCSR = 0xE4,
  328. TSTDAT = 0xFC,
  329. DSPCFG = 0xF4,
  330. SDCFG = 0xF8
  331. };
  332. /* the values for the 'magic' registers above (PGSEL=1) */
  333. #ifdef CONFIG_NATSEMI_CABLE_MAGIC
  334. #define PMDCSR_VAL 0x1898
  335. #else
  336. #define PMDCSR_VAL 0x189C
  337. #endif
  338. #define TSTDAT_VAL 0x0
  339. #define DSPCFG_VAL 0x5040
  340. #define SDCFG_VAL 0x008c
  341. /* misc PCI space registers */
  342. enum pci_register_offsets {
  343. PCIPM = 0x44,
  344. };
  345. enum ChipCmd_bits {
  346. ChipReset = 0x100,
  347. RxReset = 0x20,
  348. TxReset = 0x10,
  349. RxOff = 0x08,
  350. RxOn = 0x04,
  351. TxOff = 0x02,
  352. TxOn = 0x01,
  353. };
  354. enum ChipConfig_bits {
  355. CfgPhyDis = 0x200,
  356. CfgPhyRst = 0x400,
  357. CfgExtPhy = 0x1000,
  358. CfgAnegEnable = 0x2000,
  359. CfgAneg100 = 0x4000,
  360. CfgAnegFull = 0x8000,
  361. CfgAnegDone = 0x8000000,
  362. CfgFullDuplex = 0x20000000,
  363. CfgSpeed100 = 0x40000000,
  364. CfgLink = 0x80000000,
  365. };
  366. enum EECtrl_bits {
  367. EE_ShiftClk = 0x04,
  368. EE_DataIn = 0x01,
  369. EE_ChipSelect = 0x08,
  370. EE_DataOut = 0x02,
  371. };
  372. enum PCIBusCfg_bits {
  373. EepromReload = 0x4,
  374. };
  375. /* Bits in the interrupt status/mask registers. */
  376. enum IntrStatus_bits {
  377. IntrRxDone = 0x0001,
  378. IntrRxIntr = 0x0002,
  379. IntrRxErr = 0x0004,
  380. IntrRxEarly = 0x0008,
  381. IntrRxIdle = 0x0010,
  382. IntrRxOverrun = 0x0020,
  383. IntrTxDone = 0x0040,
  384. IntrTxIntr = 0x0080,
  385. IntrTxErr = 0x0100,
  386. IntrTxIdle = 0x0200,
  387. IntrTxUnderrun = 0x0400,
  388. StatsMax = 0x0800,
  389. SWInt = 0x1000,
  390. WOLPkt = 0x2000,
  391. LinkChange = 0x4000,
  392. IntrHighBits = 0x8000,
  393. RxStatusFIFOOver = 0x10000,
  394. IntrPCIErr = 0xf00000,
  395. RxResetDone = 0x1000000,
  396. TxResetDone = 0x2000000,
  397. IntrAbnormalSummary = 0xCD20,
  398. };
  399. /*
  400.  * Default Interrupts:
  401.  * Rx OK, Rx Packet Error, Rx Overrun, 
  402.  * Tx OK, Tx Packet Error, Tx Underrun, 
  403.  * MIB Service, Phy Interrupt, High Bits,
  404.  * Rx Status FIFO overrun,
  405.  * Received Target Abort, Received Master Abort, 
  406.  * Signalled System Error, Received Parity Error
  407.  */
  408. #define DEFAULT_INTR 0x00f1cd65
  409. enum TxConfig_bits {
  410. TxDrthMask = 0x3f,
  411. TxFlthMask = 0x3f00,
  412. TxMxdmaMask = 0x700000,
  413. TxMxdma_512 = 0x0,
  414. TxMxdma_4 = 0x100000,
  415. TxMxdma_8 = 0x200000,
  416. TxMxdma_16 = 0x300000,
  417. TxMxdma_32 = 0x400000,
  418. TxMxdma_64 = 0x500000,
  419. TxMxdma_128 = 0x600000,
  420. TxMxdma_256 = 0x700000,
  421. TxCollRetry = 0x800000,
  422. TxAutoPad = 0x10000000,
  423. TxMacLoop = 0x20000000,
  424. TxHeartIgn = 0x40000000,
  425. TxCarrierIgn = 0x80000000
  426. };
  427. enum RxConfig_bits {
  428. RxDrthMask = 0x3e,
  429. RxMxdmaMask = 0x700000,
  430. RxMxdma_512 = 0x0,
  431. RxMxdma_4 = 0x100000,
  432. RxMxdma_8 = 0x200000,
  433. RxMxdma_16 = 0x300000,
  434. RxMxdma_32 = 0x400000,
  435. RxMxdma_64 = 0x500000,
  436. RxMxdma_128 = 0x600000,
  437. RxMxdma_256 = 0x700000,
  438. RxAcceptLong = 0x8000000,
  439. RxAcceptTx = 0x10000000,
  440. RxAcceptRunt = 0x40000000,
  441. RxAcceptErr = 0x80000000
  442. };
  443. enum ClkRun_bits {
  444. PMEEnable = 0x100,
  445. PMEStatus = 0x8000,
  446. };
  447. enum WolCmd_bits {
  448. WakePhy = 0x1,
  449. WakeUnicast = 0x2,
  450. WakeMulticast = 0x4,
  451. WakeBroadcast = 0x8,
  452. WakeArp = 0x10,
  453. WakePMatch0 = 0x20,
  454. WakePMatch1 = 0x40,
  455. WakePMatch2 = 0x80,
  456. WakePMatch3 = 0x100,
  457. WakeMagic = 0x200,
  458. WakeMagicSecure = 0x400,
  459. SecureHack = 0x100000,
  460. WokePhy = 0x400000,
  461. WokeUnicast = 0x800000,
  462. WokeMulticast = 0x1000000,
  463. WokeBroadcast = 0x2000000,
  464. WokeArp = 0x4000000,
  465. WokePMatch0 = 0x8000000,
  466. WokePMatch1 = 0x10000000,
  467. WokePMatch2 = 0x20000000,
  468. WokePMatch3 = 0x40000000,
  469. WokeMagic = 0x80000000,
  470. WakeOptsSummary = 0x7ff
  471. };
  472. enum RxFilterAddr_bits {
  473. RFCRAddressMask = 0x3ff,
  474. AcceptMulticast = 0x00200000,
  475. AcceptMyPhys = 0x08000000,
  476. AcceptAllPhys = 0x10000000,
  477. AcceptAllMulticast = 0x20000000,
  478. AcceptBroadcast = 0x40000000,
  479. RxFilterEnable = 0x80000000
  480. };
  481. enum StatsCtrl_bits {
  482. StatsWarn = 0x1,
  483. StatsFreeze = 0x2,
  484. StatsClear = 0x4,
  485. StatsStrobe = 0x8,
  486. };
  487. enum MIntrCtrl_bits {
  488. MICRIntEn = 0x2,
  489. };
  490. enum PhyCtrl_bits {
  491. PhyAddrMask = 0xf,
  492. };
  493. #define SRR_REV_C 0x0302
  494. #define SRR_REV_D 0x0403
  495. /* The Rx and Tx buffer descriptors. */
  496. /* Note that using only 32 bit fields simplifies conversion to big-endian
  497.    architectures. */
  498. struct netdev_desc {
  499. u32 next_desc;
  500. s32 cmd_status;
  501. u32 addr;
  502. u32 software_use;
  503. };
  504. /* Bits in network_desc.status */
  505. enum desc_status_bits {
  506. DescOwn=0x80000000, DescMore=0x40000000, DescIntr=0x20000000,
  507. DescNoCRC=0x10000000, DescPktOK=0x08000000, 
  508. DescSizeMask=0xfff,
  509. DescTxAbort=0x04000000, DescTxFIFO=0x02000000, 
  510. DescTxCarrier=0x01000000, DescTxDefer=0x00800000,
  511. DescTxExcDefer=0x00400000, DescTxOOWCol=0x00200000,
  512. DescTxExcColl=0x00100000, DescTxCollCount=0x000f0000,
  513. DescRxAbort=0x04000000, DescRxOver=0x02000000,
  514. DescRxDest=0x01800000, DescRxLong=0x00400000,
  515. DescRxRunt=0x00200000, DescRxInvalid=0x00100000,
  516. DescRxCRC=0x00080000, DescRxAlign=0x00040000,
  517. DescRxLoop=0x00020000, DesRxColl=0x00010000,
  518. };
  519. struct netdev_private {
  520. /* Descriptor rings first for alignment. */
  521. dma_addr_t ring_dma;
  522. struct netdev_desc* rx_ring;
  523. struct netdev_desc* tx_ring;
  524. /* The addresses of receive-in-place skbuffs. */
  525. struct sk_buff* rx_skbuff[RX_RING_SIZE];
  526. dma_addr_t rx_dma[RX_RING_SIZE];
  527. /* The saved address of a sent-in-place packet/buffer, for later free(). */
  528. struct sk_buff* tx_skbuff[TX_RING_SIZE];
  529. dma_addr_t tx_dma[TX_RING_SIZE];
  530. struct net_device_stats stats;
  531. struct timer_list timer; /* Media monitoring timer. */
  532. /* Frequently used values: keep some adjacent for cache effect. */
  533. struct pci_dev *pci_dev;
  534. struct netdev_desc *rx_head_desc;
  535. unsigned int cur_rx, dirty_rx; /* Producer/consumer ring indices */
  536. unsigned int cur_tx, dirty_tx;
  537. unsigned int rx_buf_sz; /* Based on MTU+slack. */
  538. /* These values are keep track of the transceiver/media in use. */
  539. unsigned int full_duplex;
  540. /* Rx filter. */
  541. u32 cur_rx_mode;
  542. u32 rx_filter[16];
  543. /* FIFO and PCI burst thresholds. */
  544. u32 tx_config, rx_config;
  545. /* original contents of ClkRun register */
  546. u32 SavedClkRun;
  547. /* silicon revision */
  548. u32 srr;
  549. /* MII transceiver section. */
  550. u16 advertising; /* NWay media advertisement */
  551. unsigned int iosize;
  552. spinlock_t lock;
  553. u32 msg_enable;
  554. };
  555. static int eeprom_read(long ioaddr, int location);
  556. static int mdio_read(struct net_device *dev, int phy_id, int reg);
  557. static void mdio_write(struct net_device *dev, int phy_id, int reg, u16 data);
  558. static void natsemi_reset(struct net_device *dev);
  559. static void natsemi_reload_eeprom(struct net_device *dev);
  560. static void natsemi_stop_rxtx(struct net_device *dev);
  561. static int netdev_open(struct net_device *dev);
  562. static void check_link(struct net_device *dev);
  563. static void netdev_timer(unsigned long data);
  564. static void tx_timeout(struct net_device *dev);
  565. static int alloc_ring(struct net_device *dev);
  566. static void init_ring(struct net_device *dev);
  567. static void drain_ring(struct net_device *dev);
  568. static void free_ring(struct net_device *dev);
  569. static void init_registers(struct net_device *dev);
  570. static int start_tx(struct sk_buff *skb, struct net_device *dev);
  571. static void intr_handler(int irq, void *dev_instance, struct pt_regs *regs);
  572. static void netdev_error(struct net_device *dev, int intr_status);
  573. static void netdev_rx(struct net_device *dev);
  574. static void netdev_tx_done(struct net_device *dev);
  575. static void __set_rx_mode(struct net_device *dev);
  576. static void set_rx_mode(struct net_device *dev);
  577. static void __get_stats(struct net_device *dev);
  578. static struct net_device_stats *get_stats(struct net_device *dev);
  579. static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
  580. static int netdev_set_wol(struct net_device *dev, u32 newval);
  581. static int netdev_get_wol(struct net_device *dev, u32 *supported, u32 *cur);
  582. static int netdev_set_sopass(struct net_device *dev, u8 *newval);
  583. static int netdev_get_sopass(struct net_device *dev, u8 *data);
  584. static int netdev_get_ecmd(struct net_device *dev, struct ethtool_cmd *ecmd);
  585. static int netdev_set_ecmd(struct net_device *dev, struct ethtool_cmd *ecmd);
  586. static void enable_wol_mode(struct net_device *dev, int enable_intr);
  587. static int netdev_close(struct net_device *dev);
  588. static int netdev_get_regs(struct net_device *dev, u8 *buf);
  589. static int netdev_get_eeprom(struct net_device *dev, u8 *buf);
  590. static int __devinit natsemi_probe1 (struct pci_dev *pdev,
  591.      const struct pci_device_id *ent)
  592. {
  593. struct net_device *dev;
  594. struct netdev_private *np;
  595. int i, option, irq, chip_idx = ent->driver_data;
  596. static int find_cnt = -1;
  597. unsigned long ioaddr, iosize;
  598. const int pcibar = 1; /* PCI base address register */
  599. int prev_eedata;
  600. u32 tmp;
  601. /* when built into the kernel, we only print version if device is found */
  602. #ifndef MODULE
  603. static int printed_version;
  604. if (!printed_version++)
  605. printk(version);
  606. #endif
  607. i = pci_enable_device(pdev);
  608. if (i) return i;
  609. /* natsemi has a non-standard PM control register
  610.  * in PCI config space.  Some boards apparently need
  611.  * to be brought to D0 in this manner.
  612.  */
  613. pci_read_config_dword(pdev, PCIPM, &tmp);
  614. if (tmp & PCI_PM_CTRL_STATE_MASK) {
  615. /* D0 state, disable PME assertion */
  616. u32 newtmp = tmp & ~PCI_PM_CTRL_STATE_MASK;
  617. pci_write_config_dword(pdev, PCIPM, newtmp);
  618. }
  619. find_cnt++;
  620. ioaddr = pci_resource_start(pdev, pcibar);
  621. iosize = pci_resource_len(pdev, pcibar);
  622. irq = pdev->irq;
  623. if (natsemi_pci_info[chip_idx].flags & PCI_USES_MASTER)
  624. pci_set_master(pdev);
  625. dev = alloc_etherdev(sizeof (struct netdev_private));
  626. if (!dev)
  627. return -ENOMEM;
  628. SET_MODULE_OWNER(dev);
  629. i = pci_request_regions(pdev, dev->name);
  630. if (i) {
  631. kfree(dev);
  632. return i;
  633. }
  634. {
  635. void *mmio = ioremap (ioaddr, iosize);
  636. if (!mmio) {
  637. pci_release_regions(pdev);
  638. kfree(dev);
  639. return -ENOMEM;
  640. }
  641. ioaddr = (unsigned long) mmio;
  642. }
  643. /* Work around the dropped serial bit. */
  644. prev_eedata = eeprom_read(ioaddr, 6);
  645. for (i = 0; i < 3; i++) {
  646. int eedata = eeprom_read(ioaddr, i + 7);
  647. dev->dev_addr[i*2] = (eedata << 1) + (prev_eedata >> 15);
  648. dev->dev_addr[i*2+1] = eedata >> 7;
  649. prev_eedata = eedata;
  650. }
  651. dev->base_addr = ioaddr;
  652. dev->irq = irq;
  653. np = dev->priv;
  654. np->pci_dev = pdev;
  655. pci_set_drvdata(pdev, dev);
  656. np->iosize = iosize;
  657. spin_lock_init(&np->lock);
  658. np->msg_enable = debug;
  659. /* Reset the chip to erase previous misconfiguration. */
  660. natsemi_reload_eeprom(dev);
  661. natsemi_reset(dev);
  662. option = find_cnt < MAX_UNITS ? options[find_cnt] : 0;
  663. if (dev->mem_start)
  664. option = dev->mem_start;
  665. /* The lower four bits are the media type. */
  666. if (option > 0) {
  667. if (option & 0x200)
  668. np->full_duplex = 1;
  669. if (option & 15)
  670. printk(KERN_INFO 
  671. "%s: ignoring user supplied media type %d",
  672. dev->name, option & 15);
  673. }
  674. if (find_cnt < MAX_UNITS  &&  full_duplex[find_cnt] > 0)
  675. np->full_duplex = 1;
  676. /* The chip-specific entries in the device structure. */
  677. dev->open = &netdev_open;
  678. dev->hard_start_xmit = &start_tx;
  679. dev->stop = &netdev_close;
  680. dev->get_stats = &get_stats;
  681. dev->set_multicast_list = &set_rx_mode;
  682. dev->do_ioctl = &netdev_ioctl;
  683. dev->tx_timeout = &tx_timeout;
  684. dev->watchdog_timeo = TX_TIMEOUT;
  685. if (mtu)
  686. dev->mtu = mtu;
  687. i = register_netdev(dev);
  688. if (i) {
  689. pci_release_regions(pdev);
  690. unregister_netdev(dev);
  691. kfree(dev);
  692. pci_set_drvdata(pdev, NULL);
  693. return i;
  694. }
  695. netif_carrier_off(dev);
  696. if (netif_msg_drv(np)) {
  697. printk(KERN_INFO "%s: %s at %#08lx, ",
  698.    dev->name, natsemi_pci_info[chip_idx].name, ioaddr);
  699. for (i = 0; i < ETH_ALEN-1; i++)
  700. printk("%02x:", dev->dev_addr[i]);
  701. printk("%02x, IRQ %d.n", dev->dev_addr[i], irq);
  702. }
  703. np->advertising = mdio_read(dev, 1, MII_ADVERTISE);
  704. if ((readl(ioaddr + ChipConfig) & 0xe000) != 0xe000 
  705.  && netif_msg_probe(np)) {
  706. u32 chip_config = readl(ioaddr + ChipConfig);
  707. printk(KERN_INFO "%s: Transceiver default autonegotiation %s "
  708.    "10%s %s duplex.n",
  709.    dev->name,
  710.    chip_config & CfgAnegEnable ? "enabled, advertise" : "disabled, force",
  711.    chip_config & CfgAneg100 ? "0" : "",
  712.    chip_config & CfgAnegFull ? "full" : "half");
  713. }
  714. if (netif_msg_probe(np))
  715. printk(KERN_INFO 
  716. "%s: Transceiver status %#04x advertising %#04x.n",
  717. dev->name, mdio_read(dev, 1, MII_BMSR), 
  718. np->advertising);
  719. /* save the silicon revision for later querying */
  720. np->srr = readl(ioaddr + SiliconRev);
  721. if (netif_msg_hw(np))
  722. printk(KERN_INFO "%s: silicon revision %#04x.n",
  723. dev->name, np->srr);
  724. return 0;
  725. }
  726. /* Read the EEPROM and MII Management Data I/O (MDIO) interfaces.
  727.    The EEPROM code is for the common 93c06/46 EEPROMs with 6 bit addresses. */
  728. /* Delay between EEPROM clock transitions.
  729.    No extra delay is needed with 33Mhz PCI, but future 66Mhz access may need
  730.    a delay.  Note that pre-2.0.34 kernels had a cache-alignment bug that
  731.    made udelay() unreliable.
  732.    The old method of using an ISA access as a delay, __SLOW_DOWN_IO__, is
  733.    depricated.
  734. */
  735. #define eeprom_delay(ee_addr) readl(ee_addr)
  736. #define EE_Write0 (EE_ChipSelect)
  737. #define EE_Write1 (EE_ChipSelect | EE_DataIn)
  738. /* The EEPROM commands include the alway-set leading bit. */
  739. enum EEPROM_Cmds {
  740. EE_WriteCmd=(5 << 6), EE_ReadCmd=(6 << 6), EE_EraseCmd=(7 << 6),
  741. };
  742. static int eeprom_read(long addr, int location)
  743. {
  744. int i;
  745. int retval = 0;
  746. long ee_addr = addr + EECtrl;
  747. int read_cmd = location | EE_ReadCmd;
  748. writel(EE_Write0, ee_addr);
  749. /* Shift the read command bits out. */
  750. for (i = 10; i >= 0; i--) {
  751. short dataval = (read_cmd & (1 << i)) ? EE_Write1 : EE_Write0;
  752. writel(dataval, ee_addr);
  753. eeprom_delay(ee_addr);
  754. writel(dataval | EE_ShiftClk, ee_addr);
  755. eeprom_delay(ee_addr);
  756. }
  757. writel(EE_ChipSelect, ee_addr);
  758. eeprom_delay(ee_addr);
  759. for (i = 0; i < 16; i++) {
  760. writel(EE_ChipSelect | EE_ShiftClk, ee_addr);
  761. eeprom_delay(ee_addr);
  762. retval |= (readl(ee_addr) & EE_DataOut) ? 1 << i : 0;
  763. writel(EE_ChipSelect, ee_addr);
  764. eeprom_delay(ee_addr);
  765. }
  766. /* Terminate the EEPROM access. */
  767. writel(EE_Write0, ee_addr);
  768. writel(0, ee_addr);
  769. return retval;
  770. }
  771. /*  MII transceiver control section.
  772. The 83815 series has an internal transceiver, and we present the
  773. management registers as if they were MII connected. */
  774. static int mdio_read(struct net_device *dev, int phy_id, int reg)
  775. {
  776. if (phy_id == 1 && reg < 32)
  777. return readl(dev->base_addr+BasicControl+(reg<<2))&0xffff;
  778. else
  779. return 0xffff;
  780. }
  781. static void mdio_write(struct net_device *dev, int phy_id, int reg, u16 data)
  782. {
  783. struct netdev_private *np = dev->priv;
  784. if (phy_id == 1 && reg < 32) {
  785. writew(data, dev->base_addr+BasicControl+(reg<<2));
  786. switch (reg) {
  787. case MII_ADVERTISE: np->advertising = data; break;
  788. }
  789. }
  790. }
  791. /* CFG bits [13:16] [18:23] */
  792. #define CFG_RESET_SAVE 0xfde000
  793. /* WCSR bits [0:4] [9:10] */
  794. #define WCSR_RESET_SAVE 0x61f
  795. /* RFCR bits [20] [22] [27:31] */
  796. #define RFCR_RESET_SAVE 0xf8500000;
  797. static void natsemi_reset(struct net_device *dev)
  798. {
  799. int i;
  800. u32 cfg;
  801. u32 wcsr;
  802. u32 rfcr;
  803. u16 pmatch[3];
  804. u16 sopass[3];
  805. struct netdev_private *np = dev->priv;
  806. /* 
  807.  * Resetting the chip causes some registers to be lost.
  808.  * Natsemi suggests NOT reloading the EEPROM while live, so instead
  809.  * we save the state that would have been loaded from EEPROM
  810.  * on a normal power-up (see the spec EEPROM map).  This assumes 
  811.  * whoever calls this will follow up with init_registers() eventually.
  812.  */
  813. /* CFG */
  814. cfg = readl(dev->base_addr + ChipConfig) & CFG_RESET_SAVE;
  815. /* WCSR */
  816. wcsr = readl(dev->base_addr + WOLCmd) & WCSR_RESET_SAVE;
  817. /* RFCR */
  818. rfcr = readl(dev->base_addr + RxFilterAddr) & RFCR_RESET_SAVE;
  819. /* PMATCH */
  820. for (i = 0; i < 3; i++) {
  821. writel(i*2, dev->base_addr + RxFilterAddr);
  822. pmatch[i] = readw(dev->base_addr + RxFilterData);
  823. }
  824. /* SOPAS */
  825. for (i = 0; i < 3; i++) {
  826. writel(0xa+(i*2), dev->base_addr + RxFilterAddr);
  827. sopass[i] = readw(dev->base_addr + RxFilterData);
  828. }
  829. /* now whack the chip */
  830. writel(ChipReset, dev->base_addr + ChipCmd);
  831. for (i=0;i<NATSEMI_HW_TIMEOUT;i++) {
  832. if (!(readl(dev->base_addr + ChipCmd) & ChipReset))
  833. break;
  834. udelay(5);
  835. }
  836. if (i==NATSEMI_HW_TIMEOUT && netif_msg_hw(np)) {
  837. printk(KERN_INFO "%s: reset did not complete in %d usec.n",
  838.    dev->name, i*5);
  839. } else if (netif_msg_hw(np)) {
  840. printk(KERN_DEBUG "%s: reset completed in %d usec.n",
  841.    dev->name, i*5);
  842. }
  843. /* restore CFG */
  844. cfg |= readl(dev->base_addr + ChipConfig) & ~CFG_RESET_SAVE;
  845. writel(cfg, dev->base_addr + ChipConfig);
  846. /* restore WCSR */
  847. wcsr |= readl(dev->base_addr + WOLCmd) & ~WCSR_RESET_SAVE;
  848. writel(wcsr, dev->base_addr + WOLCmd);
  849. /* read RFCR */
  850. rfcr |= readl(dev->base_addr + RxFilterAddr) & ~RFCR_RESET_SAVE;
  851. /* restore PMATCH */ 
  852. for (i = 0; i < 3; i++) {
  853. writel(i*2, dev->base_addr + RxFilterAddr);
  854. writew(pmatch[i], dev->base_addr + RxFilterData);
  855. }
  856. for (i = 0; i < 3; i++) {
  857. writel(0xa+(i*2), dev->base_addr + RxFilterAddr);
  858. writew(sopass[i], dev->base_addr + RxFilterData);
  859. }
  860. /* restore RFCR */
  861. writel(rfcr, dev->base_addr + RxFilterAddr);
  862. }
  863. static void natsemi_reload_eeprom(struct net_device *dev)
  864. {
  865. struct netdev_private *np = dev->priv;
  866. int i;
  867. writel(EepromReload, dev->base_addr + PCIBusCfg);
  868. for (i=0;i<NATSEMI_HW_TIMEOUT;i++) {
  869. if (!(readl(dev->base_addr + PCIBusCfg) & EepromReload))
  870. break;
  871. udelay(5);
  872. }
  873. if (i==NATSEMI_HW_TIMEOUT && netif_msg_hw(np)) {
  874. printk(KERN_INFO "%s: EEPROM did not reload in %d usec.n",
  875.    dev->name, i*5);
  876. } else if (netif_msg_hw(np)) {
  877. printk(KERN_DEBUG "%s: EEPROM reloaded in %d usec.n",
  878.    dev->name, i*5);
  879. }
  880. }
  881. static void natsemi_stop_rxtx(struct net_device *dev)
  882. {
  883. long ioaddr = dev->base_addr;
  884. struct netdev_private *np = dev->priv;
  885. int i;
  886. writel(RxOff | TxOff, ioaddr + ChipCmd);
  887. for(i=0;i< NATSEMI_HW_TIMEOUT;i++) {
  888. if ((readl(ioaddr + ChipCmd) & (TxOn|RxOn)) == 0)
  889. break;
  890. udelay(5);
  891. }
  892. if (i==NATSEMI_HW_TIMEOUT && netif_msg_hw(np)) {
  893. printk(KERN_INFO "%s: Tx/Rx process did not stop in %d usec.n",
  894. dev->name, i*5);
  895. } else if (netif_msg_hw(np)) {
  896. printk(KERN_DEBUG "%s: Tx/Rx process stopped in %d usec.n",
  897. dev->name, i*5);
  898. }
  899. }
  900. static int netdev_open(struct net_device *dev)
  901. {
  902. struct netdev_private *np = dev->priv;
  903. long ioaddr = dev->base_addr;
  904. int i;
  905. /* Reset the chip, just in case. */
  906. natsemi_reset(dev);
  907. i = request_irq(dev->irq, &intr_handler, SA_SHIRQ, dev->name, dev);
  908. if (i) return i;
  909. if (netif_msg_ifup(np))
  910. printk(KERN_DEBUG "%s: netdev_open() irq %d.n",
  911.    dev->name, dev->irq);
  912. i = alloc_ring(dev);
  913. if (i < 0) {
  914. free_irq(dev->irq, dev);
  915. return i;
  916. }
  917. init_ring(dev);
  918. spin_lock_irq(&np->lock);
  919. init_registers(dev);
  920. spin_unlock_irq(&np->lock);
  921. netif_start_queue(dev);
  922. if (netif_msg_ifup(np))
  923. printk(KERN_DEBUG "%s: Done netdev_open(), status: %#08x.n",
  924.    dev->name, (int)readl(ioaddr + ChipCmd));
  925. /* Set the timer to check for link beat. */
  926. init_timer(&np->timer);
  927. np->timer.expires = jiffies + NATSEMI_TIMER_FREQ;
  928. np->timer.data = (unsigned long)dev;
  929. np->timer.function = &netdev_timer; /* timer handler */
  930. add_timer(&np->timer);
  931. return 0;
  932. }
  933. static void check_link(struct net_device *dev)
  934. {
  935. struct netdev_private *np = dev->priv;
  936. long ioaddr = dev->base_addr;
  937. int duplex;
  938. int chipcfg = readl(ioaddr + ChipConfig);
  939. if (!(chipcfg & CfgLink)) {
  940. if (netif_carrier_ok(dev)) {
  941. if (netif_msg_link(np))
  942. printk(KERN_NOTICE "%s: link down.n", 
  943. dev->name);
  944. netif_carrier_off(dev);
  945. }
  946. return;
  947. }
  948. if (!netif_carrier_ok(dev)) {
  949. if (netif_msg_link(np))
  950. printk(KERN_NOTICE "%s: link up.n", dev->name);
  951. netif_carrier_on(dev);
  952. }
  953. duplex = np->full_duplex || (chipcfg & CfgFullDuplex ? 1 : 0);
  954. /* if duplex is set then bit 28 must be set, too */
  955. if (duplex ^ !!(np->rx_config & RxAcceptTx)) {
  956. if (netif_msg_link(np))
  957. printk(KERN_INFO 
  958. "%s: Setting %s-duplex based on negotiated "
  959. "link capability.n", dev->name,
  960. duplex ? "full" : "half");
  961. if (duplex) {
  962. np->rx_config |= RxAcceptTx;
  963. np->tx_config |= TxCarrierIgn | TxHeartIgn;
  964. } else {
  965. np->rx_config &= ~RxAcceptTx;
  966. np->tx_config &= ~(TxCarrierIgn | TxHeartIgn);
  967. }
  968. writel(np->tx_config, ioaddr + TxConfig);
  969. writel(np->rx_config, ioaddr + RxConfig);
  970. }
  971. }
  972. static void init_registers(struct net_device *dev)
  973. {
  974. struct netdev_private *np = dev->priv;
  975. long ioaddr = dev->base_addr;
  976. int i;
  977. for (i=0;i<NATSEMI_HW_TIMEOUT;i++) {
  978. if (readl(dev->base_addr + ChipConfig) & CfgAnegDone)
  979. break;
  980. udelay(10);
  981. }
  982. if (i==NATSEMI_HW_TIMEOUT && netif_msg_link(np)) {
  983. printk(KERN_INFO 
  984. "%s: autonegotiation did not complete in %d usec.n",
  985. dev->name, i*10);
  986. }
  987. /* On page 78 of the spec, they recommend some settings for "optimum
  988.    performance" to be done in sequence.  These settings optimize some
  989.    of the 100Mbit autodetection circuitry.  They say we only want to 
  990.    do this for rev C of the chip, but engineers at NSC (Bradley 
  991.    Kennedy) recommends always setting them.  If you don't, you get 
  992.    errors on some autonegotiations that make the device unusable.
  993. */
  994. writew(1, ioaddr + PGSEL);
  995. writew(PMDCSR_VAL, ioaddr + PMDCSR);
  996. writew(TSTDAT_VAL, ioaddr + TSTDAT);
  997. writew(DSPCFG_VAL, ioaddr + DSPCFG);
  998. writew(SDCFG_VAL, ioaddr + SDCFG);
  999. writew(0, ioaddr + PGSEL);
  1000. /* Enable PHY Specific event based interrupts.  Link state change
  1001.    and Auto-Negotiation Completion are among the affected.
  1002.    Read the intr status to clear it (needed for wake events).
  1003. */
  1004. readw(ioaddr + MIntrStatus);
  1005. writew(MICRIntEn, ioaddr + MIntrCtrl);
  1006. /* clear any interrupts that are pending, such as wake events */
  1007. readl(ioaddr + IntrStatus);
  1008. writel(np->ring_dma, ioaddr + RxRingPtr);
  1009. writel(np->ring_dma + RX_RING_SIZE * sizeof(struct netdev_desc), 
  1010. ioaddr + TxRingPtr);
  1011. /* Initialize other registers.
  1012.  * Configure the PCI bus bursts and FIFO thresholds.
  1013.  * Configure for standard, in-spec Ethernet.
  1014.  * Start with half-duplex. check_link will update
  1015.  * to the correct settings. 
  1016.  */
  1017. /* DRTH: 2: start tx if 64 bytes are in the fifo
  1018.  * FLTH: 0x10: refill with next packet if 512 bytes are free
  1019.  * MXDMA: 0: up to 256 byte bursts.
  1020.  *  MXDMA must be <= FLTH
  1021.  * ECRETRY=1
  1022.  * ATP=1
  1023.  */
  1024. np->tx_config = TxAutoPad | TxCollRetry | TxMxdma_256 | (0x1002);
  1025. writel(np->tx_config, ioaddr + TxConfig);
  1026. /* DRTH 0x10: start copying to memory if 128 bytes are in the fifo
  1027.  * MXDMA 0: up to 256 byte bursts
  1028.  */
  1029. np->rx_config = RxMxdma_256 | 0x20;
  1030. writel(np->rx_config, ioaddr + RxConfig);
  1031. /* Disable PME:
  1032.  * The PME bit is initialized from the EEPROM contents.
  1033.  * PCI cards probably have PME disabled, but motherboard
  1034.  * implementations may have PME set to enable WakeOnLan. 
  1035.  * With PME set the chip will scan incoming packets but
  1036.  * nothing will be written to memory. */
  1037. np->SavedClkRun = readl(ioaddr + ClkRun);
  1038. writel(np->SavedClkRun & ~PMEEnable, ioaddr + ClkRun);
  1039. if (np->SavedClkRun & PMEStatus && netif_msg_wol(np)) {
  1040. printk(KERN_NOTICE "%s: Wake-up event %#08xn", 
  1041. dev->name, readl(ioaddr + WOLCmd));
  1042. }
  1043. check_link(dev);
  1044. __set_rx_mode(dev);
  1045. /* Enable interrupts by setting the interrupt mask. */
  1046. writel(DEFAULT_INTR, ioaddr + IntrMask);
  1047. writel(1, ioaddr + IntrEnable);
  1048. writel(RxOn | TxOn, ioaddr + ChipCmd);
  1049. writel(StatsClear, ioaddr + StatsCtrl); /* Clear Stats */
  1050. }
  1051. /* 
  1052.  * The frequency on this has been increased because of a nasty little problem.
  1053.  * It seems that a reference set for this chip went out with incorrect info,
  1054.  * and there exist boards that aren't quite right.  An unexpected voltage drop
  1055.  * can cause the PHY to get itself in a weird state (basically reset..).
  1056.  * NOTE: this only seems to affect revC chips.
  1057.  */
  1058. static void netdev_timer(unsigned long data)
  1059. {
  1060. struct net_device *dev = (struct net_device *)data;
  1061. struct netdev_private *np = dev->priv;
  1062. int next_tick = 5*HZ;
  1063. long ioaddr = dev->base_addr;
  1064. u16 dspcfg;
  1065. if (netif_msg_timer(np)) {
  1066. /* DO NOT read the IntrStatus register, 
  1067.  * a read clears any pending interrupts.
  1068.  */
  1069. printk(KERN_DEBUG "%s: Media selection timer tick.n",
  1070.    dev->name);
  1071. }
  1072. /* check for a nasty random phy-reset - use dspcfg as a flag */
  1073. writew(1, ioaddr+PGSEL);
  1074. dspcfg = readw(ioaddr+DSPCFG);
  1075. writew(0, ioaddr+PGSEL);
  1076. if (dspcfg != DSPCFG_VAL) {
  1077. if (!netif_queue_stopped(dev)) {
  1078. if (netif_msg_hw(np))
  1079. printk(KERN_NOTICE "%s: possible phy reset: "
  1080. "re-initializingn", dev->name);
  1081. disable_irq(dev->irq);
  1082. spin_lock_irq(&np->lock);
  1083. init_registers(dev);
  1084. spin_unlock_irq(&np->lock);
  1085. enable_irq(dev->irq);
  1086. } else {
  1087. /* hurry back */
  1088. next_tick = HZ;
  1089. }
  1090. } else {
  1091. /* init_registers() calls check_link() for the above case */
  1092. spin_lock_irq(&np->lock);
  1093. check_link(dev);
  1094. spin_unlock_irq(&np->lock);
  1095. }
  1096. mod_timer(&np->timer, jiffies + next_tick);
  1097. }
  1098. static void dump_ring(struct net_device *dev)
  1099. {
  1100. struct netdev_private *np = dev->priv;
  1101. if (netif_msg_pktdata(np)) {
  1102. int i;
  1103. printk(KERN_DEBUG "  Tx ring at %p:n", np->tx_ring);
  1104. for (i = 0; i < TX_RING_SIZE; i++) {
  1105. printk(KERN_DEBUG " #%d desc. %#08x %#08x %#08x.n",
  1106.    i, np->tx_ring[i].next_desc,
  1107.    np->tx_ring[i].cmd_status, 
  1108.    np->tx_ring[i].addr);
  1109. }
  1110. printk(KERN_DEBUG "  Rx ring %p:n", np->rx_ring);
  1111. for (i = 0; i < RX_RING_SIZE; i++) {
  1112. printk(KERN_DEBUG " #%d desc. %#08x %#08x %#08x.n",
  1113.    i, np->rx_ring[i].next_desc,
  1114.    np->rx_ring[i].cmd_status, 
  1115.    np->rx_ring[i].addr);
  1116. }
  1117. }
  1118. }
  1119. static void tx_timeout(struct net_device *dev)
  1120. {
  1121. struct netdev_private *np = dev->priv;
  1122. long ioaddr = dev->base_addr;
  1123. disable_irq(dev->irq);
  1124. spin_lock_irq(&np->lock);
  1125. if (netif_device_present(dev)) {
  1126. if (netif_msg_tx_err(np))
  1127. printk(KERN_WARNING 
  1128. "%s: Transmit timed out, status %#08x,"
  1129. " resetting...n", 
  1130. dev->name, readl(ioaddr + IntrStatus));
  1131. dump_ring(dev);
  1132. natsemi_reset(dev);
  1133. drain_ring(dev);
  1134. init_ring(dev);
  1135. init_registers(dev);
  1136. } else {
  1137. printk(KERN_WARNING 
  1138. "%s: tx_timeout while in suspended state?n",
  1139.     dev->name);
  1140. }
  1141. spin_unlock_irq(&np->lock);
  1142. enable_irq(dev->irq);
  1143. dev->trans_start = jiffies;
  1144. np->stats.tx_errors++;
  1145. netif_wake_queue(dev);
  1146. }
  1147. static int alloc_ring(struct net_device *dev)
  1148. {
  1149. struct netdev_private *np = dev->priv;
  1150. np->rx_ring = pci_alloc_consistent(np->pci_dev,
  1151. sizeof(struct netdev_desc) * (RX_RING_SIZE+TX_RING_SIZE),
  1152. &np->ring_dma);
  1153. if (!np->rx_ring)
  1154. return -ENOMEM;
  1155. np->tx_ring = &np->rx_ring[RX_RING_SIZE];
  1156. return 0;
  1157. }
  1158. /* Initialize the Rx and Tx rings, along with various 'dev' bits. */
  1159. static void init_ring(struct net_device *dev)
  1160. {
  1161. struct netdev_private *np = dev->priv;
  1162. int i;
  1163. np->cur_rx = np->cur_tx = 0;
  1164. np->dirty_rx = np->dirty_tx = 0;
  1165. np->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
  1166. np->rx_head_desc = &np->rx_ring[0];
  1167. /* Please be carefull before changing this loop - at least gcc-2.95.1
  1168.  * miscompiles it otherwise.
  1169.  */
  1170. /* Initialize all Rx descriptors. */
  1171. for (i = 0; i < RX_RING_SIZE; i++) {
  1172. np->rx_ring[i].next_desc = cpu_to_le32(np->ring_dma
  1173. +sizeof(struct netdev_desc)
  1174. *((i+1)%RX_RING_SIZE));
  1175. np->rx_ring[i].cmd_status = cpu_to_le32(DescOwn);
  1176. np->rx_skbuff[i] = NULL;
  1177. }
  1178. /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
  1179. for (i = 0; i < RX_RING_SIZE; i++) {
  1180. struct sk_buff *skb = dev_alloc_skb(np->rx_buf_sz);
  1181. np->rx_skbuff[i] = skb;
  1182. if (skb == NULL)
  1183. break;
  1184. skb->dev = dev; /* Mark as being used by this device. */
  1185. np->rx_dma[i] = pci_map_single(np->pci_dev,
  1186. skb->data, skb->len, PCI_DMA_FROMDEVICE);
  1187. np->rx_ring[i].addr = cpu_to_le32(np->rx_dma[i]);
  1188. np->rx_ring[i].cmd_status = cpu_to_le32(np->rx_buf_sz);
  1189. }
  1190. np->dirty_rx = (unsigned int)(i - RX_RING_SIZE);
  1191. for (i = 0; i < TX_RING_SIZE; i++) {
  1192. np->tx_skbuff[i] = NULL;
  1193. np->tx_ring[i].next_desc = cpu_to_le32(np->ring_dma
  1194. +sizeof(struct netdev_desc)
  1195.  *((i+1)%TX_RING_SIZE+RX_RING_SIZE));
  1196. np->tx_ring[i].cmd_status = 0;
  1197. }
  1198. dump_ring(dev);
  1199. }
  1200. static void drain_ring(struct net_device *dev)
  1201. {
  1202. struct netdev_private *np = dev->priv;
  1203. int i;
  1204. /* Free all the skbuffs in the Rx queue. */
  1205. for (i = 0; i < RX_RING_SIZE; i++) {
  1206. np->rx_ring[i].cmd_status = 0;
  1207. np->rx_ring[i].addr = 0xBADF00D0; /* An invalid address. */
  1208. if (np->rx_skbuff[i]) {
  1209. pci_unmap_single(np->pci_dev,
  1210. np->rx_dma[i],
  1211. np->rx_skbuff[i]->len,
  1212. PCI_DMA_FROMDEVICE);
  1213. dev_kfree_skb(np->rx_skbuff[i]);
  1214. }
  1215. np->rx_skbuff[i] = NULL;
  1216. }
  1217. for (i = 0; i < TX_RING_SIZE; i++) {
  1218. if (np->tx_skbuff[i]) {
  1219. pci_unmap_single(np->pci_dev,
  1220. np->rx_dma[i],
  1221. np->rx_skbuff[i]->len,
  1222. PCI_DMA_TODEVICE);
  1223. dev_kfree_skb(np->tx_skbuff[i]);
  1224. }
  1225. np->tx_skbuff[i] = NULL;
  1226. }
  1227. }
  1228. static void free_ring(struct net_device *dev)
  1229. {
  1230. struct netdev_private *np = dev->priv;
  1231. pci_free_consistent(np->pci_dev,
  1232. sizeof(struct netdev_desc) * (RX_RING_SIZE+TX_RING_SIZE),
  1233. np->rx_ring, np->ring_dma);
  1234. }
  1235. static int start_tx(struct sk_buff *skb, struct net_device *dev)
  1236. {
  1237. struct netdev_private *np = dev->priv;
  1238. unsigned entry;
  1239. /* Note: Ordering is important here, set the field with the
  1240.    "ownership" bit last, and only then increment cur_tx. */
  1241. /* Calculate the next Tx descriptor entry. */
  1242. entry = np->cur_tx % TX_RING_SIZE;
  1243. np->tx_skbuff[entry] = skb;
  1244. np->tx_dma[entry] = pci_map_single(np->pci_dev,
  1245. skb->data,skb->len, PCI_DMA_TODEVICE);
  1246. np->tx_ring[entry].addr = cpu_to_le32(np->tx_dma[entry]);
  1247. spin_lock_irq(&np->lock);
  1248. if (netif_device_present(dev)) {
  1249. np->tx_ring[entry].cmd_status = cpu_to_le32(DescOwn | skb->len);
  1250. /* StrongARM: Explicitly cache flush np->tx_ring and 
  1251.  * skb->data,skb->len. */
  1252. wmb();
  1253. np->cur_tx++;
  1254. if (np->cur_tx - np->dirty_tx >= TX_QUEUE_LEN - 1) {
  1255. netdev_tx_done(dev);
  1256. if (np->cur_tx - np->dirty_tx >= TX_QUEUE_LEN - 1)
  1257. netif_stop_queue(dev);
  1258. }
  1259. /* Wake the potentially-idle transmit channel. */
  1260. writel(TxOn, dev->base_addr + ChipCmd);
  1261. } else {
  1262. dev_kfree_skb_irq(skb);
  1263. np->stats.tx_dropped++;
  1264. }
  1265. spin_unlock_irq(&np->lock);
  1266. dev->trans_start = jiffies;
  1267. if (netif_msg_tx_queued(np)) {
  1268. printk(KERN_DEBUG "%s: Transmit frame #%d queued in slot %d.n",
  1269.    dev->name, np->cur_tx, entry);
  1270. }
  1271. return 0;
  1272. }
  1273. static void netdev_tx_done(struct net_device *dev)
  1274. {
  1275. struct netdev_private *np = dev->priv;
  1276. for (; np->cur_tx - np->dirty_tx > 0; np->dirty_tx++) {
  1277. int entry = np->dirty_tx % TX_RING_SIZE;
  1278. if (np->tx_ring[entry].cmd_status & cpu_to_le32(DescOwn))
  1279. break;
  1280. if (netif_msg_tx_done(np))
  1281. printk(KERN_DEBUG 
  1282. "%s: tx frame #%d finished, status %#08x.n",
  1283. dev->name, np->dirty_tx,
  1284. le32_to_cpu(np->tx_ring[entry].cmd_status));
  1285. if (np->tx_ring[entry].cmd_status & cpu_to_le32(DescPktOK)) {
  1286. np->stats.tx_packets++;
  1287. np->stats.tx_bytes += np->tx_skbuff[entry]->len;
  1288. } else { /* Various Tx errors */
  1289. int tx_status = le32_to_cpu(np->tx_ring[entry].cmd_status);
  1290. if (tx_status & (DescTxAbort|DescTxExcColl)) 
  1291. np->stats.tx_aborted_errors++;
  1292. if (tx_status & DescTxFIFO) 
  1293. np->stats.tx_fifo_errors++;
  1294. if (tx_status & DescTxCarrier) 
  1295. np->stats.tx_carrier_errors++;
  1296. if (tx_status & DescTxOOWCol) 
  1297. np->stats.tx_window_errors++;
  1298. np->stats.tx_errors++;
  1299. }
  1300. pci_unmap_single(np->pci_dev,np->tx_dma[entry],
  1301. np->tx_skbuff[entry]->len,
  1302. PCI_DMA_TODEVICE);
  1303. /* Free the original skb. */
  1304. dev_kfree_skb_irq(np->tx_skbuff[entry]);
  1305. np->tx_skbuff[entry] = NULL;
  1306. }
  1307. if (netif_queue_stopped(dev)
  1308. && np->cur_tx - np->dirty_tx < TX_QUEUE_LEN - 4) {
  1309. /* The ring is no longer full, wake queue. */
  1310. netif_wake_queue(dev);
  1311. }
  1312. }
  1313. /* The interrupt handler does all of the Rx thread work and cleans up
  1314.    after the Tx thread. */
  1315. static void intr_handler(int irq, void *dev_instance, struct pt_regs *rgs)
  1316. {
  1317. struct net_device *dev = dev_instance;
  1318. struct netdev_private *np = dev->priv;
  1319. long ioaddr = dev->base_addr;
  1320. int boguscnt = max_interrupt_work;
  1321. if (!netif_device_present(dev))
  1322. return;
  1323. do {
  1324. /* Reading automatically acknowledges all int sources. */
  1325. u32 intr_status = readl(ioaddr + IntrStatus);
  1326. if (netif_msg_intr(np))
  1327. printk(KERN_DEBUG "%s: Interrupt, status %#08x.n",
  1328.    dev->name, intr_status);
  1329. if (intr_status == 0)
  1330. break;
  1331. if (intr_status & (IntrRxDone | IntrRxIntr))
  1332. netdev_rx(dev);
  1333. if (intr_status & (IntrTxDone | IntrTxIntr | IntrTxIdle | IntrTxErr) ) {
  1334. spin_lock(&np->lock);
  1335. netdev_tx_done(dev);
  1336. spin_unlock(&np->lock);
  1337. }
  1338. /* Abnormal error summary/uncommon events handlers. */
  1339. if (intr_status & IntrAbnormalSummary)
  1340. netdev_error(dev, intr_status);
  1341. if (--boguscnt < 0) {
  1342. printk(KERN_WARNING "%s: Too much work at interrupt, "
  1343.    "status=%#08x.n",
  1344.    dev->name, intr_status);
  1345. break;
  1346. }
  1347. } while (1);
  1348. if (netif_msg_intr(np))
  1349. printk(KERN_DEBUG "%s: exiting interrupt.n",
  1350.    dev->name);
  1351. }
  1352. /* This routine is logically part of the interrupt handler, but separated
  1353.    for clarity and better register allocation. */
  1354. static void netdev_rx(struct net_device *dev)
  1355. {
  1356. struct netdev_private *np = dev->priv;
  1357. int entry = np->cur_rx % RX_RING_SIZE;
  1358. int boguscnt = np->dirty_rx + RX_RING_SIZE - np->cur_rx;
  1359. s32 desc_status = le32_to_cpu(np->rx_head_desc->cmd_status);
  1360. /* If the driver owns the next entry it's a new packet. Send it up. */
  1361. while (desc_status < 0) {        /* e.g. & DescOwn */
  1362. if (netif_msg_rx_status(np))
  1363. printk(KERN_DEBUG 
  1364. "  netdev_rx() entry %d status was %#08x.n",
  1365. entry, desc_status);
  1366. if (--boguscnt < 0)
  1367. break;
  1368. if ((desc_status&(DescMore|DescPktOK|DescRxLong)) != DescPktOK){
  1369. if (desc_status & DescMore) {
  1370. if (netif_msg_rx_err(np))
  1371. printk(KERN_WARNING 
  1372. "%s: Oversized(?) Ethernet "
  1373. "frame spanned multiple "
  1374. "buffers, entry %#08x "
  1375. "status %#08x.n", dev->name, 
  1376. np->cur_rx, desc_status);
  1377. np->stats.rx_length_errors++;
  1378. } else {
  1379. /* There was an error. */
  1380. np->stats.rx_errors++;
  1381. if (desc_status & (DescRxAbort|DescRxOver)) 
  1382. np->stats.rx_over_errors++;
  1383. if (desc_status & (DescRxLong|DescRxRunt)) 
  1384. np->stats.rx_length_errors++;
  1385. if (desc_status & (DescRxInvalid|DescRxAlign)) 
  1386. np->stats.rx_frame_errors++;
  1387. if (desc_status & DescRxCRC) 
  1388. np->stats.rx_crc_errors++;
  1389. }
  1390. } else {
  1391. struct sk_buff *skb;
  1392. /* Omit CRC size. */
  1393. int pkt_len = (desc_status & DescSizeMask) - 4;
  1394. /* Check if the packet is long enough to accept 
  1395.  * without copying to a minimally-sized skbuff. */
  1396. if (pkt_len < rx_copybreak
  1397. && (skb = dev_alloc_skb(pkt_len + 2)) != NULL) {
  1398. skb->dev = dev;
  1399. skb_reserve(skb, 2); /* 16 byte align the IP header */
  1400. pci_dma_sync_single(np->pci_dev, np->rx_dma[entry],
  1401. np->rx_skbuff[entry]->len,
  1402. PCI_DMA_FROMDEVICE);
  1403. #if HAS_IP_COPYSUM
  1404. eth_copy_and_sum(skb, np->rx_skbuff[entry]->tail, pkt_len, 0);
  1405. skb_put(skb, pkt_len);
  1406. #else
  1407. memcpy(skb_put(skb, pkt_len), np->rx_skbuff[entry]->tail,
  1408.    pkt_len);
  1409. #endif
  1410. } else {
  1411. pci_unmap_single(np->pci_dev, np->rx_dma[entry],
  1412. np->rx_skbuff[entry]->len,
  1413. PCI_DMA_FROMDEVICE);
  1414. skb_put(skb = np->rx_skbuff[entry], pkt_len);
  1415. np->rx_skbuff[entry] = NULL;
  1416. }
  1417. skb->protocol = eth_type_trans(skb, dev);
  1418. /* W/ hardware checksum: skb->ip_summed = CHECKSUM_UNNECESSARY; */
  1419. netif_rx(skb);
  1420. dev->last_rx = jiffies;
  1421. np->stats.rx_packets++;
  1422. np->stats.rx_bytes += pkt_len;
  1423. }
  1424. entry = (++np->cur_rx) % RX_RING_SIZE;
  1425. np->rx_head_desc = &np->rx_ring[entry];
  1426. desc_status = le32_to_cpu(np->rx_head_desc->cmd_status);
  1427. }
  1428. /* Refill the Rx ring buffers. */
  1429. for (; np->cur_rx - np->dirty_rx > 0; np->dirty_rx++) {
  1430. struct sk_buff *skb;
  1431. entry = np->dirty_rx % RX_RING_SIZE;
  1432. if (np->rx_skbuff[entry] == NULL) {
  1433. skb = dev_alloc_skb(np->rx_buf_sz);
  1434. np->rx_skbuff[entry] = skb;
  1435. if (skb == NULL)
  1436. break; /* Better luck next round. */
  1437. skb->dev = dev; /* Mark as being used by this device. */
  1438. np->rx_dma[entry] = pci_map_single(np->pci_dev,
  1439. skb->data, skb->len, PCI_DMA_FROMDEVICE);
  1440. np->rx_ring[entry].addr = cpu_to_le32(np->rx_dma[entry]);
  1441. }
  1442. np->rx_ring[entry].cmd_status =
  1443. cpu_to_le32(np->rx_buf_sz);
  1444. }
  1445. /* Restart Rx engine if stopped. */
  1446. writel(RxOn, dev->base_addr + ChipCmd);
  1447. }
  1448. static void netdev_error(struct net_device *dev, int intr_status)
  1449. {
  1450. struct netdev_private *np = dev->priv;
  1451. long ioaddr = dev->base_addr;
  1452. spin_lock(&np->lock);
  1453. if (intr_status & LinkChange) {
  1454. u16 adv = mdio_read(dev, 1, MII_ADVERTISE);
  1455. u16 lpa = mdio_read(dev, 1, MII_LPA);
  1456. if (mdio_read(dev, 1, MII_BMCR) & BMCR_ANENABLE 
  1457.  && netif_msg_link(np)) {
  1458. printk(KERN_INFO 
  1459. "%s: Autonegotiation advertising"
  1460. " %#04x  partner %#04x.n", dev->name,
  1461. adv, lpa);
  1462. }
  1463. /* read MII int status to clear the flag */
  1464. readw(ioaddr + MIntrStatus);
  1465. check_link(dev);
  1466. }
  1467. if (intr_status & StatsMax) {
  1468. __get_stats(dev);
  1469. }
  1470. if (intr_status & IntrTxUnderrun) {
  1471. if ((np->tx_config & TxDrthMask) < 62)
  1472. np->tx_config += 2;
  1473. if (netif_msg_tx_err(np))
  1474. printk(KERN_NOTICE 
  1475. "%s: increased Tx theshold, txcfg %#08x.n",
  1476. dev->name, np->tx_config);
  1477. writel(np->tx_config, ioaddr + TxConfig);
  1478. }
  1479. if (intr_status & WOLPkt && netif_msg_wol(np)) {
  1480. int wol_status = readl(ioaddr + WOLCmd);
  1481. printk(KERN_NOTICE "%s: Link wake-up event %#08xn",
  1482.    dev->name, wol_status);
  1483. }
  1484. if (intr_status & RxStatusFIFOOver) {
  1485. if (netif_msg_rx_err(np) && netif_msg_intr(np)) {
  1486. printk(KERN_NOTICE "%s: Rx status FIFO overrunn", 
  1487. dev->name);
  1488. }
  1489. np->stats.rx_fifo_errors++;
  1490. }
  1491. /* Hmmmmm, it's not clear how to recover from PCI faults. */
  1492. if (intr_status & IntrPCIErr) {
  1493. printk(KERN_NOTICE "%s: PCI error %#08xn", dev->name,
  1494. intr_status & IntrPCIErr);
  1495. np->stats.tx_fifo_errors++;
  1496. np->stats.rx_fifo_errors++;
  1497. }
  1498. spin_unlock(&np->lock);
  1499. }
  1500. static void __get_stats(struct net_device *dev)
  1501. {
  1502. long ioaddr = dev->base_addr;
  1503. struct netdev_private *np = dev->priv;
  1504. /* The chip only need report frame silently dropped. */
  1505. np->stats.rx_crc_errors += readl(ioaddr + RxCRCErrs);
  1506. np->stats.rx_missed_errors += readl(ioaddr + RxMissed);
  1507. }
  1508. static struct net_device_stats *get_stats(struct net_device *dev)
  1509. {
  1510. struct netdev_private *np = dev->priv;
  1511. /* The chip only need report frame silently dropped. */
  1512. spin_lock_irq(&np->lock);
  1513.   if (netif_running(dev) && netif_device_present(dev))
  1514.   __get_stats(dev);
  1515. spin_unlock_irq(&np->lock);
  1516. return &np->stats;
  1517. }
  1518. /* The little-endian AUTODIN II ethernet CRC calculations.
  1519.    A big-endian version is also available.
  1520.    This is slow but compact code.  Do not use this routine for bulk data,
  1521.    use a table-based routine instead.
  1522.    This is common code and should be moved to net/core/crc.c.
  1523.    Chips may use the upper or lower CRC bits, and may reverse and/or invert
  1524.    them.  Select the endian-ness that results in minimal calculations.
  1525. */
  1526. #if 0
  1527. static unsigned const ethernet_polynomial_le = 0xedb88320U;
  1528. static inline unsigned ether_crc_le(int length, unsigned char *data)
  1529. {
  1530. unsigned int crc = 0xffffffff; /* Initial value. */
  1531. while(--length >= 0) {
  1532. unsigned char current_octet = *data++;
  1533. int bit;
  1534. for (bit = 8; --bit >= 0; current_octet >>= 1) {
  1535. if ((crc ^ current_octet) & 1) {
  1536. crc >>= 1;
  1537. crc ^= ethernet_polynomial_le;
  1538. } else
  1539. crc >>= 1;
  1540. }
  1541. }
  1542. return crc;
  1543. }
  1544. #else
  1545. #define DP_POLYNOMIAL 0x04C11DB7
  1546. /* dp83815_crc - computer CRC for hash table entries */
  1547. static unsigned ether_crc_le(int length, unsigned char *data)
  1548. {
  1549.     u32 crc;
  1550.     u8 cur_byte;
  1551.     u8 msb;
  1552.     u8 byte, bit;
  1553.     crc = ~0;
  1554.     for (byte=0; byte<length; byte++) {
  1555.         cur_byte = *data++;
  1556.         for (bit=0; bit<8; bit++) {
  1557.             msb = crc >> 31;
  1558.             crc <<= 1;
  1559.             if (msb ^ (cur_byte & 1)) {
  1560.                 crc ^= DP_POLYNOMIAL;
  1561.                 crc |= 1;
  1562.             }
  1563.             cur_byte >>= 1;
  1564.         }
  1565.     }
  1566.     crc >>= 23;
  1567.     return (crc);
  1568. }
  1569. #endif
  1570. void set_bit_le(int offset, unsigned char * data)
  1571. {
  1572. data[offset >> 3] |= (1 << (offset & 0x07));
  1573. }
  1574. #define HASH_TABLE 0x200
  1575. static void __set_rx_mode(struct net_device *dev)
  1576. {
  1577. long ioaddr = dev->base_addr;
  1578. struct netdev_private *np = dev->priv;
  1579. u8 mc_filter[64]; /* Multicast hash filter */
  1580. u32 rx_mode;
  1581. if (dev->flags & IFF_PROMISC) { /* Set promiscuous. */
  1582. /* Unconditionally log net taps. */
  1583. printk(KERN_NOTICE "%s: Promiscuous mode enabled.n", 
  1584. dev->name);
  1585. rx_mode = RxFilterEnable | AcceptBroadcast 
  1586. | AcceptAllMulticast | AcceptAllPhys | AcceptMyPhys;
  1587. } else if ((dev->mc_count > multicast_filter_limit)
  1588.    ||  (dev->flags & IFF_ALLMULTI)) {
  1589. rx_mode = RxFilterEnable | AcceptBroadcast 
  1590. | AcceptAllMulticast | AcceptMyPhys;
  1591. } else {
  1592. struct dev_mc_list *mclist;
  1593. int i;
  1594. memset(mc_filter, 0, sizeof(mc_filter));
  1595. for (i = 0, mclist = dev->mc_list; mclist && i < dev->mc_count;
  1596.  i++, mclist = mclist->next) {
  1597. set_bit_le(ether_crc_le(ETH_ALEN, mclist->dmi_addr) & 0x1ff,
  1598. mc_filter);
  1599. }
  1600. rx_mode = RxFilterEnable | AcceptBroadcast 
  1601. | AcceptMulticast | AcceptMyPhys;
  1602. for (i = 0; i < 64; i += 2) {
  1603. writew(HASH_TABLE + i, ioaddr + RxFilterAddr);
  1604. writew((mc_filter[i+1]<<8) + mc_filter[i], 
  1605. ioaddr + RxFilterData);
  1606. }
  1607. }
  1608. writel(rx_mode, ioaddr + RxFilterAddr);
  1609. np->cur_rx_mode = rx_mode;
  1610. }
  1611. static void set_rx_mode(struct net_device *dev)
  1612. {
  1613. struct netdev_private *np = dev->priv;
  1614. spin_lock_irq(&np->lock);
  1615. if (netif_device_present(dev))
  1616. __set_rx_mode(dev);
  1617. spin_unlock_irq(&np->lock);
  1618. }
  1619. static int netdev_ethtool_ioctl(struct net_device *dev, void *useraddr)
  1620. {
  1621. struct netdev_private *np = dev->priv;
  1622. u32 cmd;
  1623. if (get_user(cmd, (u32 *)useraddr))
  1624. return -EFAULT;
  1625.         switch (cmd) {
  1626. /* get driver info */
  1627.         case ETHTOOL_GDRVINFO: {
  1628. struct ethtool_drvinfo info = {ETHTOOL_GDRVINFO};
  1629. strncpy(info.driver, DRV_NAME, ETHTOOL_BUSINFO_LEN);
  1630. strncpy(info.version, DRV_VERSION, ETHTOOL_BUSINFO_LEN);
  1631. info.fw_version[0] = '';
  1632. strncpy(info.bus_info, np->pci_dev->slot_name, 
  1633. ETHTOOL_BUSINFO_LEN);
  1634. info.eedump_len = NATSEMI_EEPROM_SIZE;
  1635. info.regdump_len = NATSEMI_REGS_SIZE;
  1636. if (copy_to_user(useraddr, &info, sizeof(info)))
  1637. return -EFAULT;
  1638. return 0;
  1639. }
  1640. /* get settings */
  1641. case ETHTOOL_GSET: {
  1642. struct ethtool_cmd ecmd = { ETHTOOL_GSET };
  1643. spin_lock_irq(&np->lock);
  1644. netdev_get_ecmd(dev, &ecmd);
  1645. spin_unlock_irq(&np->lock);
  1646. if (copy_to_user(useraddr, &ecmd, sizeof(ecmd)))
  1647. return -EFAULT;
  1648. return 0;
  1649. }
  1650. /* set settings */
  1651. case ETHTOOL_SSET: {
  1652. struct ethtool_cmd ecmd;
  1653. int r;
  1654. if (copy_from_user(&ecmd, useraddr, sizeof(ecmd)))
  1655. return -EFAULT;
  1656. spin_lock_irq(&np->lock);
  1657. r = netdev_set_ecmd(dev, &ecmd);
  1658. spin_unlock_irq(&np->lock);
  1659. return r;
  1660. }
  1661. /* get wake-on-lan */
  1662. case ETHTOOL_GWOL: {
  1663. struct ethtool_wolinfo wol = {ETHTOOL_GWOL};
  1664. spin_lock_irq(&np->lock);
  1665. netdev_get_wol(dev, &wol.supported, &wol.wolopts);
  1666. netdev_get_sopass(dev, wol.sopass);
  1667. spin_unlock_irq(&np->lock);
  1668. if (copy_to_user(useraddr, &wol, sizeof(wol)))
  1669. return -EFAULT;
  1670. return 0;
  1671. }
  1672. /* set wake-on-lan */
  1673. case ETHTOOL_SWOL: {
  1674. struct ethtool_wolinfo wol;
  1675. int r;
  1676. if (copy_from_user(&wol, useraddr, sizeof(wol)))
  1677. return -EFAULT;
  1678. spin_lock_irq(&np->lock);
  1679. netdev_set_wol(dev, wol.wolopts);
  1680. r = netdev_set_sopass(dev, wol.sopass);
  1681. spin_unlock_irq(&np->lock);
  1682. return r;
  1683. }
  1684. /* get registers */
  1685. case ETHTOOL_GREGS: {
  1686. struct ethtool_regs regs;
  1687. u8 regbuf[NATSEMI_REGS_SIZE];
  1688. int r;
  1689. if (copy_from_user(&regs, useraddr, sizeof(regs)))
  1690. return -EFAULT;
  1691. if (regs.len > NATSEMI_REGS_SIZE) {
  1692. regs.len = NATSEMI_REGS_SIZE;
  1693. }
  1694. regs.version = NATSEMI_REGS_VER;
  1695. if (copy_to_user(useraddr, &regs, sizeof(regs)))
  1696. return -EFAULT;
  1697. useraddr += offsetof(struct ethtool_regs, data);
  1698. spin_lock_irq(&np->lock);
  1699. r = netdev_get_regs(dev, regbuf);
  1700. spin_unlock_irq(&np->lock);
  1701. if (r)
  1702. return r;
  1703. if (copy_to_user(useraddr, regbuf, regs.len))
  1704. return -EFAULT;
  1705. return 0;
  1706. }
  1707. /* get message-level */
  1708. case ETHTOOL_GMSGLVL: {
  1709. struct ethtool_value edata = {ETHTOOL_GMSGLVL};
  1710. edata.data = np->msg_enable;
  1711. if (copy_to_user(useraddr, &edata, sizeof(edata)))
  1712. return -EFAULT;
  1713. return 0;
  1714. }
  1715. /* set message-level */
  1716. case ETHTOOL_SMSGLVL: {
  1717. struct ethtool_value edata;
  1718. if (copy_from_user(&edata, useraddr, sizeof(edata)))
  1719. return -EFAULT;
  1720. np->msg_enable = edata.data;
  1721. return 0;
  1722. }
  1723. /* restart autonegotiation */
  1724. case ETHTOOL_NWAY_RST: {
  1725. int tmp;
  1726. int r = -EINVAL;
  1727. /* if autoneg is off, it's an error */
  1728. tmp = mdio_read(dev, 1, MII_BMCR);
  1729. if (tmp & BMCR_ANENABLE) {
  1730. tmp |= (BMCR_ANRESTART);
  1731. mdio_write(dev, 1, MII_BMCR, tmp);
  1732. r = 0;
  1733. }
  1734. return r;
  1735. }
  1736. /* get link status */
  1737. case ETHTOOL_GLINK: {
  1738. struct ethtool_value edata = {ETHTOOL_GLINK};
  1739. edata.data = (mdio_read(dev, 1, MII_BMSR)&BMSR_LSTATUS) ? 1:0;
  1740. if (copy_to_user(useraddr, &edata, sizeof(edata)))
  1741. return -EFAULT;
  1742. return 0;
  1743. }
  1744. /* get EEPROM */
  1745. case ETHTOOL_GEEPROM: {
  1746. struct ethtool_eeprom eeprom;
  1747. u8 eebuf[NATSEMI_EEPROM_SIZE];
  1748. int r;
  1749. if (copy_from_user(&eeprom, useraddr, sizeof(eeprom)))
  1750. return -EFAULT;
  1751. if ((eeprom.offset+eeprom.len) > NATSEMI_EEPROM_SIZE) {
  1752. eeprom.len = NATSEMI_EEPROM_SIZE-eeprom.offset;
  1753. }
  1754. eeprom.magic = PCI_VENDOR_ID_NS | (PCI_DEVICE_ID_NS_83815<<16);
  1755. if (copy_to_user(useraddr, &eeprom, sizeof(eeprom)))
  1756. return -EFAULT;
  1757. useraddr += offsetof(struct ethtool_eeprom, data);
  1758. spin_lock_irq(&np->lock);
  1759. r = netdev_get_eeprom(dev, eebuf);
  1760. spin_unlock_irq(&np->lock);
  1761. if (r)
  1762. return r;
  1763. if (copy_to_user(useraddr, eebuf+eeprom.offset, eeprom.len))
  1764. return -EFAULT;
  1765. return 0;
  1766. }
  1767.         }
  1768. return -EOPNOTSUPP;
  1769. }
  1770. static int netdev_set_wol(struct net_device *dev, u32 newval)
  1771. {
  1772. struct netdev_private *np = dev->priv;
  1773. u32 data = readl(dev->base_addr + WOLCmd) & ~WakeOptsSummary;
  1774. /* translate to bitmasks this chip understands */
  1775. if (newval & WAKE_PHY)
  1776. data |= WakePhy;
  1777. if (newval & WAKE_UCAST)
  1778. data |= WakeUnicast;
  1779. if (newval & WAKE_MCAST)
  1780. data |= WakeMulticast;
  1781. if (newval & WAKE_BCAST)
  1782. data |= WakeBroadcast;
  1783. if (newval & WAKE_ARP)
  1784. data |= WakeArp;
  1785. if (newval & WAKE_MAGIC)
  1786. data |= WakeMagic;
  1787. if (np->srr >= SRR_REV_D) {
  1788. if (newval & WAKE_MAGICSECURE) {
  1789. data |= WakeMagicSecure;
  1790. }
  1791. }
  1792. writel(data, dev->base_addr + WOLCmd);
  1793. return 0;
  1794. }
  1795. static int netdev_get_wol(struct net_device *dev, u32 *supported, u32 *cur)
  1796. {
  1797. struct netdev_private *np = dev->priv;
  1798. u32 regval = readl(dev->base_addr + WOLCmd);
  1799. *supported = (WAKE_PHY | WAKE_UCAST | WAKE_MCAST | WAKE_BCAST 
  1800. | WAKE_ARP | WAKE_MAGIC);
  1801. if (np->srr >= SRR_REV_D) {
  1802. /* SOPASS works on revD and higher */
  1803. *supported |= WAKE_MAGICSECURE;
  1804. }
  1805. *cur = 0;
  1806. /* translate from chip bitmasks */
  1807. if (regval & WakePhy)
  1808. *cur |= WAKE_PHY;
  1809. if (regval & WakeUnicast)
  1810. *cur |= WAKE_UCAST;
  1811. if (regval & WakeMulticast)
  1812. *cur |= WAKE_MCAST;
  1813. if (regval & WakeBroadcast)
  1814. *cur |= WAKE_BCAST;
  1815. if (regval & WakeArp)
  1816. *cur |= WAKE_ARP;
  1817. if (regval & WakeMagic)
  1818. *cur |= WAKE_MAGIC;
  1819. if (regval & WakeMagicSecure) {
  1820. /* this can be on in revC, but it's broken */
  1821. *cur |= WAKE_MAGICSECURE;
  1822. }
  1823. return 0;
  1824. }
  1825. static int netdev_set_sopass(struct net_device *dev, u8 *newval)
  1826. {
  1827. struct netdev_private *np = dev->priv;
  1828. u16 *sval = (u16 *)newval;
  1829. u32 addr;
  1830. if (np->srr < SRR_REV_D) {
  1831. return 0;
  1832. }
  1833. /* enable writing to these registers by disabling the RX filter */
  1834. addr = readl(dev->base_addr + RxFilterAddr) & ~RFCRAddressMask;
  1835. addr &= ~RxFilterEnable;
  1836. writel(addr, dev->base_addr + RxFilterAddr);
  1837. /* write the three words to (undocumented) RFCR vals 0xa, 0xc, 0xe */
  1838. writel(addr | 0xa, dev->base_addr + RxFilterAddr);
  1839. writew(sval[0], dev->base_addr + RxFilterData);
  1840. writel(addr | 0xc, dev->base_addr + RxFilterAddr);
  1841. writew(sval[1], dev->base_addr + RxFilterData);
  1842. writel(addr | 0xe, dev->base_addr + RxFilterAddr);
  1843. writew(sval[2], dev->base_addr + RxFilterData);
  1844. /* re-enable the RX filter */
  1845. writel(addr | RxFilterEnable, dev->base_addr + RxFilterAddr);
  1846. return 0;
  1847. }
  1848. static int netdev_get_sopass(struct net_device *dev, u8 *data)
  1849. {
  1850. struct netdev_private *np = dev->priv;
  1851. u16 *sval = (u16 *)data;
  1852. u32 addr;
  1853. if (np->srr < SRR_REV_D) {
  1854. sval[0] = sval[1] = sval[2] = 0;
  1855. return 0;
  1856. }
  1857. /* read the three words from (undocumented) RFCR vals 0xa, 0xc, 0xe */
  1858. addr = readl(dev->base_addr + RxFilterAddr) & ~RFCRAddressMask;
  1859. writel(addr | 0xa, dev->base_addr + RxFilterAddr);
  1860. sval[0] = readw(dev->base_addr + RxFilterData);
  1861. writel(addr | 0xc, dev->base_addr + RxFilterAddr);
  1862. sval[1] = readw(dev->base_addr + RxFilterData);
  1863. writel(addr | 0xe, dev->base_addr + RxFilterAddr);
  1864. sval[2] = readw(dev->base_addr + RxFilterData);
  1865. writel(addr, dev->base_addr + RxFilterAddr);
  1866. return 0;
  1867. }
  1868. static int netdev_get_ecmd(struct net_device *dev, struct ethtool_cmd *ecmd)
  1869. {
  1870. u32 tmp;
  1871. ecmd->supported = 
  1872. (SUPPORTED_10baseT_Half | SUPPORTED_10baseT_Full |
  1873. SUPPORTED_100baseT_Half | SUPPORTED_100baseT_Full |
  1874. SUPPORTED_Autoneg | SUPPORTED_TP | SUPPORTED_MII);
  1875. /* only supports twisted-pair or MII */
  1876. tmp = readl(dev->base_addr + ChipConfig);
  1877. if (tmp & CfgExtPhy)
  1878. ecmd->port = PORT_MII;
  1879. else
  1880. ecmd->port = PORT_TP;
  1881. /* only supports internal transceiver */
  1882. ecmd->transceiver = XCVR_INTERNAL;
  1883. /* not sure what this is for */
  1884. ecmd->phy_address = readw(dev->base_addr + PhyCtrl) & PhyAddrMask;
  1885. ecmd->advertising = ADVERTISED_TP | ADVERTISED_MII;
  1886. tmp = mdio_read(dev, 1, MII_ADVERTISE);
  1887. if (tmp & ADVERTISE_10HALF)
  1888. ecmd->advertising |= ADVERTISED_10baseT_Half;
  1889. if (tmp & ADVERTISE_10FULL)
  1890. ecmd->advertising |= ADVERTISED_10baseT_Full;
  1891. if (tmp & ADVERTISE_100HALF)
  1892. ecmd->advertising |= ADVERTISED_100baseT_Half;
  1893. if (tmp & ADVERTISE_100FULL)
  1894. ecmd->advertising |= ADVERTISED_100baseT_Full;
  1895. tmp = mdio_read(dev, 1, MII_BMCR);
  1896. if (tmp & BMCR_ANENABLE) {
  1897. ecmd->advertising |= ADVERTISED_Autoneg;
  1898. ecmd->autoneg = AUTONEG_ENABLE;
  1899. } else {
  1900. ecmd->autoneg = AUTONEG_DISABLE;
  1901. }
  1902. tmp = readl(dev->base_addr + ChipConfig);
  1903. if (tmp & CfgSpeed100) {
  1904. ecmd->speed = SPEED_100;
  1905. } else {
  1906. ecmd->speed = SPEED_10;
  1907. }
  1908. if (tmp & CfgFullDuplex) {
  1909. ecmd->duplex = DUPLEX_FULL;
  1910. } else {
  1911. ecmd->duplex = DUPLEX_HALF;
  1912. }
  1913. /* ignore maxtxpkt, maxrxpkt for now */
  1914. return 0;
  1915. }
  1916. static int netdev_set_ecmd(struct net_device *dev, struct ethtool_cmd *ecmd)
  1917. {
  1918. struct netdev_private *np = dev->priv;
  1919. u32 tmp;
  1920. if (ecmd->speed != SPEED_10 && ecmd->speed != SPEED_100)
  1921. return -EINVAL;
  1922. if (ecmd->duplex != DUPLEX_HALF && ecmd->duplex != DUPLEX_FULL)
  1923. return -EINVAL;
  1924. if (ecmd->port != PORT_TP && ecmd->port != PORT_MII)
  1925. return -EINVAL;
  1926. if (ecmd->transceiver != XCVR_INTERNAL)
  1927. return -EINVAL;
  1928. if (ecmd->autoneg != AUTONEG_DISABLE && ecmd->autoneg != AUTONEG_ENABLE)
  1929. return -EINVAL;
  1930. /* ignore phy_address, maxtxpkt, maxrxpkt for now */
  1931. /* WHEW! now lets bang some bits */
  1932. tmp = mdio_read(dev, 1, MII_BMCR);
  1933. if (ecmd->autoneg == AUTONEG_ENABLE) {
  1934. /* turn on autonegotiation */
  1935. tmp |= BMCR_ANENABLE;
  1936. np->advertising = mdio_read(dev, 1, MII_ADVERTISE);
  1937. } else {
  1938. /* turn off auto negotiation, set speed and duplexity */
  1939. tmp &= ~(BMCR_ANENABLE | BMCR_SPEED100 | BMCR_FULLDPLX);
  1940. if (ecmd->speed == SPEED_100)
  1941. tmp |= BMCR_SPEED100;
  1942. if (ecmd->duplex == DUPLEX_FULL)
  1943. tmp |= BMCR_FULLDPLX;
  1944. else
  1945. np->full_duplex = 0;
  1946. }
  1947. mdio_write(dev, 1, MII_BMCR, tmp);
  1948. return 0;
  1949. }
  1950. static int netdev_get_regs(struct net_device *dev, u8 *buf)
  1951. {
  1952. int i;
  1953. int j;
  1954. u32 rfcr;
  1955. u32 *rbuf = (u32 *)buf;
  1956. /* read all of page 0 of registers */
  1957. for (i = 0; i < NATSEMI_PG0_NREGS; i++) {
  1958. rbuf[i] = readl(dev->base_addr + i*4);
  1959. }
  1960. /* read only the 'magic' registers from page 1 */
  1961. writew(1, dev->base_addr + PGSEL);
  1962. rbuf[i++] = readw(dev->base_addr + PMDCSR);
  1963. rbuf[i++] = readw(dev->base_addr + TSTDAT);
  1964. rbuf[i++] = readw(dev->base_addr + DSPCFG);
  1965. rbuf[i++] = readw(dev->base_addr + SDCFG);
  1966. writew(0, dev->base_addr + PGSEL);
  1967. /* read RFCR indexed registers */
  1968. rfcr = readl(dev->base_addr + RxFilterAddr);
  1969. for (j = 0; j < NATSEMI_RFDR_NREGS; j++) {
  1970. writel(j*2, dev->base_addr + RxFilterAddr);
  1971. rbuf[i++] = readw(dev->base_addr + RxFilterData);
  1972. }
  1973. writel(rfcr, dev->base_addr + RxFilterAddr);
  1974. /* the interrupt status is clear-on-read - see if we missed any */
  1975. if (rbuf[4] & rbuf[5]) {
  1976. printk(KERN_WARNING 
  1977. "%s: shoot, we dropped an interrupt (%#08x)n", 
  1978. dev->name, rbuf[4] & rbuf[5]);
  1979. }
  1980. return 0;
  1981. }
  1982. #define SWAP_BITS(x) ( (((x) & 0x0001) << 15) | (((x) & 0x0002) << 13) 
  1983. | (((x) & 0x0004) << 11) | (((x) & 0x0008) << 9)  
  1984. | (((x) & 0x0010) << 7)  | (((x) & 0x0020) << 5)  
  1985. | (((x) & 0x0040) << 3)  | (((x) & 0x0080) << 1)  
  1986. | (((x) & 0x0100) >> 1)  | (((x) & 0x0200) >> 3)  
  1987. | (((x) & 0x0400) >> 5)  | (((x) & 0x0800) >> 7)  
  1988. | (((x) & 0x1000) >> 9)  | (((x) & 0x2000) >> 11) 
  1989. | (((x) & 0x4000) >> 13) | (((x) & 0x8000) >> 15) )
  1990. static int netdev_get_eeprom(struct net_device *dev, u8 *buf)
  1991. {
  1992. int i;
  1993. u16 *ebuf = (u16 *)buf;
  1994. /* eeprom_read reads 16 bits, and indexes by 16 bits */
  1995. for (i = 0; i < NATSEMI_EEPROM_SIZE/2; i++) {
  1996. ebuf[i] = eeprom_read(dev->base_addr, i);
  1997. /* The EEPROM itself stores data bit-swapped, but eeprom_read 
  1998.  * reads it back "sanely". So we swap it back here in order to
  1999.  * present it to userland as it is stored. */
  2000. ebuf[i] = SWAP_BITS(ebuf[i]);
  2001. }
  2002. return 0;
  2003. }
  2004. static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
  2005. {
  2006. struct mii_ioctl_data *data = (struct mii_ioctl_data *)&rq->ifr_data;
  2007. switch(cmd) {
  2008. case SIOCETHTOOL:
  2009. return netdev_ethtool_ioctl(dev, (void *) rq->ifr_data);
  2010. case SIOCGMIIPHY: /* Get address of MII PHY in use. */
  2011. case SIOCDEVPRIVATE: /* for binary compat, remove in 2.5 */
  2012. data->phy_id = 1;
  2013. /* Fall Through */
  2014. case SIOCGMIIREG: /* Read MII PHY register. */
  2015. case SIOCDEVPRIVATE+1: /* for binary compat, remove in 2.5 */
  2016. data->val_out = mdio_read(dev, data->phy_id & 0x1f, 
  2017. data->reg_num & 0x1f);
  2018. return 0;
  2019. case SIOCSMIIREG: /* Write MII PHY register. */
  2020. case SIOCDEVPRIVATE+2: /* for binary compat, remove in 2.5 */
  2021. if (!capable(CAP_NET_ADMIN))
  2022. return -EPERM;
  2023. mdio_write(dev, data->phy_id & 0x1f, data->reg_num & 0x1f, 
  2024. data->val_in);
  2025. return 0;
  2026. default:
  2027. return -EOPNOTSUPP;
  2028. }
  2029. }
  2030. static void enable_wol_mode(struct net_device *dev, int enable_intr)
  2031. {
  2032. long ioaddr = dev->base_addr;
  2033. struct netdev_private *np = dev->priv;
  2034. if (netif_msg_wol(np))
  2035. printk(KERN_INFO "%s: remaining active for wake-on-lann", 
  2036. dev->name);
  2037. /* For WOL we must restart the rx process in silent mode.
  2038.  * Write NULL to the RxRingPtr. Only possible if
  2039.  * rx process is stopped
  2040.  */
  2041. writel(0, ioaddr + RxRingPtr);
  2042. /* read WoL status to clear */
  2043. readl(ioaddr + WOLCmd);
  2044. /* PME on, clear status */
  2045. writel(np->SavedClkRun | PMEEnable | PMEStatus, ioaddr + ClkRun);
  2046. /* and restart the rx process */
  2047. writel(RxOn, ioaddr + ChipCmd);
  2048. if (enable_intr) {
  2049. /* enable the WOL interrupt.
  2050.  * Could be used to send a netlink message.
  2051.  */
  2052. writel(readl(ioaddr + IntrMask) | WOLPkt, ioaddr + IntrMask);
  2053. }
  2054. }
  2055. static int netdev_close(struct net_device *dev)
  2056. {
  2057. long ioaddr = dev->base_addr;
  2058. struct netdev_private *np = dev->priv;
  2059. netif_stop_queue(dev);
  2060. netif_carrier_off(dev);
  2061. if (netif_msg_ifdown(np))
  2062. printk(KERN_DEBUG 
  2063. "%s: Shutting down ethercard, status was %#04x.n",
  2064. dev->name, (int)readl(ioaddr + ChipCmd));
  2065. if (netif_msg_pktdata(np))
  2066. printk(KERN_DEBUG 
  2067. "%s: Queue pointers were Tx %d / %d,  Rx %d / %d.n",
  2068. dev->name, np->cur_tx, np->dirty_tx, 
  2069. np->cur_rx, np->dirty_rx);
  2070. del_timer_sync(&np->timer);
  2071. disable_irq(dev->irq);
  2072. spin_lock_irq(&np->lock);
  2073. /* Disable and clear interrupts */
  2074. writel(0, ioaddr + IntrEnable);
  2075. readl(ioaddr + IntrMask);
  2076. readw(ioaddr + MIntrStatus);
  2077.   /* Freeze Stats */
  2078. writel(StatsFreeze, ioaddr + StatsCtrl);
  2079.     
  2080. /* Stop the chip's Tx and Rx processes. */
  2081. natsemi_stop_rxtx(dev);
  2082. __get_stats(dev);
  2083. spin_unlock_irq(&np->lock);
  2084. /* race: shared irq and as most nics the DP83815
  2085.  * reports _all_ interrupt conditions in IntrStatus, even
  2086.  * disabled ones.
  2087.  * packet received after disable_irq, but before stop_rxtx
  2088.  * --> race. intr_handler would restart the rx process.
  2089.  * netif_device_{de,a}tach around {enable,free}_irq.
  2090.  */
  2091. netif_device_detach(dev);
  2092. enable_irq(dev->irq);
  2093. free_irq(dev->irq, dev);
  2094. netif_device_attach(dev);
  2095. /* clear the carrier last - an interrupt could reenable it otherwise */
  2096. netif_carrier_off(dev);
  2097. dump_ring(dev);
  2098. drain_ring(dev);
  2099. free_ring(dev);
  2100.  {
  2101. u32 wol = readl(ioaddr + WOLCmd) & WakeOptsSummary;
  2102. if (wol) {
  2103. /* restart the NIC in WOL mode.
  2104.  * The nic must be stopped for this.
  2105.  */
  2106. enable_wol_mode(dev, 0);
  2107. } else {
  2108. /* Restore PME enable bit unmolested */
  2109. writel(np->SavedClkRun, ioaddr + ClkRun);
  2110. }
  2111. }
  2112. return 0;
  2113. }
  2114. static void __devexit natsemi_remove1 (struct pci_dev *pdev)
  2115. {
  2116. struct net_device *dev = pci_get_drvdata(pdev);
  2117. unregister_netdev (dev);
  2118. pci_release_regions (pdev);
  2119. iounmap ((char *) dev->base_addr);
  2120. kfree (dev);
  2121. pci_set_drvdata(pdev, NULL);
  2122. }
  2123. #ifdef CONFIG_PM
  2124. /*
  2125.  * suspend/resume synchronization:
  2126.  * entry points:
  2127.  *   netdev_open, netdev_close, netdev_ioctl, set_rx_mode, intr_handler,
  2128.  *   start_tx, tx_timeout
  2129.  * Reading from some registers can restart the nic!
  2130.  * No function accesses the hardware without checking netif_device_present().
  2131.  *  the check occurs under spin_lock_irq(&np->lock);
  2132.  * exceptions:
  2133.  *  * netdev_ioctl, netdev_open.
  2134.  *  net/core checks netif_device_present() before calling them.
  2135.  *  * netdev_close: doesn't hurt.
  2136.  * * netdev_timer: timer stopped by natsemi_suspend.
  2137.  * * intr_handler: doesn't acquire the spinlock. suspend calls
  2138.  * disable_irq() to enforce synchronization.
  2139.  *
  2140.  * netif_device_detach must occur under spin_unlock_irq(), interrupts from a
  2141.  * detached device would cause an irq storm.
  2142.  */
  2143. static int natsemi_suspend (struct pci_dev *pdev, u32 state)
  2144. {
  2145. struct net_device *dev = pci_get_drvdata (pdev);
  2146. struct netdev_private *np = dev->priv;
  2147. long ioaddr = dev->base_addr;
  2148. rtnl_lock();
  2149. if (netif_running (dev)) {
  2150. del_timer_sync(&np->timer);
  2151. disable_irq(dev->irq);
  2152. spin_lock_irq(&np->lock);
  2153. writel(0, ioaddr + IntrEnable);
  2154. natsemi_stop_rxtx(dev);
  2155. netif_stop_queue(dev);
  2156. netif_device_detach(dev);
  2157. spin_unlock_irq(&np->lock);
  2158. enable_irq(dev->irq);
  2159. /* Update the error counts. */
  2160. __get_stats(dev);
  2161. /* pci_power_off(pdev, -1); */
  2162. drain_ring(dev);
  2163. {
  2164. u32 wol = readl(ioaddr + WOLCmd) & WakeOptsSummary;
  2165. /* Restore PME enable bit */
  2166. if (wol) {
  2167. /* restart the NIC in WOL mode.
  2168.  * The nic must be stopped for this.
  2169.  * FIXME: use the WOL interupt 
  2170.  */
  2171. enable_wol_mode(dev, 0);
  2172. } else {
  2173. /* Restore PME enable bit unmolested */
  2174. writel(np->SavedClkRun, ioaddr + ClkRun);
  2175. }
  2176. }
  2177. } else {
  2178. netif_device_detach(dev);
  2179. }
  2180. rtnl_unlock();
  2181. return 0;
  2182. }
  2183. static int natsemi_resume (struct pci_dev *pdev)
  2184. {
  2185. struct net_device *dev = pci_get_drvdata (pdev);
  2186. struct netdev_private *np = dev->priv;
  2187. rtnl_lock();
  2188. if (netif_device_present(dev))
  2189. goto out;
  2190. if (netif_running(dev)) {
  2191. pci_enable_device(pdev);
  2192. /* pci_power_on(pdev); */
  2193. natsemi_reset(dev);
  2194. init_ring(dev);
  2195. spin_lock_irq(&np->lock);
  2196. init_registers(dev);
  2197. netif_device_attach(dev);
  2198. spin_unlock_irq(&np->lock);
  2199. mod_timer(&np->timer, jiffies + 1*HZ);
  2200. } else {
  2201. netif_device_attach(dev);
  2202. }
  2203. out:
  2204. rtnl_unlock();
  2205. return 0;
  2206. }
  2207. #endif /* CONFIG_PM */
  2208. static struct pci_driver natsemi_driver = {
  2209. name: DRV_NAME,
  2210. id_table: natsemi_pci_tbl,
  2211. probe: natsemi_probe1,
  2212. remove: __devexit_p(natsemi_remove1),
  2213. #ifdef CONFIG_PM
  2214. suspend: natsemi_suspend,
  2215. resume: natsemi_resume,
  2216. #endif
  2217. };
  2218. static int __init natsemi_init_mod (void)
  2219. {
  2220. /* when a module, this is printed whether or not devices are found in probe */
  2221. #ifdef MODULE
  2222. printk(version);
  2223. #endif
  2224. return pci_module_init (&natsemi_driver);
  2225. }
  2226. static void __exit natsemi_exit_mod (void)
  2227. {
  2228. pci_unregister_driver (&natsemi_driver);
  2229. }
  2230. module_init(natsemi_init_mod);
  2231. module_exit(natsemi_exit_mod);