e1000_main.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:61k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*******************************************************************************
  2.   
  3.   Copyright(c) 1999 - 2002 Intel Corporation. All rights reserved.
  4.   
  5.   This program is free software; you can redistribute it and/or modify it 
  6.   under the terms of the GNU General Public License as published by the Free 
  7.   Software Foundation; either version 2 of the License, or (at your option) 
  8.   any later version.
  9.   
  10.   This program is distributed in the hope that it will be useful, but WITHOUT 
  11.   ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or 
  12.   FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for 
  13.   more details.
  14.   
  15.   You should have received a copy of the GNU General Public License along with
  16.   this program; if not, write to the Free Software Foundation, Inc., 59 
  17.   Temple Place - Suite 330, Boston, MA  02111-1307, USA.
  18.   
  19.   The full GNU General Public License is included in this distribution in the
  20.   file called LICENSE.
  21.   
  22.   Contact Information:
  23.   Linux NICS <linux.nics@intel.com>
  24.   Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
  25. *******************************************************************************/
  26. #define __E1000_MAIN__
  27. #include "e1000.h"
  28. /* Change Log
  29.  *
  30.  * 4.4.12       10/15/02
  31.  *   o Clean up: use members of pci_device rather than direct calls to
  32.  *     pci_read_config_word.
  33.  *   o Bug fix: changed default flow control settings.
  34.  *   o Clean up: ethtool file now has an inclusive list for adapters in the
  35.  *     Wake-On-LAN capabilities instead of an exclusive list.
  36.  *   o Bug fix: miscellaneous WoL bug fixes.
  37.  *   o Added software interrupt for clearing rx ring
  38.  *   o Bug fix: easier to undo "forcing" of 1000/fd using ethtool.
  39.  *   o Now setting netdev->mem_end in e1000_probe.
  40.  *   o Clean up: Moved tx_timeout from interrupt context to process context
  41.  *     using schedule_task.
  42.  *
  43.  * 4.3.15      8/9/02
  44.  *   o Converted from Dual BSD/GPL license to GPL license.
  45.  *   o Clean up: use pci_[clear|set]_mwi rather than direct calls to
  46.  *     pci_write_config_word.
  47.  *   o Bug fix: added read-behind-write calls to post writes before delays.
  48.  *   o Bug fix: removed mdelay busy-waits in interrupt context.
  49.  *   o Clean up: direct clear of descriptor bits rather than using memset.
  50.  *   o Bug fix: added wmb() for ia-64 between descritor writes and advancing
  51.  *     descriptor tail.
  52.  *   o Feature: added locking mechanism for asf functionality.
  53.  *   o Feature: exposed two Tx and one Rx interrupt delay knobs for finer
  54.  *     control over interurpt rate tuning.
  55.  *   o Misc ethtool bug fixes.
  56.  *
  57.  * 4.3.2       7/5/02
  58.  */
  59.  
  60. char e1000_driver_name[] = "e1000";
  61. char e1000_driver_string[] = "Intel(R) PRO/1000 Network Driver";
  62. char e1000_driver_version[] = "4.4.12-k1";
  63. char e1000_copyright[] = "Copyright (c) 1999-2002 Intel Corporation.";
  64. /* e1000_pci_tbl - PCI Device ID Table
  65.  *
  66.  * Private driver_data field (last one) stores an index into e1000_strings
  67.  * Wildcard entries (PCI_ANY_ID) should come last
  68.  * Last entry must be all 0s
  69.  *
  70.  * { Vendor ID, Device ID, SubVendor ID, SubDevice ID,
  71.  *   Class, Class Mask, String Index }
  72.  */
  73. static struct pci_device_id e1000_pci_tbl[] __devinitdata = {
  74. /* Intel(R) PRO/1000 Network Connection */
  75. {0x8086, 0x1000, 0x8086, 0x1000, 0, 0, 0},
  76. {0x8086, 0x1001, 0x8086, 0x1003, 0, 0, 0},
  77. {0x8086, 0x1004, 0x8086, 0x1004, 0, 0, 0},
  78. {0x8086, 0x1008, 0x8086, 0x1107, 0, 0, 0},
  79. {0x8086, 0x1009, 0x8086, 0x1109, 0, 0, 0},
  80. {0x8086, 0x100C, 0x8086, 0x1112, 0, 0, 0},
  81. {0x8086, 0x100E, 0x8086, 0x001E, 0, 0, 0},
  82. /* Compaq Gigabit Ethernet Server Adapter */
  83. {0x8086, 0x1000, 0x0E11, PCI_ANY_ID, 0, 0, 1},
  84. {0x8086, 0x1001, 0x0E11, PCI_ANY_ID, 0, 0, 1},
  85. {0x8086, 0x1004, 0x0E11, PCI_ANY_ID, 0, 0, 1},
  86. /* IBM Mobile, Desktop & Server Adapters */
  87. {0x8086, 0x1000, 0x1014, PCI_ANY_ID, 0, 0, 2},
  88. {0x8086, 0x1001, 0x1014, PCI_ANY_ID, 0, 0, 2},
  89. {0x8086, 0x1004, 0x1014, PCI_ANY_ID, 0, 0, 2},
  90. /* Generic */
  91. {0x8086, 0x1000, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  92. {0x8086, 0x1001, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  93. {0x8086, 0x1004, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  94. {0x8086, 0x1008, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  95. {0x8086, 0x1009, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  96. {0x8086, 0x100C, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  97. {0x8086, 0x100D, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  98. {0x8086, 0x100E, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  99. {0x8086, 0x100F, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  100. {0x8086, 0x1011, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  101. {0x8086, 0x1010, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  102. {0x8086, 0x1012, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  103. {0x8086, 0x1016, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  104. {0x8086, 0x1017, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  105. {0x8086, 0x101E, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0},
  106. /* required last entry */
  107. {0,}
  108. };
  109. MODULE_DEVICE_TABLE(pci, e1000_pci_tbl);
  110. static char *e1000_strings[] = {
  111. "Intel(R) PRO/1000 Network Connection",
  112. "Compaq Gigabit Ethernet Server Adapter",
  113. "IBM Mobile, Desktop & Server Adapters"
  114. };
  115. /* Local Function Prototypes */
  116. int e1000_up(struct e1000_adapter *adapter);
  117. void e1000_down(struct e1000_adapter *adapter);
  118. void e1000_reset(struct e1000_adapter *adapter);
  119. static int e1000_init_module(void);
  120. static void e1000_exit_module(void);
  121. static int e1000_probe(struct pci_dev *pdev, const struct pci_device_id *ent);
  122. static void e1000_remove(struct pci_dev *pdev);
  123. static int e1000_sw_init(struct e1000_adapter *adapter);
  124. static int e1000_open(struct net_device *netdev);
  125. static int e1000_close(struct net_device *netdev);
  126. static int e1000_setup_tx_resources(struct e1000_adapter *adapter);
  127. static int e1000_setup_rx_resources(struct e1000_adapter *adapter);
  128. static void e1000_configure_tx(struct e1000_adapter *adapter);
  129. static void e1000_configure_rx(struct e1000_adapter *adapter);
  130. static void e1000_setup_rctl(struct e1000_adapter *adapter);
  131. static void e1000_clean_tx_ring(struct e1000_adapter *adapter);
  132. static void e1000_clean_rx_ring(struct e1000_adapter *adapter);
  133. static void e1000_free_tx_resources(struct e1000_adapter *adapter);
  134. static void e1000_free_rx_resources(struct e1000_adapter *adapter);
  135. static void e1000_set_multi(struct net_device *netdev);
  136. static void e1000_update_phy_info(unsigned long data);
  137. static void e1000_watchdog(unsigned long data);
  138. static int e1000_xmit_frame(struct sk_buff *skb, struct net_device *netdev);
  139. static struct net_device_stats * e1000_get_stats(struct net_device *netdev);
  140. static int e1000_change_mtu(struct net_device *netdev, int new_mtu);
  141. static int e1000_set_mac(struct net_device *netdev, void *p);
  142. static void e1000_update_stats(struct e1000_adapter *adapter);
  143. static inline void e1000_irq_disable(struct e1000_adapter *adapter);
  144. static inline void e1000_irq_enable(struct e1000_adapter *adapter);
  145. static void e1000_intr(int irq, void *data, struct pt_regs *regs);
  146. static void e1000_clean_tx_irq(struct e1000_adapter *adapter);
  147. static void e1000_clean_rx_irq(struct e1000_adapter *adapter);
  148. static void e1000_alloc_rx_buffers(struct e1000_adapter *adapter);
  149. static int e1000_ioctl(struct net_device *netdev, struct ifreq *ifr, int cmd);
  150. static void e1000_enter_82542_rst(struct e1000_adapter *adapter);
  151. static void e1000_leave_82542_rst(struct e1000_adapter *adapter);
  152. static inline void e1000_rx_checksum(struct e1000_adapter *adapter,
  153.                                      struct e1000_rx_desc *rx_desc,
  154.                                      struct sk_buff *skb);
  155. static void e1000_tx_timeout(struct net_device *dev);
  156. static void e1000_tx_timeout_task(struct net_device *dev);
  157. static void e1000_vlan_rx_register(struct net_device *netdev, struct vlan_group *grp);
  158. static void e1000_vlan_rx_add_vid(struct net_device *netdev, uint16_t vid);
  159. static void e1000_vlan_rx_kill_vid(struct net_device *netdev, uint16_t vid);
  160. static int e1000_notify_reboot(struct notifier_block *, unsigned long event, void *ptr);
  161. static int e1000_notify_netdev(struct notifier_block *, unsigned long event, void *ptr);
  162. static int e1000_suspend(struct pci_dev *pdev, uint32_t state);
  163. #ifdef CONFIG_PM
  164. static int e1000_resume(struct pci_dev *pdev);
  165. #endif
  166. struct notifier_block e1000_notifier_reboot = {
  167. .notifier_call = e1000_notify_reboot,
  168. .next = NULL,
  169. .priority = 0
  170. };
  171. struct notifier_block e1000_notifier_netdev = {
  172. .notifier_call = e1000_notify_netdev,
  173. .next = NULL,
  174. .priority = 0
  175. };
  176. /* Exported from other modules */
  177. extern void e1000_check_options(struct e1000_adapter *adapter);
  178. extern void e1000_proc_dev_setup(struct e1000_adapter *adapter);
  179. extern void e1000_proc_dev_free(struct e1000_adapter *adapter);
  180. extern int e1000_ethtool_ioctl(struct net_device *netdev, struct ifreq *ifr);
  181. static struct pci_driver e1000_driver = {
  182. .name     = e1000_driver_name,
  183. .id_table = e1000_pci_tbl,
  184. .probe    = e1000_probe,
  185. .remove   = __devexit_p(e1000_remove),
  186. /* Power Managment Hooks */
  187. #ifdef CONFIG_PM
  188. .suspend  = e1000_suspend,
  189. .resume   = e1000_resume
  190. #endif
  191. };
  192. MODULE_AUTHOR("Intel Corporation, <linux.nics@intel.com>");
  193. MODULE_DESCRIPTION("Intel(R) PRO/1000 Network Driver");
  194. MODULE_LICENSE("GPL");
  195. /**
  196.  * e1000_init_module - Driver Registration Routine
  197.  *
  198.  * e1000_init_module is the first routine called when the driver is
  199.  * loaded. All it does is register with the PCI subsystem.
  200.  **/
  201. static int __init
  202. e1000_init_module(void)
  203. {
  204. int ret;
  205. printk(KERN_INFO "%s - version %sn",
  206.        e1000_driver_string, e1000_driver_version);
  207. printk(KERN_INFO "%sn", e1000_copyright);
  208. ret = pci_module_init(&e1000_driver);
  209. if(ret >= 0) {
  210. register_reboot_notifier(&e1000_notifier_reboot);
  211. register_netdevice_notifier(&e1000_notifier_netdev);
  212. }
  213. return ret;
  214. }
  215. module_init(e1000_init_module);
  216. /**
  217.  * e1000_exit_module - Driver Exit Cleanup Routine
  218.  *
  219.  * e1000_exit_module is called just before the driver is removed
  220.  * from memory.
  221.  **/
  222. static void __exit
  223. e1000_exit_module(void)
  224. {
  225. unregister_reboot_notifier(&e1000_notifier_reboot);
  226. unregister_netdevice_notifier(&e1000_notifier_netdev);
  227. pci_unregister_driver(&e1000_driver);
  228. }
  229. module_exit(e1000_exit_module);
  230. int
  231. e1000_up(struct e1000_adapter *adapter)
  232. {
  233. struct net_device *netdev = adapter->netdev;
  234. if(request_irq(netdev->irq, &e1000_intr, SA_SHIRQ | SA_SAMPLE_RANDOM,
  235.                netdev->name, netdev))
  236. return -1;
  237. /* hardware has been reset, we need to reload some things */
  238. e1000_set_multi(netdev);
  239. e1000_configure_tx(adapter);
  240. e1000_setup_rctl(adapter);
  241. e1000_configure_rx(adapter);
  242. e1000_alloc_rx_buffers(adapter);
  243. mod_timer(&adapter->watchdog_timer, jiffies);
  244. e1000_irq_enable(adapter);
  245. return 0;
  246. }
  247. void
  248. e1000_down(struct e1000_adapter *adapter)
  249. {
  250. struct net_device *netdev = adapter->netdev;
  251. e1000_irq_disable(adapter);
  252. free_irq(netdev->irq, netdev);
  253. del_timer_sync(&adapter->watchdog_timer);
  254. del_timer_sync(&adapter->phy_info_timer);
  255. adapter->link_speed = 0;
  256. adapter->link_duplex = 0;
  257. netif_carrier_off(netdev);
  258. netif_stop_queue(netdev);
  259. e1000_reset(adapter);
  260. e1000_clean_tx_ring(adapter);
  261. e1000_clean_rx_ring(adapter);
  262. }
  263. void
  264. e1000_reset(struct e1000_adapter *adapter)
  265. {
  266. /* Repartition Pba for greater than 9k mtu
  267.  * To take effect CTRL.RST is required.
  268.  */
  269. if(adapter->rx_buffer_len > E1000_RXBUFFER_8192)
  270. E1000_WRITE_REG(&adapter->hw, PBA, E1000_JUMBO_PBA);
  271. else
  272. E1000_WRITE_REG(&adapter->hw, PBA, E1000_DEFAULT_PBA);
  273. adapter->hw.fc = adapter->hw.original_fc;
  274. e1000_reset_hw(&adapter->hw);
  275. if(adapter->hw.mac_type >= e1000_82544)
  276. E1000_WRITE_REG(&adapter->hw, WUC, 0);
  277. e1000_init_hw(&adapter->hw);
  278. e1000_reset_adaptive(&adapter->hw);
  279. e1000_phy_get_info(&adapter->hw, &adapter->phy_info);
  280. }
  281. /**
  282.  * e1000_probe - Device Initialization Routine
  283.  * @pdev: PCI device information struct
  284.  * @ent: entry in e1000_pci_tbl
  285.  *
  286.  * Returns 0 on success, negative on failure
  287.  *
  288.  * e1000_probe initializes an adapter identified by a pci_dev structure.
  289.  * The OS initialization, configuring of the adapter private structure,
  290.  * and a hardware reset occur.
  291.  **/
  292. static int __devinit
  293. e1000_probe(struct pci_dev *pdev,
  294.             const struct pci_device_id *ent)
  295. {
  296. struct net_device *netdev;
  297. struct e1000_adapter *adapter;
  298. static int cards_found = 0;
  299. unsigned long mmio_start;
  300. int mmio_len;
  301. int pci_using_dac;
  302. int i;
  303. if((i = pci_enable_device(pdev)))
  304. return i;
  305. if(!(i = pci_set_dma_mask(pdev, PCI_DMA_64BIT))) {
  306. pci_using_dac = 1;
  307. } else {
  308. if((i = pci_set_dma_mask(pdev, PCI_DMA_32BIT))) {
  309. E1000_ERR("No usable DMA configuration, abortingn");
  310. return i;
  311. }
  312. pci_using_dac = 0;
  313. }
  314. if((i = pci_request_regions(pdev, e1000_driver_name)))
  315. return i;
  316. pci_set_master(pdev);
  317. netdev = alloc_etherdev(sizeof(struct e1000_adapter));
  318. if(!netdev)
  319. goto err_alloc_etherdev;
  320. SET_MODULE_OWNER(netdev);
  321. pci_set_drvdata(pdev, netdev);
  322. adapter = netdev->priv;
  323. adapter->netdev = netdev;
  324. adapter->pdev = pdev;
  325. adapter->hw.back = adapter;
  326. mmio_start = pci_resource_start(pdev, BAR_0);
  327. mmio_len = pci_resource_len(pdev, BAR_0);
  328. adapter->hw.hw_addr = ioremap(mmio_start, mmio_len);
  329. if(!adapter->hw.hw_addr)
  330. goto err_ioremap;
  331. for(i = BAR_1; i <= BAR_5; i++) {
  332. if(pci_resource_len(pdev, i) == 0)
  333. continue;
  334. if(pci_resource_flags(pdev, i) & IORESOURCE_IO) {
  335. adapter->hw.io_base = pci_resource_start(pdev, i);
  336. break;
  337. }
  338. }
  339. netdev->open = &e1000_open;
  340. netdev->stop = &e1000_close;
  341. netdev->hard_start_xmit = &e1000_xmit_frame;
  342. netdev->get_stats = &e1000_get_stats;
  343. netdev->set_multicast_list = &e1000_set_multi;
  344. netdev->set_mac_address = &e1000_set_mac;
  345. netdev->change_mtu = &e1000_change_mtu;
  346. netdev->do_ioctl = &e1000_ioctl;
  347. netdev->tx_timeout = &e1000_tx_timeout;
  348. netdev->watchdog_timeo = HZ;
  349. netdev->vlan_rx_register = e1000_vlan_rx_register;
  350. netdev->vlan_rx_add_vid = e1000_vlan_rx_add_vid;
  351. netdev->vlan_rx_kill_vid = e1000_vlan_rx_kill_vid;
  352. netdev->irq = pdev->irq;
  353. netdev->mem_start = mmio_start;
  354. netdev->mem_end = mmio_start + mmio_len;
  355. netdev->base_addr = adapter->hw.io_base;
  356. adapter->bd_number = cards_found;
  357. adapter->id_string = e1000_strings[ent->driver_data];
  358. /* setup the private structure */
  359. if(e1000_sw_init(adapter))
  360. goto err_sw_init;
  361. if(adapter->hw.mac_type >= e1000_82543) {
  362. netdev->features = NETIF_F_SG |
  363.            NETIF_F_HW_CSUM |
  364.                    NETIF_F_HW_VLAN_TX |
  365.                    NETIF_F_HW_VLAN_RX |
  366.    NETIF_F_HW_VLAN_FILTER;
  367. } else {
  368. netdev->features = NETIF_F_SG;
  369. }
  370. if(pci_using_dac)
  371. netdev->features |= NETIF_F_HIGHDMA;
  372. /* make sure the EEPROM is good */
  373. if(e1000_validate_eeprom_checksum(&adapter->hw) < 0) {
  374. printk(KERN_ERR "The EEPROM Checksum Is Not Validn");
  375. goto err_eeprom;
  376. }
  377. /* copy the MAC address out of the EEPROM */
  378. e1000_read_mac_addr(&adapter->hw);
  379. memcpy(netdev->dev_addr, adapter->hw.mac_addr, netdev->addr_len);
  380. if(!is_valid_ether_addr(netdev->dev_addr))
  381. goto err_eeprom;
  382. e1000_read_part_num(&adapter->hw, &(adapter->part_num));
  383. e1000_get_bus_info(&adapter->hw);
  384. if((adapter->hw.mac_type == e1000_82544) &&
  385.    (adapter->hw.bus_type == e1000_bus_type_pcix))
  386. adapter->max_data_per_txd = 4096;
  387. else
  388. adapter->max_data_per_txd = MAX_JUMBO_FRAME_SIZE;
  389. init_timer(&adapter->watchdog_timer);
  390. adapter->watchdog_timer.function = &e1000_watchdog;
  391. adapter->watchdog_timer.data = (unsigned long) adapter;
  392. init_timer(&adapter->phy_info_timer);
  393. adapter->phy_info_timer.function = &e1000_update_phy_info;
  394. adapter->phy_info_timer.data = (unsigned long) adapter;
  395. INIT_TQUEUE(&adapter->tx_timeout_task, 
  396. (void (*)(void *))e1000_tx_timeout_task, netdev);
  397. register_netdev(netdev);
  398. memcpy(adapter->ifname, netdev->name, IFNAMSIZ);
  399. adapter->ifname[IFNAMSIZ-1] = 0;
  400. /* we're going to reset, so assume we have no link for now */
  401. netif_carrier_off(netdev);
  402. netif_stop_queue(netdev);
  403. printk(KERN_INFO "%s: %sn", netdev->name, adapter->id_string);
  404. e1000_check_options(adapter);
  405. e1000_proc_dev_setup(adapter);
  406. /* Initial Wake on LAN setting
  407.  * If APM wake is enabled in the EEPROM,
  408.  * enable the ACPI Magic Packet filter
  409.  */
  410. if((adapter->hw.mac_type >= e1000_82544) &&
  411.    (E1000_READ_REG(&adapter->hw, WUC) & E1000_WUC_APME))
  412. adapter->wol |= E1000_WUFC_MAG;
  413. /* reset the hardware with the new settings */
  414. e1000_reset(adapter);
  415. cards_found++;
  416. return 0;
  417. err_sw_init:
  418. err_eeprom:
  419. iounmap(adapter->hw.hw_addr);
  420. err_ioremap:
  421. pci_release_regions(pdev);
  422. kfree(netdev);
  423. err_alloc_etherdev:
  424. return -ENOMEM;
  425. }
  426. /**
  427.  * e1000_remove - Device Removal Routine
  428.  * @pdev: PCI device information struct
  429.  *
  430.  * e1000_remove is called by the PCI subsystem to alert the driver
  431.  * that it should release a PCI device.  The could be caused by a
  432.  * Hot-Plug event, or because the driver is going to be removed from
  433.  * memory.
  434.  **/
  435. static void __devexit
  436. e1000_remove(struct pci_dev *pdev)
  437. {
  438. struct net_device *netdev = pci_get_drvdata(pdev);
  439. struct e1000_adapter *adapter = netdev->priv;
  440. uint32_t manc;
  441. if(adapter->hw.mac_type >= e1000_82540) {
  442. manc = E1000_READ_REG(&adapter->hw, MANC);
  443. if(manc & E1000_MANC_SMBUS_EN) {
  444. manc |= E1000_MANC_ARP_EN;
  445. E1000_WRITE_REG(&adapter->hw, MANC, manc);
  446. }
  447. }
  448. unregister_netdev(netdev);
  449. e1000_phy_hw_reset(&adapter->hw);
  450. e1000_proc_dev_free(adapter);
  451. iounmap(adapter->hw.hw_addr);
  452. pci_release_regions(pdev);
  453. kfree(netdev);
  454. }
  455. /**
  456.  * e1000_sw_init - Initialize general software structures (struct e1000_adapter)
  457.  * @adapter: board private structure to initialize
  458.  *
  459.  * e1000_sw_init initializes the Adapter private data structure.
  460.  * Fields are initialized based on PCI device information and
  461.  * OS network device settings (MTU size).
  462.  **/
  463. static int __devinit
  464. e1000_sw_init(struct e1000_adapter *adapter)
  465. {
  466. struct e1000_hw *hw = &adapter->hw;
  467. struct net_device *netdev = adapter->netdev;
  468. struct pci_dev *pdev = adapter->pdev;
  469. /* PCI config space info */
  470. hw->vendor_id = pdev->vendor;
  471. hw->device_id = pdev->device;
  472. hw->subsystem_vendor_id = pdev->subsystem_vendor;
  473. hw->subsystem_id = pdev->subsystem_device;
  474. pci_read_config_byte(pdev, PCI_REVISION_ID, &hw->revision_id);
  475. pci_read_config_word(pdev, PCI_COMMAND, &hw->pci_cmd_word);
  476. adapter->rx_buffer_len = E1000_RXBUFFER_2048;
  477. hw->max_frame_size = netdev->mtu +
  478.                          ENET_HEADER_SIZE + ETHERNET_FCS_SIZE;
  479. hw->min_frame_size = MINIMUM_ETHERNET_FRAME_SIZE;
  480. /* identify the MAC */
  481. if (e1000_set_mac_type(hw)) {
  482. E1000_ERR("Unknown MAC Typen");
  483. return -1;
  484. }
  485. /* flow control settings */
  486. hw->fc_high_water = E1000_FC_HIGH_THRESH;
  487. hw->fc_low_water = E1000_FC_LOW_THRESH;
  488. hw->fc_pause_time = E1000_FC_PAUSE_TIME;
  489. hw->fc_send_xon = 1;
  490. /* Media type - copper or fiber */
  491. if(hw->mac_type >= e1000_82543) {
  492. uint32_t status = E1000_READ_REG(hw, STATUS);
  493. if(status & E1000_STATUS_TBIMODE)
  494. hw->media_type = e1000_media_type_fiber;
  495. else
  496. hw->media_type = e1000_media_type_copper;
  497. } else {
  498. hw->media_type = e1000_media_type_fiber;
  499. }
  500. if(hw->mac_type < e1000_82543)
  501. hw->report_tx_early = 0;
  502. else
  503. hw->report_tx_early = 1;
  504. hw->wait_autoneg_complete = FALSE;
  505. hw->tbi_compatibility_en = TRUE;
  506. hw->adaptive_ifs = TRUE;
  507. /* Copper options */
  508. if(hw->media_type == e1000_media_type_copper) {
  509. hw->mdix = AUTO_ALL_MODES;
  510. hw->disable_polarity_correction = FALSE;
  511. }
  512. atomic_set(&adapter->irq_sem, 1);
  513. spin_lock_init(&adapter->stats_lock);
  514. return 0;
  515. }
  516. /**
  517.  * e1000_open - Called when a network interface is made active
  518.  * @netdev: network interface device structure
  519.  *
  520.  * Returns 0 on success, negative value on failure
  521.  *
  522.  * The open entry point is called when a network interface is made
  523.  * active by the system (IFF_UP).  At this point all resources needed
  524.  * for transmit and receive operations are allocated, the interrupt
  525.  * handler is registered with the OS, the watchdog timer is started,
  526.  * and the stack is notified that the interface is ready.
  527.  **/
  528. static int
  529. e1000_open(struct net_device *netdev)
  530. {
  531. struct e1000_adapter *adapter = netdev->priv;
  532. /* allocate transmit descriptors */
  533. if(e1000_setup_tx_resources(adapter))
  534. goto err_setup_tx;
  535. /* allocate receive descriptors */
  536. if(e1000_setup_rx_resources(adapter))
  537. goto err_setup_rx;
  538. if(e1000_up(adapter))
  539. goto err_up;
  540. return 0;
  541. err_up:
  542. e1000_free_rx_resources(adapter);
  543. err_setup_rx:
  544. e1000_free_tx_resources(adapter);
  545. err_setup_tx:
  546. e1000_reset(adapter);
  547. return -EBUSY;
  548. }
  549. /**
  550.  * e1000_close - Disables a network interface
  551.  * @netdev: network interface device structure
  552.  *
  553.  * Returns 0, this is not allowed to fail
  554.  *
  555.  * The close entry point is called when an interface is de-activated
  556.  * by the OS.  The hardware is still under the drivers control, but
  557.  * needs to be disabled.  A global MAC reset is issued to stop the
  558.  * hardware, and all transmit and receive resources are freed.
  559.  **/
  560. static int
  561. e1000_close(struct net_device *netdev)
  562. {
  563. struct e1000_adapter *adapter = netdev->priv;
  564. e1000_down(adapter);
  565. e1000_free_tx_resources(adapter);
  566. e1000_free_rx_resources(adapter);
  567. return 0;
  568. }
  569. /**
  570.  * e1000_setup_tx_resources - allocate Tx resources (Descriptors)
  571.  * @adapter: board private structure
  572.  *
  573.  * Return 0 on success, negative on failure
  574.  **/
  575. static int
  576. e1000_setup_tx_resources(struct e1000_adapter *adapter)
  577. {
  578. struct e1000_desc_ring *txdr = &adapter->tx_ring;
  579. struct pci_dev *pdev = adapter->pdev;
  580. int size;
  581. size = sizeof(struct e1000_buffer) * txdr->count;
  582. txdr->buffer_info = kmalloc(size, GFP_KERNEL);
  583. if(!txdr->buffer_info) {
  584. return -ENOMEM;
  585. }
  586. memset(txdr->buffer_info, 0, size);
  587. /* round up to nearest 4K */
  588. txdr->size = txdr->count * sizeof(struct e1000_tx_desc);
  589. E1000_ROUNDUP(txdr->size, 4096);
  590. txdr->desc = pci_alloc_consistent(pdev, txdr->size, &txdr->dma);
  591. if(!txdr->desc) {
  592. kfree(txdr->buffer_info);
  593. return -ENOMEM;
  594. }
  595. memset(txdr->desc, 0, txdr->size);
  596. txdr->next_to_use = 0;
  597. txdr->next_to_clean = 0;
  598. return 0;
  599. }
  600. /**
  601.  * e1000_configure_tx - Configure 8254x Transmit Unit after Reset
  602.  * @adapter: board private structure
  603.  *
  604.  * Configure the Tx unit of the MAC after a reset.
  605.  **/
  606. static void
  607. e1000_configure_tx(struct e1000_adapter *adapter)
  608. {
  609. uint64_t tdba = adapter->tx_ring.dma;
  610. uint32_t tdlen = adapter->tx_ring.count * sizeof(struct e1000_tx_desc);
  611. uint32_t tctl, tipg;
  612. E1000_WRITE_REG(&adapter->hw, TDBAL, (tdba & 0x00000000ffffffffULL));
  613. E1000_WRITE_REG(&adapter->hw, TDBAH, (tdba >> 32));
  614. E1000_WRITE_REG(&adapter->hw, TDLEN, tdlen);
  615. /* Setup the HW Tx Head and Tail descriptor pointers */
  616. E1000_WRITE_REG(&adapter->hw, TDH, 0);
  617. E1000_WRITE_REG(&adapter->hw, TDT, 0);
  618. /* Set the default values for the Tx Inter Packet Gap timer */
  619. switch (adapter->hw.mac_type) {
  620. case e1000_82542_rev2_0:
  621. case e1000_82542_rev2_1:
  622. tipg = DEFAULT_82542_TIPG_IPGT;
  623. tipg |= DEFAULT_82542_TIPG_IPGR1 << E1000_TIPG_IPGR1_SHIFT;
  624. tipg |= DEFAULT_82542_TIPG_IPGR2 << E1000_TIPG_IPGR2_SHIFT;
  625. break;
  626. default:
  627. if(adapter->hw.media_type == e1000_media_type_fiber)
  628. tipg = DEFAULT_82543_TIPG_IPGT_FIBER;
  629. else
  630. tipg = DEFAULT_82543_TIPG_IPGT_COPPER;
  631. tipg |= DEFAULT_82543_TIPG_IPGR1 << E1000_TIPG_IPGR1_SHIFT;
  632. tipg |= DEFAULT_82543_TIPG_IPGR2 << E1000_TIPG_IPGR2_SHIFT;
  633. }
  634. E1000_WRITE_REG(&adapter->hw, TIPG, tipg);
  635. /* Set the Tx Interrupt Delay register */
  636. E1000_WRITE_REG(&adapter->hw, TIDV, adapter->tx_int_delay);
  637. if(adapter->hw.mac_type >= e1000_82540)
  638. E1000_WRITE_REG(&adapter->hw, TADV, adapter->tx_abs_int_delay);
  639. /* Program the Transmit Control Register */
  640. tctl = E1000_READ_REG(&adapter->hw, TCTL);
  641. tctl &= ~E1000_TCTL_CT;
  642. tctl |= E1000_TCTL_EN | E1000_TCTL_PSP |
  643.        (E1000_COLLISION_THRESHOLD << E1000_CT_SHIFT);
  644. E1000_WRITE_REG(&adapter->hw, TCTL, tctl);
  645. e1000_config_collision_dist(&adapter->hw);
  646. /* Setup Transmit Descriptor Settings for this adapter */
  647. adapter->txd_cmd = E1000_TXD_CMD_IFCS | E1000_TXD_CMD_IDE;
  648. if(adapter->hw.report_tx_early == 1)
  649. adapter->txd_cmd |= E1000_TXD_CMD_RS;
  650. else
  651. adapter->txd_cmd |= E1000_TXD_CMD_RPS;
  652. }
  653. /**
  654.  * e1000_setup_rx_resources - allocate Rx resources (Descriptors)
  655.  * @adapter: board private structure
  656.  *
  657.  * Returns 0 on success, negative on failure
  658.  **/
  659. static int
  660. e1000_setup_rx_resources(struct e1000_adapter *adapter)
  661. {
  662. struct e1000_desc_ring *rxdr = &adapter->rx_ring;
  663. struct pci_dev *pdev = adapter->pdev;
  664. int size;
  665. size = sizeof(struct e1000_buffer) * rxdr->count;
  666. rxdr->buffer_info = kmalloc(size, GFP_KERNEL);
  667. if(!rxdr->buffer_info) {
  668. return -ENOMEM;
  669. }
  670. memset(rxdr->buffer_info, 0, size);
  671. /* Round up to nearest 4K */
  672. rxdr->size = rxdr->count * sizeof(struct e1000_rx_desc);
  673. E1000_ROUNDUP(rxdr->size, 4096);
  674. rxdr->desc = pci_alloc_consistent(pdev, rxdr->size, &rxdr->dma);
  675. if(!rxdr->desc) {
  676. kfree(rxdr->buffer_info);
  677. return -ENOMEM;
  678. }
  679. memset(rxdr->desc, 0, rxdr->size);
  680. rxdr->next_to_clean = 0;
  681. rxdr->next_to_use = 0;
  682. return 0;
  683. }
  684. /**
  685.  * e1000_setup_rctl - configure the receive control register
  686.  * @adapter: Board private structure
  687.  **/
  688. static void
  689. e1000_setup_rctl(struct e1000_adapter *adapter)
  690. {
  691. uint32_t rctl;
  692. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  693. rctl &= ~(3 << E1000_RCTL_MO_SHIFT);
  694. rctl |= E1000_RCTL_EN | E1000_RCTL_BAM |
  695.         E1000_RCTL_LBM_NO | E1000_RCTL_RDMTS_HALF |
  696.         (adapter->hw.mc_filter_type << E1000_RCTL_MO_SHIFT);
  697. if(adapter->hw.tbi_compatibility_on == 1)
  698. rctl |= E1000_RCTL_SBP;
  699. else
  700. rctl &= ~E1000_RCTL_SBP;
  701. rctl &= ~(E1000_RCTL_SZ_4096);
  702. switch (adapter->rx_buffer_len) {
  703. case E1000_RXBUFFER_2048:
  704. default:
  705. rctl |= E1000_RCTL_SZ_2048;
  706. rctl &= ~(E1000_RCTL_BSEX | E1000_RCTL_LPE);
  707. break;
  708. case E1000_RXBUFFER_4096:
  709. rctl |= E1000_RCTL_SZ_4096 | E1000_RCTL_BSEX | E1000_RCTL_LPE;
  710. break;
  711. case E1000_RXBUFFER_8192:
  712. rctl |= E1000_RCTL_SZ_8192 | E1000_RCTL_BSEX | E1000_RCTL_LPE;
  713. break;
  714. case E1000_RXBUFFER_16384:
  715. rctl |= E1000_RCTL_SZ_16384 | E1000_RCTL_BSEX | E1000_RCTL_LPE;
  716. break;
  717. }
  718. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  719. }
  720. /**
  721.  * e1000_configure_rx - Configure 8254x Receive Unit after Reset
  722.  * @adapter: board private structure
  723.  *
  724.  * Configure the Rx unit of the MAC after a reset.
  725.  **/
  726. static void
  727. e1000_configure_rx(struct e1000_adapter *adapter)
  728. {
  729. uint64_t rdba = adapter->rx_ring.dma;
  730. uint32_t rdlen = adapter->rx_ring.count * sizeof(struct e1000_rx_desc);
  731. uint32_t rctl;
  732. uint32_t rxcsum;
  733. /* make sure receives are disabled while setting up the descriptors */
  734. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  735. E1000_WRITE_REG(&adapter->hw, RCTL, rctl & ~E1000_RCTL_EN);
  736. /* set the Receive Delay Timer Register */
  737. E1000_WRITE_REG(&adapter->hw, RDTR, adapter->rx_int_delay);
  738. if(adapter->hw.mac_type >= e1000_82540) {
  739. E1000_WRITE_REG(&adapter->hw, RADV, adapter->rx_abs_int_delay);
  740. /* Set the interrupt throttling rate.  Value is calculated
  741.  * as DEFAULT_ITR = 1/(MAX_INTS_PER_SEC * 256ns) */
  742. #define MAX_INTS_PER_SEC        8000
  743. #define DEFAULT_ITR             1000000000/(MAX_INTS_PER_SEC * 256)
  744. E1000_WRITE_REG(&adapter->hw, ITR, DEFAULT_ITR);
  745. }
  746. /* Setup the Base and Length of the Rx Descriptor Ring */
  747. E1000_WRITE_REG(&adapter->hw, RDBAL, (rdba & 0x00000000ffffffffULL));
  748. E1000_WRITE_REG(&adapter->hw, RDBAH, (rdba >> 32));
  749. E1000_WRITE_REG(&adapter->hw, RDLEN, rdlen);
  750. /* Setup the HW Rx Head and Tail Descriptor Pointers */
  751. E1000_WRITE_REG(&adapter->hw, RDH, 0);
  752. E1000_WRITE_REG(&adapter->hw, RDT, 0);
  753. /* Enable 82543 Receive Checksum Offload for TCP and UDP */
  754. if((adapter->hw.mac_type >= e1000_82543) &&
  755.    (adapter->rx_csum == TRUE)) {
  756. rxcsum = E1000_READ_REG(&adapter->hw, RXCSUM);
  757. rxcsum |= E1000_RXCSUM_TUOFL;
  758. E1000_WRITE_REG(&adapter->hw, RXCSUM, rxcsum);
  759. }
  760. /* Enable Receives */
  761. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  762. }
  763. /**
  764.  * e1000_free_tx_resources - Free Tx Resources
  765.  * @adapter: board private structure
  766.  *
  767.  * Free all transmit software resources
  768.  **/
  769. static void
  770. e1000_free_tx_resources(struct e1000_adapter *adapter)
  771. {
  772. struct pci_dev *pdev = adapter->pdev;
  773. e1000_clean_tx_ring(adapter);
  774. kfree(adapter->tx_ring.buffer_info);
  775. adapter->tx_ring.buffer_info = NULL;
  776. pci_free_consistent(pdev, adapter->tx_ring.size,
  777.                     adapter->tx_ring.desc, adapter->tx_ring.dma);
  778. adapter->tx_ring.desc = NULL;
  779. }
  780. /**
  781.  * e1000_clean_tx_ring - Free Tx Buffers
  782.  * @adapter: board private structure
  783.  **/
  784. static void
  785. e1000_clean_tx_ring(struct e1000_adapter *adapter)
  786. {
  787. struct pci_dev *pdev = adapter->pdev;
  788. unsigned long size;
  789. int i;
  790. /* Free all the Tx ring sk_buffs */
  791. for(i = 0; i < adapter->tx_ring.count; i++) {
  792. if(adapter->tx_ring.buffer_info[i].skb) {
  793. pci_unmap_page(pdev,
  794.                adapter->tx_ring.buffer_info[i].dma,
  795.                adapter->tx_ring.buffer_info[i].length,
  796.                PCI_DMA_TODEVICE);
  797. dev_kfree_skb(adapter->tx_ring.buffer_info[i].skb);
  798. adapter->tx_ring.buffer_info[i].skb = NULL;
  799. }
  800. }
  801. size = sizeof(struct e1000_buffer) * adapter->tx_ring.count;
  802. memset(adapter->tx_ring.buffer_info, 0, size);
  803. /* Zero out the descriptor ring */
  804. memset(adapter->tx_ring.desc, 0, adapter->tx_ring.size);
  805. adapter->tx_ring.next_to_use = 0;
  806. adapter->tx_ring.next_to_clean = 0;
  807. E1000_WRITE_REG(&adapter->hw, TDH, 0);
  808. E1000_WRITE_REG(&adapter->hw, TDT, 0);
  809. }
  810. /**
  811.  * e1000_free_rx_resources - Free Rx Resources
  812.  * @adapter: board private structure
  813.  *
  814.  * Free all receive software resources
  815.  **/
  816. static void
  817. e1000_free_rx_resources(struct e1000_adapter *adapter)
  818. {
  819. struct pci_dev *pdev = adapter->pdev;
  820. e1000_clean_rx_ring(adapter);
  821. kfree(adapter->rx_ring.buffer_info);
  822. adapter->rx_ring.buffer_info = NULL;
  823. pci_free_consistent(pdev, adapter->rx_ring.size,
  824.                     adapter->rx_ring.desc, adapter->rx_ring.dma);
  825. adapter->rx_ring.desc = NULL;
  826. }
  827. /**
  828.  * e1000_clean_rx_ring - Free Rx Buffers
  829.  * @adapter: board private structure
  830.  **/
  831. static void
  832. e1000_clean_rx_ring(struct e1000_adapter *adapter)
  833. {
  834. struct pci_dev *pdev = adapter->pdev;
  835. unsigned long size;
  836. int i;
  837. /* Free all the Rx ring sk_buffs */
  838. for(i = 0; i < adapter->rx_ring.count; i++) {
  839. if(adapter->rx_ring.buffer_info[i].skb) {
  840. pci_unmap_single(pdev,
  841.                  adapter->rx_ring.buffer_info[i].dma,
  842.                  adapter->rx_ring.buffer_info[i].length,
  843.                  PCI_DMA_FROMDEVICE);
  844. dev_kfree_skb(adapter->rx_ring.buffer_info[i].skb);
  845. adapter->rx_ring.buffer_info[i].skb = NULL;
  846. }
  847. }
  848. size = sizeof(struct e1000_buffer) * adapter->rx_ring.count;
  849. memset(adapter->rx_ring.buffer_info, 0, size);
  850. /* Zero out the descriptor ring */
  851. memset(adapter->rx_ring.desc, 0, adapter->rx_ring.size);
  852. adapter->rx_ring.next_to_clean = 0;
  853. adapter->rx_ring.next_to_use = 0;
  854. E1000_WRITE_REG(&adapter->hw, RDH, 0);
  855. E1000_WRITE_REG(&adapter->hw, RDT, 0);
  856. }
  857. /* The 82542 2.0 (revision 2) needs to have the receive unit in reset
  858.  * and memory write and invalidate disabled for certain operations
  859.  */
  860. static void
  861. e1000_enter_82542_rst(struct e1000_adapter *adapter)
  862. {
  863. struct net_device *netdev = adapter->netdev;
  864. uint32_t rctl;
  865. e1000_pci_clear_mwi(&adapter->hw);
  866. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  867. rctl |= E1000_RCTL_RST;
  868. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  869. E1000_WRITE_FLUSH(&adapter->hw);
  870. mdelay(5);
  871. if(netif_running(netdev))
  872. e1000_clean_rx_ring(adapter);
  873. }
  874. static void
  875. e1000_leave_82542_rst(struct e1000_adapter *adapter)
  876. {
  877. struct net_device *netdev = adapter->netdev;
  878. uint32_t rctl;
  879. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  880. rctl &= ~E1000_RCTL_RST;
  881. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  882. E1000_WRITE_FLUSH(&adapter->hw);
  883. mdelay(5);
  884. if(adapter->hw.pci_cmd_word & PCI_COMMAND_INVALIDATE)
  885. e1000_pci_set_mwi(&adapter->hw);
  886. if(netif_running(netdev)) {
  887. e1000_configure_rx(adapter);
  888. e1000_alloc_rx_buffers(adapter);
  889. }
  890. }
  891. /**
  892.  * e1000_set_mac - Change the Ethernet Address of the NIC
  893.  * @netdev: network interface device structure
  894.  * @p: pointer to an address structure
  895.  *
  896.  * Returns 0 on success, negative on failure
  897.  **/
  898. static int
  899. e1000_set_mac(struct net_device *netdev, void *p)
  900. {
  901. struct e1000_adapter *adapter = netdev->priv;
  902. struct sockaddr *addr = p;
  903. /* 82542 2.0 needs to be in reset to write receive address registers */
  904. if(adapter->hw.mac_type == e1000_82542_rev2_0)
  905. e1000_enter_82542_rst(adapter);
  906. memcpy(netdev->dev_addr, addr->sa_data, netdev->addr_len);
  907. memcpy(adapter->hw.mac_addr, addr->sa_data, netdev->addr_len);
  908. e1000_rar_set(&adapter->hw, adapter->hw.mac_addr, 0);
  909. if(adapter->hw.mac_type == e1000_82542_rev2_0)
  910. e1000_leave_82542_rst(adapter);
  911. return 0;
  912. }
  913. /**
  914.  * e1000_set_multi - Multicast and Promiscuous mode set
  915.  * @netdev: network interface device structure
  916.  *
  917.  * The set_multi entry point is called whenever the multicast address
  918.  * list or the network interface flags are updated.  This routine is
  919.  * resposible for configuring the hardware for proper multicast,
  920.  * promiscuous mode, and all-multi behavior.
  921.  **/
  922. static void
  923. e1000_set_multi(struct net_device *netdev)
  924. {
  925. struct e1000_adapter *adapter = netdev->priv;
  926. struct e1000_hw *hw = &adapter->hw;
  927. struct dev_mc_list *mc_ptr;
  928. uint32_t rctl;
  929. uint32_t hash_value;
  930. int i;
  931. /* Check for Promiscuous and All Multicast modes */
  932. rctl = E1000_READ_REG(hw, RCTL);
  933. if(netdev->flags & IFF_PROMISC) {
  934. rctl |= (E1000_RCTL_UPE | E1000_RCTL_MPE);
  935. } else if(netdev->flags & IFF_ALLMULTI) {
  936. rctl |= E1000_RCTL_MPE;
  937. rctl &= ~E1000_RCTL_UPE;
  938. } else {
  939. rctl &= ~(E1000_RCTL_UPE | E1000_RCTL_MPE);
  940. }
  941. E1000_WRITE_REG(hw, RCTL, rctl);
  942. /* 82542 2.0 needs to be in reset to write receive address registers */
  943. if(hw->mac_type == e1000_82542_rev2_0)
  944. e1000_enter_82542_rst(adapter);
  945. /* load the first 15 multicast address into the exact filters 1-15
  946.  * RAR 0 is used for the station MAC adddress
  947.  * if there are not 15 addresses, go ahead and clear the filters
  948.  */
  949. mc_ptr = netdev->mc_list;
  950. for(i = 1; i < E1000_RAR_ENTRIES; i++) {
  951. if(mc_ptr) {
  952. e1000_rar_set(hw, mc_ptr->dmi_addr, i);
  953. mc_ptr = mc_ptr->next;
  954. } else {
  955. E1000_WRITE_REG_ARRAY(hw, RA, i << 1, 0);
  956. E1000_WRITE_REG_ARRAY(hw, RA, (i << 1) + 1, 0);
  957. }
  958. }
  959. /* clear the old settings from the multicast hash table */
  960. for(i = 0; i < E1000_NUM_MTA_REGISTERS; i++)
  961. E1000_WRITE_REG_ARRAY(hw, MTA, i, 0);
  962. /* load any remaining addresses into the hash table */
  963. for(; mc_ptr; mc_ptr = mc_ptr->next) {
  964. hash_value = e1000_hash_mc_addr(hw, mc_ptr->dmi_addr);
  965. e1000_mta_set(hw, hash_value);
  966. }
  967. if(hw->mac_type == e1000_82542_rev2_0)
  968. e1000_leave_82542_rst(adapter);
  969. }
  970. /* need to wait a few seconds after link up to get diagnostic information from the phy */
  971. static void
  972. e1000_update_phy_info(unsigned long data)
  973. {
  974. struct e1000_adapter *adapter = (struct e1000_adapter *) data;
  975. e1000_phy_get_info(&adapter->hw, &adapter->phy_info);
  976. }
  977. /**
  978.  * e1000_watchdog - Timer Call-back
  979.  * @data: pointer to netdev cast into an unsigned long
  980.  **/
  981. static void
  982. e1000_watchdog(unsigned long data)
  983. {
  984. struct e1000_adapter *adapter = (struct e1000_adapter *) data;
  985. struct net_device *netdev = adapter->netdev;
  986. struct e1000_desc_ring *txdr = &adapter->tx_ring;
  987. int i;
  988. e1000_check_for_link(&adapter->hw);
  989. if(E1000_READ_REG(&adapter->hw, STATUS) & E1000_STATUS_LU) {
  990. if(!netif_carrier_ok(netdev)) {
  991. e1000_get_speed_and_duplex(&adapter->hw,
  992.                            &adapter->link_speed,
  993.                            &adapter->link_duplex);
  994. printk(KERN_INFO
  995.        "e1000: %s NIC Link is Up %d Mbps %sn",
  996.        netdev->name, adapter->link_speed,
  997.        adapter->link_duplex == FULL_DUPLEX ?
  998.        "Full Duplex" : "Half Duplex");
  999. netif_carrier_on(netdev);
  1000. netif_wake_queue(netdev);
  1001. mod_timer(&adapter->phy_info_timer, jiffies + 2 * HZ);
  1002. }
  1003. } else {
  1004. if(netif_carrier_ok(netdev)) {
  1005. adapter->link_speed = 0;
  1006. adapter->link_duplex = 0;
  1007. printk(KERN_INFO
  1008.        "e1000: %s NIC Link is Downn",
  1009.        netdev->name);
  1010. netif_carrier_off(netdev);
  1011. netif_stop_queue(netdev);
  1012. mod_timer(&adapter->phy_info_timer, jiffies + 2 * HZ);
  1013. }
  1014. }
  1015. e1000_update_stats(adapter);
  1016. e1000_update_adaptive(&adapter->hw);
  1017. /* Cause software interrupt to ensure rx ring is cleaned */
  1018. E1000_WRITE_REG(&adapter->hw, ICS, E1000_ICS_RXDMT0);
  1019. /* Early detection of hung controller */
  1020. i = txdr->next_to_clean;
  1021. if(txdr->buffer_info[i].dma &&
  1022.    time_after(jiffies, txdr->buffer_info[i].time_stamp + HZ) &&
  1023.    !(E1000_READ_REG(&adapter->hw, STATUS) & E1000_STATUS_TXOFF))
  1024. netif_stop_queue(netdev);
  1025. /* Reset the timer */
  1026. mod_timer(&adapter->watchdog_timer, jiffies + 2 * HZ);
  1027. }
  1028. #define E1000_TX_FLAGS_CSUM 0x00000001
  1029. #define E1000_TX_FLAGS_VLAN 0x00000002
  1030. #define E1000_TX_FLAGS_VLAN_MASK 0xffff0000
  1031. #define E1000_TX_FLAGS_VLAN_SHIFT 16
  1032. static inline boolean_t
  1033. e1000_tx_csum(struct e1000_adapter *adapter, struct sk_buff *skb)
  1034. {
  1035. struct e1000_context_desc *context_desc;
  1036. int i;
  1037. uint8_t css, cso;
  1038. if(skb->ip_summed == CHECKSUM_HW) {
  1039. css = skb->h.raw - skb->data;
  1040. cso = (skb->h.raw + skb->csum) - skb->data;
  1041. i = adapter->tx_ring.next_to_use;
  1042. context_desc = E1000_CONTEXT_DESC(adapter->tx_ring, i);
  1043. context_desc->upper_setup.tcp_fields.tucss = css;
  1044. context_desc->upper_setup.tcp_fields.tucso = cso;
  1045. context_desc->upper_setup.tcp_fields.tucse = 0;
  1046. context_desc->tcp_seg_setup.data = 0;
  1047. context_desc->cmd_and_length =
  1048. cpu_to_le32(adapter->txd_cmd | E1000_TXD_CMD_DEXT);
  1049. i = (i + 1) % adapter->tx_ring.count;
  1050. adapter->tx_ring.next_to_use = i;
  1051. return TRUE;
  1052. }
  1053. return FALSE;
  1054. }
  1055. static inline int
  1056. e1000_tx_map(struct e1000_adapter *adapter, struct sk_buff *skb)
  1057. {
  1058. struct e1000_desc_ring *tx_ring = &adapter->tx_ring;
  1059. int len, offset, size, count, i;
  1060. int f;
  1061. len = skb->len - skb->data_len;
  1062. i = (tx_ring->next_to_use + tx_ring->count - 1) % tx_ring->count;
  1063. count = 0;
  1064. offset = 0;
  1065. while(len) {
  1066. i = (i + 1) % tx_ring->count;
  1067. size = min(len, adapter->max_data_per_txd);
  1068. tx_ring->buffer_info[i].length = size;
  1069. tx_ring->buffer_info[i].dma =
  1070. pci_map_single(adapter->pdev,
  1071. skb->data + offset,
  1072. size,
  1073. PCI_DMA_TODEVICE);
  1074. tx_ring->buffer_info[i].time_stamp = jiffies;
  1075. len -= size;
  1076. offset += size;
  1077. count++;
  1078. }
  1079. for(f = 0; f < skb_shinfo(skb)->nr_frags; f++) {
  1080. struct skb_frag_struct *frag;
  1081. frag = &skb_shinfo(skb)->frags[f];
  1082. len = frag->size;
  1083. offset = 0;
  1084. while(len) {
  1085. i = (i + 1) % tx_ring->count;
  1086. size = min(len, adapter->max_data_per_txd);
  1087. tx_ring->buffer_info[i].length = size;
  1088. tx_ring->buffer_info[i].dma =
  1089. pci_map_page(adapter->pdev,
  1090. frag->page,
  1091. frag->page_offset + offset,
  1092. size,
  1093. PCI_DMA_TODEVICE);
  1094. len -= size;
  1095. offset += size;
  1096. count++;
  1097. }
  1098. }
  1099. tx_ring->buffer_info[i].skb = skb;
  1100. return count;
  1101. }
  1102. static inline void
  1103. e1000_tx_queue(struct e1000_adapter *adapter, int count, int tx_flags)
  1104. {
  1105. struct e1000_desc_ring *tx_ring = &adapter->tx_ring;
  1106. struct e1000_tx_desc *tx_desc = NULL;
  1107. uint32_t txd_upper, txd_lower;
  1108. int i;
  1109. txd_upper = 0;
  1110. txd_lower = adapter->txd_cmd;
  1111. if(tx_flags & E1000_TX_FLAGS_CSUM) {
  1112. txd_lower |= E1000_TXD_CMD_DEXT | E1000_TXD_DTYP_D;
  1113. txd_upper |= E1000_TXD_POPTS_TXSM << 8;
  1114. }
  1115. if(tx_flags & E1000_TX_FLAGS_VLAN) {
  1116. txd_lower |= E1000_TXD_CMD_VLE;
  1117. txd_upper |= (tx_flags & E1000_TX_FLAGS_VLAN_MASK);
  1118. }
  1119. i = tx_ring->next_to_use;
  1120. while(count--) {
  1121. tx_desc = E1000_TX_DESC(*tx_ring, i);
  1122. tx_desc->buffer_addr = cpu_to_le64(tx_ring->buffer_info[i].dma);
  1123. tx_desc->lower.data =
  1124. cpu_to_le32(txd_lower | tx_ring->buffer_info[i].length);
  1125. tx_desc->upper.data = cpu_to_le32(txd_upper);
  1126. i = (i + 1) % tx_ring->count;
  1127. }
  1128. tx_desc->lower.data |= cpu_to_le32(E1000_TXD_CMD_EOP);
  1129. /* Force memory writes to complete before letting h/w
  1130.  * know there are new descriptors to fetch.  (Only
  1131.  * applicable for weak-ordered memory model archs,
  1132.  * such as IA-64). */
  1133. wmb();
  1134. tx_ring->next_to_use = i;
  1135. E1000_WRITE_REG(&adapter->hw, TDT, i);
  1136. }
  1137. #define TXD_USE_COUNT(S, X) (((S) / (X)) + (((S) % (X)) ? 1 : 0))
  1138. static int
  1139. e1000_xmit_frame(struct sk_buff *skb, struct net_device *netdev)
  1140. {
  1141. struct e1000_adapter *adapter = netdev->priv;
  1142. int tx_flags = 0, count;
  1143. int f;
  1144. count = TXD_USE_COUNT(skb->len - skb->data_len,
  1145.                       adapter->max_data_per_txd);
  1146. for(f = 0; f < skb_shinfo(skb)->nr_frags; f++)
  1147. count += TXD_USE_COUNT(skb_shinfo(skb)->frags[f].size,
  1148.                        adapter->max_data_per_txd);
  1149. if(skb->ip_summed == CHECKSUM_HW)
  1150. count++;
  1151. if(E1000_DESC_UNUSED(&adapter->tx_ring) < count) {
  1152. netif_stop_queue(netdev);
  1153. return 1;
  1154. }
  1155. if(e1000_tx_csum(adapter, skb))
  1156. tx_flags |= E1000_TX_FLAGS_CSUM;
  1157. if(adapter->vlgrp && vlan_tx_tag_present(skb)) {
  1158. tx_flags |= E1000_TX_FLAGS_VLAN;
  1159. tx_flags |= (vlan_tx_tag_get(skb) << E1000_TX_FLAGS_VLAN_SHIFT);
  1160. }
  1161. count = e1000_tx_map(adapter, skb);
  1162. e1000_tx_queue(adapter, count, tx_flags);
  1163. netdev->trans_start = jiffies;
  1164. return 0;
  1165. }
  1166. /**
  1167.  * e1000_tx_timeout - Respond to a Tx Hang
  1168.  * @netdev: network interface device structure
  1169.  **/
  1170. static void
  1171. e1000_tx_timeout(struct net_device *netdev)
  1172. {
  1173. struct e1000_adapter *adapter = netdev->priv;
  1174. /* Do the reset outside of interrupt context */
  1175. schedule_task(&adapter->tx_timeout_task);
  1176. }
  1177. static void
  1178. e1000_tx_timeout_task(struct net_device *netdev)
  1179. {
  1180. struct e1000_adapter *adapter = netdev->priv;
  1181. netif_device_detach(netdev);
  1182. e1000_down(adapter);
  1183. e1000_up(adapter);
  1184. netif_device_attach(netdev);
  1185. }
  1186. /**
  1187.  * e1000_get_stats - Get System Network Statistics
  1188.  * @netdev: network interface device structure
  1189.  *
  1190.  * Returns the address of the device statistics structure.
  1191.  * The statistics are actually updated from the timer callback.
  1192.  **/
  1193. static struct net_device_stats *
  1194. e1000_get_stats(struct net_device *netdev)
  1195. {
  1196. struct e1000_adapter *adapter = netdev->priv;
  1197. return &adapter->net_stats;
  1198. }
  1199. /**
  1200.  * e1000_change_mtu - Change the Maximum Transfer Unit
  1201.  * @netdev: network interface device structure
  1202.  * @new_mtu: new value for maximum frame size
  1203.  *
  1204.  * Returns 0 on success, negative on failure
  1205.  **/
  1206. static int
  1207. e1000_change_mtu(struct net_device *netdev, int new_mtu)
  1208. {
  1209. struct e1000_adapter *adapter = netdev->priv;
  1210. int old_mtu = adapter->rx_buffer_len;
  1211. int max_frame = new_mtu + ENET_HEADER_SIZE + ETHERNET_FCS_SIZE;
  1212. if((max_frame < MINIMUM_ETHERNET_FRAME_SIZE) ||
  1213.    (max_frame > MAX_JUMBO_FRAME_SIZE)) {
  1214. E1000_ERR("Invalid MTU settingn");
  1215. return -EINVAL;
  1216. }
  1217. if(max_frame <= MAXIMUM_ETHERNET_FRAME_SIZE) {
  1218. adapter->rx_buffer_len = E1000_RXBUFFER_2048;
  1219. } else if(adapter->hw.mac_type < e1000_82543) {
  1220. E1000_ERR("Jumbo Frames not supported on 82542n");
  1221. return -EINVAL;
  1222. } else if(max_frame <= E1000_RXBUFFER_4096) {
  1223. adapter->rx_buffer_len = E1000_RXBUFFER_4096;
  1224. } else if(max_frame <= E1000_RXBUFFER_8192) {
  1225. adapter->rx_buffer_len = E1000_RXBUFFER_8192;
  1226. } else {
  1227. adapter->rx_buffer_len = E1000_RXBUFFER_16384;
  1228. }
  1229. if(old_mtu != adapter->rx_buffer_len && netif_running(netdev)) {
  1230. e1000_down(adapter);
  1231. e1000_up(adapter);
  1232. }
  1233. netdev->mtu = new_mtu;
  1234. adapter->hw.max_frame_size = max_frame;
  1235. return 0;
  1236. }
  1237. /**
  1238.  * e1000_update_stats - Update the board statistics counters
  1239.  * @adapter: board private structure
  1240.  **/
  1241. static void
  1242. e1000_update_stats(struct e1000_adapter *adapter)
  1243. {
  1244. struct e1000_hw *hw = &adapter->hw;
  1245. unsigned long flags;
  1246. uint16_t phy_tmp;
  1247. #define PHY_IDLE_ERROR_COUNT_MASK 0x00FF
  1248. spin_lock_irqsave(&adapter->stats_lock, flags);
  1249. /* these counters are modified from e1000_adjust_tbi_stats,
  1250.  * called from the interrupt context, so they must only
  1251.  * be written while holding adapter->stats_lock
  1252.  */
  1253. adapter->stats.crcerrs += E1000_READ_REG(hw, CRCERRS);
  1254. adapter->stats.gprc += E1000_READ_REG(hw, GPRC);
  1255. adapter->stats.gorcl += E1000_READ_REG(hw, GORCL);
  1256. adapter->stats.gorch += E1000_READ_REG(hw, GORCH);
  1257. adapter->stats.bprc += E1000_READ_REG(hw, BPRC);
  1258. adapter->stats.mprc += E1000_READ_REG(hw, MPRC);
  1259. adapter->stats.roc += E1000_READ_REG(hw, ROC);
  1260. adapter->stats.prc64 += E1000_READ_REG(hw, PRC64);
  1261. adapter->stats.prc127 += E1000_READ_REG(hw, PRC127);
  1262. adapter->stats.prc255 += E1000_READ_REG(hw, PRC255);
  1263. adapter->stats.prc511 += E1000_READ_REG(hw, PRC511);
  1264. adapter->stats.prc1023 += E1000_READ_REG(hw, PRC1023);
  1265. adapter->stats.prc1522 += E1000_READ_REG(hw, PRC1522);
  1266. spin_unlock_irqrestore(&adapter->stats_lock, flags);
  1267. /* the rest of the counters are only modified here */
  1268. adapter->stats.symerrs += E1000_READ_REG(hw, SYMERRS);
  1269. adapter->stats.mpc += E1000_READ_REG(hw, MPC);
  1270. adapter->stats.scc += E1000_READ_REG(hw, SCC);
  1271. adapter->stats.ecol += E1000_READ_REG(hw, ECOL);
  1272. adapter->stats.mcc += E1000_READ_REG(hw, MCC);
  1273. adapter->stats.latecol += E1000_READ_REG(hw, LATECOL);
  1274. adapter->stats.dc += E1000_READ_REG(hw, DC);
  1275. adapter->stats.sec += E1000_READ_REG(hw, SEC);
  1276. adapter->stats.rlec += E1000_READ_REG(hw, RLEC);
  1277. adapter->stats.xonrxc += E1000_READ_REG(hw, XONRXC);
  1278. adapter->stats.xontxc += E1000_READ_REG(hw, XONTXC);
  1279. adapter->stats.xoffrxc += E1000_READ_REG(hw, XOFFRXC);
  1280. adapter->stats.xofftxc += E1000_READ_REG(hw, XOFFTXC);
  1281. adapter->stats.fcruc += E1000_READ_REG(hw, FCRUC);
  1282. adapter->stats.gptc += E1000_READ_REG(hw, GPTC);
  1283. adapter->stats.gotcl += E1000_READ_REG(hw, GOTCL);
  1284. adapter->stats.gotch += E1000_READ_REG(hw, GOTCH);
  1285. adapter->stats.rnbc += E1000_READ_REG(hw, RNBC);
  1286. adapter->stats.ruc += E1000_READ_REG(hw, RUC);
  1287. adapter->stats.rfc += E1000_READ_REG(hw, RFC);
  1288. adapter->stats.rjc += E1000_READ_REG(hw, RJC);
  1289. adapter->stats.torl += E1000_READ_REG(hw, TORL);
  1290. adapter->stats.torh += E1000_READ_REG(hw, TORH);
  1291. adapter->stats.totl += E1000_READ_REG(hw, TOTL);
  1292. adapter->stats.toth += E1000_READ_REG(hw, TOTH);
  1293. adapter->stats.tpr += E1000_READ_REG(hw, TPR);
  1294. adapter->stats.ptc64 += E1000_READ_REG(hw, PTC64);
  1295. adapter->stats.ptc127 += E1000_READ_REG(hw, PTC127);
  1296. adapter->stats.ptc255 += E1000_READ_REG(hw, PTC255);
  1297. adapter->stats.ptc511 += E1000_READ_REG(hw, PTC511);
  1298. adapter->stats.ptc1023 += E1000_READ_REG(hw, PTC1023);
  1299. adapter->stats.ptc1522 += E1000_READ_REG(hw, PTC1522);
  1300. adapter->stats.mptc += E1000_READ_REG(hw, MPTC);
  1301. adapter->stats.bptc += E1000_READ_REG(hw, BPTC);
  1302. /* used for adaptive IFS */
  1303. hw->tx_packet_delta = E1000_READ_REG(hw, TPT);
  1304. adapter->stats.tpt += hw->tx_packet_delta;
  1305. hw->collision_delta = E1000_READ_REG(hw, COLC);
  1306. adapter->stats.colc += hw->collision_delta;
  1307. if(hw->mac_type >= e1000_82543) {
  1308. adapter->stats.algnerrc += E1000_READ_REG(hw, ALGNERRC);
  1309. adapter->stats.rxerrc += E1000_READ_REG(hw, RXERRC);
  1310. adapter->stats.tncrs += E1000_READ_REG(hw, TNCRS);
  1311. adapter->stats.cexterr += E1000_READ_REG(hw, CEXTERR);
  1312. adapter->stats.tsctc += E1000_READ_REG(hw, TSCTC);
  1313. adapter->stats.tsctfc += E1000_READ_REG(hw, TSCTFC);
  1314. }
  1315. /* Fill out the OS statistics structure */
  1316. adapter->net_stats.rx_packets = adapter->stats.gprc;
  1317. adapter->net_stats.tx_packets = adapter->stats.gptc;
  1318. adapter->net_stats.rx_bytes = adapter->stats.gorcl;
  1319. adapter->net_stats.tx_bytes = adapter->stats.gotcl;
  1320. adapter->net_stats.multicast = adapter->stats.mprc;
  1321. adapter->net_stats.collisions = adapter->stats.colc;
  1322. /* Rx Errors */
  1323. adapter->net_stats.rx_errors = adapter->stats.rxerrc +
  1324. adapter->stats.crcerrs + adapter->stats.algnerrc +
  1325. adapter->stats.rlec + adapter->stats.rnbc +
  1326. adapter->stats.mpc + adapter->stats.cexterr;
  1327. adapter->net_stats.rx_dropped = adapter->stats.rnbc;
  1328. adapter->net_stats.rx_length_errors = adapter->stats.rlec;
  1329. adapter->net_stats.rx_crc_errors = adapter->stats.crcerrs;
  1330. adapter->net_stats.rx_frame_errors = adapter->stats.algnerrc;
  1331. adapter->net_stats.rx_fifo_errors = adapter->stats.mpc;
  1332. adapter->net_stats.rx_missed_errors = adapter->stats.mpc;
  1333. /* Tx Errors */
  1334. adapter->net_stats.tx_errors = adapter->stats.ecol +
  1335.                                adapter->stats.latecol;
  1336. adapter->net_stats.tx_aborted_errors = adapter->stats.ecol;
  1337. adapter->net_stats.tx_window_errors = adapter->stats.latecol;
  1338. adapter->net_stats.tx_carrier_errors = adapter->stats.tncrs;
  1339. /* Tx Dropped needs to be maintained elsewhere */
  1340. /* Phy Stats */
  1341. if(hw->media_type == e1000_media_type_copper) {
  1342. if((adapter->link_speed == SPEED_1000) &&
  1343.    (!e1000_read_phy_reg(hw, PHY_1000T_STATUS, &phy_tmp))) {
  1344. phy_tmp &= PHY_IDLE_ERROR_COUNT_MASK;
  1345. adapter->phy_stats.idle_errors += phy_tmp;
  1346. }
  1347. if((hw->mac_type <= e1000_82546) &&
  1348.    !e1000_read_phy_reg(hw, M88E1000_RX_ERR_CNTR, &phy_tmp))
  1349. adapter->phy_stats.receive_errors += phy_tmp;
  1350. }
  1351. }
  1352. /**
  1353.  * e1000_irq_disable - Mask off interrupt generation on the NIC
  1354.  * @adapter: board private structure
  1355.  **/
  1356. static inline void
  1357. e1000_irq_disable(struct e1000_adapter *adapter)
  1358. {
  1359. atomic_inc(&adapter->irq_sem);
  1360. E1000_WRITE_REG(&adapter->hw, IMC, ~0);
  1361. E1000_WRITE_FLUSH(&adapter->hw);
  1362. synchronize_irq();
  1363. }
  1364. /**
  1365.  * e1000_irq_enable - Enable default interrupt generation settings
  1366.  * @adapter: board private structure
  1367.  **/
  1368. static inline void
  1369. e1000_irq_enable(struct e1000_adapter *adapter)
  1370. {
  1371. if(atomic_dec_and_test(&adapter->irq_sem)) {
  1372. E1000_WRITE_REG(&adapter->hw, IMS, IMS_ENABLE_MASK);
  1373. E1000_WRITE_FLUSH(&adapter->hw);
  1374. }
  1375. }
  1376. /**
  1377.  * e1000_intr - Interrupt Handler
  1378.  * @irq: interrupt number
  1379.  * @data: pointer to a network interface device structure
  1380.  * @pt_regs: CPU registers structure
  1381.  **/
  1382. static void
  1383. e1000_intr(int irq, void *data, struct pt_regs *regs)
  1384. {
  1385. struct net_device *netdev = data;
  1386. struct e1000_adapter *adapter = netdev->priv;
  1387. uint32_t icr;
  1388. int i = E1000_MAX_INTR;
  1389. while(i && (icr = E1000_READ_REG(&adapter->hw, ICR))) {
  1390. if(icr & (E1000_ICR_RXSEQ | E1000_ICR_LSC)) {
  1391. adapter->hw.get_link_status = 1;
  1392. mod_timer(&adapter->watchdog_timer, jiffies);
  1393. }
  1394. e1000_clean_rx_irq(adapter);
  1395. e1000_clean_tx_irq(adapter);
  1396. i--;
  1397. }
  1398. }
  1399. /**
  1400.  * e1000_clean_tx_irq - Reclaim resources after transmit completes
  1401.  * @adapter: board private structure
  1402.  **/
  1403. static void
  1404. e1000_clean_tx_irq(struct e1000_adapter *adapter)
  1405. {
  1406. struct e1000_desc_ring *tx_ring = &adapter->tx_ring;
  1407. struct net_device *netdev = adapter->netdev;
  1408. struct pci_dev *pdev = adapter->pdev;
  1409. struct e1000_tx_desc *tx_desc;
  1410. int i;
  1411. i = tx_ring->next_to_clean;
  1412. tx_desc = E1000_TX_DESC(*tx_ring, i);
  1413. while(tx_desc->upper.data & cpu_to_le32(E1000_TXD_STAT_DD)) {
  1414. if(tx_ring->buffer_info[i].dma) {
  1415. pci_unmap_page(pdev,
  1416.                tx_ring->buffer_info[i].dma,
  1417.                tx_ring->buffer_info[i].length,
  1418.                PCI_DMA_TODEVICE);
  1419. tx_ring->buffer_info[i].dma = 0;
  1420. }
  1421. if(tx_ring->buffer_info[i].skb) {
  1422. dev_kfree_skb_any(tx_ring->buffer_info[i].skb);
  1423. tx_ring->buffer_info[i].skb = NULL;
  1424. }
  1425. tx_desc->upper.data = 0;
  1426. i = (i + 1) % tx_ring->count;
  1427. tx_desc = E1000_TX_DESC(*tx_ring, i);
  1428. }
  1429. tx_ring->next_to_clean = i;
  1430. if(netif_queue_stopped(netdev) && netif_carrier_ok(netdev) &&
  1431.    (E1000_DESC_UNUSED(tx_ring) > E1000_TX_QUEUE_WAKE)) {
  1432. netif_wake_queue(netdev);
  1433. }
  1434. }
  1435. /**
  1436.  * e1000_clean_rx_irq - Send received data up the network stack,
  1437.  * @adapter: board private structure
  1438.  **/
  1439. static void
  1440. e1000_clean_rx_irq(struct e1000_adapter *adapter)
  1441. {
  1442. struct e1000_desc_ring *rx_ring = &adapter->rx_ring;
  1443. struct net_device *netdev = adapter->netdev;
  1444. struct pci_dev *pdev = adapter->pdev;
  1445. struct e1000_rx_desc *rx_desc;
  1446. struct sk_buff *skb;
  1447. unsigned long flags;
  1448. uint32_t length;
  1449. uint8_t last_byte;
  1450. int i;
  1451. i = rx_ring->next_to_clean;
  1452. rx_desc = E1000_RX_DESC(*rx_ring, i);
  1453. while(rx_desc->status & E1000_RXD_STAT_DD) {
  1454. pci_unmap_single(pdev,
  1455.                  rx_ring->buffer_info[i].dma,
  1456.                  rx_ring->buffer_info[i].length,
  1457.                  PCI_DMA_FROMDEVICE);
  1458. skb = rx_ring->buffer_info[i].skb;
  1459. length = le16_to_cpu(rx_desc->length);
  1460. if(!(rx_desc->status & E1000_RXD_STAT_EOP)) {
  1461. /* All receives must fit into a single buffer */
  1462. E1000_DBG("Receive packet consumed multiple buffersn");
  1463. dev_kfree_skb_irq(skb);
  1464. rx_desc->status = 0;
  1465. rx_ring->buffer_info[i].skb = NULL;
  1466. i = (i + 1) % rx_ring->count;
  1467. rx_desc = E1000_RX_DESC(*rx_ring, i);
  1468. continue;
  1469. }
  1470. if(rx_desc->errors & E1000_RXD_ERR_FRAME_ERR_MASK) {
  1471. last_byte = *(skb->data + length - 1);
  1472. if(TBI_ACCEPT(&adapter->hw, rx_desc->status,
  1473.               rx_desc->errors, length, last_byte)) {
  1474. spin_lock_irqsave(&adapter->stats_lock, flags);
  1475. e1000_tbi_adjust_stats(&adapter->hw,
  1476.                        &adapter->stats,
  1477.                        length, skb->data);
  1478. spin_unlock_irqrestore(&adapter->stats_lock,
  1479.                        flags);
  1480. length--;
  1481. } else {
  1482. dev_kfree_skb_irq(skb);
  1483. rx_desc->status = 0;
  1484. rx_ring->buffer_info[i].skb = NULL;
  1485. i = (i + 1) % rx_ring->count;
  1486. rx_desc = E1000_RX_DESC(*rx_ring, i);
  1487. continue;
  1488. }
  1489. }
  1490. /* Good Receive */
  1491. skb_put(skb, length - ETHERNET_FCS_SIZE);
  1492. /* Receive Checksum Offload */
  1493. e1000_rx_checksum(adapter, rx_desc, skb);
  1494. skb->protocol = eth_type_trans(skb, netdev);
  1495. if(adapter->vlgrp && (rx_desc->status & E1000_RXD_STAT_VP)) {
  1496. vlan_hwaccel_rx(skb, adapter->vlgrp,
  1497. (rx_desc->special & E1000_RXD_SPC_VLAN_MASK));
  1498. } else {
  1499. netif_rx(skb);
  1500. }
  1501. netdev->last_rx = jiffies;
  1502. rx_desc->status = 0;
  1503. rx_ring->buffer_info[i].skb = NULL;
  1504. i = (i + 1) % rx_ring->count;
  1505. rx_desc = E1000_RX_DESC(*rx_ring, i);
  1506. }
  1507. rx_ring->next_to_clean = i;
  1508. e1000_alloc_rx_buffers(adapter);
  1509. }
  1510. /**
  1511.  * e1000_alloc_rx_buffers - Replace used receive buffers
  1512.  * @data: address of board private structure
  1513.  **/
  1514. static void
  1515. e1000_alloc_rx_buffers(struct e1000_adapter *adapter)
  1516. {
  1517. struct e1000_desc_ring *rx_ring = &adapter->rx_ring;
  1518. struct net_device *netdev = adapter->netdev;
  1519. struct pci_dev *pdev = adapter->pdev;
  1520. struct e1000_rx_desc *rx_desc;
  1521. struct sk_buff *skb;
  1522. int reserve_len;
  1523. int i;
  1524. reserve_len = 2;
  1525. i = rx_ring->next_to_use;
  1526. while(!rx_ring->buffer_info[i].skb) {
  1527. rx_desc = E1000_RX_DESC(*rx_ring, i);
  1528. skb = dev_alloc_skb(adapter->rx_buffer_len + reserve_len);
  1529. if(!skb) {
  1530. /* Better luck next round */
  1531. break;
  1532. }
  1533. /* Make buffer alignment 2 beyond a 16 byte boundary
  1534.  * this will result in a 16 byte aligned IP header after
  1535.  * the 14 byte MAC header is removed
  1536.  */
  1537. skb_reserve(skb, reserve_len);
  1538. skb->dev = netdev;
  1539. rx_ring->buffer_info[i].skb = skb;
  1540. rx_ring->buffer_info[i].length = adapter->rx_buffer_len;
  1541. rx_ring->buffer_info[i].dma =
  1542. pci_map_single(pdev,
  1543.                skb->data,
  1544.                adapter->rx_buffer_len,
  1545.                PCI_DMA_FROMDEVICE);
  1546. rx_desc->buffer_addr = cpu_to_le64(rx_ring->buffer_info[i].dma);
  1547. if(!(i % E1000_RX_BUFFER_WRITE)) {
  1548. /* Force memory writes to complete before letting h/w
  1549.  * know there are new descriptors to fetch.  (Only
  1550.  * applicable for weak-ordered memory model archs,
  1551.  * such as IA-64). */
  1552. wmb();
  1553. E1000_WRITE_REG(&adapter->hw, RDT, i);
  1554. }
  1555. i = (i + 1) % rx_ring->count;
  1556. }
  1557. rx_ring->next_to_use = i;
  1558. }
  1559. /**
  1560.  * e1000_ioctl -
  1561.  * @netdev:
  1562.  * @ifreq:
  1563.  * @cmd:
  1564.  **/
  1565. static int
  1566. e1000_ioctl(struct net_device *netdev, struct ifreq *ifr, int cmd)
  1567. {
  1568. switch (cmd) {
  1569. case SIOCETHTOOL:
  1570. return e1000_ethtool_ioctl(netdev, ifr);
  1571. default:
  1572. return -EOPNOTSUPP;
  1573. }
  1574. }
  1575. /**
  1576.  * e1000_rx_checksum - Receive Checksum Offload for 82543
  1577.  * @adapter: board private structure
  1578.  * @rx_desc: receive descriptor
  1579.  * @sk_buff: socket buffer with received data
  1580.  **/
  1581. static inline void
  1582. e1000_rx_checksum(struct e1000_adapter *adapter,
  1583.                   struct e1000_rx_desc *rx_desc,
  1584.                   struct sk_buff *skb)
  1585. {
  1586. /* 82543 or newer only */
  1587. if((adapter->hw.mac_type < e1000_82543) ||
  1588. /* Ignore Checksum bit is set */
  1589. (rx_desc->status & E1000_RXD_STAT_IXSM) ||
  1590. /* TCP Checksum has not been calculated */
  1591. (!(rx_desc->status & E1000_RXD_STAT_TCPCS))) {
  1592. skb->ip_summed = CHECKSUM_NONE;
  1593. return;
  1594. }
  1595. /* At this point we know the hardware did the TCP checksum */
  1596. /* now look at the TCP checksum error bit */
  1597. if(rx_desc->errors & E1000_RXD_ERR_TCPE) {
  1598. /* let the stack verify checksum errors */
  1599. skb->ip_summed = CHECKSUM_NONE;
  1600. adapter->hw_csum_err++;
  1601. } else {
  1602. /* TCP checksum is good */
  1603. skb->ip_summed = CHECKSUM_UNNECESSARY;
  1604. adapter->hw_csum_good++;
  1605. }
  1606. }
  1607. void
  1608. e1000_pci_set_mwi(struct e1000_hw *hw)
  1609. {
  1610. struct e1000_adapter *adapter = hw->back;
  1611. pci_set_mwi(adapter->pdev);
  1612. }
  1613. void
  1614. e1000_pci_clear_mwi(struct e1000_hw *hw)
  1615. {
  1616. struct e1000_adapter *adapter = hw->back;
  1617. pci_clear_mwi(adapter->pdev);
  1618. }
  1619. void
  1620. e1000_read_pci_cfg(struct e1000_hw *hw, uint32_t reg, uint16_t *value)
  1621. {
  1622. struct e1000_adapter *adapter = hw->back;
  1623. pci_read_config_word(adapter->pdev, reg, value);
  1624. }
  1625. void
  1626. e1000_write_pci_cfg(struct e1000_hw *hw, uint32_t reg, uint16_t *value)
  1627. {
  1628. struct e1000_adapter *adapter = hw->back;
  1629. pci_write_config_word(adapter->pdev, reg, *value);
  1630. }
  1631. uint32_t
  1632. e1000_io_read(struct e1000_hw *hw, uint32_t port)
  1633. {
  1634. return inl(port);
  1635. }
  1636. void
  1637. e1000_io_write(struct e1000_hw *hw, uint32_t port, uint32_t value)
  1638. {
  1639. outl(value, port);
  1640. }
  1641. static void
  1642. e1000_vlan_rx_register(struct net_device *netdev, struct vlan_group *grp)
  1643. {
  1644. struct e1000_adapter *adapter = netdev->priv;
  1645. uint32_t ctrl, rctl;
  1646. e1000_irq_disable(adapter);
  1647. adapter->vlgrp = grp;
  1648. if(grp) {
  1649. /* enable VLAN tag insert/strip */
  1650. E1000_WRITE_REG(&adapter->hw, VET, ETHERNET_IEEE_VLAN_TYPE);
  1651. ctrl = E1000_READ_REG(&adapter->hw, CTRL);
  1652. ctrl |= E1000_CTRL_VME;
  1653. E1000_WRITE_REG(&adapter->hw, CTRL, ctrl);
  1654. /* enable VLAN receive filtering */
  1655. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  1656. rctl |= E1000_RCTL_VFE;
  1657. rctl &= ~E1000_RCTL_CFIEN;
  1658. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  1659. } else {
  1660. /* disable VLAN tag insert/strip */
  1661. ctrl = E1000_READ_REG(&adapter->hw, CTRL);
  1662. ctrl &= ~E1000_CTRL_VME;
  1663. E1000_WRITE_REG(&adapter->hw, CTRL, ctrl);
  1664. /* disable VLAN filtering */
  1665. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  1666. rctl &= ~E1000_RCTL_VFE;
  1667. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  1668. }
  1669. e1000_irq_enable(adapter);
  1670. }
  1671. static void
  1672. e1000_vlan_rx_add_vid(struct net_device *netdev, uint16_t vid)
  1673. {
  1674. struct e1000_adapter *adapter = netdev->priv;
  1675. uint32_t vfta, index;
  1676. /* add VID to filter table */
  1677. index = (vid >> 5) & 0x7F;
  1678. vfta = E1000_READ_REG_ARRAY(&adapter->hw, VFTA, index);
  1679. vfta |= (1 << (vid & 0x1F));
  1680. e1000_write_vfta(&adapter->hw, index, vfta);
  1681. }
  1682. static void
  1683. e1000_vlan_rx_kill_vid(struct net_device *netdev, uint16_t vid)
  1684. {
  1685. struct e1000_adapter *adapter = netdev->priv;
  1686. uint32_t vfta, index;
  1687. e1000_irq_disable(adapter);
  1688. if(adapter->vlgrp)
  1689. adapter->vlgrp->vlan_devices[vid] = NULL;
  1690. e1000_irq_enable(adapter);
  1691. /* remove VID from filter table*/
  1692. index = (vid >> 5) & 0x7F;
  1693. vfta = E1000_READ_REG_ARRAY(&adapter->hw, VFTA, index);
  1694. vfta &= ~(1 << (vid & 0x1F));
  1695. e1000_write_vfta(&adapter->hw, index, vfta);
  1696. }
  1697. static int
  1698. e1000_notify_reboot(struct notifier_block *nb, unsigned long event, void *p)
  1699. {
  1700. struct pci_dev *pdev = NULL;
  1701. switch(event) {
  1702. case SYS_DOWN:
  1703. case SYS_HALT:
  1704. case SYS_POWER_OFF:
  1705. pci_for_each_dev(pdev) {
  1706. if(pci_dev_driver(pdev) == &e1000_driver)
  1707. e1000_suspend(pdev, 3);
  1708. }
  1709. }
  1710. return NOTIFY_DONE;
  1711. }
  1712. static int
  1713. e1000_notify_netdev(struct notifier_block *nb, unsigned long event, void *p)
  1714. {
  1715. struct e1000_adapter *adapter;
  1716. struct net_device *netdev = p;
  1717. if(netdev == NULL)
  1718. return NOTIFY_DONE;
  1719. switch(event) {
  1720. case NETDEV_CHANGENAME:
  1721. if(netdev->open == e1000_open) {
  1722. adapter = netdev->priv;
  1723. /* rename the proc nodes the easy way */
  1724. e1000_proc_dev_free(adapter);
  1725. memcpy(adapter->ifname, netdev->name, IFNAMSIZ);
  1726. adapter->ifname[IFNAMSIZ-1] = 0;
  1727. e1000_proc_dev_setup(adapter);
  1728. }
  1729. break;
  1730. }
  1731. return NOTIFY_DONE;
  1732. }
  1733. static int
  1734. e1000_suspend(struct pci_dev *pdev, uint32_t state)
  1735. {
  1736. struct net_device *netdev = pci_get_drvdata(pdev);
  1737. struct e1000_adapter *adapter = netdev->priv;
  1738. uint32_t ctrl, ctrl_ext, rctl, manc;
  1739. netif_device_detach(netdev);
  1740. if(netif_running(netdev))
  1741. e1000_down(adapter);
  1742. if(adapter->wol) {
  1743. e1000_setup_rctl(adapter);
  1744. e1000_set_multi(netdev);
  1745. /* turn on all-multi mode if wake on multicast is enabled */
  1746. if(adapter->wol & E1000_WUFC_MC) {
  1747. rctl = E1000_READ_REG(&adapter->hw, RCTL);
  1748. rctl |= E1000_RCTL_MPE;
  1749. E1000_WRITE_REG(&adapter->hw, RCTL, rctl);
  1750. }
  1751. if(adapter->hw.mac_type >= e1000_82540) {
  1752. ctrl = E1000_READ_REG(&adapter->hw, CTRL);
  1753. /* advertise wake from D3Cold */
  1754. #define E1000_CTRL_ADVD3WUC 0x00100000
  1755. /* phy power management enable */
  1756. #define E1000_CTRL_EN_PHY_PWR_MGMT 0x00200000
  1757. ctrl |= E1000_CTRL_ADVD3WUC |
  1758. E1000_CTRL_EN_PHY_PWR_MGMT;
  1759. E1000_WRITE_REG(&adapter->hw, CTRL, ctrl);
  1760. }
  1761. if(adapter->hw.media_type == e1000_media_type_fiber) {
  1762. /* keep the laser running in D3 */
  1763. ctrl_ext = E1000_READ_REG(&adapter->hw, CTRL_EXT);
  1764. ctrl_ext |= E1000_CTRL_EXT_SDP7_DATA;
  1765. E1000_WRITE_REG(&adapter->hw, CTRL_EXT, ctrl_ext);
  1766. }
  1767. E1000_WRITE_REG(&adapter->hw, WUC, E1000_WUC_PME_EN);
  1768. E1000_WRITE_REG(&adapter->hw, WUFC, adapter->wol);
  1769. pci_enable_wake(pdev, 3, 1);
  1770. pci_enable_wake(pdev, 4, 1); /* 4 == D3 cold */
  1771. } else {
  1772. E1000_WRITE_REG(&adapter->hw, WUC, 0);
  1773. E1000_WRITE_REG(&adapter->hw, WUFC, 0);
  1774. pci_enable_wake(pdev, 3, 0);
  1775. pci_enable_wake(pdev, 4, 0); /* 4 == D3 cold */
  1776. }
  1777. pci_save_state(pdev, adapter->pci_state);
  1778. if(adapter->hw.mac_type >= e1000_82540) {
  1779. manc = E1000_READ_REG(&adapter->hw, MANC);
  1780. if(manc & E1000_MANC_SMBUS_EN) {
  1781. manc |= E1000_MANC_ARP_EN;
  1782. E1000_WRITE_REG(&adapter->hw, MANC, manc);
  1783. state = 0;
  1784. }
  1785. }
  1786. state = (state > 0) ? 3 : 0;
  1787. pci_set_power_state(pdev, state);
  1788. return 0;
  1789. }
  1790. #ifdef CONFIG_PM
  1791. static int
  1792. e1000_resume(struct pci_dev *pdev)
  1793. {
  1794. struct net_device *netdev = pci_get_drvdata(pdev);
  1795. struct e1000_adapter *adapter = netdev->priv;
  1796. uint32_t manc;
  1797. pci_set_power_state(pdev, 0);
  1798. pci_restore_state(pdev, adapter->pci_state);
  1799. pci_enable_wake(pdev, 3, 0);
  1800. pci_enable_wake(pdev, 4, 0); /* 4 == D3 cold */
  1801. e1000_reset(adapter);
  1802. E1000_WRITE_REG(&adapter->hw, WUS, ~0);
  1803. if(netif_running(netdev))
  1804. e1000_up(adapter);
  1805. netif_device_attach(netdev);
  1806. if(adapter->hw.mac_type >= e1000_82540) {
  1807. manc = E1000_READ_REG(&adapter->hw, MANC);
  1808. manc &= ~(E1000_MANC_ARP_EN);
  1809. E1000_WRITE_REG(&adapter->hw, MANC, manc);
  1810. }
  1811. return 0;
  1812. }
  1813. #endif
  1814. /* e1000_main.c */