plip.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:36k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* $Id: plip.c,v 1.3.6.2 1997/04/16 15:07:56 phil Exp $ */
  2. /* PLIP: A parallel port "network" driver for Linux. */
  3. /* This driver is for parallel port with 5-bit cable (LapLink (R) cable). */
  4. /*
  5.  * Authors: Donald Becker <becker@scyld.com>
  6.  * Tommy Thorn <thorn@daimi.aau.dk>
  7.  * Tanabe Hiroyasu <hiro@sanpo.t.u-tokyo.ac.jp>
  8.  * Alan Cox <gw4pts@gw4pts.ampr.org>
  9.  * Peter Bauer <100136.3530@compuserve.com>
  10.  * Niibe Yutaka <gniibe@mri.co.jp>
  11.  * Nimrod Zimerman <zimerman@mailandnews.com>
  12.  *
  13.  * Enhancements:
  14.  * Modularization and ifreq/ifmap support by Alan Cox.
  15.  * Rewritten by Niibe Yutaka.
  16.  * parport-sharing awareness code by Philip Blundell.
  17.  * SMP locking by Niibe Yutaka.
  18.  * Support for parallel ports with no IRQ (poll mode),
  19.  * Modifications to use the parallel port API 
  20.  * by Nimrod Zimerman.
  21.  *
  22.  * Fixes:
  23.  * Niibe Yutaka
  24.  *   - Module initialization.
  25.  *   - MTU fix.
  26.  *   - Make sure other end is OK, before sending a packet.
  27.  *   - Fix immediate timer problem.
  28.  *
  29.  * Al Viro
  30.  *   - Changed {enable,disable}_irq handling to make it work
  31.  *     with new ("stack") semantics.
  32.  *
  33.  * This program is free software; you can redistribute it and/or
  34.  * modify it under the terms of the GNU General Public License
  35.  * as published by the Free Software Foundation; either version
  36.  * 2 of the License, or (at your option) any later version.
  37.  */
  38. /*
  39.  * Original version and the name 'PLIP' from Donald Becker <becker@scyld.com>
  40.  * inspired by Russ Nelson's parallel port packet driver.
  41.  *
  42.  * NOTE:
  43.  *     Tanabe Hiroyasu had changed the protocol, and it was in Linux v1.0.
  44.  *     Because of the necessity to communicate to DOS machines with the
  45.  *     Crynwr packet driver, Peter Bauer changed the protocol again
  46.  *     back to original protocol.
  47.  *
  48.  *     This version follows original PLIP protocol.
  49.  *     So, this PLIP can't communicate the PLIP of Linux v1.0.
  50.  */
  51. /*
  52.  *     To use with DOS box, please do (Turn on ARP switch):
  53.  * # ifconfig plip[0-2] arp
  54.  */
  55. static const char version[] = "NET3 PLIP version 2.4-parport gniibe@mri.co.jpn";
  56. /*
  57.   Sources:
  58. Ideas and protocols came from Russ Nelson's <nelson@crynwr.com>
  59. "parallel.asm" parallel port packet driver.
  60.   The "Crynwr" parallel port standard specifies the following protocol:
  61.     Trigger by sending nibble '0x8' (this causes interrupt on other end)
  62.     count-low octet
  63.     count-high octet
  64.     ... data octets
  65.     checksum octet
  66.   Each octet is sent as <wait for rx. '0x1?'> <send 0x10+(octet&0x0F)>
  67. <wait for rx. '0x0?'> <send 0x00+((octet>>4)&0x0F)>
  68.   The packet is encapsulated as if it were ethernet.
  69.   The cable used is a de facto standard parallel null cable -- sold as
  70.   a "LapLink" cable by various places.  You'll need a 12-conductor cable to
  71.   make one yourself.  The wiring is:
  72.     SLCTIN 17 - 17
  73.     GROUND 25 - 25
  74.     D0->ERROR 2 - 15 15 - 2
  75.     D1->SLCT 3 - 13 13 - 3
  76.     D2->PAPOUT 4 - 12 12 - 4
  77.     D3->ACK 5 - 10 10 - 5
  78.     D4->BUSY 6 - 11 11 - 6
  79.   Do not connect the other pins.  They are
  80.     D5,D6,D7 are 7,8,9
  81.     STROBE is 1, FEED is 14, INIT is 16
  82.     extra grounds are 18,19,20,21,22,23,24
  83. */
  84. #include <linux/module.h>
  85. #include <linux/kernel.h>
  86. #include <linux/sched.h>
  87. #include <linux/types.h>
  88. #include <linux/fcntl.h>
  89. #include <linux/interrupt.h>
  90. #include <linux/string.h>
  91. #include <linux/ptrace.h>
  92. #include <linux/if_ether.h>
  93. #include <asm/system.h>
  94. #include <linux/in.h>
  95. #include <linux/errno.h>
  96. #include <linux/delay.h>
  97. #include <linux/lp.h>
  98. #include <linux/init.h>
  99. #include <linux/netdevice.h>
  100. #include <linux/etherdevice.h>
  101. #include <linux/inetdevice.h>
  102. #include <linux/skbuff.h>
  103. #include <linux/if_plip.h>
  104. #include <net/neighbour.h>
  105. #include <linux/tqueue.h>
  106. #include <linux/ioport.h>
  107. #include <linux/spinlock.h>
  108. #include <asm/bitops.h>
  109. #include <asm/irq.h>
  110. #include <asm/byteorder.h>
  111. #include <asm/semaphore.h>
  112. #include <linux/parport.h>
  113. /* Maximum number of devices to support. */
  114. #define PLIP_MAX  8
  115. /* Use 0 for production, 1 for verification, >2 for debug */
  116. #ifndef NET_DEBUG
  117. #define NET_DEBUG 1
  118. #endif
  119. static unsigned int net_debug = NET_DEBUG;
  120. #define ENABLE(irq)  if (irq != -1) enable_irq(irq)
  121. #define DISABLE(irq) if (irq != -1) disable_irq(irq)
  122. /* In micro second */
  123. #define PLIP_DELAY_UNIT    1
  124. /* Connection time out = PLIP_TRIGGER_WAIT * PLIP_DELAY_UNIT usec */
  125. #define PLIP_TRIGGER_WAIT  500
  126. /* Nibble time out = PLIP_NIBBLE_WAIT * PLIP_DELAY_UNIT usec */
  127. #define PLIP_NIBBLE_WAIT        3000
  128. /* Bottom halves */
  129. static void plip_kick_bh(struct net_device *dev);
  130. static void plip_bh(struct net_device *dev);
  131. static void plip_timer_bh(struct net_device *dev);
  132. /* Interrupt handler */
  133. static void plip_interrupt(int irq, void *dev_id, struct pt_regs *regs);
  134. /* Functions for DEV methods */
  135. static int plip_tx_packet(struct sk_buff *skb, struct net_device *dev);
  136. static int plip_hard_header(struct sk_buff *skb, struct net_device *dev,
  137.                             unsigned short type, void *daddr,
  138.                             void *saddr, unsigned len);
  139. static int plip_hard_header_cache(struct neighbour *neigh,
  140.                                   struct hh_cache *hh);
  141. static int plip_open(struct net_device *dev);
  142. static int plip_close(struct net_device *dev);
  143. static struct net_device_stats *plip_get_stats(struct net_device *dev);
  144. static int plip_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd);
  145. static int plip_preempt(void *handle);
  146. static void plip_wakeup(void *handle);
  147. enum plip_connection_state {
  148. PLIP_CN_NONE=0,
  149. PLIP_CN_RECEIVE,
  150. PLIP_CN_SEND,
  151. PLIP_CN_CLOSING,
  152. PLIP_CN_ERROR
  153. };
  154. enum plip_packet_state {
  155. PLIP_PK_DONE=0,
  156. PLIP_PK_TRIGGER,
  157. PLIP_PK_LENGTH_LSB,
  158. PLIP_PK_LENGTH_MSB,
  159. PLIP_PK_DATA,
  160. PLIP_PK_CHECKSUM
  161. };
  162. enum plip_nibble_state {
  163. PLIP_NB_BEGIN,
  164. PLIP_NB_1,
  165. PLIP_NB_2,
  166. };
  167. struct plip_local {
  168. enum plip_packet_state state;
  169. enum plip_nibble_state nibble;
  170. union {
  171. struct {
  172. #if defined(__LITTLE_ENDIAN)
  173. unsigned char lsb;
  174. unsigned char msb;
  175. #elif defined(__BIG_ENDIAN)
  176. unsigned char msb;
  177. unsigned char lsb;
  178. #else
  179. #error "Please fix the endianness defines in <asm/byteorder.h>"
  180. #endif
  181. } b;
  182. unsigned short h;
  183. } length;
  184. unsigned short byte;
  185. unsigned char  checksum;
  186. unsigned char  data;
  187. struct sk_buff *skb;
  188. };
  189. struct net_local {
  190. struct net_device_stats enet_stats;
  191. struct tq_struct immediate;
  192. struct tq_struct deferred;
  193. struct tq_struct timer;
  194. struct plip_local snd_data;
  195. struct plip_local rcv_data;
  196. struct pardevice *pardev;
  197. unsigned long  trigger;
  198. unsigned long  nibble;
  199. enum plip_connection_state connection;
  200. unsigned short timeout_count;
  201. int is_deferred;
  202. int port_owner;
  203. int should_relinquish;
  204. int (*orig_hard_header)(struct sk_buff *skb, struct net_device *dev,
  205.                         unsigned short type, void *daddr,
  206.                         void *saddr, unsigned len);
  207. int (*orig_hard_header_cache)(struct neighbour *neigh,
  208.                               struct hh_cache *hh);
  209. spinlock_t lock;
  210. atomic_t kill_timer;
  211. struct semaphore killed_timer_sem;
  212. };
  213. inline static void enable_parport_interrupts (struct net_device *dev)
  214. {
  215. if (dev->irq != -1)
  216. {
  217. struct parport *port =
  218.    ((struct net_local *)dev->priv)->pardev->port;
  219. port->ops->enable_irq (port);
  220. }
  221. }
  222. inline static void disable_parport_interrupts (struct net_device *dev)
  223. {
  224. if (dev->irq != -1)
  225. {
  226. struct parport *port =
  227.    ((struct net_local *)dev->priv)->pardev->port;
  228. port->ops->disable_irq (port);
  229. }
  230. }
  231. inline static void write_data (struct net_device *dev, unsigned char data)
  232. {
  233. struct parport *port =
  234.    ((struct net_local *)dev->priv)->pardev->port;
  235. port->ops->write_data (port, data);
  236. }
  237. inline static unsigned char read_status (struct net_device *dev)
  238. {
  239. struct parport *port =
  240.    ((struct net_local *)dev->priv)->pardev->port;
  241. return port->ops->read_status (port);
  242. }
  243. /* Entry point of PLIP driver.
  244.    Probe the hardware, and register/initialize the driver.
  245.    PLIP is rather weird, because of the way it interacts with the parport
  246.    system.  It is _not_ initialised from Space.c.  Instead, plip_init()
  247.    is called, and that function makes up a "struct net_device" for each port, and
  248.    then calls us here.
  249.    */
  250. int __init
  251. plip_init_dev(struct net_device *dev, struct parport *pb)
  252. {
  253. struct net_local *nl;
  254. struct pardevice *pardev;
  255. SET_MODULE_OWNER(dev);
  256. dev->irq = pb->irq;
  257. dev->base_addr = pb->base;
  258. if (pb->irq == -1) {
  259. printk(KERN_INFO "plip: %s has no IRQ. Using IRQ-less mode,"
  260.                  "which is fairly inefficient!n", pb->name);
  261. }
  262. pardev = parport_register_device(pb, dev->name, plip_preempt,
  263.  plip_wakeup, plip_interrupt, 
  264.  0, dev);
  265. if (!pardev)
  266. return -ENODEV;
  267. printk(KERN_INFO "%s", version);
  268. if (dev->irq != -1)
  269. printk(KERN_INFO "%s: Parallel port at %#3lx, using IRQ %d.n",
  270.        dev->name, dev->base_addr, dev->irq);
  271. else
  272. printk(KERN_INFO "%s: Parallel port at %#3lx, not using IRQ.n",
  273.        dev->name, dev->base_addr);
  274. /* Fill in the generic fields of the device structure. */
  275. ether_setup(dev);
  276. /* Then, override parts of it */
  277. dev->hard_start_xmit  = plip_tx_packet;
  278. dev->open  = plip_open;
  279. dev->stop  = plip_close;
  280. dev->get_stats   = plip_get_stats;
  281. dev->do_ioctl  = plip_ioctl;
  282. dev->header_cache_update = NULL;
  283. dev->tx_queue_len   = 10;
  284. dev->flags          = IFF_POINTOPOINT|IFF_NOARP;
  285. memset(dev->dev_addr, 0xfc, ETH_ALEN);
  286. /* Set the private structure */
  287. dev->priv = kmalloc(sizeof (struct net_local), GFP_KERNEL);
  288. if (dev->priv == NULL) {
  289. printk(KERN_ERR "%s: out of memoryn", dev->name);
  290. parport_unregister_device(pardev);
  291. return -ENOMEM;
  292. }
  293. memset(dev->priv, 0, sizeof(struct net_local));
  294. nl = (struct net_local *) dev->priv;
  295. nl->orig_hard_header    = dev->hard_header;
  296. dev->hard_header        = plip_hard_header;
  297. nl->orig_hard_header_cache = dev->hard_header_cache;
  298. dev->hard_header_cache     = plip_hard_header_cache;
  299. nl->pardev = pardev; 
  300. nl->port_owner = 0;
  301. /* Initialize constants */
  302. nl->trigger = PLIP_TRIGGER_WAIT;
  303. nl->nibble = PLIP_NIBBLE_WAIT;
  304. /* Initialize task queue structures */
  305. INIT_LIST_HEAD(&nl->immediate.list);
  306. nl->immediate.sync = 0;
  307. nl->immediate.routine = (void (*)(void *))plip_bh;
  308. nl->immediate.data = dev;
  309. INIT_LIST_HEAD(&nl->deferred.list);
  310. nl->deferred.sync = 0;
  311. nl->deferred.routine = (void (*)(void *))plip_kick_bh;
  312. nl->deferred.data = dev;
  313. if (dev->irq == -1) {
  314. INIT_LIST_HEAD(&nl->timer.list);
  315. nl->timer.sync = 0;
  316. nl->timer.routine = (void (*)(void *))plip_timer_bh;
  317. nl->timer.data = dev;
  318. }
  319. spin_lock_init(&nl->lock);
  320. return 0;
  321. }
  322. /* Bottom half handler for the delayed request.
  323.    This routine is kicked by do_timer().
  324.    Request `plip_bh' to be invoked. */
  325. static void
  326. plip_kick_bh(struct net_device *dev)
  327. {
  328. struct net_local *nl = (struct net_local *)dev->priv;
  329. if (nl->is_deferred) {
  330. queue_task(&nl->immediate, &tq_immediate);
  331. mark_bh(IMMEDIATE_BH);
  332. }
  333. }
  334. /* Forward declarations of internal routines */
  335. static int plip_none(struct net_device *, struct net_local *,
  336.      struct plip_local *, struct plip_local *);
  337. static int plip_receive_packet(struct net_device *, struct net_local *,
  338.        struct plip_local *, struct plip_local *);
  339. static int plip_send_packet(struct net_device *, struct net_local *,
  340.     struct plip_local *, struct plip_local *);
  341. static int plip_connection_close(struct net_device *, struct net_local *,
  342.  struct plip_local *, struct plip_local *);
  343. static int plip_error(struct net_device *, struct net_local *,
  344.       struct plip_local *, struct plip_local *);
  345. static int plip_bh_timeout_error(struct net_device *dev, struct net_local *nl,
  346.  struct plip_local *snd,
  347.  struct plip_local *rcv,
  348.  int error);
  349. #define OK        0
  350. #define TIMEOUT   1
  351. #define ERROR     2
  352. #define HS_TIMEOUT 3
  353. typedef int (*plip_func)(struct net_device *dev, struct net_local *nl,
  354.  struct plip_local *snd, struct plip_local *rcv);
  355. static plip_func connection_state_table[] =
  356. {
  357. plip_none,
  358. plip_receive_packet,
  359. plip_send_packet,
  360. plip_connection_close,
  361. plip_error
  362. };
  363. /* Bottom half handler of PLIP. */
  364. static void
  365. plip_bh(struct net_device *dev)
  366. {
  367. struct net_local *nl = (struct net_local *)dev->priv;
  368. struct plip_local *snd = &nl->snd_data;
  369. struct plip_local *rcv = &nl->rcv_data;
  370. plip_func f;
  371. int r;
  372. nl->is_deferred = 0;
  373. f = connection_state_table[nl->connection];
  374. if ((r = (*f)(dev, nl, snd, rcv)) != OK
  375.     && (r = plip_bh_timeout_error(dev, nl, snd, rcv, r)) != OK) {
  376. nl->is_deferred = 1;
  377. queue_task(&nl->deferred, &tq_timer);
  378. }
  379. }
  380. static void
  381. plip_timer_bh(struct net_device *dev)
  382. {
  383. struct net_local *nl = (struct net_local *)dev->priv;
  384. if (!(atomic_read (&nl->kill_timer))) {
  385. plip_interrupt (-1, dev, NULL);
  386. queue_task (&nl->timer, &tq_timer);
  387. }
  388. else {
  389. up (&nl->killed_timer_sem);
  390. }
  391. }
  392. static int
  393. plip_bh_timeout_error(struct net_device *dev, struct net_local *nl,
  394.       struct plip_local *snd, struct plip_local *rcv,
  395.       int error)
  396. {
  397. unsigned char c0;
  398. /*
  399.  * This is tricky. If we got here from the beginning of send (either
  400.  * with ERROR or HS_TIMEOUT) we have IRQ enabled. Otherwise it's
  401.  * already disabled. With the old variant of {enable,disable}_irq()
  402.  * extra disable_irq() was a no-op. Now it became mortal - it's
  403.  * unbalanced and thus we'll never re-enable IRQ (until rmmod plip,
  404.  * that is). So we have to treat HS_TIMEOUT and ERROR from send
  405.  * in a special way.
  406.  */
  407. spin_lock_irq(&nl->lock);
  408. if (nl->connection == PLIP_CN_SEND) {
  409. if (error != ERROR) { /* Timeout */
  410. nl->timeout_count++;
  411. if ((error == HS_TIMEOUT
  412.      && nl->timeout_count <= 10)
  413.     || nl->timeout_count <= 3) {
  414. spin_unlock_irq(&nl->lock);
  415. /* Try again later */
  416. return TIMEOUT;
  417. }
  418. c0 = read_status(dev);
  419. printk(KERN_WARNING "%s: transmit timeout(%d,%02x)n",
  420.        dev->name, snd->state, c0);
  421. } else
  422. error = HS_TIMEOUT;
  423. nl->enet_stats.tx_errors++;
  424. nl->enet_stats.tx_aborted_errors++;
  425. } else if (nl->connection == PLIP_CN_RECEIVE) {
  426. if (rcv->state == PLIP_PK_TRIGGER) {
  427. /* Transmission was interrupted. */
  428. spin_unlock_irq(&nl->lock);
  429. return OK;
  430. }
  431. if (error != ERROR) { /* Timeout */
  432. if (++nl->timeout_count <= 3) {
  433. spin_unlock_irq(&nl->lock);
  434. /* Try again later */
  435. return TIMEOUT;
  436. }
  437. c0 = read_status(dev);
  438. printk(KERN_WARNING "%s: receive timeout(%d,%02x)n",
  439.        dev->name, rcv->state, c0);
  440. }
  441. nl->enet_stats.rx_dropped++;
  442. }
  443. rcv->state = PLIP_PK_DONE;
  444. if (rcv->skb) {
  445. kfree_skb(rcv->skb);
  446. rcv->skb = NULL;
  447. }
  448. snd->state = PLIP_PK_DONE;
  449. if (snd->skb) {
  450. dev_kfree_skb(snd->skb);
  451. snd->skb = NULL;
  452. }
  453. spin_unlock_irq(&nl->lock);
  454. if (error == HS_TIMEOUT) {
  455. DISABLE(dev->irq);
  456. synchronize_irq();
  457. }
  458. disable_parport_interrupts (dev);
  459. netif_stop_queue (dev);
  460. nl->connection = PLIP_CN_ERROR;
  461. write_data (dev, 0x00);
  462. return TIMEOUT;
  463. }
  464. static int
  465. plip_none(struct net_device *dev, struct net_local *nl,
  466.   struct plip_local *snd, struct plip_local *rcv)
  467. {
  468. return OK;
  469. }
  470. /* PLIP_RECEIVE --- receive a byte(two nibbles)
  471.    Returns OK on success, TIMEOUT on timeout */
  472. inline static int
  473. plip_receive(unsigned short nibble_timeout, struct net_device *dev,
  474.      enum plip_nibble_state *ns_p, unsigned char *data_p)
  475. {
  476. unsigned char c0, c1;
  477. unsigned int cx;
  478. switch (*ns_p) {
  479. case PLIP_NB_BEGIN:
  480. cx = nibble_timeout;
  481. while (1) {
  482. c0 = read_status(dev);
  483. udelay(PLIP_DELAY_UNIT);
  484. if ((c0 & 0x80) == 0) {
  485. c1 = read_status(dev);
  486. if (c0 == c1)
  487. break;
  488. }
  489. if (--cx == 0)
  490. return TIMEOUT;
  491. }
  492. *data_p = (c0 >> 3) & 0x0f;
  493. write_data (dev, 0x10); /* send ACK */
  494. *ns_p = PLIP_NB_1;
  495. case PLIP_NB_1:
  496. cx = nibble_timeout;
  497. while (1) {
  498. c0 = read_status(dev);
  499. udelay(PLIP_DELAY_UNIT);
  500. if (c0 & 0x80) {
  501. c1 = read_status(dev);
  502. if (c0 == c1)
  503. break;
  504. }
  505. if (--cx == 0)
  506. return TIMEOUT;
  507. }
  508. *data_p |= (c0 << 1) & 0xf0;
  509. write_data (dev, 0x00); /* send ACK */
  510. *ns_p = PLIP_NB_BEGIN;
  511. case PLIP_NB_2:
  512. break;
  513. }
  514. return OK;
  515. }
  516. /*
  517.  * Determine the packet's protocol ID. The rule here is that we 
  518.  * assume 802.3 if the type field is short enough to be a length.
  519.  * This is normal practice and works for any 'now in use' protocol.
  520.  *
  521.  * PLIP is ethernet ish but the daddr might not be valid if unicast.
  522.  * PLIP fortunately has no bus architecture (its Point-to-point).
  523.  *
  524.  * We can't fix the daddr thing as that quirk (more bug) is embedded
  525.  * in far too many old systems not all even running Linux.
  526.  */
  527.  
  528. static unsigned short plip_type_trans(struct sk_buff *skb, struct net_device *dev)
  529. {
  530. struct ethhdr *eth;
  531. unsigned char *rawp;
  532. skb->mac.raw=skb->data;
  533. skb_pull(skb,dev->hard_header_len);
  534. eth= skb->mac.ethernet;
  535. if(*eth->h_dest&1)
  536. {
  537. if(memcmp(eth->h_dest,dev->broadcast, ETH_ALEN)==0)
  538. skb->pkt_type=PACKET_BROADCAST;
  539. else
  540. skb->pkt_type=PACKET_MULTICAST;
  541. }
  542. /*
  543.  * This ALLMULTI check should be redundant by 1.4
  544.  * so don't forget to remove it.
  545.  */
  546.  
  547. if (ntohs(eth->h_proto) >= 1536)
  548. return eth->h_proto;
  549. rawp = skb->data;
  550. /*
  551.  * This is a magic hack to spot IPX packets. Older Novell breaks
  552.  * the protocol design and runs IPX over 802.3 without an 802.2 LLC
  553.  * layer. We look for FFFF which isn't a used 802.2 SSAP/DSAP. This
  554.  * won't work for fault tolerant netware but does for the rest.
  555.  */
  556. if (*(unsigned short *)rawp == 0xFFFF)
  557. return htons(ETH_P_802_3);
  558. /*
  559.  * Real 802.2 LLC
  560.  */
  561. return htons(ETH_P_802_2);
  562. }
  563. /* PLIP_RECEIVE_PACKET --- receive a packet */
  564. static int
  565. plip_receive_packet(struct net_device *dev, struct net_local *nl,
  566.     struct plip_local *snd, struct plip_local *rcv)
  567. {
  568. unsigned short nibble_timeout = nl->nibble;
  569. unsigned char *lbuf;
  570. switch (rcv->state) {
  571. case PLIP_PK_TRIGGER:
  572. DISABLE(dev->irq);
  573. /* Don't need to synchronize irq, as we can safely ignore it */
  574. disable_parport_interrupts (dev);
  575. write_data (dev, 0x01); /* send ACK */
  576. if (net_debug > 2)
  577. printk(KERN_DEBUG "%s: receive startn", dev->name);
  578. rcv->state = PLIP_PK_LENGTH_LSB;
  579. rcv->nibble = PLIP_NB_BEGIN;
  580. case PLIP_PK_LENGTH_LSB:
  581. if (snd->state != PLIP_PK_DONE) {
  582. if (plip_receive(nl->trigger, dev,
  583.  &rcv->nibble, &rcv->length.b.lsb)) {
  584. /* collision, here dev->tbusy == 1 */
  585. rcv->state = PLIP_PK_DONE;
  586. nl->is_deferred = 1;
  587. nl->connection = PLIP_CN_SEND;
  588. queue_task(&nl->deferred, &tq_timer);
  589. enable_parport_interrupts (dev);
  590. ENABLE(dev->irq);
  591. return OK;
  592. }
  593. } else {
  594. if (plip_receive(nibble_timeout, dev,
  595.  &rcv->nibble, &rcv->length.b.lsb))
  596. return TIMEOUT;
  597. }
  598. rcv->state = PLIP_PK_LENGTH_MSB;
  599. case PLIP_PK_LENGTH_MSB:
  600. if (plip_receive(nibble_timeout, dev,
  601.  &rcv->nibble, &rcv->length.b.msb))
  602. return TIMEOUT;
  603. if (rcv->length.h > dev->mtu + dev->hard_header_len
  604.     || rcv->length.h < 8) {
  605. printk(KERN_WARNING "%s: bogus packet size %d.n", dev->name, rcv->length.h);
  606. return ERROR;
  607. }
  608. /* Malloc up new buffer. */
  609. rcv->skb = dev_alloc_skb(rcv->length.h + 2);
  610. if (rcv->skb == NULL) {
  611. printk(KERN_ERR "%s: Memory squeeze.n", dev->name);
  612. return ERROR;
  613. }
  614. skb_reserve(rcv->skb, 2); /* Align IP on 16 byte boundaries */
  615. skb_put(rcv->skb,rcv->length.h);
  616. rcv->skb->dev = dev;
  617. rcv->state = PLIP_PK_DATA;
  618. rcv->byte = 0;
  619. rcv->checksum = 0;
  620. case PLIP_PK_DATA:
  621. lbuf = rcv->skb->data;
  622. do
  623. if (plip_receive(nibble_timeout, dev,
  624.  &rcv->nibble, &lbuf[rcv->byte]))
  625. return TIMEOUT;
  626. while (++rcv->byte < rcv->length.h);
  627. do
  628. rcv->checksum += lbuf[--rcv->byte];
  629. while (rcv->byte);
  630. rcv->state = PLIP_PK_CHECKSUM;
  631. case PLIP_PK_CHECKSUM:
  632. if (plip_receive(nibble_timeout, dev,
  633.  &rcv->nibble, &rcv->data))
  634. return TIMEOUT;
  635. if (rcv->data != rcv->checksum) {
  636. nl->enet_stats.rx_crc_errors++;
  637. if (net_debug)
  638. printk(KERN_DEBUG "%s: checksum errorn", dev->name);
  639. return ERROR;
  640. }
  641. rcv->state = PLIP_PK_DONE;
  642. case PLIP_PK_DONE:
  643. /* Inform the upper layer for the arrival of a packet. */
  644. rcv->skb->protocol=plip_type_trans(rcv->skb, dev);
  645. netif_rx(rcv->skb);
  646. dev->last_rx = jiffies;
  647. nl->enet_stats.rx_bytes += rcv->length.h;
  648. nl->enet_stats.rx_packets++;
  649. rcv->skb = NULL;
  650. if (net_debug > 2)
  651. printk(KERN_DEBUG "%s: receive endn", dev->name);
  652. /* Close the connection. */
  653. write_data (dev, 0x00);
  654. spin_lock_irq(&nl->lock);
  655. if (snd->state != PLIP_PK_DONE) {
  656. nl->connection = PLIP_CN_SEND;
  657. spin_unlock_irq(&nl->lock);
  658. queue_task(&nl->immediate, &tq_immediate);
  659. mark_bh(IMMEDIATE_BH);
  660. enable_parport_interrupts (dev);
  661. ENABLE(dev->irq);
  662. return OK;
  663. } else {
  664. nl->connection = PLIP_CN_NONE;
  665. spin_unlock_irq(&nl->lock);
  666. enable_parport_interrupts (dev);
  667. ENABLE(dev->irq);
  668. return OK;
  669. }
  670. }
  671. return OK;
  672. }
  673. /* PLIP_SEND --- send a byte (two nibbles)
  674.    Returns OK on success, TIMEOUT when timeout    */
  675. inline static int
  676. plip_send(unsigned short nibble_timeout, struct net_device *dev,
  677.   enum plip_nibble_state *ns_p, unsigned char data)
  678. {
  679. unsigned char c0;
  680. unsigned int cx;
  681. switch (*ns_p) {
  682. case PLIP_NB_BEGIN:
  683. write_data (dev, data & 0x0f);
  684. *ns_p = PLIP_NB_1;
  685. case PLIP_NB_1:
  686. write_data (dev, 0x10 | (data & 0x0f));
  687. cx = nibble_timeout;
  688. while (1) {
  689. c0 = read_status(dev);
  690. if ((c0 & 0x80) == 0)
  691. break;
  692. if (--cx == 0)
  693. return TIMEOUT;
  694. udelay(PLIP_DELAY_UNIT);
  695. }
  696. write_data (dev, 0x10 | (data >> 4));
  697. *ns_p = PLIP_NB_2;
  698. case PLIP_NB_2:
  699. write_data (dev, (data >> 4));
  700. cx = nibble_timeout;
  701. while (1) {
  702. c0 = read_status(dev);
  703. if (c0 & 0x80)
  704. break;
  705. if (--cx == 0)
  706. return TIMEOUT;
  707. udelay(PLIP_DELAY_UNIT);
  708. }
  709. *ns_p = PLIP_NB_BEGIN;
  710. return OK;
  711. }
  712. return OK;
  713. }
  714. /* PLIP_SEND_PACKET --- send a packet */
  715. static int
  716. plip_send_packet(struct net_device *dev, struct net_local *nl,
  717.  struct plip_local *snd, struct plip_local *rcv)
  718. {
  719. unsigned short nibble_timeout = nl->nibble;
  720. unsigned char *lbuf;
  721. unsigned char c0;
  722. unsigned int cx;
  723. if (snd->skb == NULL || (lbuf = snd->skb->data) == NULL) {
  724. printk(KERN_DEBUG "%s: send skb lostn", dev->name);
  725. snd->state = PLIP_PK_DONE;
  726. snd->skb = NULL;
  727. return ERROR;
  728. }
  729. switch (snd->state) {
  730. case PLIP_PK_TRIGGER:
  731. if ((read_status(dev) & 0xf8) != 0x80)
  732. return HS_TIMEOUT;
  733. /* Trigger remote rx interrupt. */
  734. write_data (dev, 0x08);
  735. cx = nl->trigger;
  736. while (1) {
  737. udelay(PLIP_DELAY_UNIT);
  738. spin_lock_irq(&nl->lock);
  739. if (nl->connection == PLIP_CN_RECEIVE) {
  740. spin_unlock_irq(&nl->lock);
  741. /* Interrupted. */
  742. nl->enet_stats.collisions++;
  743. return OK;
  744. }
  745. c0 = read_status(dev);
  746. if (c0 & 0x08) {
  747. spin_unlock_irq(&nl->lock);
  748. DISABLE(dev->irq);
  749. synchronize_irq();
  750. if (nl->connection == PLIP_CN_RECEIVE) {
  751. /* Interrupted.
  752.    We don't need to enable irq,
  753.    as it is soon disabled.    */
  754. /* Yes, we do. New variant of
  755.    {enable,disable}_irq *counts*
  756.    them.  -- AV  */
  757. ENABLE(dev->irq);
  758. nl->enet_stats.collisions++;
  759. return OK;
  760. }
  761. disable_parport_interrupts (dev);
  762. if (net_debug > 2)
  763. printk(KERN_DEBUG "%s: send startn", dev->name);
  764. snd->state = PLIP_PK_LENGTH_LSB;
  765. snd->nibble = PLIP_NB_BEGIN;
  766. nl->timeout_count = 0;
  767. break;
  768. }
  769. spin_unlock_irq(&nl->lock);
  770. if (--cx == 0) {
  771. write_data (dev, 0x00);
  772. return HS_TIMEOUT;
  773. }
  774. }
  775. case PLIP_PK_LENGTH_LSB:
  776. if (plip_send(nibble_timeout, dev,
  777.       &snd->nibble, snd->length.b.lsb))
  778. return TIMEOUT;
  779. snd->state = PLIP_PK_LENGTH_MSB;
  780. case PLIP_PK_LENGTH_MSB:
  781. if (plip_send(nibble_timeout, dev,
  782.       &snd->nibble, snd->length.b.msb))
  783. return TIMEOUT;
  784. snd->state = PLIP_PK_DATA;
  785. snd->byte = 0;
  786. snd->checksum = 0;
  787. case PLIP_PK_DATA:
  788. do
  789. if (plip_send(nibble_timeout, dev,
  790.       &snd->nibble, lbuf[snd->byte]))
  791. return TIMEOUT;
  792. while (++snd->byte < snd->length.h);
  793. do
  794. snd->checksum += lbuf[--snd->byte];
  795. while (snd->byte);
  796. snd->state = PLIP_PK_CHECKSUM;
  797. case PLIP_PK_CHECKSUM:
  798. if (plip_send(nibble_timeout, dev,
  799.       &snd->nibble, snd->checksum))
  800. return TIMEOUT;
  801. nl->enet_stats.tx_bytes += snd->skb->len;
  802. dev_kfree_skb(snd->skb);
  803. nl->enet_stats.tx_packets++;
  804. snd->state = PLIP_PK_DONE;
  805. case PLIP_PK_DONE:
  806. /* Close the connection */
  807. write_data (dev, 0x00);
  808. snd->skb = NULL;
  809. if (net_debug > 2)
  810. printk(KERN_DEBUG "%s: send endn", dev->name);
  811. nl->connection = PLIP_CN_CLOSING;
  812. nl->is_deferred = 1;
  813. queue_task(&nl->deferred, &tq_timer);
  814. enable_parport_interrupts (dev);
  815. ENABLE(dev->irq);
  816. return OK;
  817. }
  818. return OK;
  819. }
  820. static int
  821. plip_connection_close(struct net_device *dev, struct net_local *nl,
  822.       struct plip_local *snd, struct plip_local *rcv)
  823. {
  824. spin_lock_irq(&nl->lock);
  825. if (nl->connection == PLIP_CN_CLOSING) {
  826. nl->connection = PLIP_CN_NONE;
  827. netif_wake_queue (dev);
  828. }
  829. spin_unlock_irq(&nl->lock);
  830. if (nl->should_relinquish) {
  831. nl->should_relinquish = nl->port_owner = 0;
  832. parport_release(nl->pardev);
  833. }
  834. return OK;
  835. }
  836. /* PLIP_ERROR --- wait till other end settled */
  837. static int
  838. plip_error(struct net_device *dev, struct net_local *nl,
  839.    struct plip_local *snd, struct plip_local *rcv)
  840. {
  841. unsigned char status;
  842. status = read_status(dev);
  843. if ((status & 0xf8) == 0x80) {
  844. if (net_debug > 2)
  845. printk(KERN_DEBUG "%s: reset interface.n", dev->name);
  846. nl->connection = PLIP_CN_NONE;
  847. nl->should_relinquish = 0;
  848. netif_start_queue (dev);
  849. enable_parport_interrupts (dev);
  850. ENABLE(dev->irq);
  851. netif_wake_queue (dev);
  852. } else {
  853. nl->is_deferred = 1;
  854. queue_task(&nl->deferred, &tq_timer);
  855. }
  856. return OK;
  857. }
  858. /* Handle the parallel port interrupts. */
  859. static void
  860. plip_interrupt(int irq, void *dev_id, struct pt_regs * regs)
  861. {
  862. struct net_device *dev = dev_id;
  863. struct net_local *nl;
  864. struct plip_local *rcv;
  865. unsigned char c0;
  866. if (dev == NULL) {
  867. printk(KERN_DEBUG "plip_interrupt: irq %d for unknown device.n", irq);
  868. return;
  869. }
  870. nl = (struct net_local *)dev->priv;
  871. rcv = &nl->rcv_data;
  872. spin_lock_irq (&nl->lock);
  873. c0 = read_status(dev);
  874. if ((c0 & 0xf8) != 0xc0) {
  875. if ((dev->irq != -1) && (net_debug > 1))
  876. printk(KERN_DEBUG "%s: spurious interruptn", dev->name);
  877. spin_unlock_irq (&nl->lock);
  878. return;
  879. }
  880. if (net_debug > 3)
  881. printk(KERN_DEBUG "%s: interrupt.n", dev->name);
  882. switch (nl->connection) {
  883. case PLIP_CN_CLOSING:
  884. netif_wake_queue (dev);
  885. case PLIP_CN_NONE:
  886. case PLIP_CN_SEND:
  887. rcv->state = PLIP_PK_TRIGGER;
  888. nl->connection = PLIP_CN_RECEIVE;
  889. nl->timeout_count = 0;
  890. queue_task(&nl->immediate, &tq_immediate);
  891. mark_bh(IMMEDIATE_BH);
  892. break;
  893. case PLIP_CN_RECEIVE:
  894. /* May occur because there is race condition
  895.    around test and set of dev->interrupt.
  896.    Ignore this interrupt. */
  897. break;
  898. case PLIP_CN_ERROR:
  899. printk(KERN_ERR "%s: receive interrupt in error staten", dev->name);
  900. break;
  901. }
  902. spin_unlock_irq(&nl->lock);
  903. }
  904. static int
  905. plip_tx_packet(struct sk_buff *skb, struct net_device *dev)
  906. {
  907. struct net_local *nl = (struct net_local *)dev->priv;
  908. struct plip_local *snd = &nl->snd_data;
  909. if (netif_queue_stopped(dev))
  910. return 1;
  911. /* We may need to grab the bus */
  912. if (!nl->port_owner) {
  913. if (parport_claim(nl->pardev))
  914. return 1;
  915. nl->port_owner = 1;
  916. }
  917. netif_stop_queue (dev);
  918. if (skb->len > dev->mtu + dev->hard_header_len) {
  919. printk(KERN_WARNING "%s: packet too big, %d.n", dev->name, (int)skb->len);
  920. netif_start_queue (dev);
  921. return 1;
  922. }
  923. if (net_debug > 2)
  924. printk(KERN_DEBUG "%s: send requestn", dev->name);
  925. spin_lock_irq(&nl->lock);
  926. dev->trans_start = jiffies;
  927. snd->skb = skb;
  928. snd->length.h = skb->len;
  929. snd->state = PLIP_PK_TRIGGER;
  930. if (nl->connection == PLIP_CN_NONE) {
  931. nl->connection = PLIP_CN_SEND;
  932. nl->timeout_count = 0;
  933. }
  934. queue_task(&nl->immediate, &tq_immediate);
  935. mark_bh(IMMEDIATE_BH);
  936. spin_unlock_irq(&nl->lock);
  937. return 0;
  938. }
  939. static void
  940. plip_rewrite_address(struct net_device *dev, struct ethhdr *eth)
  941. {
  942. struct in_device *in_dev;
  943. if ((in_dev=dev->ip_ptr) != NULL) {
  944. /* Any address will do - we take the first */
  945. struct in_ifaddr *ifa=in_dev->ifa_list;
  946. if (ifa != NULL) {
  947. memcpy(eth->h_source, dev->dev_addr, 6);
  948. memset(eth->h_dest, 0xfc, 2);
  949. memcpy(eth->h_dest+2, &ifa->ifa_address, 4);
  950. }
  951. }
  952. }
  953. static int
  954. plip_hard_header(struct sk_buff *skb, struct net_device *dev,
  955.                  unsigned short type, void *daddr,
  956.          void *saddr, unsigned len)
  957. {
  958. struct net_local *nl = (struct net_local *)dev->priv;
  959. int ret;
  960. if ((ret = nl->orig_hard_header(skb, dev, type, daddr, saddr, len)) >= 0)
  961. plip_rewrite_address (dev, (struct ethhdr *)skb->data);
  962. return ret;
  963. }
  964. int plip_hard_header_cache(struct neighbour *neigh,
  965.                            struct hh_cache *hh)
  966. {
  967. struct net_local *nl = (struct net_local *)neigh->dev->priv;
  968. int ret;
  969. if ((ret = nl->orig_hard_header_cache(neigh, hh)) == 0)
  970. {
  971. struct ethhdr *eth = (struct ethhdr*)(((u8*)hh->hh_data) + 2);
  972. plip_rewrite_address (neigh->dev, eth);
  973. }
  974. return ret;
  975. }                          
  976. /* Open/initialize the board.  This is called (in the current kernel)
  977.    sometime after booting when the 'ifconfig' program is run.
  978.    This routine gets exclusive access to the parallel port by allocating
  979.    its IRQ line.
  980.  */
  981. static int
  982. plip_open(struct net_device *dev)
  983. {
  984. struct net_local *nl = (struct net_local *)dev->priv;
  985. struct in_device *in_dev;
  986. /* Grab the port */
  987. if (!nl->port_owner) {
  988. if (parport_claim(nl->pardev)) return -EAGAIN;
  989. nl->port_owner = 1;
  990. }
  991. nl->should_relinquish = 0;
  992. /* Clear the data port. */
  993. write_data (dev, 0x00);
  994. /* Enable rx interrupt. */
  995. enable_parport_interrupts (dev);
  996. if (dev->irq == -1)
  997. {
  998. atomic_set (&nl->kill_timer, 0);
  999. queue_task (&nl->timer, &tq_timer);
  1000. }
  1001. /* Initialize the state machine. */
  1002. nl->rcv_data.state = nl->snd_data.state = PLIP_PK_DONE;
  1003. nl->rcv_data.skb = nl->snd_data.skb = NULL;
  1004. nl->connection = PLIP_CN_NONE;
  1005. nl->is_deferred = 0;
  1006. /* Fill in the MAC-level header.
  1007.    We used to abuse dev->broadcast to store the point-to-point
  1008.    MAC address, but we no longer do it. Instead, we fetch the
  1009.    interface address whenever it is needed, which is cheap enough
  1010.    because we use the hh_cache. Actually, abusing dev->broadcast
  1011.    didn't work, because when using plip_open the point-to-point
  1012.    address isn't yet known.
  1013.    PLIP doesn't have a real MAC address, but we need it to be
  1014.    DOS compatible, and to properly support taps (otherwise,
  1015.    when the device address isn't identical to the address of a
  1016.    received frame, the kernel incorrectly drops it).             */
  1017. if ((in_dev=dev->ip_ptr) != NULL) {
  1018. /* Any address will do - we take the first. We already
  1019.    have the first two bytes filled with 0xfc, from
  1020.    plip_init_dev(). */
  1021. struct in_ifaddr *ifa=in_dev->ifa_list;
  1022. if (ifa != NULL) {
  1023. memcpy(dev->dev_addr+2, &ifa->ifa_local, 4);
  1024. }
  1025. }
  1026. netif_start_queue (dev);
  1027. return 0;
  1028. }
  1029. /* The inverse routine to plip_open (). */
  1030. static int
  1031. plip_close(struct net_device *dev)
  1032. {
  1033. struct net_local *nl = (struct net_local *)dev->priv;
  1034. struct plip_local *snd = &nl->snd_data;
  1035. struct plip_local *rcv = &nl->rcv_data;
  1036. netif_stop_queue (dev);
  1037. DISABLE(dev->irq);
  1038. synchronize_irq();
  1039. if (dev->irq == -1)
  1040. {
  1041. init_MUTEX_LOCKED (&nl->killed_timer_sem);
  1042. atomic_set (&nl->kill_timer, 1);
  1043. down (&nl->killed_timer_sem);
  1044. }
  1045. #ifdef NOTDEF
  1046. outb(0x00, PAR_DATA(dev));
  1047. #endif
  1048. nl->is_deferred = 0;
  1049. nl->connection = PLIP_CN_NONE;
  1050. if (nl->port_owner) {
  1051. parport_release(nl->pardev);
  1052. nl->port_owner = 0;
  1053. }
  1054. snd->state = PLIP_PK_DONE;
  1055. if (snd->skb) {
  1056. dev_kfree_skb(snd->skb);
  1057. snd->skb = NULL;
  1058. }
  1059. rcv->state = PLIP_PK_DONE;
  1060. if (rcv->skb) {
  1061. kfree_skb(rcv->skb);
  1062. rcv->skb = NULL;
  1063. }
  1064. #ifdef NOTDEF
  1065. /* Reset. */
  1066. outb(0x00, PAR_CONTROL(dev));
  1067. #endif
  1068. return 0;
  1069. }
  1070. static int
  1071. plip_preempt(void *handle)
  1072. {
  1073. struct net_device *dev = (struct net_device *)handle;
  1074. struct net_local *nl = (struct net_local *)dev->priv;
  1075. /* Stand our ground if a datagram is on the wire */
  1076. if (nl->connection != PLIP_CN_NONE) {
  1077. nl->should_relinquish = 1;
  1078. return 1;
  1079. }
  1080. nl->port_owner = 0; /* Remember that we released the bus */
  1081. return 0;
  1082. }
  1083. static void
  1084. plip_wakeup(void *handle)
  1085. {
  1086. struct net_device *dev = (struct net_device *)handle;
  1087. struct net_local *nl = (struct net_local *)dev->priv;
  1088. if (nl->port_owner) {
  1089. /* Why are we being woken up? */
  1090. printk(KERN_DEBUG "%s: why am I being woken up?n", dev->name);
  1091. if (!parport_claim(nl->pardev))
  1092. /* bus_owner is already set (but why?) */
  1093. printk(KERN_DEBUG "%s: I'm broken.n", dev->name);
  1094. else
  1095. return;
  1096. }
  1097. if (!(dev->flags & IFF_UP))
  1098. /* Don't need the port when the interface is down */
  1099. return;
  1100. if (!parport_claim(nl->pardev)) {
  1101. nl->port_owner = 1;
  1102. /* Clear the data port. */
  1103. write_data (dev, 0x00);
  1104. }
  1105. return;
  1106. }
  1107. static struct net_device_stats *
  1108. plip_get_stats(struct net_device *dev)
  1109. {
  1110. struct net_local *nl = (struct net_local *)dev->priv;
  1111. struct net_device_stats *r = &nl->enet_stats;
  1112. return r;
  1113. }
  1114. static int
  1115. plip_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
  1116. {
  1117. struct net_local *nl = (struct net_local *) dev->priv;
  1118. struct plipconf *pc = (struct plipconf *) &rq->ifr_data;
  1119. switch(pc->pcmd) {
  1120. case PLIP_GET_TIMEOUT:
  1121. pc->trigger = nl->trigger;
  1122. pc->nibble  = nl->nibble;
  1123. break;
  1124. case PLIP_SET_TIMEOUT:
  1125. if(!capable(CAP_NET_ADMIN))
  1126. return -EPERM;
  1127. nl->trigger = pc->trigger;
  1128. nl->nibble  = pc->nibble;
  1129. break;
  1130. default:
  1131. return -EOPNOTSUPP;
  1132. }
  1133. return 0;
  1134. }
  1135. static int parport[PLIP_MAX] = { [0 ... PLIP_MAX-1] = -1 };
  1136. static int timid;
  1137. MODULE_PARM(parport, "1-" __MODULE_STRING(PLIP_MAX) "i");
  1138. MODULE_PARM(timid, "1i");
  1139. MODULE_PARM_DESC(parport, "List of parport device numbers to use by plip");
  1140. static struct net_device *dev_plip[PLIP_MAX] = { NULL, };
  1141. static int inline 
  1142. plip_searchfor(int list[], int a)
  1143. {
  1144. int i;
  1145. for (i = 0; i < PLIP_MAX && list[i] != -1; i++) {
  1146. if (list[i] == a) return 1;
  1147. }
  1148. return 0;
  1149. }
  1150. /* plip_attach() is called (by the parport code) when a port is
  1151.  * available to use. */
  1152. static void plip_attach (struct parport *port)
  1153. {
  1154. static int i;
  1155. if ((parport[0] == -1 && (!timid || !port->devices)) || 
  1156.     plip_searchfor(parport, port->number)) {
  1157. if (i == PLIP_MAX) {
  1158. printk(KERN_ERR "plip: too many devicesn");
  1159. return;
  1160. }
  1161. dev_plip[i] = kmalloc(sizeof(struct net_device),
  1162.       GFP_KERNEL);
  1163. if (!dev_plip[i]) {
  1164. printk(KERN_ERR "plip: memory squeezen");
  1165. return;
  1166. }
  1167. memset(dev_plip[i], 0, sizeof(struct net_device));
  1168. sprintf(dev_plip[i]->name, "plip%d", i);
  1169. dev_plip[i]->priv = port;
  1170. if (plip_init_dev(dev_plip[i],port) ||
  1171.     register_netdev(dev_plip[i])) {
  1172. kfree(dev_plip[i]);
  1173. dev_plip[i] = NULL;
  1174. } else {
  1175. i++;
  1176. }
  1177. }
  1178. }
  1179. /* plip_detach() is called (by the parport code) when a port is
  1180.  * no longer available to use. */
  1181. static void plip_detach (struct parport *port)
  1182. {
  1183. /* Nothing to do */
  1184. }
  1185. static struct parport_driver plip_driver = {
  1186. name: "plip",
  1187. attach: plip_attach,
  1188. detach: plip_detach
  1189. };
  1190. static void __exit plip_cleanup_module (void)
  1191. {
  1192. int i;
  1193. parport_unregister_driver (&plip_driver);
  1194. for (i=0; i < PLIP_MAX; i++) {
  1195. if (dev_plip[i]) {
  1196. struct net_local *nl =
  1197. (struct net_local *)dev_plip[i]->priv;
  1198. unregister_netdev(dev_plip[i]);
  1199. if (nl->port_owner)
  1200. parport_release(nl->pardev);
  1201. parport_unregister_device(nl->pardev);
  1202. kfree(dev_plip[i]->priv);
  1203. kfree(dev_plip[i]);
  1204. dev_plip[i] = NULL;
  1205. }
  1206. }
  1207. }
  1208. #ifndef MODULE
  1209. static int parport_ptr;
  1210. static int __init plip_setup(char *str)
  1211. {
  1212. int ints[4];
  1213. str = get_options(str, ARRAY_SIZE(ints), ints);
  1214. /* Ugh. */
  1215. if (!strncmp(str, "parport", 7)) {
  1216. int n = simple_strtoul(str+7, NULL, 10);
  1217. if (parport_ptr < PLIP_MAX)
  1218. parport[parport_ptr++] = n;
  1219. else
  1220. printk(KERN_INFO "plip: too many ports, %s ignored.n",
  1221.        str);
  1222. } else if (!strcmp(str, "timid")) {
  1223. timid = 1;
  1224. } else {
  1225. if (ints[0] == 0 || ints[1] == 0) {
  1226. /* disable driver on "plip=" or "plip=0" */
  1227. parport[0] = -2;
  1228. } else {
  1229. printk(KERN_WARNING "warning: 'plip=0x%x' ignoredn", 
  1230.        ints[1]);
  1231. }
  1232. }
  1233. return 1;
  1234. }
  1235. __setup("plip=", plip_setup);
  1236. #endif /* !MODULE */
  1237. static int __init plip_init (void)
  1238. {
  1239. if (parport[0] == -2)
  1240. return 0;
  1241. if (parport[0] != -1 && timid) {
  1242. printk(KERN_WARNING "plip: warning, ignoring `timid' since specific ports given.n");
  1243. timid = 0;
  1244. }
  1245. if (parport_register_driver (&plip_driver)) {
  1246. printk (KERN_WARNING "plip: couldn't register drivern");
  1247. return 1;
  1248. }
  1249. return 0;
  1250. }
  1251. module_init(plip_init);
  1252. module_exit(plip_cleanup_module);
  1253. MODULE_LICENSE("GPL");
  1254. /*
  1255.  * Local variables:
  1256.  * compile-command: "gcc -DMODULE -DMODVERSIONS -D__KERNEL__ -Wall -Wstrict-prototypes -O2 -g -fomit-frame-pointer -pipe -c plip.c"
  1257.  * End:
  1258.  */