shaper.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:17k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * Simple traffic shaper for Linux NET3.
  3.  *
  4.  * (c) Copyright 1996 Alan Cox <alan@redhat.com>, All Rights Reserved.
  5.  * http://www.redhat.com
  6.  *
  7.  * This program is free software; you can redistribute it and/or
  8.  * modify it under the terms of the GNU General Public License
  9.  * as published by the Free Software Foundation; either version
  10.  * 2 of the License, or (at your option) any later version.
  11.  *
  12.  * Neither Alan Cox nor CymruNet Ltd. admit liability nor provide 
  13.  * warranty for any of this software. This material is provided 
  14.  * "AS-IS" and at no charge.
  15.  *
  16.  *
  17.  * Algorithm:
  18.  *
  19.  * Queue Frame:
  20.  * Compute time length of frame at regulated speed
  21.  * Add frame to queue at appropriate point
  22.  * Adjust time length computation for followup frames
  23.  * Any frame that falls outside of its boundaries is freed
  24.  *
  25.  * We work to the following constants
  26.  *
  27.  * SHAPER_QLEN Maximum queued frames
  28.  * SHAPER_LATENCY Bounding latency on a frame. Leaving this latency
  29.  * window drops the frame. This stops us queueing 
  30.  * frames for a long time and confusing a remote
  31.  * host.
  32.  * SHAPER_MAXSLIP Maximum time a priority frame may jump forward.
  33.  * That bounds the penalty we will inflict on low
  34.  * priority traffic.
  35.  * SHAPER_BURST Time range we call "now" in order to reduce
  36.  * system load. The more we make this the burstier
  37.  * the behaviour, the better local performance you
  38.  * get through packet clustering on routers and the
  39.  * worse the remote end gets to judge rtts.
  40.  *
  41.  * This is designed to handle lower speed links ( < 200K/second or so). We
  42.  * run off a 100-150Hz base clock typically. This gives us a resolution at
  43.  * 200Kbit/second of about 2Kbit or 256 bytes. Above that our timer
  44.  * resolution may start to cause much more burstiness in the traffic. We
  45.  * could avoid a lot of that by calling kick_shaper() at the end of the 
  46.  * tied device transmissions. If you run above about 100K second you 
  47.  * may need to tune the supposed speed rate for the right values.
  48.  *
  49.  * BUGS:
  50.  * Downing the interface under the shaper before the shaper
  51.  * will render your machine defunct. Don't for now shape over
  52.  * PPP or SLIP therefore!
  53.  * This will be fixed in BETA4
  54.  *
  55.  * Update History :
  56.  *
  57.  *              bh_atomic() SMP races fixes and rewritten the locking code to
  58.  *              be SMP safe and irq-mask friendly.
  59.  *              NOTE: we can't use start_bh_atomic() in kick_shaper()
  60.  *              because it's going to be recalled from an irq handler,
  61.  *              and synchronize_bh() is a nono if called from irq context.
  62.  * 1999  Andrea Arcangeli
  63.  *
  64.  *              Device statistics (tx_pakets, tx_bytes,
  65.  *              tx_drops: queue_over_time and collisions: max_queue_exceded)
  66.  *                               1999/06/18 Jordi Murgo <savage@apostols.org>
  67.  *
  68.  * Use skb->cb for private data.
  69.  *  2000/03 Andi Kleen
  70.  */
  71.  
  72. #include <linux/config.h>
  73. #include <linux/module.h>
  74. #include <linux/kernel.h>
  75. #include <linux/sched.h>
  76. #include <linux/ptrace.h>
  77. #include <linux/fcntl.h>
  78. #include <linux/mm.h>
  79. #include <linux/slab.h>
  80. #include <linux/string.h>
  81. #include <linux/errno.h>
  82. #include <linux/netdevice.h>
  83. #include <linux/etherdevice.h>
  84. #include <linux/skbuff.h>
  85. #include <linux/if_arp.h>
  86. #include <linux/init.h>
  87. #include <net/dst.h>
  88. #include <net/arp.h>
  89. #include <linux/if_shaper.h>
  90. struct shaper_cb { 
  91. __u32 shapelatency; /* Latency on frame */
  92. __u32 shapeclock; /* Time it should go out */
  93. __u32 shapelen; /* Frame length in clocks */
  94. __u32 shapestamp; /* Stamp for shaper    */
  95. __u16 shapepend; /* Pending */
  96. }; 
  97. #define SHAPERCB(skb) ((struct shaper_cb *) ((skb)->cb))
  98. int sh_debug; /* Debug flag */
  99. #define SHAPER_BANNER "CymruNet Traffic Shaper BETA 0.04 for Linux 2.1n"
  100. /*
  101.  * Locking
  102.  */
  103.  
  104. static int shaper_lock(struct shaper *sh)
  105. {
  106. /*
  107.  * Lock in an interrupt must fail
  108.  */
  109. while (test_and_set_bit(0, &sh->locked))
  110. {
  111. if (!in_interrupt())
  112. sleep_on(&sh->wait_queue);
  113. else
  114. return 0;
  115. }
  116. return 1;
  117. }
  118. static void shaper_kick(struct shaper *sh);
  119. static void shaper_unlock(struct shaper *sh)
  120. {
  121. clear_bit(0, &sh->locked);
  122. wake_up(&sh->wait_queue);
  123. shaper_kick(sh);
  124. }
  125. /*
  126.  * Compute clocks on a buffer
  127.  */
  128.   
  129. static int shaper_clocks(struct shaper *shaper, struct sk_buff *skb)
  130. {
  131.   int t=skb->len/shaper->bytespertick;
  132.   return t;
  133. }
  134. /*
  135.  * Set the speed of a shaper. We compute this in bytes per tick since
  136.  * thats how the machine wants to run. Quoted input is in bits per second
  137.  * as is traditional (note not BAUD). We assume 8 bit bytes. 
  138.  */
  139.   
  140. static void shaper_setspeed(struct shaper *shaper, int bitspersec)
  141. {
  142. shaper->bitspersec=bitspersec;
  143. shaper->bytespertick=(bitspersec/HZ)/8;
  144. if(!shaper->bytespertick)
  145. shaper->bytespertick++;
  146. }
  147. /*
  148.  * Throw a frame at a shaper.
  149.  */
  150.   
  151. static int shaper_qframe(struct shaper *shaper, struct sk_buff *skb)
  152. {
  153.   struct sk_buff *ptr;
  154.    
  155.   /*
  156.    * Get ready to work on this shaper. Lock may fail if its
  157.    * an interrupt and locked.
  158.    */
  159.    
  160.   if(!shaper_lock(shaper))
  161.   return -1;
  162.   ptr=shaper->sendq.prev;
  163.  
  164.   /*
  165.    * Set up our packet details
  166.    */
  167.    
  168.   SHAPERCB(skb)->shapelatency=0;
  169.   SHAPERCB(skb)->shapeclock=shaper->recovery;
  170.   if(time_before(SHAPERCB(skb)->shapeclock, jiffies))
  171.   SHAPERCB(skb)->shapeclock=jiffies;
  172.   skb->priority=0; /* short term bug fix */
  173.   SHAPERCB(skb)->shapestamp=jiffies;
  174.  
  175.   /*
  176.    * Time slots for this packet.
  177.    */
  178.    
  179.   SHAPERCB(skb)->shapelen= shaper_clocks(shaper,skb);
  180.  
  181. #ifdef SHAPER_COMPLEX /* and broken.. */
  182.   while(ptr && ptr!=(struct sk_buff *)&shaper->sendq)
  183.   {
  184.   if(ptr->pri<skb->pri 
  185.   && jiffies - SHAPERCB(ptr)->shapeclock < SHAPER_MAXSLIP)
  186.   {
  187.   struct sk_buff *tmp=ptr->prev;
  188.   /*
  189.    * It goes before us therefore we slip the length
  190.    * of the new frame.
  191.    */
  192.   SHAPERCB(ptr)->shapeclock+=SHAPERCB(skb)->shapelen;
  193.   SHAPERCB(ptr)->shapelatency+=SHAPERCB(skb)->shapelen;
  194.   /*
  195.    * The packet may have slipped so far back it
  196.    * fell off.
  197.    */
  198.   if(SHAPERCB(ptr)->shapelatency > SHAPER_LATENCY)
  199.   {
  200.   skb_unlink(ptr);
  201.   dev_kfree_skb(ptr);
  202.   }
  203.   ptr=tmp;
  204.   }
  205.   else
  206.   break;
  207.   }
  208.   if(ptr==NULL || ptr==(struct sk_buff *)&shaper->sendq)
  209.   skb_queue_head(&shaper->sendq,skb);
  210.   else
  211.   {
  212.   struct sk_buff *tmp;
  213.   /*
  214.    * Set the packet clock out time according to the
  215.    * frames ahead. Im sure a bit of thought could drop
  216.    * this loop.
  217.    */
  218.   for(tmp=skb_peek(&shaper->sendq); tmp!=NULL && tmp!=ptr; tmp=tmp->next)
  219.   SHAPERCB(skb)->shapeclock+=tmp->shapelen;
  220.   skb_append(ptr,skb);
  221.   }
  222. #else
  223. {
  224. struct sk_buff *tmp;
  225. /*
  226.  * Up our shape clock by the time pending on the queue
  227.  * (Should keep this in the shaper as a variable..)
  228.  */
  229. for(tmp=skb_peek(&shaper->sendq); tmp!=NULL && 
  230. tmp!=(struct sk_buff *)&shaper->sendq; tmp=tmp->next)
  231. SHAPERCB(skb)->shapeclock+=SHAPERCB(tmp)->shapelen;
  232. /*
  233.  * Queue over time. Spill packet.
  234.  */
  235. if(SHAPERCB(skb)->shapeclock-jiffies > SHAPER_LATENCY) {
  236. dev_kfree_skb(skb);
  237. shaper->stats.tx_dropped++;
  238. } else
  239. skb_queue_tail(&shaper->sendq, skb);
  240. }
  241. #endif 
  242. if(sh_debug)
  243.   printk("Frame queued.n");
  244.   if(skb_queue_len(&shaper->sendq)>SHAPER_QLEN)
  245.   {
  246.   ptr=skb_dequeue(&shaper->sendq);
  247.                 dev_kfree_skb(ptr);
  248.                 shaper->stats.collisions++;
  249.   }
  250.   shaper_unlock(shaper);
  251.   return 0;
  252. }
  253. /*
  254.  * Transmit from a shaper
  255.  */
  256.  
  257. static void shaper_queue_xmit(struct shaper *shaper, struct sk_buff *skb)
  258. {
  259. struct sk_buff *newskb=skb_clone(skb, GFP_ATOMIC);
  260. if(sh_debug)
  261. printk("Kick frame on %pn",newskb);
  262. if(newskb)
  263. {
  264. newskb->dev=shaper->dev;
  265. newskb->priority=2;
  266. if(sh_debug)
  267. printk("Kick new frame to %s, %dn",
  268. shaper->dev->name,newskb->priority);
  269. dev_queue_xmit(newskb);
  270.                 shaper->stats.tx_bytes += skb->len;
  271. shaper->stats.tx_packets++;
  272.                 if(sh_debug)
  273. printk("Kicked new frame out.n");
  274. dev_kfree_skb(skb);
  275. }
  276. }
  277. /*
  278.  * Timer handler for shaping clock
  279.  */
  280.  
  281. static void shaper_timer(unsigned long data)
  282. {
  283. struct shaper *sh=(struct shaper *)data;
  284. shaper_kick(sh);
  285. }
  286. /*
  287.  * Kick a shaper queue and try and do something sensible with the 
  288.  * queue. 
  289.  */
  290. static void shaper_kick(struct shaper *shaper)
  291. {
  292. struct sk_buff *skb;
  293. /*
  294.  * Shaper unlock will kick
  295.  */
  296.  
  297. if (test_and_set_bit(0, &shaper->locked))
  298. {
  299. if(sh_debug)
  300. printk("Shaper locked.n");
  301. mod_timer(&shaper->timer, jiffies);
  302. return;
  303. }
  304. /*
  305.  * Walk the list (may be empty)
  306.  */
  307.  
  308. while((skb=skb_peek(&shaper->sendq))!=NULL)
  309. {
  310. /*
  311.  * Each packet due to go out by now (within an error
  312.  * of SHAPER_BURST) gets kicked onto the link 
  313.  */
  314.  
  315. if(sh_debug)
  316. printk("Clock = %d, jiffies = %ldn", SHAPERCB(skb)->shapeclock, jiffies);
  317. if(time_before_eq(SHAPERCB(skb)->shapeclock - jiffies, SHAPER_BURST))
  318. {
  319. /*
  320.  * Pull the frame and get interrupts back on.
  321.  */
  322.  
  323. skb_unlink(skb);
  324. if (shaper->recovery < 
  325.     SHAPERCB(skb)->shapeclock + SHAPERCB(skb)->shapelen)
  326. shaper->recovery = SHAPERCB(skb)->shapeclock + SHAPERCB(skb)->shapelen;
  327. /*
  328.  * Pass on to the physical target device via
  329.  * our low level packet thrower.
  330.  */
  331. SHAPERCB(skb)->shapepend=0;
  332. shaper_queue_xmit(shaper, skb); /* Fire */
  333. }
  334. else
  335. break;
  336. }
  337. /*
  338.  * Next kick.
  339.  */
  340.  
  341. if(skb!=NULL)
  342. mod_timer(&shaper->timer, SHAPERCB(skb)->shapeclock);
  343. clear_bit(0, &shaper->locked);
  344. }
  345. /*
  346.  * Flush the shaper queues on a closedown
  347.  */
  348.  
  349. static void shaper_flush(struct shaper *shaper)
  350. {
  351. struct sk_buff *skb;
  352.   if(!shaper_lock(shaper))
  353. {
  354. printk(KERN_ERR "shaper: shaper_flush() called by an irq!n");
  355.   return;
  356. }
  357. while((skb=skb_dequeue(&shaper->sendq))!=NULL)
  358. dev_kfree_skb(skb);
  359. shaper_unlock(shaper);
  360. }
  361. /*
  362.  * Bring the interface up. We just disallow this until a 
  363.  * bind.
  364.  */
  365. static int shaper_open(struct net_device *dev)
  366. {
  367. struct shaper *shaper=dev->priv;
  368. /*
  369.  * Can't open until attached.
  370.  * Also can't open until speed is set, or we'll get
  371.  * a division by zero.
  372.  */
  373.  
  374. if(shaper->dev==NULL)
  375. return -ENODEV;
  376. if(shaper->bitspersec==0)
  377. return -EINVAL;
  378. return 0;
  379. }
  380. /*
  381.  * Closing a shaper flushes the queues.
  382.  */
  383.  
  384. static int shaper_close(struct net_device *dev)
  385. {
  386. struct shaper *shaper=dev->priv;
  387. shaper_flush(shaper);
  388. del_timer_sync(&shaper->timer);
  389. return 0;
  390. }
  391. /*
  392.  * Revectored calls. We alter the parameters and call the functions
  393.  * for our attached device. This enables us to bandwidth allocate after
  394.  * ARP and other resolutions and not before.
  395.  */
  396. static int shaper_start_xmit(struct sk_buff *skb, struct net_device *dev)
  397. {
  398. struct shaper *sh=dev->priv;
  399. return shaper_qframe(sh, skb);
  400. }
  401. static struct net_device_stats *shaper_get_stats(struct net_device *dev)
  402. {
  403.       struct shaper *sh=dev->priv;
  404. return &sh->stats;
  405. }
  406. static int shaper_header(struct sk_buff *skb, struct net_device *dev, 
  407. unsigned short type, void *daddr, void *saddr, unsigned len)
  408. {
  409. struct shaper *sh=dev->priv;
  410. int v;
  411. if(sh_debug)
  412. printk("Shaper headern");
  413. skb->dev=sh->dev;
  414. v=sh->hard_header(skb,sh->dev,type,daddr,saddr,len);
  415. skb->dev=dev;
  416. return v;
  417. }
  418. static int shaper_rebuild_header(struct sk_buff *skb)
  419. {
  420. struct shaper *sh=skb->dev->priv;
  421. struct net_device *dev=skb->dev;
  422. int v;
  423. if(sh_debug)
  424. printk("Shaper rebuild headern");
  425. skb->dev=sh->dev;
  426. v=sh->rebuild_header(skb);
  427. skb->dev=dev;
  428. return v;
  429. }
  430. #if 0
  431. static int shaper_cache(struct neighbour *neigh, struct hh_cache *hh)
  432. {
  433. struct shaper *sh=neigh->dev->priv;
  434. struct net_device *tmp;
  435. int ret;
  436. if(sh_debug)
  437. printk("Shaper header cache bindn");
  438. tmp=neigh->dev;
  439. neigh->dev=sh->dev;
  440. ret=sh->hard_header_cache(neigh,hh);
  441. neigh->dev=tmp;
  442. return ret;
  443. }
  444. static void shaper_cache_update(struct hh_cache *hh, struct net_device *dev,
  445. unsigned char *haddr)
  446. {
  447. struct shaper *sh=dev->priv;
  448. if(sh_debug)
  449. printk("Shaper cache updaten");
  450. sh->header_cache_update(hh, sh->dev, haddr);
  451. }
  452. #endif
  453. #ifdef CONFIG_INET
  454. static int shaper_neigh_setup(struct neighbour *n)
  455. {
  456. #ifdef CONFIG_INET
  457. if (n->nud_state == NUD_NONE) {
  458. n->ops = &arp_broken_ops;
  459. n->output = n->ops->output;
  460. }
  461. #endif
  462. return 0;
  463. }
  464. static int shaper_neigh_setup_dev(struct net_device *dev, struct neigh_parms *p)
  465. {
  466. #ifdef CONFIG_INET
  467. if (p->tbl->family == AF_INET) {
  468. p->neigh_setup = shaper_neigh_setup;
  469. p->ucast_probes = 0;
  470. p->mcast_probes = 0;
  471. }
  472. #endif
  473. return 0;
  474. }
  475. #else /* !(CONFIG_INET) */
  476. static int shaper_neigh_setup_dev(struct net_device *dev, struct neigh_parms *p)
  477. {
  478. return 0;
  479. }
  480. #endif
  481. static int shaper_attach(struct net_device *shdev, struct shaper *sh, struct net_device *dev)
  482. {
  483. sh->dev = dev;
  484. sh->hard_start_xmit=dev->hard_start_xmit;
  485. sh->get_stats=dev->get_stats;
  486. if(dev->hard_header)
  487. {
  488. sh->hard_header=dev->hard_header;
  489. shdev->hard_header = shaper_header;
  490. }
  491. else
  492. shdev->hard_header = NULL;
  493. if(dev->rebuild_header)
  494. {
  495. sh->rebuild_header = dev->rebuild_header;
  496. shdev->rebuild_header = shaper_rebuild_header;
  497. }
  498. else
  499. shdev->rebuild_header = NULL;
  500. #if 0
  501. if(dev->hard_header_cache)
  502. {
  503. sh->hard_header_cache = dev->hard_header_cache;
  504. shdev->hard_header_cache= shaper_cache;
  505. }
  506. else
  507. {
  508. shdev->hard_header_cache= NULL;
  509. }
  510. if(dev->header_cache_update)
  511. {
  512. sh->header_cache_update = dev->header_cache_update;
  513. shdev->header_cache_update = shaper_cache_update;
  514. }
  515. else
  516. shdev->header_cache_update= NULL;
  517. #else
  518. shdev->header_cache_update = NULL;
  519. shdev->hard_header_cache = NULL;
  520. #endif
  521. shdev->neigh_setup = shaper_neigh_setup_dev;
  522. shdev->hard_header_len=dev->hard_header_len;
  523. shdev->type=dev->type;
  524. shdev->addr_len=dev->addr_len;
  525. shdev->mtu=dev->mtu;
  526. sh->bitspersec=0;
  527. return 0;
  528. }
  529. static int shaper_ioctl(struct net_device *dev,  struct ifreq *ifr, int cmd)
  530. {
  531. struct shaperconf *ss= (struct shaperconf *)&ifr->ifr_data;
  532. struct shaper *sh=dev->priv;
  533. if(ss->ss_cmd == SHAPER_SET_DEV || ss->ss_cmd == SHAPER_SET_SPEED)
  534. {
  535. if(!capable(CAP_NET_ADMIN))
  536. return -EPERM;
  537. }
  538. switch(ss->ss_cmd)
  539. {
  540. case SHAPER_SET_DEV:
  541. {
  542. struct net_device *them=__dev_get_by_name(ss->ss_name);
  543. if(them==NULL)
  544. return -ENODEV;
  545. if(sh->dev)
  546. return -EBUSY;
  547. return shaper_attach(dev,dev->priv, them);
  548. }
  549. case SHAPER_GET_DEV:
  550. if(sh->dev==NULL)
  551. return -ENODEV;
  552. strcpy(ss->ss_name, sh->dev->name);
  553. return 0;
  554. case SHAPER_SET_SPEED:
  555. shaper_setspeed(sh,ss->ss_speed);
  556. return 0;
  557. case SHAPER_GET_SPEED:
  558. ss->ss_speed=sh->bitspersec;
  559. return 0;
  560. default:
  561. return -EINVAL;
  562. }
  563. }
  564. static void shaper_init_priv(struct net_device *dev)
  565. {
  566. struct shaper *sh = dev->priv;
  567. skb_queue_head_init(&sh->sendq);
  568. init_timer(&sh->timer);
  569. sh->timer.function=shaper_timer;
  570. sh->timer.data=(unsigned long)sh;
  571. init_waitqueue_head(&sh->wait_queue);
  572. }
  573. /*
  574.  * Add a shaper device to the system
  575.  */
  576.  
  577. static int __init shaper_probe(struct net_device *dev)
  578. {
  579. /*
  580.  * Set up the shaper.
  581.  */
  582. SET_MODULE_OWNER(dev);
  583. shaper_init_priv(dev);
  584. dev->open = shaper_open;
  585. dev->stop = shaper_close;
  586. dev->hard_start_xmit  = shaper_start_xmit;
  587. dev->get_stats  = shaper_get_stats;
  588. dev->set_multicast_list = NULL;
  589. /*
  590.  * Intialise the packet queues
  591.  */
  592.  
  593. /*
  594.  * Handlers for when we attach to a device.
  595.  */
  596. dev->hard_header  = shaper_header;
  597. dev->rebuild_header  = shaper_rebuild_header;
  598. #if 0
  599. dev->hard_header_cache = shaper_cache;
  600. dev->header_cache_update= shaper_cache_update;
  601. #endif
  602. dev->neigh_setup = shaper_neigh_setup_dev;
  603. dev->do_ioctl = shaper_ioctl;
  604. dev->hard_header_len = 0;
  605. dev->type = ARPHRD_ETHER; /* initially */
  606. dev->set_mac_address = NULL;
  607. dev->mtu = 1500;
  608. dev->addr_len = 0;
  609. dev->tx_queue_len = 10;
  610. dev->flags = 0;
  611. /*
  612.  * Shaper is ok
  613.  */
  614.  
  615. return 0;
  616. }
  617.  
  618. static int shapers = 1;
  619. #ifdef MODULE
  620. MODULE_PARM(shapers, "i");
  621. MODULE_PARM_DESC(shapers, "Traffic shaper: maximum nuber of shapers");
  622. #else /* MODULE */
  623. static int __init set_num_shapers(char *str)
  624. {
  625. shapers = simple_strtol(str, NULL, 0);
  626. return 1;
  627. }
  628. __setup("shapers=", set_num_shapers);
  629. #endif /* MODULE */
  630. static struct net_device *devs;
  631. static int __init shaper_init(void)
  632. {
  633. int i, err;
  634. size_t alloc_size;
  635. struct shaper *sp;
  636. unsigned int shapers_registered = 0;
  637. if (shapers < 1)
  638. return -ENODEV;
  639. alloc_size = (sizeof(*devs) * shapers) +
  640.      (sizeof(struct shaper) * shapers);
  641. devs = kmalloc(alloc_size, GFP_KERNEL);
  642. if (!devs)
  643. return -ENOMEM;
  644. memset(devs, 0, alloc_size);
  645. sp = (struct shaper *) &devs[shapers];
  646. for (i = 0; i < shapers; i++) {
  647. err = dev_alloc_name(&devs[i], "shaper%d");
  648. if (err < 0)
  649. break;
  650. devs[i].init = shaper_probe;
  651. devs[i].priv = &sp[i];
  652. if (register_netdev(&devs[i]))
  653. break;
  654. shapers_registered++;
  655. }
  656. if (!shapers_registered) {
  657. kfree(devs);
  658. devs = NULL;
  659. }
  660. return (shapers_registered ? 0 : -ENODEV);
  661. }
  662. static void __exit shaper_exit (void)
  663. {
  664. int i;
  665. for (i = 0; i < shapers; i++)
  666. unregister_netdev(&devs[i]);
  667. kfree(devs);
  668. devs = NULL;
  669. }
  670. module_init(shaper_init);
  671. module_exit(shaper_exit);
  672. MODULE_LICENSE("GPL");