dmascc.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:38k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * $Id: dmascc.c,v 1.27 2000/06/01 14:46:23 oe1kib Exp $
  3.  *
  4.  * Driver for high-speed SCC boards (those with DMA support)
  5.  * Copyright (C) 1997-2000 Klaus Kudielka
  6.  *
  7.  * S5SCC/DMA support by Janko Koleznik S52HI
  8.  *
  9.  * This program is free software; you can redistribute it and/or modify
  10.  * it under the terms of the GNU General Public License as published by
  11.  * the Free Software Foundation; either version 2 of the License, or
  12.  * (at your option) any later version.
  13.  *
  14.  * This program is distributed in the hope that it will be useful,
  15.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  16.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  17.  * GNU General Public License for more details.
  18.  *
  19.  * You should have received a copy of the GNU General Public License
  20.  * along with this program; if not, write to the Free Software
  21.  * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
  22.  *
  23.  */
  24. #include <linux/module.h>
  25. #include <linux/delay.h>
  26. #include <linux/errno.h>
  27. #include <linux/if_arp.h>
  28. #include <linux/in.h>
  29. #include <linux/init.h>
  30. #include <linux/interrupt.h>
  31. #include <linux/ioport.h>
  32. #include <linux/kernel.h>
  33. #include <linux/mm.h>
  34. #include <linux/netdevice.h>
  35. #include <linux/rtnetlink.h>
  36. #include <linux/sockios.h>
  37. #include <linux/tqueue.h>
  38. #include <linux/version.h>
  39. #include <asm/atomic.h>
  40. #include <asm/bitops.h>
  41. #include <asm/dma.h>
  42. #include <asm/io.h>
  43. #include <asm/irq.h>
  44. #include <asm/segment.h>
  45. #include <asm/uaccess.h>
  46. #include <net/ax25.h>
  47. #include "z8530.h"
  48. /* Linux 2.2 and 2.3 compatibility */
  49. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,3,14)
  50. #define net_device device
  51. #endif
  52. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,3,43)
  53. #define netif_start_queue(dev) { dev->tbusy = 0; }
  54. #define netif_stop_queue(dev) { dev->tbusy = 1; }
  55. #define netif_wake_queue(dev) { dev->tbusy = 0; mark_bh(NET_BH); }
  56. #endif
  57. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,3,47)
  58. #define netif_running(dev) (dev->flags & IFF_UP)
  59. #endif
  60. /* Number of buffers per channel */
  61. #define NUM_TX_BUF      2          /* NUM_TX_BUF >= 1 (min. 2 recommended) */
  62. #define NUM_RX_BUF      6          /* NUM_RX_BUF >= 1 (min. 2 recommended) */
  63. #define BUF_SIZE        1576       /* BUF_SIZE >= mtu + hard_header_len */
  64. /* Cards supported */
  65. #define HW_PI           { "Ottawa PI", 0x300, 0x20, 0x10, 8, 
  66.                             0, 8, 1843200, 3686400 }
  67. #define HW_PI2          { "Ottawa PI2", 0x300, 0x20, 0x10, 8, 
  68.     0, 8, 3686400, 7372800 }
  69. #define HW_TWIN         { "Gracilis PackeTwin", 0x200, 0x10, 0x10, 32, 
  70.     0, 4, 6144000, 6144000 }
  71. #define HW_S5           { "S5SCC/DMA", 0x200, 0x10, 0x10, 32, 
  72.                           0, 8, 4915200, 9830400 }
  73. #define HARDWARE        { HW_PI, HW_PI2, HW_TWIN, HW_S5 }
  74. #define TMR_0_HZ        25600      /* Frequency of timer 0 */
  75. #define TYPE_PI         0
  76. #define TYPE_PI2        1
  77. #define TYPE_TWIN       2
  78. #define TYPE_S5         3
  79. #define NUM_TYPES       4
  80. #define MAX_NUM_DEVS    32
  81. /* SCC chips supported */
  82. #define Z8530           0
  83. #define Z85C30          1
  84. #define Z85230          2
  85. #define CHIPNAMES       { "Z8530", "Z85C30", "Z85230" }
  86. /* I/O registers */
  87. /* 8530 registers relative to card base */
  88. #define SCCB_CMD        0x00
  89. #define SCCB_DATA       0x01
  90. #define SCCA_CMD        0x02
  91. #define SCCA_DATA       0x03
  92. /* 8253/8254 registers relative to card base */
  93. #define TMR_CNT0        0x00
  94. #define TMR_CNT1        0x01
  95. #define TMR_CNT2        0x02
  96. #define TMR_CTRL        0x03
  97. /* Additional PI/PI2 registers relative to card base */
  98. #define PI_DREQ_MASK    0x04
  99. /* Additional PackeTwin registers relative to card base */
  100. #define TWIN_INT_REG    0x08
  101. #define TWIN_CLR_TMR1   0x09
  102. #define TWIN_CLR_TMR2   0x0a
  103. #define TWIN_SPARE_1    0x0b
  104. #define TWIN_DMA_CFG    0x08
  105. #define TWIN_SERIAL_CFG 0x09
  106. #define TWIN_DMA_CLR_FF 0x0a
  107. #define TWIN_SPARE_2    0x0b
  108. /* PackeTwin I/O register values */
  109. /* INT_REG */
  110. #define TWIN_SCC_MSK       0x01
  111. #define TWIN_TMR1_MSK      0x02
  112. #define TWIN_TMR2_MSK      0x04
  113. #define TWIN_INT_MSK       0x07
  114. /* SERIAL_CFG */
  115. #define TWIN_DTRA_ON       0x01
  116. #define TWIN_DTRB_ON       0x02
  117. #define TWIN_EXTCLKA       0x04
  118. #define TWIN_EXTCLKB       0x08
  119. #define TWIN_LOOPA_ON      0x10
  120. #define TWIN_LOOPB_ON      0x20
  121. #define TWIN_EI            0x80
  122. /* DMA_CFG */
  123. #define TWIN_DMA_HDX_T1    0x08
  124. #define TWIN_DMA_HDX_R1    0x0a
  125. #define TWIN_DMA_HDX_T3    0x14
  126. #define TWIN_DMA_HDX_R3    0x16
  127. #define TWIN_DMA_FDX_T3R1  0x1b
  128. #define TWIN_DMA_FDX_T1R3  0x1d
  129. /* Status values */
  130. #define IDLE      0
  131. #define TX_HEAD   1
  132. #define TX_DATA   2
  133. #define TX_PAUSE  3
  134. #define TX_TAIL   4
  135. #define RTS_OFF   5
  136. #define WAIT      6
  137. #define DCD_ON    7
  138. #define RX_ON     8
  139. #define DCD_OFF   9
  140. /* Ioctls */
  141. #define SIOCGSCCPARAM SIOCDEVPRIVATE
  142. #define SIOCSSCCPARAM (SIOCDEVPRIVATE+1)
  143. /* Data types */
  144. struct scc_param {
  145.   int pclk_hz;    /* frequency of BRG input (don't change) */
  146.   int brg_tc;     /* BRG terminal count; BRG disabled if < 0 */
  147.   int nrzi;       /* 0 (nrz), 1 (nrzi) */
  148.   int clocks;     /* see dmascc_cfg documentation */
  149.   int txdelay;    /* [1/TMR_0_HZ] */
  150.   int txtimeout;  /* [1/HZ] */
  151.   int txtail;     /* [1/TMR_0_HZ] */
  152.   int waittime;   /* [1/TMR_0_HZ] */
  153.   int slottime;   /* [1/TMR_0_HZ] */
  154.   int persist;    /* 1 ... 256 */
  155.   int dma;        /* -1 (disable), 0, 1, 3 */
  156.   int txpause;    /* [1/TMR_0_HZ] */
  157.   int rtsoff;     /* [1/TMR_0_HZ] */
  158.   int dcdon;      /* [1/TMR_0_HZ] */
  159.   int dcdoff;     /* [1/TMR_0_HZ] */
  160. };
  161. struct scc_hardware {
  162.   char *name;
  163.   int io_region;
  164.   int io_delta;
  165.   int io_size;
  166.   int num_devs;
  167.   int scc_offset;
  168.   int tmr_offset;
  169.   int tmr_hz;
  170.   int pclk_hz;
  171. };
  172. struct scc_priv {
  173. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,4,0)
  174.   char name[IFNAMSIZ];
  175. #endif
  176.   int type;
  177.   int chip;
  178.   struct net_device *dev;
  179.   struct scc_info *info;
  180.   struct net_device_stats stats;
  181.   int channel;
  182.   int card_base, scc_cmd, scc_data;
  183.   int tmr_cnt, tmr_ctrl, tmr_mode;
  184.   struct scc_param param;
  185.   char rx_buf[NUM_RX_BUF][BUF_SIZE];
  186.   int rx_len[NUM_RX_BUF];
  187.   int rx_ptr;
  188.   struct tq_struct rx_task;
  189.   int rx_head, rx_tail, rx_count;
  190.   int rx_over;
  191.   char tx_buf[NUM_TX_BUF][BUF_SIZE];
  192.   int tx_len[NUM_TX_BUF];
  193.   int tx_ptr;
  194.   int tx_head, tx_tail, tx_count;
  195.   int state;
  196.   unsigned long tx_start;
  197.   int rr0;
  198. };
  199. struct scc_info {
  200.   int irq_used;
  201.   int twin_serial_cfg;
  202.   struct net_device dev[2];
  203.   struct scc_priv priv[2];
  204.   struct scc_info *next;
  205. };
  206. /* Function declarations */
  207. int dmascc_init(void) __init;
  208. static int setup_adapter(int card_base, int type, int n) __init;
  209. static void write_scc(struct scc_priv *priv, int reg, int val);
  210. static void write_scc_data(struct scc_priv *priv, int val, int fast);
  211. static int read_scc(struct scc_priv *priv, int reg);
  212. static int read_scc_data(struct scc_priv *priv);
  213. static int scc_open(struct net_device *dev);
  214. static int scc_close(struct net_device *dev);
  215. static int scc_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd);
  216. static int scc_send_packet(struct sk_buff *skb, struct net_device *dev);
  217. static struct net_device_stats *scc_get_stats(struct net_device *dev);
  218. static int scc_set_mac_address(struct net_device *dev, void *sa);
  219. static void scc_isr(int irq, void *dev_id, struct pt_regs * regs);
  220. static inline void z8530_isr(struct scc_info *info);
  221. static void rx_isr(struct scc_priv *priv);
  222. static void special_condition(struct scc_priv *priv, int rc);
  223. static void rx_bh(void *arg);
  224. static void tx_isr(struct scc_priv *priv);
  225. static void es_isr(struct scc_priv *priv);
  226. static void tm_isr(struct scc_priv *priv);
  227. static inline void tx_on(struct scc_priv *priv);
  228. static inline void rx_on(struct scc_priv *priv);
  229. static inline void rx_off(struct scc_priv *priv);
  230. static void start_timer(struct scc_priv *priv, int t, int r15);
  231. static inline unsigned char random(void);
  232. /* Initialization variables */
  233. static int io[MAX_NUM_DEVS] __initdata = { 0, };
  234. /* Beware! hw[] is also used in cleanup_module(). If __initdata also applies
  235.    to modules, we may not declare hw[] as __initdata */
  236. static struct scc_hardware hw[NUM_TYPES] __initdata = HARDWARE;
  237. static char ax25_broadcast[7] __initdata =
  238.   { 'Q'<<1, 'S'<<1, 'T'<<1, ' '<<1, ' '<<1, ' '<<1, '0'<<1 };
  239. static char ax25_test[7] __initdata =
  240.   { 'L'<<1, 'I'<<1, 'N'<<1, 'U'<<1, 'X'<<1, ' '<<1, '1'<<1 };
  241. /* Global variables */
  242. static struct scc_info *first;
  243. static unsigned long rand;
  244. /* Module functions */
  245. #ifdef MODULE
  246. MODULE_AUTHOR("Klaus Kudielka");
  247. MODULE_DESCRIPTION("Driver for high-speed SCC boards");
  248. MODULE_PARM(io, "1-" __MODULE_STRING(MAX_NUM_DEVS) "i");
  249. MODULE_LICENSE("GPL");
  250. int init_module(void) {
  251.   return dmascc_init();
  252. }
  253. void cleanup_module(void) {
  254.   int i;
  255.   struct scc_info *info;
  256.   while (first) {
  257.     info = first;
  258.     /* Unregister devices */
  259.     for (i = 0; i < 2; i++) {
  260.       if (info->dev[i].name)
  261. rtnl_lock();
  262. unregister_netdevice(&info->dev[i]);
  263. rtnl_unlock();
  264.     }
  265.     /* Reset board */
  266.     if (info->priv[0].type == TYPE_TWIN)
  267.       outb(0, info->dev[0].base_addr + TWIN_SERIAL_CFG);
  268.     write_scc(&info->priv[0], R9, FHWRES);
  269.     release_region(info->dev[0].base_addr,
  270.    hw[info->priv[0].type].io_size);
  271.     /* Free memory */
  272.     first = info->next;
  273.     kfree(info);
  274.   }
  275. }
  276. #else
  277. void __init dmascc_setup(char *str, int *ints) {
  278.    int i;
  279.    for (i = 0; i < MAX_NUM_DEVS && i < ints[0]; i++)
  280.       io[i] = ints[i+1];
  281. }
  282. #endif
  283. /* Initialization functions */
  284. int __init dmascc_init(void) {
  285.   int h, i, j, n;
  286.   int base[MAX_NUM_DEVS], tcmd[MAX_NUM_DEVS], t0[MAX_NUM_DEVS],
  287.     t1[MAX_NUM_DEVS];
  288.   unsigned t_val;
  289.   unsigned long time, start[MAX_NUM_DEVS], delay[MAX_NUM_DEVS],
  290.     counting[MAX_NUM_DEVS];
  291.   /* Initialize random number generator */
  292.   rand = jiffies;
  293.   /* Cards found = 0 */
  294.   n = 0;
  295.   /* Warning message */
  296.   if (!io[0]) printk("dmascc: autoprobing (dangerous)n");
  297.   /* Run autodetection for each card type */
  298.   for (h = 0; h < NUM_TYPES; h++) {
  299.     if (io[0]) {
  300.       /* User-specified I/O address regions */
  301.       for (i = 0; i < hw[h].num_devs; i++) base[i] = 0;
  302.       for (i = 0; i < MAX_NUM_DEVS && io[i]; i++) {
  303. j = (io[i] - hw[h].io_region) / hw[h].io_delta;
  304. if (j >= 0 &&
  305.     j < hw[h].num_devs && 
  306.     hw[h].io_region + j * hw[h].io_delta == io[i]) {
  307.   base[j] = io[i];
  308. }
  309.       }
  310.     } else {
  311.       /* Default I/O address regions */
  312.       for (i = 0; i < hw[h].num_devs; i++) {
  313. base[i] = hw[h].io_region + i * hw[h].io_delta;
  314.       }
  315.     }
  316.     /* Check valid I/O address regions */
  317.     for (i = 0; i < hw[h].num_devs; i++)
  318.       if (base[i]) {
  319. if (check_region(base[i], hw[h].io_size))
  320.   base[i] = 0;
  321. else {
  322.   tcmd[i] = base[i] + hw[h].tmr_offset + TMR_CTRL;
  323.   t0[i]   = base[i] + hw[h].tmr_offset + TMR_CNT0;
  324.   t1[i]   = base[i] + hw[h].tmr_offset + TMR_CNT1;
  325. }
  326.       }
  327.     /* Start timers */
  328.     for (i = 0; i < hw[h].num_devs; i++)
  329.       if (base[i]) {
  330. /* Timer 0: LSB+MSB, Mode 3, TMR_0_HZ */
  331. outb(0x36, tcmd[i]);
  332. outb((hw[h].tmr_hz/TMR_0_HZ) & 0xFF, t0[i]);
  333. outb((hw[h].tmr_hz/TMR_0_HZ) >> 8, t0[i]);
  334. /* Timer 1: LSB+MSB, Mode 0, HZ/10 */
  335. outb(0x70, tcmd[i]);
  336. outb((TMR_0_HZ/HZ*10) & 0xFF, t1[i]);
  337. outb((TMR_0_HZ/HZ*10) >> 8, t1[i]);
  338. start[i] = jiffies;
  339. delay[i] = 0;
  340. counting[i] = 1;
  341. /* Timer 2: LSB+MSB, Mode 0 */
  342. outb(0xb0, tcmd[i]);
  343.       }
  344.     time = jiffies;
  345.     /* Wait until counter registers are loaded */
  346.     udelay(2000000/TMR_0_HZ);
  347.     /* Timing loop */
  348.     while (jiffies - time < 13) {
  349.       for (i = 0; i < hw[h].num_devs; i++)
  350. if (base[i] && counting[i]) {
  351.   /* Read back Timer 1: latch; read LSB; read MSB */
  352.   outb(0x40, tcmd[i]);
  353.   t_val = inb(t1[i]) + (inb(t1[i]) << 8);
  354.   /* Also check whether counter did wrap */
  355.   if (t_val == 0 || t_val > TMR_0_HZ/HZ*10) counting[i] = 0;
  356.   delay[i] = jiffies - start[i];
  357. }
  358.     }
  359.     /* Evaluate measurements */
  360.     for (i = 0; i < hw[h].num_devs; i++)
  361.       if (base[i]) {
  362. if (delay[i] >= 9 && delay[i] <= 11) {
  363.   /* Ok, we have found an adapter */
  364.   if (setup_adapter(base[i], h, n) == 0)
  365.     n++;
  366. }
  367.       }
  368.   } /* NUM_TYPES */
  369.   /* If any adapter was successfully initialized, return ok */
  370.   if (n) return 0;
  371.   /* If no adapter found, return error */
  372.   printk("dmascc: no adapters foundn");
  373.   return -EIO;
  374. }
  375. int __init setup_adapter(int card_base, int type, int n) {
  376.   int i, irq, chip;
  377.   struct scc_info *info;
  378.   struct net_device *dev;
  379.   struct scc_priv *priv;
  380.   unsigned long time;
  381.   unsigned int irqs;
  382.   int tmr_base = card_base + hw[type].tmr_offset;
  383.   int scc_base = card_base + hw[type].scc_offset;
  384.   char *chipnames[] = CHIPNAMES;
  385.   /* Allocate memory */
  386.   info = kmalloc(sizeof(struct scc_info), GFP_KERNEL | GFP_DMA);
  387.   if (!info) {
  388.     printk("dmascc: could not allocate memory for %s at %#3xn",
  389.    hw[type].name, card_base);
  390.     return -1;
  391.   }
  392.   /* Initialize what is necessary for write_scc and write_scc_data */
  393.   memset(info, 0, sizeof(struct scc_info));
  394.   priv = &info->priv[0];
  395.   priv->type = type;
  396.   priv->card_base = card_base;
  397.   priv->scc_cmd = scc_base + SCCA_CMD;
  398.   priv->scc_data = scc_base + SCCA_DATA;
  399.   /* Reset SCC */
  400.   write_scc(priv, R9, FHWRES | MIE | NV);
  401.   /* Determine type of chip by enabling SDLC/HDLC enhancements */
  402.   write_scc(priv, R15, SHDLCE);
  403.   if (!read_scc(priv, R15)) {
  404.     /* WR7' not present. This is an ordinary Z8530 SCC. */
  405.     chip = Z8530;
  406.   } else {
  407.     /* Put one character in TX FIFO */
  408.     write_scc_data(priv, 0, 0);
  409.     if (read_scc(priv, R0) & Tx_BUF_EMP) {
  410.       /* TX FIFO not full. This is a Z85230 ESCC with a 4-byte FIFO. */
  411.       chip = Z85230;
  412.     } else {
  413.       /* TX FIFO full. This is a Z85C30 SCC with a 1-byte FIFO. */
  414.       chip = Z85C30;
  415.     }
  416.   }
  417.   write_scc(priv, R15, 0);
  418.   /* Start IRQ auto-detection */
  419.   sti();
  420.   irqs = probe_irq_on();
  421.   /* Enable interrupts */
  422.   if (type == TYPE_TWIN) {
  423.     outb(0, card_base + TWIN_DMA_CFG);
  424.     inb(card_base + TWIN_CLR_TMR1);
  425.     inb(card_base + TWIN_CLR_TMR2);
  426.     outb((info->twin_serial_cfg = TWIN_EI), card_base + TWIN_SERIAL_CFG);
  427.   } else {
  428.     write_scc(priv, R15, CTSIE);
  429.     write_scc(priv, R0, RES_EXT_INT);
  430.     write_scc(priv, R1, EXT_INT_ENAB);
  431.   }
  432.   /* Start timer */
  433.   outb(1, tmr_base + TMR_CNT1);
  434.   outb(0, tmr_base + TMR_CNT1);
  435.   /* Wait and detect IRQ */
  436.   time = jiffies; while (jiffies - time < 2 + HZ / TMR_0_HZ);
  437.   irq = probe_irq_off(irqs);
  438.   /* Clear pending interrupt, disable interrupts */
  439.   if (type == TYPE_TWIN) {
  440.     inb(card_base + TWIN_CLR_TMR1);
  441.   } else {
  442.     write_scc(priv, R1, 0);
  443.     write_scc(priv, R15, 0);
  444.     write_scc(priv, R0, RES_EXT_INT);
  445.   }
  446.   if (irq <= 0) {
  447.     printk("dmascc: could not find irq of %s at %#3x (irq=%d)n",
  448.    hw[type].name, card_base, irq);
  449.     kfree(info);
  450.     return -1;
  451.   }
  452.   /* Set up data structures */
  453.   for (i = 0; i < 2; i++) {
  454.     dev = &info->dev[i];
  455.     priv = &info->priv[i];
  456.     priv->type = type;
  457.     priv->chip = chip;
  458.     priv->dev = dev;
  459.     priv->info = info;
  460.     priv->channel = i;
  461.     priv->card_base = card_base;
  462.     priv->scc_cmd = scc_base + (i ? SCCB_CMD : SCCA_CMD);
  463.     priv->scc_data = scc_base + (i ? SCCB_DATA : SCCA_DATA);
  464.     priv->tmr_cnt = tmr_base + (i ? TMR_CNT2 : TMR_CNT1);
  465.     priv->tmr_ctrl = tmr_base + TMR_CTRL;
  466.     priv->tmr_mode = i ? 0xb0 : 0x70;
  467.     priv->param.pclk_hz = hw[type].pclk_hz;
  468.     priv->param.brg_tc = -1;
  469.     priv->param.clocks = TCTRxCP | RCRTxCP;
  470.     priv->param.persist = 256;
  471.     priv->param.dma = -1;
  472.     priv->rx_task.routine = rx_bh;
  473.     priv->rx_task.data = priv;
  474.     dev->priv = priv;
  475. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,4,0)
  476.     if (sizeof(dev->name) == sizeof(char *)) dev->name = priv->name;
  477. #endif
  478.     sprintf(dev->name, "dmascc%i", 2*n+i);
  479.     dev->base_addr = card_base;
  480.     dev->irq = irq;
  481.     dev->open = scc_open;
  482.     dev->stop = scc_close;
  483.     dev->do_ioctl = scc_ioctl;
  484.     dev->hard_start_xmit = scc_send_packet;
  485.     dev->get_stats = scc_get_stats;
  486.     dev->hard_header = ax25_encapsulate;
  487.     dev->rebuild_header = ax25_rebuild_header;
  488.     dev->set_mac_address = scc_set_mac_address;
  489.     dev->type = ARPHRD_AX25;
  490.     dev->hard_header_len = 73;
  491.     dev->mtu = 1500;
  492.     dev->addr_len = 7;
  493.     dev->tx_queue_len = 64;
  494.     memcpy(dev->broadcast, ax25_broadcast, 7);
  495.     memcpy(dev->dev_addr, ax25_test, 7);
  496.     rtnl_lock();
  497.     if (register_netdevice(dev)) {
  498.       printk("dmascc: could not register %sn", dev->name);
  499.     }
  500.     rtnl_unlock();
  501.   }
  502.   request_region(card_base, hw[type].io_size, "dmascc");
  503.   info->next = first;
  504.   first = info;
  505.   printk("dmascc: found %s (%s) at %#3x, irq %dn", hw[type].name,
  506.  chipnames[chip], card_base, irq);
  507.   return 0;
  508. }
  509. /* Driver functions */
  510. static void write_scc(struct scc_priv *priv, int reg, int val) {
  511.   unsigned long flags;
  512.   switch (priv->type) {
  513.   case TYPE_S5:
  514.     if (reg) outb(reg, priv->scc_cmd);
  515.     outb(val, priv->scc_cmd);
  516.     return;
  517.   case TYPE_TWIN:
  518.     if (reg) outb_p(reg, priv->scc_cmd);
  519.     outb_p(val, priv->scc_cmd);
  520.     return;
  521.   default:
  522.     save_flags(flags);
  523.     cli();
  524.     outb_p(0, priv->card_base + PI_DREQ_MASK);
  525.     if (reg) outb_p(reg, priv->scc_cmd);
  526.     outb_p(val, priv->scc_cmd);
  527.     outb(1, priv->card_base + PI_DREQ_MASK);
  528.     restore_flags(flags);
  529.     return;
  530.   }
  531. }
  532. static void write_scc_data(struct scc_priv *priv, int val, int fast) {
  533.   unsigned long flags;
  534.   switch (priv->type) {
  535.   case TYPE_S5:
  536.     outb(val, priv->scc_data);
  537.     return;
  538.   case TYPE_TWIN:
  539.     outb_p(val, priv->scc_data);
  540.     return;
  541.   default:
  542.     if (fast) outb_p(val, priv->scc_data);
  543.     else {
  544.       save_flags(flags);
  545.       cli();
  546.       outb_p(0, priv->card_base + PI_DREQ_MASK);
  547.       outb_p(val, priv->scc_data);
  548.       outb(1, priv->card_base + PI_DREQ_MASK);
  549.       restore_flags(flags);
  550.     }
  551.     return;
  552.   }
  553. }
  554. static int read_scc(struct scc_priv *priv, int reg) {
  555.   int rc;
  556.   unsigned long flags;
  557.   switch (priv->type) {
  558.   case TYPE_S5:
  559.     if (reg) outb(reg, priv->scc_cmd);
  560.     return inb(priv->scc_cmd);
  561.   case TYPE_TWIN:
  562.     if (reg) outb_p(reg, priv->scc_cmd);
  563.     return inb_p(priv->scc_cmd);
  564.   default:
  565.     save_flags(flags);
  566.     cli();
  567.     outb_p(0, priv->card_base + PI_DREQ_MASK);
  568.     if (reg) outb_p(reg, priv->scc_cmd);
  569.     rc = inb_p(priv->scc_cmd);
  570.     outb(1, priv->card_base + PI_DREQ_MASK);
  571.     restore_flags(flags);
  572.     return rc;
  573.   }
  574. }
  575. static int read_scc_data(struct scc_priv *priv) {
  576.   int rc;
  577.   unsigned long flags;
  578.   switch (priv->type) {
  579.   case TYPE_S5:
  580.     return inb(priv->scc_data);
  581.   case TYPE_TWIN:
  582.     return inb_p(priv->scc_data);
  583.   default:
  584.     save_flags(flags);
  585.     cli();
  586.     outb_p(0, priv->card_base + PI_DREQ_MASK);
  587.     rc = inb_p(priv->scc_data);
  588.     outb(1, priv->card_base + PI_DREQ_MASK);
  589.     restore_flags(flags);
  590.     return rc;
  591.   }
  592. }
  593. static int scc_open(struct net_device *dev) {
  594.   struct scc_priv *priv = dev->priv;
  595.   struct scc_info *info = priv->info;
  596.   int card_base = priv->card_base;
  597.   MOD_INC_USE_COUNT;
  598.   /* Request IRQ if not already used by other channel */
  599.   if (!info->irq_used) {
  600.     if (request_irq(dev->irq, scc_isr, 0, "dmascc", info)) {
  601.       MOD_DEC_USE_COUNT;
  602.       return -EAGAIN;
  603.     }
  604.   }
  605.   info->irq_used++;
  606.   /* Request DMA if required */
  607.   if (priv->param.dma >= 0) {
  608.     if (request_dma(priv->param.dma, "dmascc")) {
  609.       if (--info->irq_used == 0) free_irq(dev->irq, info);
  610.       MOD_DEC_USE_COUNT;
  611.       return -EAGAIN;
  612.     } else {
  613.       unsigned long flags = claim_dma_lock();
  614.       clear_dma_ff(priv->param.dma);
  615.       release_dma_lock(flags);
  616.     }
  617.   }
  618.   /* Initialize local variables */
  619.   priv->rx_ptr = 0;
  620.   priv->rx_over = 0;
  621.   priv->rx_head = priv->rx_tail = priv->rx_count = 0;
  622.   priv->state = IDLE;
  623.   priv->tx_head = priv->tx_tail = priv->tx_count = 0;
  624.   priv->tx_ptr = 0;
  625.   /* Reset channel */
  626.   write_scc(priv, R9, (priv->channel ? CHRB : CHRA) | MIE | NV);
  627.   /* X1 clock, SDLC mode */
  628.   write_scc(priv, R4, SDLC | X1CLK);
  629.   /* DMA */
  630.   write_scc(priv, R1, EXT_INT_ENAB | WT_FN_RDYFN);
  631.   /* 8 bit RX char, RX disable */
  632.   write_scc(priv, R3, Rx8);
  633.   /* 8 bit TX char, TX disable */
  634.   write_scc(priv, R5, Tx8);
  635.   /* SDLC address field */
  636.   write_scc(priv, R6, 0);
  637.   /* SDLC flag */
  638.   write_scc(priv, R7, FLAG);
  639.   switch (priv->chip) {
  640.   case Z85C30:
  641.     /* Select WR7' */
  642.     write_scc(priv, R15, SHDLCE);
  643.     /* Auto EOM reset */
  644.     write_scc(priv, R7, AUTOEOM);
  645.     write_scc(priv, R15, 0);
  646.     break;
  647.   case Z85230:
  648.     /* Select WR7' */
  649.     write_scc(priv, R15, SHDLCE);
  650.     /* The following bits are set (see 2.5.2.1):
  651.        - Automatic EOM reset
  652.        - Interrupt request if RX FIFO is half full
  653.          This bit should be ignored in DMA mode (according to the
  654.          documentation), but actually isn't. The receiver doesn't work if
  655.          it is set. Thus, we have to clear it in DMA mode.
  656.        - Interrupt/DMA request if TX FIFO is completely empty
  657.          a) If set, the ESCC behaves as if it had no TX FIFO (Z85C30
  658.             compatibility).
  659.          b) If cleared, DMA requests may follow each other very quickly,
  660.             filling up the TX FIFO.
  661.             Advantage: TX works even in case of high bus latency.
  662.             Disadvantage: Edge-triggered DMA request circuitry may miss
  663.                           a request. No more data is delivered, resulting
  664.                           in a TX FIFO underrun.
  665.          Both PI2 and S5SCC/DMA seem to work fine with TXFIFOE cleared.
  666.          The PackeTwin doesn't. I don't know about the PI, but let's
  667.  assume it behaves like the PI2.
  668.     */
  669.     if (priv->param.dma >= 0) {
  670.       if (priv->type == TYPE_TWIN) write_scc(priv, R7, AUTOEOM | TXFIFOE);
  671.       else write_scc(priv, R7, AUTOEOM);
  672.     } else {
  673.       write_scc(priv, R7, AUTOEOM | RXFIFOH);
  674.     }
  675.     write_scc(priv, R15, 0);
  676.     break;
  677.   }
  678.   /* Preset CRC, NRZ(I) encoding */
  679.   write_scc(priv, R10, CRCPS | (priv->param.nrzi ? NRZI : NRZ));
  680.   /* Configure baud rate generator */
  681.   if (priv->param.brg_tc >= 0) {
  682.     /* Program BR generator */
  683.     write_scc(priv, R12, priv->param.brg_tc & 0xFF);
  684.     write_scc(priv, R13, (priv->param.brg_tc>>8) & 0xFF);
  685.     /* BRG source = SYS CLK; enable BRG; DTR REQ function (required by
  686.        PackeTwin, not connected on the PI2); set DPLL source to BRG */
  687.     write_scc(priv, R14, SSBR | DTRREQ | BRSRC | BRENABL);
  688.     /* Enable DPLL */
  689.     write_scc(priv, R14, SEARCH | DTRREQ | BRSRC | BRENABL);
  690.   } else {
  691.     /* Disable BR generator */
  692.     write_scc(priv, R14, DTRREQ | BRSRC);
  693.   }
  694.   /* Configure clocks */
  695.   if (priv->type == TYPE_TWIN) {
  696.     /* Disable external TX clock receiver */
  697.     outb((info->twin_serial_cfg &=
  698.     ~(priv->channel ? TWIN_EXTCLKB : TWIN_EXTCLKA)), 
  699.    card_base + TWIN_SERIAL_CFG);
  700.   }
  701.   write_scc(priv, R11, priv->param.clocks);
  702.   if ((priv->type == TYPE_TWIN) && !(priv->param.clocks & TRxCOI)) {
  703.     /* Enable external TX clock receiver */
  704.     outb((info->twin_serial_cfg |=
  705.     (priv->channel ? TWIN_EXTCLKB : TWIN_EXTCLKA)),
  706.    card_base + TWIN_SERIAL_CFG);
  707.   }
  708.   /* Configure PackeTwin */
  709.   if (priv->type == TYPE_TWIN) {
  710.     /* Assert DTR, enable interrupts */
  711.     outb((info->twin_serial_cfg |= TWIN_EI |
  712.     (priv->channel ? TWIN_DTRB_ON : TWIN_DTRA_ON)),
  713.    card_base + TWIN_SERIAL_CFG);
  714.   }
  715.   /* Read current status */
  716.   priv->rr0 = read_scc(priv, R0);
  717.   /* Enable DCD interrupt */
  718.   write_scc(priv, R15, DCDIE);
  719.   netif_start_queue(dev);
  720.   return 0;
  721. }
  722. static int scc_close(struct net_device *dev) {
  723.   struct scc_priv *priv = dev->priv;
  724.   struct scc_info *info = priv->info;
  725.   int card_base = priv->card_base;
  726.   netif_stop_queue(dev);
  727.   if (priv->type == TYPE_TWIN) {
  728.     /* Drop DTR */
  729.     outb((info->twin_serial_cfg &=
  730.     (priv->channel ? ~TWIN_DTRB_ON : ~TWIN_DTRA_ON)),
  731.    card_base + TWIN_SERIAL_CFG);
  732.   }
  733.   /* Reset channel, free DMA and IRQ */
  734.   write_scc(priv, R9, (priv->channel ? CHRB : CHRA) | MIE | NV);
  735.   if (priv->param.dma >= 0) {
  736.     if (priv->type == TYPE_TWIN) outb(0, card_base + TWIN_DMA_CFG);
  737.     free_dma(priv->param.dma);
  738.   }
  739.   if (--info->irq_used == 0) free_irq(dev->irq, info);
  740.   MOD_DEC_USE_COUNT;
  741.   return 0;
  742. }
  743. static int scc_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd) {
  744.   struct scc_priv *priv = dev->priv;
  745.   
  746.   switch (cmd) {
  747.   case SIOCGSCCPARAM:
  748.     if (copy_to_user(ifr->ifr_data, &priv->param, sizeof(struct scc_param)))
  749.       return -EFAULT;
  750.     return 0;
  751.   case SIOCSSCCPARAM:
  752.     if (!capable(CAP_NET_ADMIN)) return -EPERM;
  753.     if (netif_running(dev)) return -EAGAIN;
  754.     if (copy_from_user(&priv->param, ifr->ifr_data, sizeof(struct scc_param)))
  755.       return -EFAULT;
  756.     return 0;
  757.   default:
  758.     return -EINVAL;
  759.   }
  760. }
  761. static int scc_send_packet(struct sk_buff *skb, struct net_device *dev) {
  762.   struct scc_priv *priv = dev->priv;
  763.   unsigned long flags;
  764.   int i;
  765.   /* Temporarily stop the scheduler feeding us packets */
  766.   netif_stop_queue(dev);
  767.   /* Transfer data to DMA buffer */
  768.   i = priv->tx_head;
  769.   memcpy(priv->tx_buf[i], skb->data+1, skb->len-1);
  770.   priv->tx_len[i] = skb->len-1;
  771.   /* Clear interrupts while we touch our circular buffers */
  772.   save_flags(flags);
  773.   cli();
  774.   /* Move the ring buffer's head */
  775.   priv->tx_head = (i + 1) % NUM_TX_BUF;
  776.   priv->tx_count++;
  777.   /* If we just filled up the last buffer, leave queue stopped.
  778.      The higher layers must wait until we have a DMA buffer
  779.      to accept the data. */
  780.   if (priv->tx_count < NUM_TX_BUF) netif_wake_queue(dev);
  781.   /* Set new TX state */
  782.   if (priv->state == IDLE) {
  783.     /* Assert RTS, start timer */
  784.     priv->state = TX_HEAD;
  785.     priv->tx_start = jiffies;
  786.     write_scc(priv, R5, TxCRC_ENAB | RTS | TxENAB | Tx8);
  787.     write_scc(priv, R15, 0);
  788.     start_timer(priv, priv->param.txdelay, 0);
  789.   }
  790.   /* Turn interrupts back on and free buffer */
  791.   restore_flags(flags);
  792.   dev_kfree_skb(skb);
  793.   return 0;
  794. }
  795. static struct net_device_stats *scc_get_stats(struct net_device *dev) {
  796.   struct scc_priv *priv = dev->priv;
  797.   return &priv->stats;
  798. }
  799. static int scc_set_mac_address(struct net_device *dev, void *sa) {
  800.   memcpy(dev->dev_addr, ((struct sockaddr *)sa)->sa_data, dev->addr_len);
  801.   return 0;
  802. }
  803. static void scc_isr(int irq, void *dev_id, struct pt_regs * regs) {
  804.   struct scc_info *info = dev_id;
  805.   /* At this point interrupts are enabled, and the interrupt under service
  806.      is already acknowledged, but masked off.
  807.      Interrupt processing: We loop until we know that the IRQ line is
  808.      low. If another positive edge occurs afterwards during the ISR,
  809.      another interrupt will be triggered by the interrupt controller
  810.      as soon as the IRQ level is enabled again (see asm/irq.h).
  811.      Bottom-half handlers will be processed after scc_isr(). This is
  812.      important, since we only have small ringbuffers and want new data
  813.      to be fetched/delivered immediately. */
  814.   if (info->priv[0].type == TYPE_TWIN) {
  815.     int is, card_base = info->priv[0].card_base;
  816.     while ((is = ~inb(card_base + TWIN_INT_REG)) &
  817.    TWIN_INT_MSK) {
  818.       if (is & TWIN_SCC_MSK) {
  819. z8530_isr(info);
  820.       } else if (is & TWIN_TMR1_MSK) {
  821. inb(card_base + TWIN_CLR_TMR1);
  822. tm_isr(&info->priv[0]);
  823.       } else {
  824. inb(card_base + TWIN_CLR_TMR2);
  825. tm_isr(&info->priv[1]);
  826.       }
  827.     }
  828.   } else z8530_isr(info);
  829. }
  830. static inline void z8530_isr(struct scc_info *info) {
  831.   int is, i = 100;
  832.   while ((is = read_scc(&info->priv[0], R3)) && i--) {
  833.     if (is & CHARxIP) {
  834.       rx_isr(&info->priv[0]);
  835.     } else if (is & CHATxIP) {
  836.       tx_isr(&info->priv[0]);
  837.     } else if (is & CHAEXT) {
  838.       es_isr(&info->priv[0]);
  839.     } else if (is & CHBRxIP) {
  840.       rx_isr(&info->priv[1]);
  841.     } else if (is & CHBTxIP) {
  842.       tx_isr(&info->priv[1]);
  843.     } else {
  844.       es_isr(&info->priv[1]);
  845.     }
  846.     write_scc(&info->priv[0], R0, RES_H_IUS);
  847.     i++;
  848.   }
  849.   if (i < 0) {
  850.     printk("dmascc: stuck in ISR with RR3=0x%02x.n", is);
  851.   }
  852.   /* Ok, no interrupts pending from this 8530. The INT line should
  853.      be inactive now. */
  854. }
  855. static void rx_isr(struct scc_priv *priv) {
  856.   if (priv->param.dma >= 0) {
  857.     /* Check special condition and perform error reset. See 2.4.7.5. */
  858.     special_condition(priv, read_scc(priv, R1));
  859.     write_scc(priv, R0, ERR_RES);
  860.   } else {
  861.     /* Check special condition for each character. Error reset not necessary.
  862.        Same algorithm for SCC and ESCC. See 2.4.7.1 and 2.4.7.4. */
  863.     int rc;
  864.     while (read_scc(priv, R0) & Rx_CH_AV) {
  865.       rc = read_scc(priv, R1);
  866.       if (priv->rx_ptr < BUF_SIZE)
  867. priv->rx_buf[priv->rx_head][priv->rx_ptr++] =
  868.   read_scc_data(priv);
  869.       else {
  870. priv->rx_over = 2;
  871. read_scc_data(priv);
  872.       }
  873.       special_condition(priv, rc);
  874.     }
  875.   }
  876. }
  877. static void special_condition(struct scc_priv *priv, int rc) {
  878.   int cb;
  879.   unsigned long flags;
  880.   /* See Figure 2-15. Only overrun and EOF need to be checked. */
  881.   
  882.   if (rc & Rx_OVR) {
  883.     /* Receiver overrun */
  884.     priv->rx_over = 1;
  885.     if (priv->param.dma < 0) write_scc(priv, R0, ERR_RES);
  886.   } else if (rc & END_FR) {
  887.     /* End of frame. Get byte count */
  888.     if (priv->param.dma >= 0) {
  889.       flags = claim_dma_lock();
  890.       cb = BUF_SIZE - get_dma_residue(priv->param.dma) - 2;
  891.       release_dma_lock(flags);
  892.     } else {
  893.       cb = priv->rx_ptr - 2;
  894.     }
  895.     if (priv->rx_over) {
  896.       /* We had an overrun */
  897.       priv->stats.rx_errors++;
  898.       if (priv->rx_over == 2) priv->stats.rx_length_errors++;
  899.       else priv->stats.rx_fifo_errors++;
  900.       priv->rx_over = 0;
  901.     } else if (rc & CRC_ERR) {
  902.       /* Count invalid CRC only if packet length >= minimum */
  903.       if (cb >= 15) {
  904. priv->stats.rx_errors++;
  905. priv->stats.rx_crc_errors++;
  906.       }
  907.     } else {
  908.       if (cb >= 15) {
  909. if (priv->rx_count < NUM_RX_BUF - 1) {
  910.   /* Put good frame in FIFO */
  911.   priv->rx_len[priv->rx_head] = cb;
  912.   priv->rx_head = (priv->rx_head + 1) % NUM_RX_BUF;
  913.   priv->rx_count++;
  914.   /* Mark bottom half handler */
  915.   queue_task(&priv->rx_task, &tq_immediate);
  916.   mark_bh(IMMEDIATE_BH);
  917. } else {
  918.   priv->stats.rx_errors++;
  919.   priv->stats.rx_over_errors++;
  920. }
  921.       }
  922.     }
  923.     /* Get ready for new frame */
  924.     if (priv->param.dma >= 0) {
  925.       flags = claim_dma_lock();
  926.       set_dma_addr(priv->param.dma, (int) priv->rx_buf[priv->rx_head]);
  927.       set_dma_count(priv->param.dma, BUF_SIZE);
  928.       release_dma_lock(flags);
  929.     } else {
  930.       priv->rx_ptr = 0;
  931.     }
  932.   }
  933. }
  934. static void rx_bh(void *arg) {
  935.   struct scc_priv *priv = arg;
  936.   int i = priv->rx_tail;
  937.   int cb;
  938.   unsigned long flags;
  939.   struct sk_buff *skb;
  940.   unsigned char *data;
  941.   save_flags(flags);
  942.   cli();
  943.   while (priv->rx_count) {
  944.     restore_flags(flags);
  945.     cb = priv->rx_len[i];
  946.     /* Allocate buffer */
  947.     skb = dev_alloc_skb(cb+1);
  948.     if (skb == NULL) {
  949.       /* Drop packet */
  950.       priv->stats.rx_dropped++;
  951.     } else {
  952.       /* Fill buffer */
  953.       data = skb_put(skb, cb+1);
  954.       data[0] = 0;
  955.       memcpy(&data[1], priv->rx_buf[i], cb);
  956.       skb->dev = priv->dev;
  957.       skb->protocol = ntohs(ETH_P_AX25);
  958.       skb->mac.raw = skb->data;
  959.       netif_rx(skb);
  960.       priv->stats.rx_packets++;
  961.       priv->stats.rx_bytes += cb;
  962.     }
  963.     save_flags(flags);
  964.     cli();
  965.     /* Move tail */
  966.     priv->rx_tail = i = (i + 1) % NUM_RX_BUF;
  967.     priv->rx_count--;
  968.   }
  969.   restore_flags(flags);
  970. }
  971. static void tx_isr(struct scc_priv *priv) {
  972.   int i = priv->tx_tail, p = priv->tx_ptr;
  973.   /* Suspend TX interrupts if we don't want to send anything.
  974.      See Figure 2-22. */
  975.   if (p ==  priv->tx_len[i]) {
  976.     write_scc(priv, R0, RES_Tx_P);
  977.     return;
  978.   }
  979.   /* Write characters */
  980.   while ((read_scc(priv, R0) & Tx_BUF_EMP) && p < priv->tx_len[i]) {
  981.     write_scc_data(priv, priv->tx_buf[i][p++], 0);
  982.   }
  983.   /* Reset EOM latch of Z8530 */
  984.   if (!priv->tx_ptr && p && priv->chip == Z8530)
  985.     write_scc(priv, R0, RES_EOM_L);
  986.   priv->tx_ptr = p;
  987. }
  988. static void es_isr(struct scc_priv *priv) {
  989.   int i, rr0, drr0, res;
  990.   unsigned long flags;
  991.   /* Read status, reset interrupt bit (open latches) */
  992.   rr0 = read_scc(priv, R0);
  993.   write_scc(priv, R0, RES_EXT_INT);
  994.   drr0 = priv->rr0 ^ rr0;
  995.   priv->rr0 = rr0;
  996.   /* Transmit underrun (2.4.9.6). We can't check the TxEOM flag, since
  997.      it might have already been cleared again by AUTOEOM. */
  998.   if (priv->state == TX_DATA) {
  999.     /* Get remaining bytes */
  1000.     i = priv->tx_tail;
  1001.     if (priv->param.dma >= 0) {
  1002.       disable_dma(priv->param.dma);
  1003.       flags = claim_dma_lock();
  1004.       res = get_dma_residue(priv->param.dma);
  1005.       release_dma_lock(flags);
  1006.     } else {
  1007.       res = priv->tx_len[i] - priv->tx_ptr;
  1008.       priv->tx_ptr = 0;
  1009.     }
  1010.     /* Disable DREQ / TX interrupt */
  1011.     if (priv->param.dma >= 0 && priv->type == TYPE_TWIN)
  1012.       outb(0, priv->card_base + TWIN_DMA_CFG);
  1013.     else
  1014.       write_scc(priv, R1, EXT_INT_ENAB | WT_FN_RDYFN);
  1015.     if (res) {
  1016.       /* Update packet statistics */
  1017.       priv->stats.tx_errors++;
  1018.       priv->stats.tx_fifo_errors++;
  1019.       /* Other underrun interrupts may already be waiting */
  1020.       write_scc(priv, R0, RES_EXT_INT);
  1021.       write_scc(priv, R0, RES_EXT_INT);
  1022.     } else {
  1023.       /* Update packet statistics */
  1024.       priv->stats.tx_packets++;
  1025.       priv->stats.tx_bytes += priv->tx_len[i];
  1026.       /* Remove frame from FIFO */
  1027.       priv->tx_tail = (i + 1) % NUM_TX_BUF;
  1028.       priv->tx_count--;
  1029.       /* Inform upper layers */
  1030.       netif_wake_queue(priv->dev);
  1031.     }
  1032.     /* Switch state */
  1033.     write_scc(priv, R15, 0);
  1034.     if (priv->tx_count &&
  1035. (jiffies - priv->tx_start) < priv->param.txtimeout) {
  1036.       priv->state = TX_PAUSE;
  1037.       start_timer(priv, priv->param.txpause, 0);
  1038.     } else {
  1039.       priv->state = TX_TAIL;
  1040.       start_timer(priv, priv->param.txtail, 0);
  1041.     }
  1042.   }
  1043.   /* DCD transition */
  1044.   if (drr0 & DCD) {
  1045.     if (rr0 & DCD) {
  1046.       switch (priv->state) {
  1047.       case IDLE:
  1048.       case WAIT:
  1049. priv->state = DCD_ON;
  1050. write_scc(priv, R15, 0);
  1051. start_timer(priv, priv->param.dcdon, 0);
  1052.       }
  1053.     } else {
  1054.       switch (priv->state) {
  1055.       case RX_ON:
  1056. rx_off(priv);
  1057. priv->state = DCD_OFF;
  1058. write_scc(priv, R15, 0);
  1059. start_timer(priv, priv->param.dcdoff, 0);
  1060.       }
  1061.     }
  1062.   }
  1063.   /* CTS transition */
  1064.   if ((drr0 & CTS) && (~rr0 & CTS) && priv->type != TYPE_TWIN)
  1065.     tm_isr(priv);
  1066. }
  1067. static void tm_isr(struct scc_priv *priv) {
  1068.   switch (priv->state) {
  1069.   case TX_HEAD:
  1070.   case TX_PAUSE:
  1071.     tx_on(priv);
  1072.     priv->state = TX_DATA;
  1073.     break;
  1074.   case TX_TAIL:
  1075.     write_scc(priv, R5, TxCRC_ENAB | Tx8);
  1076.     priv->state = RTS_OFF;
  1077.     if (priv->type != TYPE_TWIN) write_scc(priv, R15, 0);
  1078.     start_timer(priv, priv->param.rtsoff, 0);
  1079.     break;
  1080.   case RTS_OFF:
  1081.     write_scc(priv, R15, DCDIE);
  1082.     priv->rr0 = read_scc(priv, R0);
  1083.     if (priv->rr0 & DCD) {
  1084.       priv->stats.collisions++;
  1085.       rx_on(priv);
  1086.       priv->state = RX_ON;
  1087.     } else {
  1088.       priv->state = WAIT;
  1089.       start_timer(priv, priv->param.waittime, DCDIE);
  1090.     }
  1091.     break;
  1092.   case WAIT:
  1093.     if (priv->tx_count) {
  1094.       priv->state = TX_HEAD;
  1095.       priv->tx_start = jiffies;
  1096.       write_scc(priv, R5, TxCRC_ENAB | RTS | TxENAB | Tx8);
  1097.       write_scc(priv, R15, 0);
  1098.       start_timer(priv, priv->param.txdelay, 0);
  1099.     } else {
  1100.       priv->state = IDLE;
  1101.       if (priv->type != TYPE_TWIN) write_scc(priv, R15, DCDIE);
  1102.     }
  1103.     break;
  1104.   case DCD_ON:
  1105.   case DCD_OFF:
  1106.     write_scc(priv, R15, DCDIE);
  1107.     priv->rr0 = read_scc(priv, R0);
  1108.     if (priv->rr0 & DCD) {
  1109.       rx_on(priv);
  1110.       priv->state = RX_ON;
  1111.     } else {
  1112.       priv->state = WAIT;
  1113.       start_timer(priv,
  1114.   random()/priv->param.persist*priv->param.slottime,
  1115.   DCDIE);
  1116.     }
  1117.     break;
  1118.   }
  1119. }
  1120. static inline void tx_on(struct scc_priv *priv) {
  1121.   int i, n;
  1122.   unsigned long flags;
  1123.   if (priv->param.dma >= 0) {
  1124.     n = (priv->chip == Z85230) ? 3 : 1;
  1125.     /* Program DMA controller */
  1126.     flags = claim_dma_lock();
  1127.     set_dma_mode(priv->param.dma, DMA_MODE_WRITE);
  1128.     set_dma_addr(priv->param.dma, (int) priv->tx_buf[priv->tx_tail]+n);
  1129.     set_dma_count(priv->param.dma, priv->tx_len[priv->tx_tail]-n);
  1130.     release_dma_lock(flags);
  1131.     /* Enable TX underrun interrupt */
  1132.     write_scc(priv, R15, TxUIE);
  1133.     /* Configure DREQ */
  1134.     if (priv->type == TYPE_TWIN)
  1135.       outb((priv->param.dma == 1) ? TWIN_DMA_HDX_T1 : TWIN_DMA_HDX_T3,
  1136.    priv->card_base + TWIN_DMA_CFG);
  1137.     else
  1138.       write_scc(priv, R1, EXT_INT_ENAB | WT_FN_RDYFN | WT_RDY_ENAB);
  1139.     /* Write first byte(s) */
  1140.     save_flags(flags);
  1141.     cli();
  1142.     for (i = 0; i < n; i++)
  1143.       write_scc_data(priv, priv->tx_buf[priv->tx_tail][i], 1);
  1144.     enable_dma(priv->param.dma);
  1145.     restore_flags(flags);
  1146.   } else {
  1147.     write_scc(priv, R15, TxUIE);
  1148.     write_scc(priv, R1, EXT_INT_ENAB | WT_FN_RDYFN | TxINT_ENAB);
  1149.     tx_isr(priv);
  1150.   }
  1151.   /* Reset EOM latch if we do not have the AUTOEOM feature */
  1152.   if (priv->chip == Z8530) write_scc(priv, R0, RES_EOM_L);
  1153. }
  1154. static inline void rx_on(struct scc_priv *priv) {
  1155.   unsigned long flags;
  1156.   /* Clear RX FIFO */
  1157.   while (read_scc(priv, R0) & Rx_CH_AV) read_scc_data(priv);
  1158.   priv->rx_over = 0;
  1159.   if (priv->param.dma >= 0) {
  1160.     /* Program DMA controller */
  1161.     flags = claim_dma_lock();
  1162.     set_dma_mode(priv->param.dma, DMA_MODE_READ);
  1163.     set_dma_addr(priv->param.dma, (int) priv->rx_buf[priv->rx_head]);
  1164.     set_dma_count(priv->param.dma, BUF_SIZE);
  1165.     release_dma_lock(flags);
  1166.     enable_dma(priv->param.dma);
  1167.     /* Configure PackeTwin DMA */
  1168.     if (priv->type == TYPE_TWIN) {
  1169.       outb((priv->param.dma == 1) ? TWIN_DMA_HDX_R1 : TWIN_DMA_HDX_R3,
  1170.    priv->card_base + TWIN_DMA_CFG);
  1171.     }
  1172.     /* Sp. cond. intr. only, ext int enable, RX DMA enable */
  1173.     write_scc(priv, R1, EXT_INT_ENAB | INT_ERR_Rx |
  1174.       WT_RDY_RT | WT_FN_RDYFN | WT_RDY_ENAB);
  1175.   } else {
  1176.     /* Reset current frame */
  1177.     priv->rx_ptr = 0;
  1178.     /* Intr. on all Rx characters and Sp. cond., ext int enable */
  1179.     write_scc(priv, R1, EXT_INT_ENAB | INT_ALL_Rx | WT_RDY_RT |
  1180.       WT_FN_RDYFN);
  1181.   }
  1182.   write_scc(priv, R0, ERR_RES);
  1183.   write_scc(priv, R3, RxENABLE | Rx8 | RxCRC_ENAB);
  1184. }
  1185. static inline void rx_off(struct scc_priv *priv) {
  1186.   /* Disable receiver */
  1187.   write_scc(priv, R3, Rx8);
  1188.   /* Disable DREQ / RX interrupt */
  1189.   if (priv->param.dma >= 0 && priv->type == TYPE_TWIN)
  1190.     outb(0, priv->card_base + TWIN_DMA_CFG);
  1191.   else
  1192.     write_scc(priv, R1, EXT_INT_ENAB | WT_FN_RDYFN);
  1193.   /* Disable DMA */
  1194.   if (priv->param.dma >= 0) disable_dma(priv->param.dma);
  1195. }
  1196. static void start_timer(struct scc_priv *priv, int t, int r15) {
  1197.   unsigned long flags;
  1198.   outb(priv->tmr_mode, priv->tmr_ctrl);
  1199.   if (t == 0) {
  1200.     tm_isr(priv);
  1201.   } else if (t > 0) {
  1202.     save_flags(flags);
  1203.     cli();
  1204.     outb(t & 0xFF, priv->tmr_cnt);
  1205.     outb((t >> 8) & 0xFF, priv->tmr_cnt);
  1206.     if (priv->type != TYPE_TWIN) {
  1207.       write_scc(priv, R15, r15 | CTSIE);
  1208.       priv->rr0 |= CTS;
  1209.     }
  1210.     restore_flags(flags);
  1211.   }
  1212. }
  1213. static inline unsigned char random(void) {
  1214.   /* See "Numerical Recipes in C", second edition, p. 284 */
  1215.   rand = rand * 1664525L + 1013904223L;
  1216.   return (unsigned char) (rand >> 24);
  1217. }