sg.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:97k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  *  History:
  3.  *  Started: Aug 9 by Lawrence Foard (entropy@world.std.com),
  4.  *           to allow user process control of SCSI devices.
  5.  *  Development Sponsored by Killy Corp. NY NY
  6.  *
  7.  * Original driver (sg.c):
  8.  *        Copyright (C) 1992 Lawrence Foard
  9.  * Version 2 and 3 extensions to driver:
  10.  *        Copyright (C) 1998 - 2002 Douglas Gilbert
  11.  *
  12.  *  Modified  19-JAN-1998  Richard Gooch <rgooch@atnf.csiro.au>  Devfs support
  13.  *
  14.  * This program is free software; you can redistribute it and/or modify
  15.  * it under the terms of the GNU General Public License as published by
  16.  * the Free Software Foundation; either version 2, or (at your option)
  17.  * any later version.
  18.  *
  19.  */
  20. #include <linux/config.h>
  21. #ifdef CONFIG_PROC_FS
  22.  static char * sg_version_str = "Version: 3.1.24 (20020505)";
  23. #endif
  24.  static int sg_version_num = 30124; /* 2 digits for each component */
  25. /*
  26.  *  D. P. Gilbert (dgilbert@interlog.com, dougg@triode.net.au), notes:
  27.  *      - scsi logging is available via SCSI_LOG_TIMEOUT macros. First
  28.  *        the kernel/module needs to be built with CONFIG_SCSI_LOGGING
  29.  *        (otherwise the macros compile to empty statements).
  30.  *        Then before running the program to be debugged enter:
  31.  *          # echo "scsi log timeout 7" > /proc/scsi/scsi
  32.  *        This will send copious output to the console and the log which
  33.  *        is usually /var/log/messages. To turn off debugging enter:
  34.  *          # echo "scsi log timeout 0" > /proc/scsi/scsi
  35.  *        The 'timeout' token was chosen because it is relatively unused.
  36.  *        The token 'hlcomplete' should be used but that triggers too
  37.  *        much output from the sd device driver. To dump the current
  38.  *        state of the SCSI mid level data structures enter:
  39.  *          # echo "scsi dump 1" > /proc/scsi/scsi
  40.  *        To dump the state of sg's data structures use:
  41.  *          # cat /proc/scsi/sg/debug
  42.  *
  43.  */
  44. #include <linux/module.h>
  45. #include <linux/fs.h>
  46. #include <linux/kernel.h>
  47. #include <linux/sched.h>
  48. #include <linux/string.h>
  49. #include <linux/mm.h>
  50. #include <linux/errno.h>
  51. #include <linux/mtio.h>
  52. #include <linux/ioctl.h>
  53. #include <linux/fcntl.h>
  54. #include <linux/init.h>
  55. #include <linux/poll.h>
  56. #include <linux/smp_lock.h>
  57. #include <asm/io.h>
  58. #include <asm/uaccess.h>
  59. #include <asm/system.h>
  60. #include <linux/blk.h>
  61. #include "scsi.h"
  62. #include "hosts.h"
  63. #include <scsi/scsi_ioctl.h>
  64. #include <scsi/sg.h>
  65. #ifdef CONFIG_PROC_FS
  66. #include <linux/proc_fs.h>
  67. static int sg_proc_init(void);
  68. static void sg_proc_cleanup(void);
  69. #endif
  70. #ifndef LINUX_VERSION_CODE
  71. #include <linux/version.h>
  72. #endif /* LINUX_VERSION_CODE */
  73. #define SG_ALLOW_DIO_DEF 0
  74. #define SG_ALLOW_DIO_CODE /* compile out be commenting this define */
  75. #ifdef SG_ALLOW_DIO_CODE
  76. #include <linux/iobuf.h>
  77. #endif
  78. #define SG_NEW_KIOVEC 0 /* use alloc_kiovec(), not alloc_kiovec_sz() */
  79. int sg_big_buff = SG_DEF_RESERVED_SIZE;
  80. /* N.B. This variable is readable and writeable via
  81.    /proc/scsi/sg/def_reserved_size . Each time sg_open() is called a buffer
  82.    of this size (or less if there is not enough memory) will be reserved
  83.    for use by this file descriptor. [Deprecated usage: this variable is also
  84.    readable via /proc/sys/kernel/sg-big-buff if the sg driver is built into
  85.    the kernel (i.e. it is not a module).] */
  86. static int def_reserved_size = -1;      /* picks up init parameter */
  87. static int sg_allow_dio = SG_ALLOW_DIO_DEF;
  88. #define SG_SECTOR_SZ 512
  89. #define SG_SECTOR_MSK (SG_SECTOR_SZ - 1)
  90. #define SG_LOW_POOL_THRESHHOLD 30
  91. #define SG_MAX_POOL_SECTORS 320  /* Max. number of pool sectors to take */
  92. static int sg_pool_secs_avail = SG_MAX_POOL_SECTORS;
  93. #define SG_HEAP_PAGE 1  /* heap from kernel via get_free_pages() */
  94. #define SG_HEAP_KMAL 2  /* heap from kernel via kmalloc() */
  95. #define SG_HEAP_POOL 3  /* heap from scsi dma pool (mid-level) */
  96. #define SG_USER_MEM 4   /* memory belongs to user space */
  97. #define SG_DEV_ARR_LUMP 6 /* amount to over allocate sg_dev_arr by */
  98. static int sg_init(void);
  99. static int sg_attach(Scsi_Device *);
  100. static void sg_finish(void);
  101. static int sg_detect(Scsi_Device *);
  102. static void sg_detach(Scsi_Device *);
  103. static Scsi_Request * dummy_cmdp; /* only used for sizeof */
  104. static rwlock_t sg_dev_arr_lock = RW_LOCK_UNLOCKED;  /* Also used to lock
  105. file descriptor list for device */
  106. static struct Scsi_Device_Template sg_template =
  107. {
  108.       tag:"sg",
  109.       scsi_type:0xff,
  110.       major:SCSI_GENERIC_MAJOR,
  111.       detect:sg_detect,
  112.       init:sg_init,
  113.       finish:sg_finish,
  114.       attach:sg_attach,
  115.       detach:sg_detach
  116. };
  117. typedef struct sg_scatter_hold  /* holding area for scsi scatter gather info */
  118. {
  119.     unsigned short k_use_sg;    /* Count of kernel scatter-gather pieces */
  120.     unsigned short sglist_len;  /* size of malloc'd scatter-gather list ++ */
  121.     unsigned bufflen;           /* Size of (aggregate) data buffer */
  122.     unsigned b_malloc_len;      /* actual len malloc'ed in buffer */
  123.     void * buffer;              /* Data buffer or scatter list + mem_src_arr */
  124.     struct kiobuf * kiobp;      /* for direct IO information */
  125.     char mapped;                /* indicates kiobp has locked pages */
  126.     char buffer_mem_src;        /* heap whereabouts of 'buffer' */
  127.     unsigned char cmd_opcode;   /* first byte of command */
  128. } Sg_scatter_hold;    /* 24 bytes long on i386 */
  129. struct sg_device;               /* forward declarations */
  130. struct sg_fd;
  131. typedef struct sg_request  /* SG_MAX_QUEUE requests outstanding per file */
  132. {
  133.     Scsi_Request * my_cmdp;     /* != 0  when request with lower levels */
  134.     struct sg_request * nextrp; /* NULL -> tail request (slist) */
  135.     struct sg_fd * parentfp;    /* NULL -> not in use */
  136.     Sg_scatter_hold data;       /* hold buffer, perhaps scatter list */
  137.     sg_io_hdr_t header;         /* scsi command+info, see <scsi/sg.h> */
  138.     unsigned char sense_b[sizeof(dummy_cmdp->sr_sense_buffer)];
  139.     char res_used;              /* 1 -> using reserve buffer, 0 -> not ... */
  140.     char orphan;                /* 1 -> drop on sight, 0 -> normal */
  141.     char sg_io_owned;           /* 1 -> packet belongs to SG_IO */
  142.     volatile char done;         /* 0->before bh, 1->before read, 2->read */
  143. } Sg_request; /* 168 bytes long on i386 */
  144. typedef struct sg_fd /* holds the state of a file descriptor */
  145. {
  146.     struct sg_fd * nextfp; /* NULL when last opened fd on this device */
  147.     struct sg_device * parentdp;     /* owning device */
  148.     wait_queue_head_t read_wait;     /* queue read until command done */
  149.     rwlock_t rq_list_lock;      /* protect access to list in req_arr */
  150.     int timeout;                     /* defaults to SG_DEFAULT_TIMEOUT */
  151.     Sg_scatter_hold reserve;  /* buffer held for this file descriptor */
  152.     unsigned save_scat_len;   /* original length of trunc. scat. element */
  153.     Sg_request * headrp;      /* head of request slist, NULL->empty */
  154.     struct fasync_struct * async_qp; /* used by asynchronous notification */
  155.     Sg_request req_arr[SG_MAX_QUEUE]; /* used as singly-linked list */
  156.     char low_dma;       /* as in parent but possibly overridden to 1 */
  157.     char force_packid;  /* 1 -> pack_id input to read(), 0 -> ignored */
  158.     volatile char closed; /* 1 -> fd closed but request(s) outstanding */
  159.     char fd_mem_src;    /* heap whereabouts of this Sg_fd object */
  160.     char cmd_q;         /* 1 -> allow command queuing, 0 -> don't */
  161.     char next_cmd_len;  /* 0 -> automatic (def), >0 -> use on next write() */
  162.     char keep_orphan;   /* 0 -> drop orphan (def), 1 -> keep for read() */
  163.     char mmap_called;   /* 0 -> mmap() never called on this fd */
  164. } Sg_fd; /* 2760 bytes long on i386 */
  165. typedef struct sg_device /* holds the state of each scsi generic device */
  166. {
  167.     Scsi_Device * device;
  168.     wait_queue_head_t o_excl_wait;   /* queue open() when O_EXCL in use */
  169.     int sg_tablesize;   /* adapter's max scatter-gather table size */
  170.     Sg_fd * headfp;     /* first open fd belonging to this device */
  171.     devfs_handle_t de;
  172.     kdev_t i_rdev;      /* holds device major+minor number */
  173.     volatile char detached;  /* 0->attached, 1->detached pending removal */
  174.     volatile char exclude;   /* opened for exclusive access */
  175.     char sgdebug;       /* 0->off, 1->sense, 9->dump dev, 10-> all devs */
  176. } Sg_device; /* 36 bytes long on i386 */
  177. static int sg_fasync(int fd, struct file * filp, int mode);
  178. static void sg_cmd_done_bh(Scsi_Cmnd * SCpnt);
  179. static int sg_start_req(Sg_request * srp);
  180. static void sg_finish_rem_req(Sg_request * srp);
  181. static int sg_build_indi(Sg_scatter_hold * schp, Sg_fd * sfp, int buff_size);
  182. static int sg_build_sgat(Sg_scatter_hold * schp, const Sg_fd * sfp,
  183.  int tablesize);
  184. static ssize_t sg_new_read(Sg_fd * sfp, char * buf, size_t count,
  185.    Sg_request * srp);
  186. static ssize_t sg_new_write(Sg_fd * sfp, const char * buf, size_t count,
  187. int blocking, int read_only, Sg_request ** o_srp);
  188. static int sg_common_write(Sg_fd * sfp, Sg_request * srp,
  189.    unsigned char * cmnd, int timeout, int blocking);
  190. static int sg_u_iovec(sg_io_hdr_t * hp, int sg_num, int ind,
  191.       int wr_xf, int * countp, unsigned char ** up);
  192. static int sg_write_xfer(Sg_request * srp);
  193. static int sg_read_xfer(Sg_request * srp);
  194. static void sg_read_oxfer(Sg_request * srp, char * outp, int num_read_xfer);
  195. static void sg_remove_scat(Sg_scatter_hold * schp);
  196. static char * sg_get_sgat_msa(Sg_scatter_hold * schp);
  197. static void sg_build_reserve(Sg_fd * sfp, int req_size);
  198. static void sg_link_reserve(Sg_fd * sfp, Sg_request * srp, int size);
  199. static void sg_unlink_reserve(Sg_fd * sfp, Sg_request * srp);
  200. static char * sg_malloc(const Sg_fd * sfp, int size, int * retSzp,
  201.                         int * mem_srcp);
  202. static void sg_free(char * buff, int size, int mem_src);
  203. static char * sg_low_malloc(int rqSz, int lowDma, int mem_src,
  204.                             int * retSzp);
  205. static void sg_low_free(char * buff, int size, int mem_src);
  206. static Sg_fd * sg_add_sfp(Sg_device * sdp, int dev);
  207. static int sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp);
  208. static void __sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp);
  209. static Sg_request * sg_get_rq_mark(Sg_fd * sfp, int pack_id);
  210. static Sg_request * sg_add_request(Sg_fd * sfp);
  211. static int sg_remove_request(Sg_fd * sfp, Sg_request * srp);
  212. static int sg_res_in_use(Sg_fd * sfp);
  213. static int sg_ms_to_jif(unsigned int msecs);
  214. static inline unsigned sg_jif_to_ms(int jifs);
  215. static int sg_allow_access(unsigned char opcode, char dev_type);
  216. static int sg_build_dir(Sg_request * srp, Sg_fd * sfp, int dxfer_len);
  217. static void sg_unmap_and(Sg_scatter_hold * schp, int free_also);
  218. static Sg_device * sg_get_dev(int dev);
  219. static inline int sg_alloc_kiovec(int nr, struct kiobuf **bufp, int *szp);
  220. static inline void sg_free_kiovec(int nr, struct kiobuf **bufp, int *szp);
  221. #ifdef CONFIG_PROC_FS
  222. static int sg_last_dev(void);
  223. #endif
  224. static Sg_device ** sg_dev_arr = NULL;
  225. #define SZ_SG_HEADER sizeof(struct sg_header)
  226. #define SZ_SG_IO_HDR sizeof(sg_io_hdr_t)
  227. #define SZ_SG_IOVEC sizeof(sg_iovec_t)
  228. #define SZ_SG_REQ_INFO sizeof(sg_req_info_t)
  229. static int sg_open(struct inode * inode, struct file * filp)
  230. {
  231.     int dev = MINOR(inode->i_rdev);
  232.     int flags = filp->f_flags;
  233.     Sg_device * sdp;
  234.     Sg_fd * sfp;
  235.     int res;
  236.     int retval = -EBUSY;
  237.     SCSI_LOG_TIMEOUT(3, printk("sg_open: dev=%d, flags=0x%xn", dev, flags));
  238.     sdp = sg_get_dev(dev);
  239.     if ((! sdp) || (! sdp->device))
  240.         return -ENXIO;
  241.     if (sdp->detached)
  242.      return -ENODEV;
  243.      /* This driver's module count bumped by fops_get in <linux/fs.h> */
  244.      /* Prevent the device driver from vanishing while we sleep */
  245.      if (sdp->device->host->hostt->module)
  246.         __MOD_INC_USE_COUNT(sdp->device->host->hostt->module);
  247.     sdp->device->access_count++;
  248.     if (! ((flags & O_NONBLOCK) ||
  249.    scsi_block_when_processing_errors(sdp->device))) {
  250.         retval = -ENXIO;
  251. /* we are in error recovery for this device */
  252. goto error_out;
  253.     }
  254.     if (flags & O_EXCL) {
  255.         if (O_RDONLY == (flags & O_ACCMODE))  {
  256.             retval = -EPERM;   /* Can't lock it with read only access */
  257.     goto error_out;
  258. }
  259. if (sdp->headfp && (flags & O_NONBLOCK))
  260.             goto error_out;
  261.         res = 0; 
  262. __wait_event_interruptible(sdp->o_excl_wait,
  263.        ((sdp->headfp || sdp->exclude) ? 0 : (sdp->exclude = 1)),
  264.                                    res);
  265.         if (res) {
  266.             retval = res; /* -ERESTARTSYS because signal hit process */
  267.     goto error_out;
  268.         }
  269.     }
  270.     else if (sdp->exclude) { /* some other fd has an exclusive lock on dev */
  271.         if (flags & O_NONBLOCK)
  272.             goto error_out;
  273.         res = 0; 
  274.         __wait_event_interruptible(sdp->o_excl_wait, (! sdp->exclude), res);
  275.         if (res) {
  276.             retval = res; /* -ERESTARTSYS because signal hit process */
  277.     goto error_out;
  278.         }
  279.     }
  280.     if (sdp->detached) {
  281.      retval = -ENODEV;
  282. goto error_out;
  283.     }
  284.     if (! sdp->headfp) { /* no existing opens on this device */
  285.         sdp->sgdebug = 0;
  286.         sdp->sg_tablesize = sdp->device->host->sg_tablesize;
  287.     }
  288.     if ((sfp = sg_add_sfp(sdp, dev)))
  289.         filp->private_data = sfp;
  290.     else {
  291.         if (flags & O_EXCL) sdp->exclude = 0; /* undo if error */
  292.         retval = -ENOMEM;
  293. goto error_out;
  294.     }
  295.     return 0;
  296. error_out:
  297.     sdp->device->access_count--;
  298.     if ((! sdp->detached) && sdp->device->host->hostt->module)
  299.         __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  300.     return retval;
  301. }
  302. /* Following function was formerly called 'sg_close' */
  303. static int sg_release(struct inode * inode, struct file * filp)
  304. {
  305.     Sg_device * sdp;
  306.     Sg_fd * sfp;
  307.     lock_kernel();
  308.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp))) {
  309. unlock_kernel();
  310.         return -ENXIO;
  311.     }
  312.     SCSI_LOG_TIMEOUT(3, printk("sg_release: dev=%dn", MINOR(sdp->i_rdev)));
  313.     sg_fasync(-1, filp, 0);   /* remove filp from async notification list */
  314.     if (0 == sg_remove_sfp(sdp, sfp)) { /* Returns 1 when sdp gone */
  315.         if (! sdp->detached) {
  316.             sdp->device->access_count--;
  317.             if (sdp->device->host->hostt->module)
  318.                 __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  319.         }
  320. sdp->exclude = 0;
  321. wake_up_interruptible(&sdp->o_excl_wait);
  322.     }
  323.     unlock_kernel();
  324.     return 0;
  325. }
  326. static ssize_t sg_read(struct file * filp, char * buf,
  327.                        size_t count, loff_t *ppos)
  328. {
  329.     int k, res;
  330.     Sg_device * sdp;
  331.     Sg_fd * sfp;
  332.     Sg_request * srp;
  333.     int req_pack_id = -1;
  334.     struct sg_header old_hdr;
  335.     sg_io_hdr_t new_hdr;
  336.     sg_io_hdr_t * hp;
  337.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  338.         return -ENXIO;
  339.     SCSI_LOG_TIMEOUT(3, printk("sg_read: dev=%d, count=%dn",
  340.                                MINOR(sdp->i_rdev), (int)count));
  341.     if (ppos != &filp->f_pos)
  342.         ; /* FIXME: Hmm.  Seek to the right place, or fail?  */
  343.     if ((k = verify_area(VERIFY_WRITE, buf, count)))
  344.         return k;
  345.     if (sfp->force_packid && (count >= SZ_SG_HEADER)) {
  346. __copy_from_user(&old_hdr, buf, SZ_SG_HEADER);
  347. if (old_hdr.reply_len < 0) {
  348.     if (count >= SZ_SG_IO_HDR) {
  349. __copy_from_user(&new_hdr, buf, SZ_SG_IO_HDR);
  350. req_pack_id = new_hdr.pack_id;
  351.     }
  352. }
  353. else
  354.     req_pack_id = old_hdr.pack_id;
  355.     }
  356.     srp = sg_get_rq_mark(sfp, req_pack_id);
  357.     if (! srp) { /* now wait on packet to arrive */
  358. if (sdp->detached)
  359.     return -ENODEV;
  360.         if (filp->f_flags & O_NONBLOCK)
  361.             return -EAGAIN;
  362. while (1) {
  363.     res = 0;  /* following is a macro that beats race condition */
  364.     __wait_event_interruptible(sfp->read_wait, (sdp->detached || 
  365.     (srp = sg_get_rq_mark(sfp, req_pack_id))), res);
  366.     if (sdp->detached)
  367. return -ENODEV;
  368.     if (0 == res)
  369. break;
  370.     return res; /* -ERESTARTSYS because signal hit process */
  371. }
  372.     }
  373.     if (srp->header.interface_id != '')
  374. return sg_new_read(sfp, buf, count, srp);
  375.     hp = &srp->header;
  376.     memset(&old_hdr, 0, SZ_SG_HEADER);
  377.     old_hdr.reply_len = (int)hp->timeout;
  378.     old_hdr.pack_len = old_hdr.reply_len;   /* very old, strange behaviour */
  379.     old_hdr.pack_id = hp->pack_id;
  380.     old_hdr.twelve_byte =
  381.     ((srp->data.cmd_opcode >= 0xc0) && (12 == hp->cmd_len)) ? 1 : 0;
  382.     old_hdr.target_status = hp->masked_status;
  383.     old_hdr.host_status = hp->host_status;
  384.     old_hdr.driver_status = hp->driver_status;
  385.     if ((CHECK_CONDITION & hp->masked_status) ||
  386. (DRIVER_SENSE & hp->driver_status))
  387. memcpy(old_hdr.sense_buffer, srp->sense_b,
  388.        sizeof(old_hdr.sense_buffer));
  389.     switch (hp->host_status)
  390.     { /* This setup of 'result' is for backward compatibility and is best
  391.  ignored by the user who should use target, host + driver status */
  392. case DID_OK:
  393. case DID_PASSTHROUGH:
  394. case DID_SOFT_ERROR:
  395.     old_hdr.result = 0;
  396.     break;
  397. case DID_NO_CONNECT:
  398. case DID_BUS_BUSY:
  399. case DID_TIME_OUT:
  400.     old_hdr.result = EBUSY;
  401.     break;
  402. case DID_BAD_TARGET:
  403. case DID_ABORT:
  404. case DID_PARITY:
  405. case DID_RESET:
  406. case DID_BAD_INTR:
  407.     old_hdr.result = EIO;
  408.     break;
  409. case DID_ERROR:
  410.     old_hdr.result =
  411.       (srp->sense_b[0] == 0 && hp->masked_status == GOOD) ? 0 : EIO;
  412.     break;
  413. default:
  414.     old_hdr.result = EIO;
  415.     break;
  416.     }
  417.     /* Now copy the result back to the user buffer.  */
  418.     if (count >= SZ_SG_HEADER) {
  419. __copy_to_user(buf, &old_hdr, SZ_SG_HEADER);
  420.         buf += SZ_SG_HEADER;
  421. if (count > old_hdr.reply_len)
  422.     count = old_hdr.reply_len;
  423. if (count > SZ_SG_HEADER)
  424.     sg_read_oxfer(srp, buf, count - SZ_SG_HEADER);
  425.     }
  426.     else
  427. count = (old_hdr.result == 0) ? 0 : -EIO;
  428.     sg_finish_rem_req(srp);
  429.     return count;
  430. }
  431. static ssize_t sg_new_read(Sg_fd * sfp, char * buf, size_t count,
  432.    Sg_request * srp)
  433. {
  434.     sg_io_hdr_t * hp = &srp->header;
  435.     int err = 0;
  436.     int len;
  437.     if (count < SZ_SG_IO_HDR) {
  438. err = -EINVAL;
  439.      goto err_out;
  440.     }
  441.     hp->sb_len_wr = 0;
  442.     if ((hp->mx_sb_len > 0) && hp->sbp) {
  443. if ((CHECK_CONDITION & hp->masked_status) ||
  444.     (DRIVER_SENSE & hp->driver_status)) {
  445.     int sb_len = sizeof(dummy_cmdp->sr_sense_buffer);
  446.     sb_len = (hp->mx_sb_len > sb_len) ? sb_len : hp->mx_sb_len;
  447.     len = 8 + (int)srp->sense_b[7]; /* Additional sense length field */
  448.     len = (len > sb_len) ? sb_len : len;
  449.     if ((err = verify_area(VERIFY_WRITE, hp->sbp, len)))
  450. goto err_out;
  451.     __copy_to_user(hp->sbp, srp->sense_b, len);
  452.     hp->sb_len_wr = len;
  453. }
  454.     }
  455.     if (hp->masked_status || hp->host_status || hp->driver_status)
  456. hp->info |= SG_INFO_CHECK;
  457.     copy_to_user(buf, hp, SZ_SG_IO_HDR);
  458.     err = sg_read_xfer(srp);
  459. err_out:
  460.     sg_finish_rem_req(srp);
  461.     return (0 == err) ? count : err;
  462. }
  463. static ssize_t sg_write(struct file * filp, const char * buf,
  464.                         size_t count, loff_t *ppos)
  465. {
  466.     int                   mxsize, cmd_size, k;
  467.     int                   input_size, blocking;
  468.     unsigned char         opcode;
  469.     Sg_device           * sdp;
  470.     Sg_fd               * sfp;
  471.     Sg_request          * srp;
  472.     struct sg_header      old_hdr;
  473.     sg_io_hdr_t         * hp;
  474.     unsigned char         cmnd[sizeof(dummy_cmdp->sr_cmnd)];
  475.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  476.         return -ENXIO;
  477.     SCSI_LOG_TIMEOUT(3, printk("sg_write: dev=%d, count=%dn",
  478.                                MINOR(sdp->i_rdev), (int)count));
  479.     if (sdp->detached)
  480.      return -ENODEV;
  481.     if (! ((filp->f_flags & O_NONBLOCK) ||
  482.            scsi_block_when_processing_errors(sdp->device)))
  483.         return -ENXIO;
  484.     if (ppos != &filp->f_pos)
  485.         ; /* FIXME: Hmm.  Seek to the right place, or fail?  */
  486.     if ((k = verify_area(VERIFY_READ, buf, count)))
  487.         return k;  /* protects following copy_from_user()s + get_user()s */
  488.     if (count < SZ_SG_HEADER)
  489. return -EIO;
  490.     __copy_from_user(&old_hdr, buf, SZ_SG_HEADER);
  491.     blocking = !(filp->f_flags & O_NONBLOCK);
  492.     if (old_hdr.reply_len < 0)
  493. return sg_new_write(sfp, buf, count, blocking, 0, NULL);
  494.     if (count < (SZ_SG_HEADER + 6))
  495. return -EIO;   /* The minimum scsi command length is 6 bytes. */
  496.     if (! (srp = sg_add_request(sfp))) {
  497. SCSI_LOG_TIMEOUT(1, printk("sg_write: queue fulln"));
  498. return -EDOM;
  499.     }
  500.     buf += SZ_SG_HEADER;
  501.     __get_user(opcode, buf);
  502.     if (sfp->next_cmd_len > 0) {
  503.         if (sfp->next_cmd_len > MAX_COMMAND_SIZE) {
  504.             SCSI_LOG_TIMEOUT(1, printk("sg_write: command length too longn"));
  505.             sfp->next_cmd_len = 0;
  506.     sg_remove_request(sfp, srp);
  507.             return -EIO;
  508.         }
  509.         cmd_size = sfp->next_cmd_len;
  510.         sfp->next_cmd_len = 0; /* reset so only this write() effected */
  511.     }
  512.     else {
  513.         cmd_size = COMMAND_SIZE(opcode); /* based on SCSI command group */
  514. if ((opcode >= 0xc0) && old_hdr.twelve_byte)
  515.             cmd_size = 12;
  516.     }
  517.     SCSI_LOG_TIMEOUT(4, printk("sg_write:   scsi opcode=0x%02x, cmd_size=%dn",
  518.                                (int)opcode, cmd_size));
  519. /* Determine buffer size.  */
  520.     input_size = count - cmd_size;
  521.     mxsize = (input_size > old_hdr.reply_len) ? input_size :
  522. old_hdr.reply_len;
  523.     mxsize -= SZ_SG_HEADER;
  524.     input_size -= SZ_SG_HEADER;
  525.     if (input_size < 0) {
  526.         sg_remove_request(sfp, srp);
  527.         return -EIO; /* User did not pass enough bytes for this command. */
  528.     }
  529.     hp = &srp->header;
  530.     hp->interface_id = ''; /* indicator of old interface tunnelled */
  531.     hp->cmd_len = (unsigned char)cmd_size;
  532.     hp->iovec_count = 0;
  533.     hp->mx_sb_len = 0;
  534.     if (input_size > 0)
  535. hp->dxfer_direction = (old_hdr.reply_len > SZ_SG_HEADER) ?
  536.       SG_DXFER_TO_FROM_DEV : SG_DXFER_TO_DEV;
  537.     else
  538. hp->dxfer_direction = (mxsize > 0) ? SG_DXFER_FROM_DEV :
  539.      SG_DXFER_NONE;
  540.     hp->dxfer_len = mxsize;
  541.     hp->dxferp = (unsigned char *)buf + cmd_size;
  542.     hp->sbp = NULL;
  543.     hp->timeout = old_hdr.reply_len;    /* structure abuse ... */
  544.     hp->flags = input_size;             /* structure abuse ... */
  545.     hp->pack_id = old_hdr.pack_id;
  546.     hp->usr_ptr = NULL;
  547.     __copy_from_user(cmnd, buf, cmd_size);
  548.     k = sg_common_write(sfp, srp, cmnd, sfp->timeout, blocking);
  549.     return (k < 0) ? k : count;
  550. }
  551. static ssize_t sg_new_write(Sg_fd * sfp, const char * buf, size_t count,
  552.     int blocking, int read_only, Sg_request ** o_srp)
  553. {
  554.     int                   k;
  555.     Sg_request          * srp;
  556.     sg_io_hdr_t         * hp;
  557.     unsigned char         cmnd[sizeof(dummy_cmdp->sr_cmnd)];
  558.     int                   timeout;
  559.     if (count < SZ_SG_IO_HDR)
  560. return -EINVAL;
  561.     if ((k = verify_area(VERIFY_READ, buf, count)))
  562. return k;  /* protects following copy_from_user()s + get_user()s */
  563.     sfp->cmd_q = 1;  /* when sg_io_hdr seen, set command queuing on */
  564.     if (! (srp = sg_add_request(sfp))) {
  565. SCSI_LOG_TIMEOUT(1, printk("sg_new_write: queue fulln"));
  566. return -EDOM;
  567.     }
  568.     hp = &srp->header;
  569.     __copy_from_user(hp, buf, SZ_SG_IO_HDR);
  570.     if (hp->interface_id != 'S') {
  571. sg_remove_request(sfp, srp);
  572. return -ENOSYS;
  573.     }
  574.     if (hp->flags & SG_FLAG_MMAP_IO) {
  575.      if (hp->dxfer_len > sfp->reserve.bufflen) {
  576.     sg_remove_request(sfp, srp);
  577.     return -ENOMEM; /* MMAP_IO size must fit in reserve buffer */
  578. }
  579. if (hp->flags & SG_FLAG_DIRECT_IO) {
  580.     sg_remove_request(sfp, srp);
  581.     return -EINVAL; /* either MMAP_IO or DIRECT_IO (not both) */
  582. }
  583. if (sg_res_in_use(sfp)) {
  584.     sg_remove_request(sfp, srp);
  585.     return -EBUSY; /* reserve buffer already being used */
  586. }
  587.     }
  588.     timeout = sg_ms_to_jif(srp->header.timeout);
  589.     if ((! hp->cmdp) || (hp->cmd_len < 6) || (hp->cmd_len > sizeof(cmnd))) {
  590. sg_remove_request(sfp, srp);
  591. return -EMSGSIZE;
  592.     }
  593.     if ((k = verify_area(VERIFY_READ, hp->cmdp, hp->cmd_len))) {
  594. sg_remove_request(sfp, srp);
  595. return k;  /* protects following copy_from_user()s + get_user()s */
  596.     }
  597.     __copy_from_user(cmnd, hp->cmdp, hp->cmd_len);
  598.     if (read_only &&
  599. (! sg_allow_access(cmnd[0], sfp->parentdp->device->type))) {
  600. sg_remove_request(sfp, srp);
  601. return -EPERM;
  602.     }
  603.     k = sg_common_write(sfp, srp, cmnd, timeout, blocking);
  604.     if (k < 0) return k;
  605.     if (o_srp) *o_srp = srp;
  606.     return count;
  607. }
  608. static int sg_common_write(Sg_fd * sfp, Sg_request * srp,
  609.    unsigned char * cmnd, int timeout, int blocking)
  610. {
  611.     int                   k;
  612.     Scsi_Request        * SRpnt;
  613.     Sg_device           * sdp = sfp->parentdp;
  614.     sg_io_hdr_t         * hp = &srp->header;
  615.     request_queue_t * q;
  616.     srp->data.cmd_opcode = cmnd[0];  /* hold opcode of command */
  617.     hp->status = 0;
  618.     hp->masked_status = 0;
  619.     hp->msg_status = 0;
  620.     hp->info = 0;
  621.     hp->host_status = 0;
  622.     hp->driver_status = 0;
  623.     hp->resid = 0;
  624.     SCSI_LOG_TIMEOUT(4,
  625. printk("sg_common_write:  scsi opcode=0x%02x, cmd_size=%dn",
  626.        (int)cmnd[0], (int)hp->cmd_len));
  627.     if ((k = sg_start_req(srp))) {
  628. SCSI_LOG_TIMEOUT(1, printk("sg_write: start_req err=%dn", k));
  629. sg_finish_rem_req(srp);
  630.         return k;    /* probably out of space --> ENOMEM */
  631.     }
  632.     if ((k = sg_write_xfer(srp))) {
  633. SCSI_LOG_TIMEOUT(1, printk("sg_write: write_xfer, bad addressn"));
  634. sg_finish_rem_req(srp);
  635. return k;
  636.     }
  637.     if (sdp->detached) {
  638.      sg_finish_rem_req(srp);
  639.      return -ENODEV;
  640.     }
  641.     SRpnt = scsi_allocate_request(sdp->device);
  642.     if(SRpnt == NULL) {
  643.      SCSI_LOG_TIMEOUT(1, printk("sg_write: no memn"));
  644.      sg_finish_rem_req(srp);
  645.      return -ENOMEM;
  646.     }
  647.     srp->my_cmdp = SRpnt;
  648.     q = &SRpnt->sr_device->request_queue;
  649.     SRpnt->sr_request.rq_dev = sdp->i_rdev;
  650.     SRpnt->sr_request.rq_status = RQ_ACTIVE;
  651.     SRpnt->sr_sense_buffer[0] = 0;
  652.     SRpnt->sr_cmd_len = hp->cmd_len;
  653.     if (! (hp->flags & SG_FLAG_LUN_INHIBIT)) {
  654. if (sdp->device->scsi_level <= SCSI_2)
  655.     cmnd[1] = (cmnd[1] & 0x1f) | (sdp->device->lun << 5);
  656.     }
  657.     SRpnt->sr_use_sg = srp->data.k_use_sg;
  658.     SRpnt->sr_sglist_len = srp->data.sglist_len;
  659.     SRpnt->sr_bufflen = srp->data.bufflen;
  660.     SRpnt->sr_underflow = 0;
  661.     SRpnt->sr_buffer = srp->data.buffer;
  662.     switch (hp->dxfer_direction) {
  663.     case SG_DXFER_TO_FROM_DEV:
  664.     case SG_DXFER_FROM_DEV:
  665. SRpnt->sr_data_direction = SCSI_DATA_READ; break;
  666.     case SG_DXFER_TO_DEV:
  667. SRpnt->sr_data_direction = SCSI_DATA_WRITE; break;
  668.     case SG_DXFER_UNKNOWN:
  669. SRpnt->sr_data_direction = SCSI_DATA_UNKNOWN; break;
  670.     default:
  671. SRpnt->sr_data_direction = SCSI_DATA_NONE; break;
  672.     }
  673.     srp->data.k_use_sg = 0;
  674.     srp->data.sglist_len = 0;
  675.     srp->data.bufflen = 0;
  676.     srp->data.buffer = NULL;
  677.     hp->duration = jiffies; /* unit jiffies now, millisecs after done */
  678. /* Now send everything of to mid-level. The next time we hear about this
  679.    packet is when sg_cmd_done_bh() is called (i.e. a callback). */
  680.     scsi_do_req(SRpnt, (void *)cmnd,
  681. (void *)SRpnt->sr_buffer, hp->dxfer_len,
  682. sg_cmd_done_bh, timeout, SG_DEFAULT_RETRIES);
  683.     /* dxfer_len overwrites SRpnt->sr_bufflen, hence need for b_malloc_len */
  684. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,1)
  685.     generic_unplug_device(q);
  686. #endif
  687.     return 0;
  688. }
  689. static int sg_ioctl(struct inode * inode, struct file * filp,
  690.                     unsigned int cmd_in, unsigned long arg)
  691. {
  692.     int result, val, read_only;
  693.     Sg_device * sdp;
  694.     Sg_fd * sfp;
  695.     Sg_request * srp;
  696.     unsigned long iflags;
  697.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  698.         return -ENXIO;
  699.     SCSI_LOG_TIMEOUT(3, printk("sg_ioctl: dev=%d, cmd=0x%xn",
  700.                                MINOR(sdp->i_rdev), (int)cmd_in));
  701.     read_only = (O_RDWR != (filp->f_flags & O_ACCMODE));
  702.     switch(cmd_in)
  703.     {
  704.     case SG_IO:
  705. {
  706.     int blocking = 1;   /* ignore O_NONBLOCK flag */
  707.     if (sdp->detached)
  708. return -ENODEV;
  709.     if(! scsi_block_when_processing_errors(sdp->device) )
  710. return -ENXIO;
  711.     result = verify_area(VERIFY_WRITE, (void *)arg, SZ_SG_IO_HDR);
  712.     if (result) return result;
  713.     result = sg_new_write(sfp, (const char *)arg, SZ_SG_IO_HDR,
  714.   blocking, read_only, &srp);
  715.     if (result < 0) return result;
  716.     srp->sg_io_owned = 1;
  717.     while (1) {
  718. result = 0;  /* following macro to beat race condition */
  719. __wait_event_interruptible(sfp->read_wait,
  720.        (sdp->detached || sfp->closed || srp->done), result);
  721. if (sdp->detached)
  722.     return -ENODEV;
  723. if (sfp->closed)
  724.     return 0;       /* request packet dropped already */
  725. if (0 == result)
  726.     break;
  727. srp->orphan = 1;
  728. return result; /* -ERESTARTSYS because signal hit process */
  729.     }
  730.     srp->done = 2;
  731.     result = sg_new_read(sfp, (char *)arg, SZ_SG_IO_HDR, srp);
  732.     return (result < 0) ? result : 0;
  733. }
  734.     case SG_SET_TIMEOUT:
  735.         result =  get_user(val, (int *)arg);
  736.         if (result) return result;
  737.         if (val < 0)
  738.             return -EIO;
  739.         sfp->timeout = val;
  740.         return 0;
  741.     case SG_GET_TIMEOUT:  /* N.B. User receives timeout as return value */
  742.         return sfp->timeout; /* strange ..., for backward compatibility */
  743.     case SG_SET_FORCE_LOW_DMA:
  744.         result = get_user(val, (int *)arg);
  745.         if (result) return result;
  746.         if (val) {
  747.             sfp->low_dma = 1;
  748.             if ((0 == sfp->low_dma) && (0 == sg_res_in_use(sfp))) {
  749.                 val = (int)sfp->reserve.bufflen;
  750.                 sg_remove_scat(&sfp->reserve);
  751.                 sg_build_reserve(sfp, val);
  752.             }
  753.         }
  754.         else {
  755.     if (sdp->detached)
  756. return -ENODEV;
  757.             sfp->low_dma = sdp->device->host->unchecked_isa_dma;
  758. }
  759.         return 0;
  760.     case SG_GET_LOW_DMA:
  761.         return put_user((int)sfp->low_dma, (int *)arg);
  762.     case SG_GET_SCSI_ID:
  763. result = verify_area(VERIFY_WRITE, (void *)arg, sizeof(sg_scsi_id_t));
  764.         if (result) return result;
  765.         else {
  766.     sg_scsi_id_t * sg_idp = (sg_scsi_id_t *)arg;
  767.     if (sdp->detached)
  768. return -ENODEV;
  769.             __put_user((int)sdp->device->host->host_no, &sg_idp->host_no);
  770.             __put_user((int)sdp->device->channel, &sg_idp->channel);
  771.             __put_user((int)sdp->device->id, &sg_idp->scsi_id);
  772.             __put_user((int)sdp->device->lun, &sg_idp->lun);
  773.             __put_user((int)sdp->device->type, &sg_idp->scsi_type);
  774.     __put_user((short)sdp->device->host->cmd_per_lun,
  775.                        &sg_idp->h_cmd_per_lun);
  776.     __put_user((short)sdp->device->queue_depth,
  777.                        &sg_idp->d_queue_depth);
  778.     __put_user(0, &sg_idp->unused[0]);
  779.     __put_user(0, &sg_idp->unused[1]);
  780.             return 0;
  781.         }
  782.     case SG_SET_FORCE_PACK_ID:
  783.         result = get_user(val, (int *)arg);
  784.         if (result) return result;
  785.         sfp->force_packid = val ? 1 : 0;
  786.         return 0;
  787.     case SG_GET_PACK_ID:
  788.         result = verify_area(VERIFY_WRITE, (void *) arg, sizeof(int));
  789.         if (result) return result;
  790. read_lock_irqsave(&sfp->rq_list_lock, iflags);
  791. for (srp = sfp->headrp; srp; srp = srp->nextrp) {
  792.     if ((1 == srp->done) && (! srp->sg_io_owned)) {
  793. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  794.                 __put_user(srp->header.pack_id, (int *)arg);
  795.                 return 0;
  796.             }
  797.         }
  798. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  799.         __put_user(-1, (int *)arg);
  800.         return 0;
  801.     case SG_GET_NUM_WAITING:
  802. read_lock_irqsave(&sfp->rq_list_lock, iflags);
  803.         for (val = 0, srp = sfp->headrp; srp; srp = srp->nextrp) {
  804.     if ((1 == srp->done) && (! srp->sg_io_owned))
  805.                 ++val;
  806.         }
  807. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  808.         return put_user(val, (int *)arg);
  809.     case SG_GET_SG_TABLESIZE:
  810.         return put_user(sdp->sg_tablesize, (int *)arg);
  811.     case SG_SET_RESERVED_SIZE:
  812.         result = get_user(val, (int *)arg);
  813.         if (result) return result;
  814.         if (val != sfp->reserve.bufflen) {
  815.             if (sg_res_in_use(sfp) || sfp->mmap_called)
  816.                 return -EBUSY;
  817.             sg_remove_scat(&sfp->reserve);
  818.             sg_build_reserve(sfp, val);
  819.         }
  820.         return 0;
  821.     case SG_GET_RESERVED_SIZE:
  822.         val = (int)sfp->reserve.bufflen;
  823.         return put_user(val, (int *)arg);
  824.     case SG_SET_COMMAND_Q:
  825.         result = get_user(val, (int *)arg);
  826.         if (result) return result;
  827.         sfp->cmd_q = val ? 1 : 0;
  828.         return 0;
  829.     case SG_GET_COMMAND_Q:
  830.         return put_user((int)sfp->cmd_q, (int *)arg);
  831.     case SG_SET_KEEP_ORPHAN:
  832.         result = get_user(val, (int *)arg);
  833.         if (result) return result;
  834. sfp->keep_orphan = val;
  835.         return 0;
  836.     case SG_GET_KEEP_ORPHAN:
  837. return put_user((int)sfp->keep_orphan, (int *)arg);
  838.     case SG_NEXT_CMD_LEN:
  839.         result = get_user(val, (int *)arg);
  840.         if (result) return result;
  841.         sfp->next_cmd_len = (val > 0) ? val : 0;
  842.         return 0;
  843.     case SG_GET_VERSION_NUM:
  844.         return put_user(sg_version_num, (int *)arg);
  845.     case SG_GET_ACCESS_COUNT:
  846.      val = (sdp->device ? sdp->device->access_count : 0);
  847. return put_user(val, (int *)arg);
  848.     case SG_GET_REQUEST_TABLE:
  849. result = verify_area(VERIFY_WRITE, (void *) arg,
  850.      SZ_SG_REQ_INFO * SG_MAX_QUEUE);
  851. if (result) return result;
  852. else {
  853.     sg_req_info_t rinfo[SG_MAX_QUEUE];
  854.     Sg_request * srp;
  855.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  856.     for (srp = sfp->headrp, val = 0; val < SG_MAX_QUEUE;
  857.  ++val, srp = srp ? srp->nextrp : srp) {
  858. memset(&rinfo[val], 0, SZ_SG_REQ_INFO);
  859. if (srp) {
  860.     rinfo[val].req_state = srp->done + 1;
  861.     rinfo[val].problem = srp->header.masked_status &
  862. srp->header.host_status & srp->header.driver_status;
  863.     rinfo[val].duration = srp->done ?
  864.     srp->header.duration :
  865.     sg_jif_to_ms(jiffies - srp->header.duration);
  866.     rinfo[val].orphan = srp->orphan;
  867.     rinfo[val].sg_io_owned = srp->sg_io_owned;
  868.     rinfo[val].pack_id = srp->header.pack_id;
  869.     rinfo[val].usr_ptr = srp->header.usr_ptr;
  870. }
  871.     }
  872.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  873.     __copy_to_user((void *)arg, rinfo, SZ_SG_REQ_INFO * SG_MAX_QUEUE);
  874.     return 0;
  875. }
  876.     case SG_EMULATED_HOST:
  877. if (sdp->detached)
  878.     return -ENODEV;
  879.         return put_user(sdp->device->host->hostt->emulated, (int *)arg);
  880.     case SG_SCSI_RESET:
  881. if (sdp->detached)
  882.     return -ENODEV;
  883.         if (filp->f_flags & O_NONBLOCK) {
  884.     if (sdp->device->host->in_recovery)
  885. return -EBUSY;
  886. }
  887. else if (! scsi_block_when_processing_errors(sdp->device))
  888.             return -EBUSY;
  889.         result = get_user(val, (int *)arg);
  890.         if (result) return result;
  891. if (SG_SCSI_RESET_NOTHING == val)
  892.     return 0;
  893. #ifdef SCSI_TRY_RESET_DEVICE
  894. switch (val)
  895. {
  896. case SG_SCSI_RESET_DEVICE:
  897.     val = SCSI_TRY_RESET_DEVICE;
  898.     break;
  899. case SG_SCSI_RESET_BUS:
  900.     val = SCSI_TRY_RESET_BUS;
  901.     break;
  902. case SG_SCSI_RESET_HOST:
  903.     val = SCSI_TRY_RESET_HOST;
  904.     break;
  905. default:
  906.     return -EINVAL;
  907. }
  908. if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  909.     return -EACCES;
  910. return (scsi_reset_provider(sdp->device, val) == SUCCESS) ? 0 : -EIO;
  911. #else
  912. SCSI_LOG_TIMEOUT(1, printk("sg_ioctl: SG_RESET_SCSI not supportedn"));
  913. result = -EINVAL;
  914. #endif
  915.     case SCSI_IOCTL_SEND_COMMAND:
  916. if (sdp->detached)
  917.     return -ENODEV;
  918. if (read_only) {
  919.     unsigned char opcode = WRITE_6;
  920.     Scsi_Ioctl_Command * siocp = (void *)arg;
  921.     copy_from_user(&opcode, siocp->data, 1);
  922.     if (! sg_allow_access(opcode, sdp->device->type))
  923. return -EPERM;
  924. }
  925.         return scsi_ioctl_send_command(sdp->device, (void *)arg);
  926.     case SG_SET_DEBUG:
  927.         result = get_user(val, (int *)arg);
  928.         if (result) return result;
  929.         sdp->sgdebug = (char)val;
  930.         return 0;
  931.     case SCSI_IOCTL_GET_IDLUN:
  932.     case SCSI_IOCTL_GET_BUS_NUMBER:
  933.     case SCSI_IOCTL_PROBE_HOST:
  934.     case SG_GET_TRANSFORM:
  935. if (sdp->detached)
  936.     return -ENODEV;
  937.         return scsi_ioctl(sdp->device, cmd_in, (void *)arg);
  938.     default:
  939. if (read_only)
  940.             return -EPERM; /* don't know so take safe approach */
  941.         return scsi_ioctl(sdp->device, cmd_in, (void *)arg);
  942.     }
  943. }
  944. static unsigned int sg_poll(struct file * filp, poll_table * wait)
  945. {
  946.     unsigned int res = 0;
  947.     Sg_device * sdp;
  948.     Sg_fd * sfp;
  949.     Sg_request * srp;
  950.     int count = 0;
  951.     unsigned long iflags;
  952.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp))
  953.      || sfp->closed)
  954.         return POLLERR;
  955.     poll_wait(filp, &sfp->read_wait, wait);
  956.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  957.     for (srp = sfp->headrp; srp; srp = srp->nextrp) {   
  958.      /* if any read waiting, flag it */
  959. if ((0 == res) && (1 == srp->done) && (! srp->sg_io_owned))
  960.             res = POLLIN | POLLRDNORM;
  961.         ++count;
  962.     }
  963.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  964.     if (sdp->detached)
  965. res |= POLLHUP;
  966.     else if (! sfp->cmd_q) {
  967.         if (0 == count)
  968.             res |= POLLOUT | POLLWRNORM;
  969.     }
  970.     else if (count < SG_MAX_QUEUE)
  971.         res |= POLLOUT | POLLWRNORM;
  972.     SCSI_LOG_TIMEOUT(3, printk("sg_poll: dev=%d, res=0x%xn",
  973.                         MINOR(sdp->i_rdev), (int)res));
  974.     return res;
  975. }
  976. static int sg_fasync(int fd, struct file * filp, int mode)
  977. {
  978.     int retval;
  979.     Sg_device * sdp;
  980.     Sg_fd * sfp;
  981.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  982.         return -ENXIO;
  983.     SCSI_LOG_TIMEOUT(3, printk("sg_fasync: dev=%d, mode=%dn",
  984.                                MINOR(sdp->i_rdev), mode));
  985.     retval = fasync_helper(fd, filp, mode, &sfp->async_qp);
  986.     return (retval < 0) ? retval : 0;
  987. }
  988. static void sg_rb_correct4mmap(Sg_scatter_hold * rsv_schp, int startFinish)
  989. {
  990.     void * page_ptr;
  991.     struct page * page;
  992.     int k, m;
  993.     SCSI_LOG_TIMEOUT(3, printk("sg_rb_correct4mmap: startFinish=%d, "
  994.    "scatg=%dn", startFinish, rsv_schp->k_use_sg)); 
  995.     /* N.B. correction _not_ applied to base page of aech allocation */
  996.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  997.         struct scatterlist * sclp = rsv_schp->buffer;
  998.         for (k = 0; k < rsv_schp->k_use_sg; ++k, ++sclp) {
  999.     for (m = PAGE_SIZE; m < sclp->length; m += PAGE_SIZE) {
  1000. page_ptr = (unsigned char *)sclp->address + m;
  1001. page = virt_to_page(page_ptr);
  1002. if (startFinish)
  1003.     get_page(page); /* increment page count */
  1004. else {
  1005.     if (page_count(page) > 0)
  1006. put_page_testzero(page); /* decrement page count */
  1007. }
  1008.     }
  1009.         }
  1010.     }
  1011.     else { /* reserve buffer is just a single allocation */
  1012. for (m = PAGE_SIZE; m < rsv_schp->bufflen; m += PAGE_SIZE) {
  1013.     page_ptr = (unsigned char *)rsv_schp->buffer + m;
  1014.     page = virt_to_page(page_ptr);
  1015.     if (startFinish)
  1016. get_page(page); /* increment page count */
  1017.     else {
  1018. if (page_count(page) > 0)
  1019.     put_page_testzero(page); /* decrement page count */
  1020.     }
  1021. }
  1022.     }
  1023. }
  1024. static struct page * sg_vma_nopage(struct vm_area_struct *vma, 
  1025.    unsigned long addr, int unused)
  1026. {
  1027.     Sg_fd * sfp;
  1028.     struct page * page = NOPAGE_SIGBUS;
  1029.     void * page_ptr = NULL;
  1030.     unsigned long offset;
  1031.     Sg_scatter_hold * rsv_schp;
  1032.     if ((NULL == vma) || (! (sfp = (Sg_fd *)vma->vm_private_data)))
  1033. return page;
  1034.     rsv_schp = &sfp->reserve;
  1035.     offset = addr - vma->vm_start;
  1036.     if (offset >= rsv_schp->bufflen)
  1037. return page;
  1038.     SCSI_LOG_TIMEOUT(3, printk("sg_vma_nopage: offset=%lu, scatg=%dn", 
  1039.        offset, rsv_schp->k_use_sg));
  1040.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  1041.         int k;
  1042.         unsigned long sa = vma->vm_start;
  1043.         unsigned long len;
  1044.         struct scatterlist * sclp = rsv_schp->buffer;
  1045.         for (k = 0; (k < rsv_schp->k_use_sg) && (sa < vma->vm_end);
  1046.              ++k, ++sclp) {
  1047.             len = vma->vm_end - sa;
  1048.             len = (len < sclp->length) ? len : sclp->length;
  1049.     if (offset < len) {
  1050. page_ptr = (unsigned char *)sclp->address + offset;
  1051. page = virt_to_page(page_ptr);
  1052. get_page(page); /* increment page count */
  1053. break;
  1054.     }
  1055.             sa += len;
  1056.     offset -= len;
  1057.         }
  1058.     }
  1059.     else { /* reserve buffer is just a single allocation */
  1060.         page_ptr = (unsigned char *)rsv_schp->buffer + offset;
  1061. page = virt_to_page(page_ptr);
  1062. get_page(page); /* increment page count */
  1063.     }
  1064.     return page;
  1065. }
  1066. static struct vm_operations_struct sg_mmap_vm_ops = {
  1067.     nopage : sg_vma_nopage,
  1068. };
  1069. static int sg_mmap(struct file * filp, struct vm_area_struct *vma)
  1070. {
  1071.     Sg_fd * sfp;
  1072.     unsigned long req_sz = vma->vm_end - vma->vm_start;
  1073.     Sg_scatter_hold * rsv_schp;
  1074.     if ((! filp) || (! vma) || (! (sfp = (Sg_fd *)filp->private_data)))
  1075.         return -ENXIO;
  1076.     SCSI_LOG_TIMEOUT(3, printk("sg_mmap starting, vm_start=%p, len=%dn", 
  1077.        (void *)vma->vm_start, (int)req_sz));
  1078.     if (vma->vm_pgoff)
  1079.      return -EINVAL; /* want no offset */
  1080.     rsv_schp = &sfp->reserve;
  1081.     if (req_sz > rsv_schp->bufflen)
  1082.      return -ENOMEM; /* cannot map more than reserved buffer */
  1083.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  1084.      int k;
  1085. unsigned long sa = vma->vm_start;
  1086. unsigned long len;
  1087. struct scatterlist * sclp = rsv_schp->buffer;
  1088. for (k = 0; (k < rsv_schp->k_use_sg) && (sa < vma->vm_end); 
  1089.      ++k, ++sclp) {
  1090.     if ((unsigned long)sclp->address & (PAGE_SIZE - 1))
  1091.      return -EFAULT;     /* non page aligned memory ?? */
  1092.     len = vma->vm_end - sa;
  1093.     len = (len < sclp->length) ? len : sclp->length;
  1094.     sa += len;
  1095. }
  1096.     }
  1097.     else { /* reserve buffer is just a single allocation */
  1098.      if ((unsigned long)rsv_schp->buffer & (PAGE_SIZE - 1))
  1099.     return -EFAULT; /* non page aligned memory ?? */
  1100.     }
  1101.     if (0 == sfp->mmap_called) {
  1102.      sg_rb_correct4mmap(rsv_schp, 1);  /* do only once per fd lifetime */
  1103. sfp->mmap_called = 1;
  1104.     }
  1105.     vma->vm_flags |= (VM_RESERVED | VM_IO);
  1106.     vma->vm_private_data = sfp;
  1107.     vma->vm_ops = &sg_mmap_vm_ops;
  1108.     return 0;
  1109. }
  1110. /* This function is a "bottom half" handler that is called by the
  1111.  * mid level when a command is completed (or has failed). */
  1112. static void sg_cmd_done_bh(Scsi_Cmnd * SCpnt)
  1113. {
  1114.     Scsi_Request * SRpnt = SCpnt->sc_request;
  1115.     int dev = MINOR(SRpnt->sr_request.rq_dev);
  1116.     Sg_device * sdp = NULL;
  1117.     Sg_fd * sfp;
  1118.     Sg_request * srp = NULL;
  1119.     read_lock(&sg_dev_arr_lock);
  1120.     if (sg_dev_arr && (dev >= 0)) {
  1121. if (dev < sg_template.dev_max)
  1122.     sdp = sg_dev_arr[dev];
  1123.     }
  1124.     if ((NULL == sdp) || sdp->detached) {
  1125. read_unlock(&sg_dev_arr_lock);
  1126. SCSI_LOG_TIMEOUT(1, printk("sg...bh: dev=%d gonen", dev));
  1127.         scsi_release_request(SRpnt);
  1128.         SRpnt = NULL;
  1129.         return;
  1130.     }
  1131.     sfp = sdp->headfp;
  1132.     while (sfp) {
  1133. read_lock(&sfp->rq_list_lock);
  1134. for (srp = sfp->headrp; srp; srp = srp->nextrp) {
  1135.             if (SRpnt == srp->my_cmdp)
  1136.                 break;
  1137.         }
  1138. read_unlock(&sfp->rq_list_lock);
  1139.         if (srp)
  1140.             break;
  1141.         sfp = sfp->nextfp;
  1142.     }
  1143.     if (! srp) {
  1144. read_unlock(&sg_dev_arr_lock);
  1145. SCSI_LOG_TIMEOUT(1, printk("sg...bh: req missing, dev=%dn", dev));
  1146.         scsi_release_request(SRpnt);
  1147.         SRpnt = NULL;
  1148.         return;
  1149.     }
  1150.     /* First transfer ownership of data buffers to sg_device object. */
  1151.     srp->data.k_use_sg = SRpnt->sr_use_sg;
  1152.     srp->data.sglist_len = SRpnt->sr_sglist_len;
  1153.     srp->data.bufflen = SRpnt->sr_bufflen;
  1154.     srp->data.buffer = SRpnt->sr_buffer;
  1155.     /* now clear out request structure */
  1156.     SRpnt->sr_use_sg = 0;
  1157.     SRpnt->sr_sglist_len = 0;
  1158.     SRpnt->sr_bufflen = 0;
  1159.     SRpnt->sr_buffer = NULL;
  1160.     SRpnt->sr_underflow = 0;
  1161.     SRpnt->sr_request.rq_dev = MKDEV(0, 0);  /* "sg" _disowns_ request blk */
  1162.     srp->my_cmdp = NULL;
  1163.     srp->done = 1;
  1164.     read_unlock(&sg_dev_arr_lock);
  1165.     SCSI_LOG_TIMEOUT(4, printk("sg...bh: dev=%d, pack_id=%d, res=0x%xn",
  1166.      dev, srp->header.pack_id, (int)SRpnt->sr_result));
  1167.     srp->header.resid = SCpnt->resid;
  1168.     /* sg_unmap_and(&srp->data, 0); */     /* unmap locked pages a.s.a.p. */
  1169.     /* N.B. unit of duration changes here from jiffies to millisecs */
  1170.     srp->header.duration = sg_jif_to_ms(jiffies - (int)srp->header.duration);
  1171.     if (0 != SRpnt->sr_result) {
  1172. memcpy(srp->sense_b, SRpnt->sr_sense_buffer, sizeof(srp->sense_b));
  1173. srp->header.status = 0xff & SRpnt->sr_result;
  1174. srp->header.masked_status  = status_byte(SRpnt->sr_result);
  1175. srp->header.msg_status  = msg_byte(SRpnt->sr_result);
  1176. srp->header.host_status = host_byte(SRpnt->sr_result);
  1177. srp->header.driver_status = driver_byte(SRpnt->sr_result);
  1178. if ((sdp->sgdebug > 0) &&
  1179.     ((CHECK_CONDITION == srp->header.masked_status) ||
  1180.      (COMMAND_TERMINATED == srp->header.masked_status)))
  1181.     print_req_sense("sg_cmd_done_bh", SRpnt);
  1182. /* Following if statement is a patch supplied by Eric Youngdale */
  1183. if (driver_byte(SRpnt->sr_result) != 0
  1184.     && (SRpnt->sr_sense_buffer[0] & 0x7f) == 0x70
  1185.     && (SRpnt->sr_sense_buffer[2] & 0xf) == UNIT_ATTENTION
  1186.     && sdp->device->removable) {
  1187.     /* Detected disc change. Set the bit - this may be used if */
  1188.     /* there are filesystems using this device. */
  1189.     sdp->device->changed = 1;
  1190. }
  1191.     }
  1192.     /* Rely on write phase to clean out srp status values, so no "else" */
  1193.     scsi_release_request(SRpnt);
  1194.     SRpnt = NULL;
  1195.     if (sfp->closed) { /* whoops this fd already released, cleanup */
  1196.         SCSI_LOG_TIMEOUT(1,
  1197.        printk("sg...bh: already closed, freeing ...n"));
  1198. sg_finish_rem_req(srp);
  1199. srp = NULL;
  1200. if (NULL == sfp->headrp) {
  1201.             SCSI_LOG_TIMEOUT(1,
  1202. printk("sg...bh: already closed, final cleanupn"));
  1203.             if (0 == sg_remove_sfp(sdp, sfp)) { /* device still present */
  1204. sdp->device->access_count--;
  1205. if (sdp->device->host->hostt->module)
  1206.     __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  1207.     }
  1208.     if (sg_template.module)
  1209.     __MOD_DEC_USE_COUNT(sg_template.module);
  1210.     sfp = NULL;
  1211.         }
  1212.     }
  1213.     else if (srp && srp->orphan) {
  1214. if (sfp->keep_orphan)
  1215.     srp->sg_io_owned = 0;
  1216. else {
  1217.     sg_finish_rem_req(srp);
  1218.     srp = NULL;
  1219.         }
  1220.     }
  1221.     if (sfp && srp) {
  1222. /* Now wake up any sg_read() that is waiting for this packet. */
  1223. wake_up_interruptible(&sfp->read_wait);
  1224. kill_fasync(&sfp->async_qp, SIGPOLL, POLL_IN);
  1225.     }
  1226. }
  1227. static struct file_operations sg_fops = {
  1228. owner: THIS_MODULE,
  1229. read: sg_read,
  1230. write: sg_write,
  1231. poll: sg_poll,
  1232. ioctl: sg_ioctl,
  1233. open: sg_open,
  1234. mmap: sg_mmap,
  1235. release: sg_release,
  1236. fasync: sg_fasync,
  1237. };
  1238. static int sg_detect(Scsi_Device * scsidp)
  1239. {
  1240.     sg_template.dev_noticed++;
  1241.     return 1;
  1242. }
  1243. /* Driver initialization */
  1244. static int sg_init()
  1245. {
  1246.     static int sg_registered = 0;
  1247.     unsigned long iflags;
  1248.     if ((sg_template.dev_noticed == 0) || sg_dev_arr)
  1249.      return 0;
  1250.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1251.     if(!sg_registered) {
  1252. if (devfs_register_chrdev(SCSI_GENERIC_MAJOR,"sg",&sg_fops))
  1253.         {
  1254.             printk(KERN_ERR "Unable to get major %d for generic SCSI devicen",
  1255.                    SCSI_GENERIC_MAJOR);
  1256.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1257.             sg_template.dev_noticed = 0;
  1258.             return 1;
  1259.         }
  1260.         sg_registered++;
  1261.     }
  1262.     SCSI_LOG_TIMEOUT(3, printk("sg_initn"));
  1263.     sg_template.dev_max = sg_template.dev_noticed + SG_DEV_ARR_LUMP;
  1264.     sg_dev_arr = (Sg_device **)kmalloc(sg_template.dev_max * 
  1265.      sizeof(Sg_device *), GFP_ATOMIC);
  1266.     if (NULL == sg_dev_arr) {
  1267.         printk(KERN_ERR "sg_init: no space for sg_dev_arrn");
  1268. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1269.         sg_template.dev_noticed = 0;
  1270.         return 1;
  1271.     }
  1272.     memset(sg_dev_arr, 0, sg_template.dev_max * sizeof(Sg_device *));
  1273.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1274. #ifdef CONFIG_PROC_FS
  1275.     sg_proc_init();
  1276. #endif  /* CONFIG_PROC_FS */
  1277.     return 0;
  1278. }
  1279. #ifndef MODULE
  1280. static int __init sg_def_reserved_size_setup(char *str)
  1281. {
  1282.     int tmp;
  1283.     if (get_option(&str, &tmp) == 1) {
  1284. def_reserved_size = tmp;
  1285. if (tmp >= 0)
  1286.     sg_big_buff = tmp;
  1287. return 1;
  1288.     } else {
  1289. printk(KERN_WARNING "sg_def_reserved_size : usage "
  1290.     "sg_def_reserved_size=n (n could be 65536, 131072 or 262144)n");
  1291. return 0;
  1292.     }
  1293. }
  1294. __setup("sg_def_reserved_size=", sg_def_reserved_size_setup);
  1295. #endif
  1296. static int sg_attach(Scsi_Device * scsidp)
  1297. {
  1298.     Sg_device * sdp;
  1299.     unsigned long iflags;
  1300.     int k;
  1301.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1302.     if (sg_template.nr_dev >= sg_template.dev_max) { /* try to resize */
  1303.      Sg_device ** tmp_da;
  1304. int tmp_dev_max = sg_template.nr_dev + SG_DEV_ARR_LUMP;
  1305. tmp_da = (Sg_device **)kmalloc(tmp_dev_max * 
  1306.      sizeof(Sg_device *), GFP_ATOMIC);
  1307. if (NULL == tmp_da) {
  1308.     scsidp->attached--;
  1309.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1310.     printk(KERN_ERR "sg_attach: device array cannot be resizedn");
  1311.     return 1;
  1312. }
  1313. memset(tmp_da, 0, tmp_dev_max * sizeof(Sg_device *));
  1314. memcpy(tmp_da, sg_dev_arr, sg_template.dev_max * sizeof(Sg_device *));
  1315. kfree((char *)sg_dev_arr);
  1316. sg_dev_arr = tmp_da;
  1317. sg_template.dev_max = tmp_dev_max;
  1318.     }
  1319.     for(k = 0; k < sg_template.dev_max; k++)
  1320.         if(! sg_dev_arr[k]) break;
  1321.     if (k > MINORMASK) {
  1322. scsidp->attached--;
  1323. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1324. printk(KERN_WARNING "Unable to attach sg device <%d, %d, %d, %d>"
  1325.        " type=%d, minor number exceed %dn", scsidp->host->host_no, 
  1326.        scsidp->channel, scsidp->id, scsidp->lun, scsidp->type,
  1327.        MINORMASK);
  1328. return 1;
  1329.     }
  1330.     if(k < sg_template.dev_max)
  1331.      sdp = (Sg_device *)kmalloc(sizeof(Sg_device), GFP_ATOMIC);
  1332.     else
  1333.      sdp = NULL;
  1334.     if (NULL == sdp) {
  1335. scsidp->attached--;
  1336. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1337. printk(KERN_ERR "sg_attach: Sg_device cannot be allocatedn");
  1338. return 1;
  1339.     }
  1340.     SCSI_LOG_TIMEOUT(3, printk("sg_attach: dev=%d n", k));
  1341.     sdp->device = scsidp;
  1342.     init_waitqueue_head(&sdp->o_excl_wait);
  1343.     sdp->headfp= NULL;
  1344.     sdp->exclude = 0;
  1345.     sdp->sgdebug = 0;
  1346.     sdp->detached = 0;
  1347.     sdp->sg_tablesize = scsidp->host ? scsidp->host->sg_tablesize : 0;
  1348.     sdp->i_rdev = MKDEV(SCSI_GENERIC_MAJOR, k);
  1349.     sdp->de = devfs_register (scsidp->de, "generic", DEVFS_FL_DEFAULT,
  1350.                              SCSI_GENERIC_MAJOR, k,
  1351.                              S_IFCHR | S_IRUSR | S_IWUSR | S_IRGRP,
  1352.                              &sg_fops, sdp);
  1353.     sg_template.nr_dev++;
  1354.     sg_dev_arr[k] = sdp;
  1355.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1356.     switch (scsidp->type) {
  1357. case TYPE_DISK:
  1358. case TYPE_MOD:
  1359. case TYPE_ROM:
  1360. case TYPE_WORM:
  1361. case TYPE_TAPE: break;
  1362. default:
  1363.     printk(KERN_NOTICE "Attached scsi generic sg%d at scsi%d, channel"
  1364.         " %d, id %d, lun %d,  type %dn", k, scsidp->host->host_no, 
  1365.    scsidp->channel, scsidp->id, scsidp->lun, scsidp->type);
  1366.     }
  1367.     return 0;
  1368. }
  1369. /* Called at 'finish' of init process, after all attaches */
  1370. static void sg_finish(void)
  1371. { }
  1372. static void sg_detach(Scsi_Device * scsidp)
  1373. {
  1374.     Sg_device * sdp;
  1375.     unsigned long iflags;
  1376.     Sg_fd * sfp;
  1377.     Sg_fd * tsfp;
  1378.     Sg_request * srp;
  1379.     Sg_request * tsrp;
  1380.     int k, delay;
  1381.     if (NULL == sg_dev_arr)
  1382.      return;
  1383.     delay = 0;
  1384.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1385.     for (k = 0; k < sg_template.dev_max; k++) {
  1386.      sdp = sg_dev_arr[k];
  1387.         if ((NULL == sdp) || (sdp->device != scsidp))
  1388.             continue;   /* dirty but lowers nesting */
  1389.         if (sdp->headfp) {
  1390.     sdp->detached = 1;
  1391.     for (sfp = sdp->headfp; sfp; sfp = tsfp) {
  1392.      tsfp = sfp->nextfp;
  1393. for (srp = sfp->headrp; srp; srp = tsrp) {
  1394.     tsrp = srp->nextrp;
  1395.     if (sfp->closed || (0 == srp->done))
  1396. sg_finish_rem_req(srp);
  1397. }
  1398. if (sfp->closed) {
  1399.     sdp->device->access_count--;
  1400.     if (sg_template.module)
  1401. __MOD_DEC_USE_COUNT(sg_template.module);
  1402.     if (sdp->device->host->hostt->module)
  1403. __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  1404.     __sg_remove_sfp(sdp, sfp);
  1405. }
  1406. else {
  1407.     delay = 1;
  1408.     wake_up_interruptible(&sfp->read_wait);
  1409.     kill_fasync(&sfp->async_qp, SIGPOLL, POLL_HUP);
  1410. }
  1411.             }
  1412.     SCSI_LOG_TIMEOUT(3, printk("sg_detach: dev=%d, dirtyn", k));
  1413.     devfs_unregister (sdp->de);
  1414.     sdp->de = NULL;
  1415.     if (NULL == sdp->headfp) {
  1416. kfree((char *)sdp);
  1417. sg_dev_arr[k] = NULL;
  1418.     }
  1419.         }
  1420.         else { /* nothing active, simple case */
  1421.             SCSI_LOG_TIMEOUT(3, printk("sg_detach: dev=%dn", k));
  1422.     devfs_unregister (sdp->de);
  1423.     kfree((char *)sdp);
  1424.     sg_dev_arr[k] = NULL;
  1425.         }
  1426.         scsidp->attached--;
  1427.         sg_template.nr_dev--;
  1428.         sg_template.dev_noticed--; /* from <dan@lectra.fr> */
  1429.         break;
  1430.     }
  1431.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1432.     if (delay)
  1433. scsi_sleep(2); /* dirty detach so delay device destruction */
  1434. }
  1435. MODULE_AUTHOR("Douglas Gilbert");
  1436. MODULE_DESCRIPTION("SCSI generic (sg) driver");
  1437. #ifdef MODULE_LICENSE
  1438. MODULE_LICENSE("GPL");
  1439. #endif
  1440. MODULE_PARM(def_reserved_size, "i");
  1441. MODULE_PARM_DESC(def_reserved_size, "size of buffer reserved for each fd");
  1442. static int __init init_sg(void) {
  1443.     if (def_reserved_size >= 0)
  1444. sg_big_buff = def_reserved_size;
  1445.     sg_template.module = THIS_MODULE;
  1446.     return scsi_register_module(MODULE_SCSI_DEV, &sg_template);
  1447. }
  1448. static void __exit exit_sg( void)
  1449. {
  1450. #ifdef CONFIG_PROC_FS
  1451.     sg_proc_cleanup();
  1452. #endif  /* CONFIG_PROC_FS */
  1453.     scsi_unregister_module(MODULE_SCSI_DEV, &sg_template);
  1454.     devfs_unregister_chrdev(SCSI_GENERIC_MAJOR, "sg");
  1455.     if(sg_dev_arr != NULL) {
  1456. kfree((char *)sg_dev_arr);
  1457.         sg_dev_arr = NULL;
  1458.     }
  1459.     sg_template.dev_max = 0;
  1460. }
  1461. static int sg_start_req(Sg_request * srp)
  1462. {
  1463.     int res;
  1464.     Sg_fd * sfp = srp->parentfp;
  1465.     sg_io_hdr_t * hp = &srp->header;
  1466.     int dxfer_len = (int)hp->dxfer_len;
  1467.     int dxfer_dir = hp->dxfer_direction;
  1468.     Sg_scatter_hold * req_schp = &srp->data;
  1469.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  1470.     SCSI_LOG_TIMEOUT(4, printk("sg_start_req: dxfer_len=%dn", dxfer_len));
  1471.     if ((dxfer_len <= 0) || (dxfer_dir == SG_DXFER_NONE))
  1472.      return 0;
  1473.     if (sg_allow_dio && (hp->flags & SG_FLAG_DIRECT_IO) && 
  1474. (dxfer_dir != SG_DXFER_UNKNOWN) && (0 == hp->iovec_count) &&
  1475. (! sfp->parentdp->device->host->unchecked_isa_dma)) {
  1476. res = sg_build_dir(srp, sfp, dxfer_len);
  1477. if (res <= 0)   /* -ve -> error, 0 -> done, 1 -> try indirect */
  1478.     return res;
  1479.     }
  1480.     if ((! sg_res_in_use(sfp)) && (dxfer_len <= rsv_schp->bufflen))
  1481. sg_link_reserve(sfp, srp, dxfer_len);
  1482.     else {
  1483. res = sg_build_indi(req_schp, sfp, dxfer_len);
  1484.         if (res) {
  1485.             sg_remove_scat(req_schp);
  1486.             return res;
  1487.         }
  1488.     }
  1489.     return 0;
  1490. }
  1491. static void sg_finish_rem_req(Sg_request * srp)
  1492. {
  1493.     Sg_fd * sfp = srp->parentfp;
  1494.     Sg_scatter_hold * req_schp = &srp->data;
  1495.     SCSI_LOG_TIMEOUT(4, printk("sg_finish_rem_req: res_used=%dn",
  1496.        (int)srp->res_used));
  1497.     sg_unmap_and(&srp->data, 1);
  1498.     if (srp->res_used)
  1499.         sg_unlink_reserve(sfp, srp);
  1500.     else
  1501.         sg_remove_scat(req_schp);
  1502.     sg_remove_request(sfp, srp);
  1503. }
  1504. static int sg_build_sgat(Sg_scatter_hold * schp, const Sg_fd * sfp,
  1505.  int tablesize)
  1506. {
  1507.     int mem_src, ret_sz;
  1508.     int elem_sz = sizeof(struct scatterlist) + sizeof(char);
  1509.     /* scatter gather array, followed by mem_src_arr (array of chars) */
  1510.     int sg_bufflen = tablesize * elem_sz;
  1511.     int mx_sc_elems = tablesize;
  1512.     mem_src = SG_HEAP_KMAL;
  1513.     schp->buffer = sg_malloc(sfp, sg_bufflen, &ret_sz, &mem_src);
  1514.     if (! schp->buffer)
  1515. return -ENOMEM;
  1516.     else if (ret_sz != sg_bufflen) {
  1517. sg_bufflen = ret_sz;
  1518. mx_sc_elems = sg_bufflen / elem_sz;
  1519.     }
  1520.     schp->buffer_mem_src = (char)mem_src;
  1521.     schp->sglist_len = sg_bufflen;
  1522.     memset(schp->buffer, 0, sg_bufflen);
  1523.     return mx_sc_elems; /* number of scat_gath elements allocated */
  1524. }
  1525. static void sg_unmap_and(Sg_scatter_hold * schp, int free_also)
  1526. {
  1527. #ifdef SG_ALLOW_DIO_CODE
  1528.     int nbhs = 0;
  1529.     if (schp && schp->kiobp) {
  1530. if (schp->mapped) {
  1531.     unmap_kiobuf(schp->kiobp);
  1532.     schp->mapped = 0;
  1533. }
  1534. if (free_also) {
  1535.     sg_free_kiovec(1, &schp->kiobp, &nbhs);
  1536.     schp->kiobp = NULL;
  1537. }
  1538.     }
  1539. #endif
  1540. }
  1541. static int sg_build_dir(Sg_request * srp, Sg_fd * sfp, int dxfer_len)
  1542. {
  1543. #ifdef SG_ALLOW_DIO_CODE
  1544.     int res, k, split, offset, num, mx_sc_elems, rem_sz;
  1545.     struct kiobuf * kp;
  1546.     char * mem_src_arr;
  1547.     struct scatterlist * sclp;
  1548.     unsigned long addr, prev_addr;
  1549.     sg_io_hdr_t * hp = &srp->header;
  1550.     Sg_scatter_hold * schp = &srp->data;
  1551.     int sg_tablesize = sfp->parentdp->sg_tablesize;
  1552.     int nbhs = 0;
  1553.     res = sg_alloc_kiovec(1, &schp->kiobp, &nbhs);
  1554.     if (0 != res) {
  1555. SCSI_LOG_TIMEOUT(5, printk("sg_build_dir: sg_alloc_kiovec res=%dn", 
  1556.  res));
  1557. return 1;
  1558.     }
  1559.     res = map_user_kiobuf((SG_DXFER_TO_DEV == hp->dxfer_direction) ? 1 : 0,
  1560.   schp->kiobp, (unsigned long)hp->dxferp, dxfer_len);
  1561.     if (0 != res) {
  1562. SCSI_LOG_TIMEOUT(5,
  1563. printk("sg_build_dir: map_user_kiobuf res=%dn", res));
  1564. sg_unmap_and(schp, 1);
  1565. return 1;
  1566.     }
  1567.     schp->mapped = 1;
  1568.     kp = schp->kiobp;
  1569.     prev_addr = (unsigned long) page_address(kp->maplist[0]);
  1570.     for (k = 1, split = 0; k < kp->nr_pages; ++k, prev_addr = addr) {
  1571. addr = (unsigned long) page_address(kp->maplist[k]);
  1572. if ((prev_addr + PAGE_SIZE) != addr) {
  1573.     split = k;
  1574.     break;
  1575. }
  1576.     }
  1577.     if (! split) {
  1578. schp->k_use_sg = 0;
  1579. schp->buffer = page_address(kp->maplist[0]) + kp->offset;
  1580. schp->bufflen = dxfer_len;
  1581. schp->buffer_mem_src = SG_USER_MEM;
  1582. schp->b_malloc_len = dxfer_len;
  1583. hp->info |= SG_INFO_DIRECT_IO;
  1584. return 0;
  1585.     }
  1586.     mx_sc_elems = sg_build_sgat(schp, sfp, sg_tablesize);
  1587.     if (mx_sc_elems <= 1) {
  1588. sg_unmap_and(schp, 1);
  1589. sg_remove_scat(schp);
  1590. return 1;
  1591.     }
  1592.     mem_src_arr = schp->buffer + (mx_sc_elems * sizeof(struct scatterlist));
  1593.     for (k = 0, sclp = schp->buffer, rem_sz = dxfer_len;
  1594.  (rem_sz > 0) && (k < mx_sc_elems);
  1595.  ++k, ++sclp) {
  1596. offset = (0 == k) ? kp->offset : 0;
  1597. num = (rem_sz > (PAGE_SIZE - offset)) ? (PAGE_SIZE - offset) :
  1598. rem_sz;
  1599. sclp->address = page_address(kp->maplist[k]) + offset;
  1600. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1601. sclp->page = NULL;
  1602. #endif
  1603. sclp->length = num;
  1604. mem_src_arr[k] = SG_USER_MEM;
  1605. rem_sz -= num;
  1606. SCSI_LOG_TIMEOUT(5,
  1607.     printk("sg_build_dir: k=%d, a=0x%p, len=%d, ms=%dn",
  1608.     k, sclp->address, num, mem_src_arr[k]));
  1609.     }
  1610.     schp->k_use_sg = k;
  1611.     SCSI_LOG_TIMEOUT(5,
  1612. printk("sg_build_dir: k_use_sg=%d, rem_sz=%dn", k, rem_sz));
  1613.     schp->bufflen = dxfer_len;
  1614.     if (rem_sz > 0) {   /* must have failed */
  1615. sg_unmap_and(schp, 1);
  1616. sg_remove_scat(schp);
  1617. return 1;   /* out of scatter gather elements, try indirect */
  1618.     }
  1619.     hp->info |= SG_INFO_DIRECT_IO;
  1620.     return 0;
  1621. #else
  1622.     return 1;
  1623. #endif /* SG_ALLOW_DIO_CODE */
  1624. }
  1625. static int sg_build_indi(Sg_scatter_hold * schp, Sg_fd * sfp, int buff_size)
  1626. {
  1627.     int ret_sz, mem_src;
  1628.     int blk_size = buff_size;
  1629.     char * p = NULL;
  1630.     if ((blk_size < 0) || (! sfp))
  1631.         return -EFAULT;
  1632.     if (0 == blk_size)
  1633.         ++blk_size;             /* don't know why */
  1634. /* round request up to next highest SG_SECTOR_SZ byte boundary */
  1635.     blk_size = (blk_size + SG_SECTOR_MSK) & (~SG_SECTOR_MSK);
  1636.     SCSI_LOG_TIMEOUT(4, printk("sg_build_indi: buff_size=%d, blk_size=%dn",
  1637.                                buff_size, blk_size));
  1638.     if (blk_size <= SG_SCATTER_SZ) {
  1639.         mem_src = SG_HEAP_PAGE;
  1640.         p = sg_malloc(sfp, blk_size, &ret_sz, &mem_src);
  1641.         if (! p)
  1642.             return -ENOMEM;
  1643.         if (blk_size == ret_sz) { /* got it on the first attempt */
  1644.     schp->k_use_sg = 0;
  1645.             schp->buffer = p;
  1646.             schp->bufflen = blk_size;
  1647.     schp->buffer_mem_src = (char)mem_src;
  1648.             schp->b_malloc_len = blk_size;
  1649.             return 0;
  1650.         }
  1651.     }
  1652.     else {
  1653.         mem_src = SG_HEAP_PAGE;
  1654.         p = sg_malloc(sfp, SG_SCATTER_SZ, &ret_sz, &mem_src);
  1655.         if (! p)
  1656.             return -ENOMEM;
  1657.     }
  1658. /* Want some local declarations, so start new block ... */
  1659.     {   /* lets try and build a scatter gather list */
  1660.         struct scatterlist * sclp;
  1661. int k, rem_sz, num;
  1662. int mx_sc_elems;
  1663.         int sg_tablesize = sfp->parentdp->sg_tablesize;
  1664.         int first = 1;
  1665. char * mem_src_arr;
  1666.         /* N.B. ret_sz and mem_src carried into this block ... */
  1667. mx_sc_elems = sg_build_sgat(schp, sfp, sg_tablesize);
  1668. if (mx_sc_elems < 0)
  1669.     return mx_sc_elems; /* most likely -ENOMEM */
  1670. mem_src_arr = schp->buffer +
  1671.       (mx_sc_elems * sizeof(struct scatterlist));
  1672. for (k = 0, sclp = schp->buffer, rem_sz = blk_size;
  1673.      (rem_sz > 0) && (k < mx_sc_elems);
  1674.              ++k, rem_sz -= ret_sz, ++sclp) {
  1675.     if (first)
  1676.                 first = 0;
  1677.             else {
  1678.                 num = (rem_sz > SG_SCATTER_SZ) ? SG_SCATTER_SZ : rem_sz;
  1679.                 mem_src = SG_HEAP_PAGE;
  1680.                 p = sg_malloc(sfp, num, &ret_sz, &mem_src);
  1681.                 if (! p)
  1682.                     break;
  1683.             }
  1684.             sclp->address = p;
  1685. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1686.     sclp->page = NULL;
  1687. #endif
  1688.             sclp->length = ret_sz;
  1689.     mem_src_arr[k] = mem_src;
  1690.     SCSI_LOG_TIMEOUT(5,
  1691. printk("sg_build_build: k=%d, a=0x%p, len=%d, ms=%dn",
  1692.                 k, sclp->address, ret_sz, mem_src));
  1693.         } /* end of for loop */
  1694. schp->k_use_sg = k;
  1695. SCSI_LOG_TIMEOUT(5,
  1696.     printk("sg_build_indi: k_use_sg=%d, rem_sz=%dn", k, rem_sz));
  1697.         schp->bufflen = blk_size;
  1698.         if (rem_sz > 0)   /* must have failed */
  1699.             return -ENOMEM;
  1700.     }
  1701.     return 0;
  1702. }
  1703. static int sg_write_xfer(Sg_request * srp)
  1704. {
  1705.     sg_io_hdr_t * hp = &srp->header;
  1706.     Sg_scatter_hold * schp = &srp->data;
  1707.     int num_xfer = 0;
  1708.     int j, k, onum, usglen, ksglen, res, ok;
  1709.     int iovec_count = (int)hp->iovec_count;
  1710.     int dxfer_dir = hp->dxfer_direction;
  1711.     unsigned char * p;
  1712.     unsigned char * up;
  1713.     int new_interface = ('' == hp->interface_id) ? 0 : 1;
  1714.     if ((SG_DXFER_UNKNOWN == dxfer_dir) || (SG_DXFER_TO_DEV == dxfer_dir) ||
  1715. (SG_DXFER_TO_FROM_DEV == dxfer_dir)) {
  1716. num_xfer = (int)(new_interface ?  hp->dxfer_len : hp->flags);
  1717. if (schp->bufflen < num_xfer)
  1718.     num_xfer = schp->bufflen;
  1719.     }
  1720.     if ((num_xfer <= 0) || 
  1721.      (new_interface && ((SG_FLAG_NO_DXFER | SG_FLAG_MMAP_IO) & hp->flags)))
  1722. return 0;
  1723.     SCSI_LOG_TIMEOUT(4,
  1724.  printk("sg_write_xfer: num_xfer=%d, iovec_count=%d, k_use_sg=%dn",
  1725. num_xfer, iovec_count, schp->k_use_sg));
  1726.     if (iovec_count) {
  1727. onum = iovec_count;
  1728. if ((k = verify_area(VERIFY_READ, hp->dxferp,
  1729.      SZ_SG_IOVEC * onum)))
  1730.     return k;
  1731.     }
  1732.     else
  1733. onum = 1;
  1734.     if (0 == schp->k_use_sg) {  /* kernel has single buffer */
  1735. if (SG_USER_MEM != schp->buffer_mem_src) { /* else nothing to do */
  1736.     for (j = 0, p = schp->buffer; j < onum; ++j) {
  1737. res = sg_u_iovec(hp, iovec_count, j, 1, &usglen, &up);
  1738. if (res) return res;
  1739. usglen = (num_xfer > usglen) ? usglen : num_xfer;
  1740. __copy_from_user(p, up, usglen);
  1741. p += usglen;
  1742. num_xfer -= usglen;
  1743. if (num_xfer <= 0)
  1744.     return 0;
  1745.             }
  1746. }
  1747.     }
  1748.     else {      /* kernel using scatter gather list */
  1749. struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1750. char * mem_src_arr = sg_get_sgat_msa(schp);
  1751. ksglen = (int)sclp->length;
  1752. p = sclp->address;
  1753. for (j = 0, k = 0; j < onum; ++j) {
  1754.     res = sg_u_iovec(hp, iovec_count, j, 1, &usglen, &up);
  1755.     if (res) return res;
  1756.     for (; k < schp->k_use_sg; ++k, ++sclp) {
  1757. ksglen = (int)sclp->length;
  1758. p = sclp->address;
  1759. if (NULL == p)
  1760.     break;
  1761. ok = (SG_USER_MEM != mem_src_arr[k]);
  1762. if (usglen <= 0)
  1763.     break;
  1764. if (ksglen > usglen) {
  1765.     if (usglen >= num_xfer) {
  1766. if (ok) __copy_from_user(p, up, num_xfer);
  1767. return 0;
  1768.     }
  1769.     if (ok) __copy_from_user(p, up, usglen);
  1770.     p += usglen;
  1771.     ksglen -= usglen;
  1772.                     break;
  1773. }
  1774. else {
  1775.     if (ksglen >= num_xfer) {
  1776. if (ok) __copy_from_user(p, up, num_xfer);
  1777. return 0;
  1778.     }
  1779.     if (ok) __copy_from_user(p, up, ksglen);
  1780.     up += ksglen;
  1781.     usglen -= ksglen;
  1782. }
  1783.             }
  1784.         }
  1785.     }
  1786.     return 0;
  1787. }
  1788. static int sg_u_iovec(sg_io_hdr_t * hp, int sg_num, int ind,
  1789.       int wr_xf, int * countp, unsigned char ** up)
  1790. {
  1791.     int num_xfer = (int)hp->dxfer_len;
  1792.     unsigned char * p;
  1793.     int count, k;
  1794.     sg_iovec_t u_iovec;
  1795.     if (0 == sg_num) {
  1796. p = (unsigned char *)hp->dxferp;
  1797. if (wr_xf && ('' == hp->interface_id))
  1798.     count = (int)hp->flags; /* holds "old" input_size */
  1799. else
  1800.     count = num_xfer;
  1801.     }
  1802.     else {
  1803. __copy_from_user(&u_iovec,
  1804.  (unsigned char *)hp->dxferp + (ind * SZ_SG_IOVEC),
  1805.  SZ_SG_IOVEC);
  1806. p = (unsigned char *)u_iovec.iov_base;
  1807. count = (int)u_iovec.iov_len;
  1808.     }
  1809.     if ((k = verify_area(wr_xf ? VERIFY_READ : VERIFY_WRITE, p, count)))
  1810. return k;
  1811.     if (up) *up = p;
  1812.     if (countp) *countp = count;
  1813.     return 0;
  1814. }
  1815. static char * sg_get_sgat_msa(Sg_scatter_hold * schp)
  1816. {
  1817.     int elem_sz = sizeof(struct scatterlist) + sizeof(char);
  1818.     int mx_sc_elems = schp->sglist_len / elem_sz;
  1819.     return schp->buffer + (sizeof(struct scatterlist) * mx_sc_elems);
  1820. }
  1821. static void sg_remove_scat(Sg_scatter_hold * schp)
  1822. {
  1823.     SCSI_LOG_TIMEOUT(4, printk("sg_remove_scat: k_use_sg=%dn",
  1824.        schp->k_use_sg));
  1825.     if (schp->buffer && schp->sglist_len) {
  1826.         int k, mem_src;
  1827.         struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1828. char * mem_src_arr = sg_get_sgat_msa(schp);
  1829. for (k = 0; (k < schp->k_use_sg) && sclp->address; ++k, ++sclp) {
  1830.     mem_src = mem_src_arr[k];
  1831.     SCSI_LOG_TIMEOUT(5,
  1832. printk("sg_remove_scat: k=%d, a=0x%p, len=%d, ms=%dn",
  1833.                        k, sclp->address, sclp->length, mem_src));
  1834.             sg_free(sclp->address, sclp->length, mem_src);
  1835.             sclp->address = NULL;
  1836. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1837.     sclp->page = NULL;
  1838. #endif
  1839.             sclp->length = 0;
  1840.         }
  1841. sg_free(schp->buffer, schp->sglist_len, schp->buffer_mem_src);
  1842.     }
  1843.     else if (schp->buffer)
  1844. sg_free(schp->buffer, schp->b_malloc_len, schp->buffer_mem_src);
  1845.     memset(schp, 0, sizeof(*schp));
  1846. }
  1847. static int sg_read_xfer(Sg_request * srp)
  1848. {
  1849.     sg_io_hdr_t * hp = &srp->header;
  1850.     Sg_scatter_hold * schp = &srp->data;
  1851.     int num_xfer = 0;
  1852.     int j, k, onum, usglen, ksglen, res, ok;
  1853.     int iovec_count = (int)hp->iovec_count;
  1854.     int dxfer_dir = hp->dxfer_direction;
  1855.     unsigned char * p;
  1856.     unsigned char * up;
  1857.     int new_interface = ('' == hp->interface_id) ? 0 : 1;
  1858.     if ((SG_DXFER_UNKNOWN == dxfer_dir) || (SG_DXFER_FROM_DEV == dxfer_dir) ||
  1859. (SG_DXFER_TO_FROM_DEV == dxfer_dir)) {
  1860. num_xfer =  hp->dxfer_len;
  1861. if (schp->bufflen < num_xfer)
  1862.     num_xfer = schp->bufflen;
  1863.     }
  1864.     if ((num_xfer <= 0) || 
  1865.      (new_interface && ((SG_FLAG_NO_DXFER | SG_FLAG_MMAP_IO) & hp->flags)))
  1866. return 0;
  1867.     SCSI_LOG_TIMEOUT(4,
  1868.  printk("sg_read_xfer: num_xfer=%d, iovec_count=%d, k_use_sg=%dn",
  1869. num_xfer, iovec_count, schp->k_use_sg));
  1870.     if (iovec_count) {
  1871. onum = iovec_count;
  1872. if ((k = verify_area(VERIFY_READ, hp->dxferp,
  1873.      SZ_SG_IOVEC * onum)))
  1874.     return k;
  1875.     }
  1876.     else
  1877. onum = 1;
  1878.     if (0 == schp->k_use_sg) {  /* kernel has single buffer */
  1879. if (SG_USER_MEM != schp->buffer_mem_src) { /* else nothing to do */
  1880.     for (j = 0, p = schp->buffer; j < onum; ++j) {
  1881. res = sg_u_iovec(hp, iovec_count, j, 0, &usglen, &up);
  1882. if (res) return res;
  1883. usglen = (num_xfer > usglen) ? usglen : num_xfer;
  1884. __copy_to_user(up, p, usglen);
  1885. p += usglen;
  1886. num_xfer -= usglen;
  1887. if (num_xfer <= 0)
  1888.     return 0;
  1889.     }
  1890. }
  1891.     }
  1892.     else {      /* kernel using scatter gather list */
  1893. struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1894. char * mem_src_arr = sg_get_sgat_msa(schp);
  1895. ksglen = (int)sclp->length;
  1896. p = sclp->address;
  1897. for (j = 0, k = 0; j < onum; ++j) {
  1898.     res = sg_u_iovec(hp, iovec_count, j, 0, &usglen, &up);
  1899.     if (res) return res;
  1900.     for (; k < schp->k_use_sg; ++k, ++sclp) {
  1901. ksglen = (int)sclp->length;
  1902. p = sclp->address;
  1903. if (NULL == p)
  1904.     break;
  1905. ok = (SG_USER_MEM != mem_src_arr[k]);
  1906. if (usglen <= 0)
  1907.     break;
  1908. if (ksglen > usglen) {
  1909.     if (usglen >= num_xfer) {
  1910. if (ok) __copy_to_user(up, p, num_xfer);
  1911. return 0;
  1912.     }
  1913.     if (ok) __copy_to_user(up, p, usglen);
  1914.     p += usglen;
  1915.     ksglen -= usglen;
  1916.     break;
  1917. }
  1918. else {
  1919.     if (ksglen >= num_xfer) {
  1920. if (ok) __copy_to_user(up, p, num_xfer);
  1921. return 0;
  1922.     }
  1923.     if (ok) __copy_to_user(up, p, ksglen);
  1924.     up += ksglen;
  1925.     usglen -= ksglen;
  1926. }
  1927.     }
  1928. }
  1929.     }
  1930.     return 0;
  1931. }
  1932. static void sg_read_oxfer(Sg_request * srp, char * outp, int num_read_xfer)
  1933. {
  1934.     Sg_scatter_hold * schp = &srp->data;
  1935.     SCSI_LOG_TIMEOUT(4, printk("sg_read_oxfer: num_read_xfer=%dn",
  1936.        num_read_xfer));
  1937.     if ((! outp) || (num_read_xfer <= 0))
  1938.         return;
  1939.     if(schp->k_use_sg > 0) {
  1940.         int k, num;
  1941.         struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1942. for (k = 0; (k < schp->k_use_sg) && sclp->address; ++k, ++sclp) {
  1943.             num = (int)sclp->length;
  1944.             if (num > num_read_xfer) {
  1945.                 __copy_to_user(outp, sclp->address, num_read_xfer);
  1946.                 break;
  1947.             }
  1948.             else {
  1949.                 __copy_to_user(outp, sclp->address, num);
  1950.                 num_read_xfer -= num;
  1951.                 if (num_read_xfer <= 0)
  1952.                     break;
  1953.                 outp += num;
  1954.             }
  1955.         }
  1956.     }
  1957.     else
  1958.         __copy_to_user(outp, schp->buffer, num_read_xfer);
  1959. }
  1960. static void sg_build_reserve(Sg_fd * sfp, int req_size)
  1961. {
  1962.     Sg_scatter_hold * schp = &sfp->reserve;
  1963.     SCSI_LOG_TIMEOUT(4, printk("sg_build_reserve: req_size=%dn", req_size));
  1964.     do {
  1965.         if (req_size < PAGE_SIZE)
  1966.             req_size = PAGE_SIZE;
  1967. if (0 == sg_build_indi(schp, sfp, req_size))
  1968.             return;
  1969.         else
  1970.             sg_remove_scat(schp);
  1971.         req_size >>= 1; /* divide by 2 */
  1972.     } while (req_size >  (PAGE_SIZE / 2));
  1973. }
  1974. static void sg_link_reserve(Sg_fd * sfp, Sg_request * srp, int size)
  1975. {
  1976.     Sg_scatter_hold * req_schp = &srp->data;
  1977.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  1978.     srp->res_used = 1;
  1979.     SCSI_LOG_TIMEOUT(4, printk("sg_link_reserve: size=%dn", size));
  1980.     size = (size + 1) & (~1);    /* round to even for aha1542 */
  1981.     if (rsv_schp->k_use_sg > 0) {
  1982.         int k, num;
  1983.         int rem = size;
  1984.         struct scatterlist * sclp = (struct scatterlist *)rsv_schp->buffer;
  1985. for (k = 0; k < rsv_schp->k_use_sg; ++k, ++sclp) {
  1986.             num = (int)sclp->length;
  1987.             if (rem <= num) {
  1988. if (0 == k) {
  1989.     req_schp->k_use_sg = 0;
  1990.     req_schp->buffer = sclp->address;
  1991. }
  1992. else {
  1993.          sfp->save_scat_len = num;
  1994.          sclp->length = (unsigned)rem;
  1995.          req_schp->k_use_sg = k + 1;
  1996.          req_schp->sglist_len = rsv_schp->sglist_len;
  1997.          req_schp->buffer = rsv_schp->buffer;
  1998. }
  1999. req_schp->bufflen = size;
  2000. req_schp->buffer_mem_src = rsv_schp->buffer_mem_src;
  2001. req_schp->b_malloc_len = rsv_schp->b_malloc_len;
  2002. break;
  2003.             }
  2004.             else
  2005.                 rem -= num;
  2006.         }
  2007. if (k >= rsv_schp->k_use_sg)
  2008.     SCSI_LOG_TIMEOUT(1, printk("sg_link_reserve: BAD sizen"));
  2009.     }
  2010.     else {
  2011. req_schp->k_use_sg = 0;
  2012.         req_schp->bufflen = size;
  2013.         req_schp->buffer = rsv_schp->buffer;
  2014. req_schp->buffer_mem_src = rsv_schp->buffer_mem_src;
  2015.         req_schp->b_malloc_len = rsv_schp->b_malloc_len;
  2016.     }
  2017. }
  2018. static void sg_unlink_reserve(Sg_fd * sfp, Sg_request * srp)
  2019. {
  2020.     Sg_scatter_hold * req_schp = &srp->data;
  2021.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  2022.     SCSI_LOG_TIMEOUT(4, printk("sg_unlink_reserve: req->k_use_sg=%dn",
  2023.        (int)req_schp->k_use_sg));
  2024.     if ((rsv_schp->k_use_sg > 0) && (req_schp->k_use_sg > 0)) {
  2025.         struct scatterlist * sclp = (struct scatterlist *)rsv_schp->buffer;
  2026. if (sfp->save_scat_len > 0)
  2027.     (sclp + (req_schp->k_use_sg - 1))->length =
  2028.                                         (unsigned)sfp->save_scat_len;
  2029.         else
  2030.             SCSI_LOG_TIMEOUT(1, printk(
  2031. "sg_unlink_reserve: BAD save_scat_lenn"));
  2032.     }
  2033.     req_schp->k_use_sg = 0;
  2034.     req_schp->bufflen = 0;
  2035.     req_schp->buffer = NULL;
  2036.     req_schp->sglist_len = 0;
  2037.     sfp->save_scat_len = 0;
  2038.     srp->res_used = 0;
  2039. }
  2040. static Sg_request * sg_get_rq_mark(Sg_fd * sfp, int pack_id)
  2041. {
  2042.     Sg_request * resp;
  2043.     unsigned long iflags;
  2044.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2045.     for (resp = sfp->headrp; resp; resp = resp->nextrp) { 
  2046. /* look for requests that are ready + not SG_IO owned */
  2047. if ((1 == resp->done) && (! resp->sg_io_owned) &&
  2048.             ((-1 == pack_id) || (resp->header.pack_id == pack_id))) {
  2049.     resp->done = 2;   /* guard against other readers */
  2050.             break;
  2051. }
  2052.     }
  2053.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2054.     return resp;
  2055. }
  2056. #ifdef CONFIG_PROC_FS
  2057. static Sg_request * sg_get_nth_request(Sg_fd * sfp, int nth)
  2058. {
  2059.     Sg_request * resp;
  2060.     unsigned long iflags;
  2061.     int k;
  2062.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  2063.     for (k = 0, resp = sfp->headrp; resp && (k < nth); 
  2064.  ++k, resp = resp->nextrp)
  2065. ;
  2066.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2067.     return resp;
  2068. }
  2069. #endif
  2070. /* always adds to end of list */
  2071. static Sg_request * sg_add_request(Sg_fd * sfp)
  2072. {
  2073.     int k;
  2074.     unsigned long iflags;
  2075.     Sg_request * resp;
  2076.     Sg_request * rp =  sfp->req_arr;
  2077.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2078.     resp = sfp->headrp;
  2079.     if (! resp) {
  2080. memset(rp, 0, sizeof(Sg_request));
  2081. rp->parentfp = sfp;
  2082. resp = rp;
  2083. sfp->headrp = resp;
  2084.     }
  2085.     else {
  2086.         if (0 == sfp->cmd_q)
  2087.             resp = NULL;   /* command queuing disallowed */
  2088.         else {
  2089.             for (k = 0; k < SG_MAX_QUEUE; ++k, ++rp) {
  2090.                 if (! rp->parentfp)
  2091.                     break;
  2092.             }
  2093.             if (k < SG_MAX_QUEUE) {
  2094. memset(rp, 0, sizeof(Sg_request));
  2095. rp->parentfp = sfp;
  2096. while (resp->nextrp) 
  2097.     resp = resp->nextrp;
  2098. resp->nextrp = rp;
  2099. resp = rp;
  2100.             }
  2101.             else
  2102.                 resp = NULL;
  2103.         }
  2104.     }
  2105.     if (resp) {
  2106.         resp->nextrp = NULL;
  2107. resp->header.duration = jiffies;
  2108.         resp->my_cmdp = NULL;
  2109. resp->data.kiobp = NULL;
  2110.     }
  2111.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2112.     return resp;
  2113. }
  2114. /* Return of 1 for found; 0 for not found */
  2115. static int sg_remove_request(Sg_fd * sfp, Sg_request * srp)
  2116. {
  2117.     Sg_request * prev_rp;
  2118.     Sg_request * rp;
  2119.     unsigned long iflags;
  2120.     int res = 0;
  2121.     if ((! sfp) || (! srp) || (! sfp->headrp))
  2122.         return res;
  2123.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2124.     prev_rp = sfp->headrp;
  2125.     if (srp == prev_rp) {
  2126.         sfp->headrp = prev_rp->nextrp;
  2127.         prev_rp->parentfp = NULL;
  2128.         res = 1;
  2129.     }
  2130.     else {
  2131. while ((rp = prev_rp->nextrp)) {
  2132.     if (srp == rp) {
  2133. prev_rp->nextrp = rp->nextrp;
  2134. rp->parentfp = NULL;
  2135. res = 1;
  2136. break;
  2137.     }
  2138.     prev_rp = rp;
  2139. }
  2140.     }
  2141.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2142.     return res;
  2143. }
  2144. #ifdef CONFIG_PROC_FS
  2145. static Sg_fd * sg_get_nth_sfp(Sg_device * sdp, int nth)
  2146. {
  2147.     Sg_fd * resp;
  2148.     unsigned long iflags;
  2149.     int k;
  2150.     read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2151.     for (k = 0, resp = sdp->headfp; resp && (k < nth); 
  2152.  ++k, resp = resp->nextfp)
  2153. ;
  2154.     read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2155.     return resp;
  2156. }
  2157. #endif
  2158. static Sg_fd * sg_add_sfp(Sg_device * sdp, int dev)
  2159. {
  2160.     Sg_fd * sfp;
  2161.     unsigned long iflags;
  2162.     sfp = (Sg_fd *)sg_low_malloc(sizeof(Sg_fd), 0, SG_HEAP_KMAL, 0);
  2163.     if (! sfp)
  2164.         return NULL;
  2165.     memset(sfp, 0, sizeof(Sg_fd));
  2166.     sfp->fd_mem_src = SG_HEAP_KMAL;
  2167.     init_waitqueue_head(&sfp->read_wait);
  2168.     sfp->rq_list_lock = RW_LOCK_UNLOCKED;
  2169.     sfp->timeout = SG_DEFAULT_TIMEOUT;
  2170.     sfp->force_packid = SG_DEF_FORCE_PACK_ID;
  2171.     sfp->low_dma = (SG_DEF_FORCE_LOW_DMA == 0) ?
  2172.                    sdp->device->host->unchecked_isa_dma : 1;
  2173.     sfp->cmd_q = SG_DEF_COMMAND_Q;
  2174.     sfp->keep_orphan = SG_DEF_KEEP_ORPHAN;
  2175.     sfp->parentdp = sdp;
  2176.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  2177.     if (! sdp->headfp)
  2178.         sdp->headfp = sfp;
  2179.     else {    /* add to tail of existing list */
  2180. Sg_fd * pfp = sdp->headfp;
  2181. while (pfp->nextfp)
  2182.     pfp = pfp->nextfp;
  2183. pfp->nextfp = sfp;
  2184.     }
  2185.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2186.     SCSI_LOG_TIMEOUT(3, printk("sg_add_sfp: sfp=0x%p, m_s=%dn",
  2187.        sfp, (int)sfp->fd_mem_src));
  2188.     sg_build_reserve(sfp, sg_big_buff);
  2189.     SCSI_LOG_TIMEOUT(3, printk("sg_add_sfp:   bufflen=%d, k_use_sg=%dn",
  2190.    sfp->reserve.bufflen, sfp->reserve.k_use_sg));
  2191.     return sfp;
  2192. }
  2193. static void __sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp)
  2194. {
  2195.     Sg_fd * fp;
  2196.     Sg_fd * prev_fp;
  2197.     prev_fp =  sdp->headfp;
  2198.     if (sfp == prev_fp)
  2199. sdp->headfp = prev_fp->nextfp;
  2200.     else {
  2201. while ((fp = prev_fp->nextfp)) {
  2202.     if (sfp == fp) {
  2203. prev_fp->nextfp = fp->nextfp;
  2204. break;
  2205.     }
  2206.     prev_fp = fp;
  2207. }
  2208.     }
  2209.     if (sfp->reserve.bufflen > 0) {
  2210.     SCSI_LOG_TIMEOUT(6, printk("__sg_remove_sfp:    bufflen=%d, k_use_sg=%dn",
  2211.      (int)sfp->reserve.bufflen, (int)sfp->reserve.k_use_sg));
  2212. if (sfp->mmap_called)
  2213.     sg_rb_correct4mmap(&sfp->reserve, 0); /* undo correction */
  2214. sg_remove_scat(&sfp->reserve);
  2215.     }
  2216.     sfp->parentdp = NULL;
  2217.     SCSI_LOG_TIMEOUT(6, printk("__sg_remove_sfp:    sfp=0x%pn", sfp));
  2218.     sg_low_free((char *)sfp, sizeof(Sg_fd), sfp->fd_mem_src);
  2219. }
  2220. /* Returns 0 in normal case, 1 when detached and sdp object removed */
  2221. static int sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp)
  2222. {
  2223.     Sg_request * srp;
  2224.     Sg_request * tsrp;
  2225.     int dirty = 0;
  2226.     int res = 0;
  2227.     for (srp = sfp->headrp; srp; srp = tsrp) {
  2228. tsrp = srp->nextrp;
  2229. if (srp->done)
  2230.     sg_finish_rem_req(srp);
  2231. else
  2232.     ++dirty;
  2233.     }
  2234.     if (0 == dirty) {
  2235. unsigned long iflags;
  2236. write_lock_irqsave(&sg_dev_arr_lock, iflags);
  2237. __sg_remove_sfp(sdp, sfp);
  2238. if (sdp->detached && (NULL == sdp->headfp)) {
  2239.     int k, maxd;
  2240.     maxd = sg_template.dev_max;
  2241.     for (k = 0; k < maxd; ++k) {
  2242.      if (sdp == sg_dev_arr[k])
  2243.     break;
  2244.     }
  2245.     if (k < maxd)
  2246. sg_dev_arr[k] = NULL;
  2247.     kfree((char *)sdp);
  2248.     res = 1;
  2249. }
  2250. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2251.     }
  2252.     else {
  2253.         sfp->closed = 1; /* flag dirty state on this fd */
  2254. sdp->device->access_count++;
  2255. /* MOD_INC's to inhibit unloading sg and associated adapter driver */
  2256. if (sg_template.module)
  2257.     __MOD_INC_USE_COUNT(sg_template.module);
  2258. if (sdp->device->host->hostt->module)
  2259.     __MOD_INC_USE_COUNT(sdp->device->host->hostt->module);
  2260.         SCSI_LOG_TIMEOUT(1, printk(
  2261.           "sg_remove_sfp: worrisome, %d writes pendingn", dirty));
  2262.     }
  2263.     return res;
  2264. }
  2265. static int sg_res_in_use(Sg_fd * sfp)
  2266. {
  2267.     const Sg_request * srp;
  2268.     unsigned long iflags;
  2269.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  2270.     for (srp = sfp->headrp; srp; srp = srp->nextrp)
  2271.         if (srp->res_used) break;
  2272.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2273.     return srp ? 1 : 0;
  2274. }
  2275. /* If retSzp==NULL want exact size or fail */
  2276. static char * sg_low_malloc(int rqSz, int lowDma, int mem_src, int * retSzp)
  2277. {
  2278.     char * resp = NULL;
  2279.     int page_mask = lowDma ? (GFP_ATOMIC | GFP_DMA) : GFP_ATOMIC;
  2280.     if (rqSz <= 0)
  2281.         return resp;
  2282.     if (SG_HEAP_KMAL == mem_src) {
  2283.         resp = kmalloc(rqSz, page_mask);
  2284. if (resp) {
  2285.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2286.      memset(resp, 0, rqSz);
  2287.     if (retSzp) *retSzp = rqSz;
  2288. }
  2289.         return resp;
  2290.     }
  2291.     if (SG_HEAP_POOL == mem_src) {
  2292.         int num_sect = rqSz / SG_SECTOR_SZ;
  2293.         if (0 != (rqSz & SG_SECTOR_MSK)) {
  2294.             if (! retSzp)
  2295.                 return resp;
  2296.             ++num_sect;
  2297.             rqSz = num_sect * SG_SECTOR_SZ;
  2298.         }
  2299.         while (num_sect > 0) {
  2300.             if ((num_sect <= sg_pool_secs_avail) &&
  2301.                 (scsi_dma_free_sectors > (SG_LOW_POOL_THRESHHOLD + num_sect))) {
  2302.                 resp = scsi_malloc(rqSz);
  2303.                 if (resp) {
  2304.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2305. memset(resp, 0, rqSz);
  2306.                     if (retSzp) *retSzp = rqSz;
  2307.                     sg_pool_secs_avail -= num_sect;
  2308.                     return resp;
  2309.                 }
  2310.             }
  2311.             if (! retSzp)
  2312.                 return resp;
  2313.             num_sect /= 2;      /* try half as many */
  2314.             rqSz = num_sect * SG_SECTOR_SZ;
  2315.         }
  2316.     }
  2317.     else if (SG_HEAP_PAGE == mem_src) {
  2318.         int order, a_size;
  2319.         int resSz = rqSz;
  2320.         for (order = 0, a_size = PAGE_SIZE;
  2321.              a_size < rqSz; order++, a_size <<= 1)
  2322.             ;
  2323.         resp = (char *)__get_free_pages(page_mask, order);
  2324.         while ((! resp) && order && retSzp) {
  2325.             --order;
  2326.             a_size >>= 1;   /* divide by 2, until PAGE_SIZE */
  2327.             resp = (char *)__get_free_pages(page_mask, order); /* try half */
  2328.             resSz = a_size;
  2329.         }
  2330. if (resp) {
  2331.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2332.                 memset(resp, 0, resSz);
  2333.     if (retSzp) *retSzp = resSz;
  2334. }
  2335.     }
  2336.     else
  2337.         printk(KERN_ERR "sg_low_malloc: bad mem_src=%d, rqSz=%dfn", 
  2338.        mem_src, rqSz);
  2339.     return resp;
  2340. }
  2341. static char * sg_malloc(const Sg_fd * sfp, int size, int * retSzp,
  2342.                         int * mem_srcp)
  2343. {
  2344.     char * resp = NULL;
  2345.     if (retSzp) *retSzp = size;
  2346.     if (size <= 0)
  2347.         ;
  2348.     else {
  2349.         int low_dma = sfp->low_dma;
  2350.         int l_ms = -1;  /* invalid value */
  2351. switch (*mem_srcp)
  2352.         {
  2353.         case SG_HEAP_PAGE:
  2354.             l_ms = (size < PAGE_SIZE) ? SG_HEAP_POOL : SG_HEAP_PAGE;
  2355.             resp = sg_low_malloc(size, low_dma, l_ms, 0);
  2356.             if (resp)
  2357.                 break;
  2358.             resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2359.             if (! resp) {
  2360.                 l_ms = (SG_HEAP_POOL == l_ms) ? SG_HEAP_PAGE : SG_HEAP_POOL;
  2361.                 resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2362.                 if (! resp) {
  2363.                     l_ms = SG_HEAP_KMAL;
  2364.                     resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2365.                 }
  2366.             }
  2367.             if (resp && retSzp) *retSzp = size;
  2368.             break;
  2369.         case SG_HEAP_KMAL:
  2370.             l_ms = SG_HEAP_KMAL; /* was SG_HEAP_PAGE */
  2371.             resp = sg_low_malloc(size, low_dma, l_ms, 0);
  2372.             if (resp)
  2373.                 break;
  2374.             l_ms = SG_HEAP_POOL;
  2375.             resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2376.             if (resp && retSzp) *retSzp = size;
  2377.             break;
  2378.         default:
  2379.             SCSI_LOG_TIMEOUT(1, printk("sg_malloc: bad ms=%dn", *mem_srcp));
  2380.             break;
  2381.         }
  2382.         if (resp) *mem_srcp = l_ms;
  2383.     }
  2384.     SCSI_LOG_TIMEOUT(6, printk("sg_malloc: size=%d, ms=%d, ret=0x%pn",
  2385.                                size, *mem_srcp, resp));
  2386.     return resp;
  2387. }
  2388. static inline int sg_alloc_kiovec(int nr, struct kiobuf **bufp, int *szp)
  2389. {
  2390. #if SG_NEW_KIOVEC
  2391.     return alloc_kiovec_sz(nr, bufp, szp);
  2392. #else
  2393.     return alloc_kiovec(nr, bufp);
  2394. #endif
  2395. }
  2396. static void sg_low_free(char * buff, int size, int mem_src)
  2397. {
  2398.     if (! buff) return;
  2399.     switch (mem_src) {
  2400.     case SG_HEAP_POOL:
  2401. {
  2402.     int num_sect = size / SG_SECTOR_SZ;
  2403.     scsi_free(buff, size);
  2404.     sg_pool_secs_avail += num_sect;
  2405. }
  2406. break;
  2407.     case SG_HEAP_KMAL:
  2408. kfree(buff);    /* size not used */
  2409. break;
  2410.     case SG_HEAP_PAGE:
  2411. {
  2412.     int order, a_size;
  2413.     for (order = 0, a_size = PAGE_SIZE;
  2414.  a_size < size; order++, a_size <<= 1)
  2415. ;
  2416.     free_pages((unsigned long)buff, order);
  2417. }
  2418. break;
  2419.     case SG_USER_MEM:
  2420. break; /* nothing to do */
  2421.     default:
  2422. printk(KERN_ERR "sg_low_free: bad mem_src=%d, buff=0x%p, rqSz=%dn",
  2423.                mem_src, buff, size);
  2424. break;
  2425.     }
  2426. }
  2427. static void sg_free(char * buff, int size, int mem_src)
  2428. {
  2429.     SCSI_LOG_TIMEOUT(6,
  2430.         printk("sg_free: buff=0x%p, size=%dn", buff, size));
  2431.     if ((! buff) || (size <= 0))
  2432.         ;
  2433.     else
  2434.         sg_low_free(buff, size, mem_src);
  2435. }
  2436. static inline void sg_free_kiovec(int nr, struct kiobuf **bufp, int *szp)
  2437. {
  2438. #if SG_NEW_KIOVEC
  2439.     free_kiovec_sz(nr, bufp, szp);
  2440. #else
  2441.     free_kiovec(nr, bufp);
  2442. #endif
  2443. }
  2444. static int sg_ms_to_jif(unsigned int msecs)
  2445. {
  2446.     if ((UINT_MAX / 2U) < msecs)
  2447. return INT_MAX;      /* special case, set largest possible */
  2448.     else
  2449. return ((int)msecs < (INT_MAX / 1000)) ? (((int)msecs * HZ) / 1000)
  2450.        : (((int)msecs / 1000) * HZ);
  2451. }
  2452. static inline unsigned sg_jif_to_ms(int jifs)
  2453. {
  2454.     if (jifs <= 0)
  2455. return 0U;
  2456.     else {
  2457. unsigned int j = (unsigned int)jifs;
  2458. return (j < (UINT_MAX / 1000)) ? ((j * 1000) / HZ) : ((j / HZ) * 1000);
  2459.     }
  2460. }
  2461. static unsigned char allow_ops[] = {TEST_UNIT_READY, REQUEST_SENSE,
  2462. INQUIRY, READ_CAPACITY, READ_BUFFER, READ_6, READ_10, READ_12,
  2463. MODE_SENSE, MODE_SENSE_10, LOG_SENSE};
  2464. static int sg_allow_access(unsigned char opcode, char dev_type)
  2465. {
  2466.     int k;
  2467.     if (TYPE_SCANNER == dev_type) /* TYPE_ROM maybe burner */
  2468. return 1;
  2469.     for (k = 0; k < sizeof(allow_ops); ++k) {
  2470. if (opcode == allow_ops[k])
  2471.     return 1;
  2472.     }
  2473.     return 0;
  2474. }
  2475. #ifdef CONFIG_PROC_FS
  2476. static int sg_last_dev()
  2477. {
  2478.     int k;
  2479.     unsigned long iflags;
  2480.     read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2481.     for (k = sg_template.dev_max - 1; k >= 0; --k)
  2482. if (sg_dev_arr[k] && sg_dev_arr[k]->device) break;
  2483.     read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2484.     return k + 1;   /* origin 1 */
  2485. }
  2486. #endif
  2487. static Sg_device * sg_get_dev(int dev)
  2488. {
  2489.     Sg_device * sdp = NULL;
  2490.     unsigned long iflags;
  2491.     if (sg_dev_arr && (dev >= 0))
  2492.     {
  2493. read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2494. if (dev < sg_template.dev_max)
  2495.     sdp = sg_dev_arr[dev];
  2496. read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2497.     }
  2498.     return sdp;
  2499. }
  2500. #ifdef CONFIG_PROC_FS
  2501. static struct proc_dir_entry * sg_proc_sgp = NULL;
  2502. static char sg_proc_sg_dirname[] = "sg";
  2503. static const char * sg_proc_leaf_names[] = {"allow_dio", "def_reserved_size",
  2504. "debug", "devices", "device_hdr", "device_strs",
  2505. "hosts", "host_hdr", "host_strs", "version"};
  2506. static int sg_proc_adio_read(char * buffer, char ** start, off_t offset,
  2507.      int size, int * eof, void * data);
  2508. static int sg_proc_adio_info(char * buffer, int * len, off_t * begin,
  2509.      off_t offset, int size);
  2510. static int sg_proc_adio_write(struct file * filp, const char * buffer,
  2511.       unsigned long count, void * data);
  2512. static int sg_proc_dressz_read(char * buffer, char ** start, off_t offset,
  2513.        int size, int * eof, void * data);
  2514. static int sg_proc_dressz_info(char * buffer, int * len, off_t * begin,
  2515.        off_t offset, int size);
  2516. static int sg_proc_dressz_write(struct file * filp, const char * buffer,
  2517. unsigned long count, void * data);
  2518. static int sg_proc_debug_read(char * buffer, char ** start, off_t offset,
  2519.       int size, int * eof, void * data);
  2520. static int sg_proc_debug_info(char * buffer, int * len, off_t * begin,
  2521.       off_t offset, int size);
  2522. static int sg_proc_dev_read(char * buffer, char ** start, off_t offset,
  2523.     int size, int * eof, void * data);
  2524. static int sg_proc_dev_info(char * buffer, int * len, off_t * begin,
  2525.     off_t offset, int size);
  2526. static int sg_proc_devhdr_read(char * buffer, char ** start, off_t offset,
  2527.        int size, int * eof, void * data);
  2528. static int sg_proc_devhdr_info(char * buffer, int * len, off_t * begin,
  2529.        off_t offset, int size);
  2530. static int sg_proc_devstrs_read(char * buffer, char ** start, off_t offset,
  2531. int size, int * eof, void * data);
  2532. static int sg_proc_devstrs_info(char * buffer, int * len, off_t * begin,
  2533. off_t offset, int size);
  2534. static int sg_proc_host_read(char * buffer, char ** start, off_t offset,
  2535.      int size, int * eof, void * data);
  2536. static int sg_proc_host_info(char * buffer, int * len, off_t * begin,
  2537.      off_t offset, int size);
  2538. static int sg_proc_hosthdr_read(char * buffer, char ** start, off_t offset,
  2539. int size, int * eof, void * data);
  2540. static int sg_proc_hosthdr_info(char * buffer, int * len, off_t * begin,
  2541. off_t offset, int size);
  2542. static int sg_proc_hoststrs_read(char * buffer, char ** start, off_t offset,
  2543.  int size, int * eof, void * data);
  2544. static int sg_proc_hoststrs_info(char * buffer, int * len, off_t * begin,
  2545.  off_t offset, int size);
  2546. static int sg_proc_version_read(char * buffer, char ** start, off_t offset,
  2547. int size, int * eof, void * data);
  2548. static int sg_proc_version_info(char * buffer, int * len, off_t * begin,
  2549. off_t offset, int size);
  2550. static read_proc_t * sg_proc_leaf_reads[] = {
  2551.      sg_proc_adio_read, sg_proc_dressz_read, sg_proc_debug_read,
  2552.      sg_proc_dev_read, sg_proc_devhdr_read, sg_proc_devstrs_read,
  2553.      sg_proc_host_read, sg_proc_hosthdr_read, sg_proc_hoststrs_read,
  2554.      sg_proc_version_read};
  2555. static write_proc_t * sg_proc_leaf_writes[] = {
  2556.      sg_proc_adio_write, sg_proc_dressz_write, 0, 0, 0, 0, 0, 0, 0, 0};
  2557. #define PRINT_PROC(fmt,args...)                                 
  2558.     do {                                                        
  2559. *len += sprintf(buffer + *len, fmt, ##args);            
  2560. if (*begin + *len > offset + size)                      
  2561.     return 0;                                           
  2562. if (*begin + *len < offset) {                           
  2563.     *begin += *len;                                     
  2564.     *len = 0;                                           
  2565. }                                                       
  2566.     } while(0)
  2567. #define SG_PROC_READ_FN(infofp)                                 
  2568.     do {                                                        
  2569. int len = 0;                                            
  2570. off_t begin = 0;                                        
  2571. *eof = infofp(buffer, &len, &begin, offset, size);      
  2572. if (offset >= (begin + len))                            
  2573.     return 0;                                           
  2574. *start = buffer + offset - begin;
  2575. return (size < (begin + len - offset)) ?                
  2576. size : begin + len - offset;    
  2577.     } while(0)
  2578. static int sg_proc_init()
  2579. {
  2580.     int k, mask;
  2581.     int leaves = sizeof(sg_proc_leaf_names) / sizeof(sg_proc_leaf_names[0]);
  2582.     struct proc_dir_entry * pdep;
  2583.     if (! proc_scsi)
  2584. return 1;
  2585.     sg_proc_sgp = create_proc_entry(sg_proc_sg_dirname,
  2586.     S_IFDIR | S_IRUGO | S_IXUGO, proc_scsi);
  2587.     if (! sg_proc_sgp)
  2588. return 1;
  2589.     for (k = 0; k < leaves; ++k) {
  2590. mask = sg_proc_leaf_writes[k] ? S_IRUGO | S_IWUSR : S_IRUGO;
  2591. pdep = create_proc_entry(sg_proc_leaf_names[k], mask, sg_proc_sgp);
  2592. if (pdep) {
  2593.     pdep->read_proc = sg_proc_leaf_reads[k];
  2594.     if (sg_proc_leaf_writes[k])
  2595. pdep->write_proc = sg_proc_leaf_writes[k];
  2596. }
  2597.     }
  2598.     return 0;
  2599. }
  2600. static void sg_proc_cleanup()
  2601. {
  2602.     int k;
  2603.     int leaves = sizeof(sg_proc_leaf_names) / sizeof(sg_proc_leaf_names[0]);
  2604.     if ((! proc_scsi) || (! sg_proc_sgp))
  2605. return;
  2606.     for (k = 0; k < leaves; ++k)
  2607. remove_proc_entry(sg_proc_leaf_names[k], sg_proc_sgp);
  2608.     remove_proc_entry(sg_proc_sg_dirname, proc_scsi);
  2609. }
  2610. static int sg_proc_adio_read(char * buffer, char ** start, off_t offset,
  2611.        int size, int * eof, void * data)
  2612. { SG_PROC_READ_FN(sg_proc_adio_info); }
  2613. static int sg_proc_adio_info(char * buffer, int * len, off_t * begin,
  2614.      off_t offset, int size)
  2615. {
  2616.     PRINT_PROC("%dn", sg_allow_dio);
  2617.     return 1;
  2618. }
  2619. static int sg_proc_adio_write(struct file * filp, const char * buffer,
  2620.       unsigned long count, void * data)
  2621. {
  2622.     int num;
  2623.     char buff[11];
  2624.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2625. return -EACCES;
  2626.     num = (count < 10) ? count : 10;
  2627.     copy_from_user(buff, buffer, num);
  2628.     buff[num] = '';
  2629.     sg_allow_dio = simple_strtoul(buff, 0, 10) ? 1 : 0;
  2630.     return count;
  2631. }
  2632. static int sg_proc_dressz_read(char * buffer, char ** start, off_t offset,
  2633.        int size, int * eof, void * data)
  2634. { SG_PROC_READ_FN(sg_proc_dressz_info); }
  2635. static int sg_proc_dressz_info(char * buffer, int * len, off_t * begin,
  2636.        off_t offset, int size)
  2637. {
  2638.     PRINT_PROC("%dn", sg_big_buff);
  2639.     return 1;
  2640. }
  2641. static int sg_proc_dressz_write(struct file * filp, const char * buffer,
  2642. unsigned long count, void * data)
  2643. {
  2644.     int num;
  2645.     unsigned long k = ULONG_MAX;
  2646.     char buff[11];
  2647.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2648. return -EACCES;
  2649.     num = (count < 10) ? count : 10;
  2650.     copy_from_user(buff, buffer, num);
  2651.     buff[num] = '';
  2652.     k = simple_strtoul(buff, 0, 10);
  2653.     if (k <= 1048576) {
  2654. sg_big_buff = k;
  2655. return count;
  2656.     }
  2657.     return -ERANGE;
  2658. }
  2659. static int sg_proc_debug_read(char * buffer, char ** start, off_t offset,
  2660.       int size, int * eof, void * data)
  2661. { SG_PROC_READ_FN(sg_proc_debug_info); }
  2662. static int sg_proc_debug_info(char * buffer, int * len, off_t * begin,
  2663.       off_t offset, int size)
  2664. {
  2665.     Sg_device * sdp;
  2666.     const sg_io_hdr_t * hp;
  2667.     int j, max_dev, new_interface;
  2668.     if (NULL == sg_dev_arr) {
  2669. PRINT_PROC("sg_dev_arr NULL, driver not initializedn");
  2670. return 1;
  2671.     }
  2672.     max_dev = sg_last_dev();
  2673.     PRINT_PROC("dev_max(currently)=%d max_active_device=%d (origin 1)n",
  2674.        sg_template.dev_max, max_dev);
  2675.     PRINT_PROC(" scsi_dma_free_sectors=%u sg_pool_secs_aval=%d "
  2676.        "def_reserved_size=%dn",
  2677.        scsi_dma_free_sectors, sg_pool_secs_avail, sg_big_buff);
  2678.     for (j = 0; j < max_dev; ++j) {
  2679. if ((sdp = sg_get_dev(j))) {
  2680.     Sg_fd * fp;
  2681.     Sg_request * srp;
  2682.     struct scsi_device * scsidp;
  2683.     int dev, k, m, blen, usg;
  2684.  
  2685.     scsidp = sdp->device;
  2686.     if (NULL == scsidp) {
  2687. PRINT_PROC("device %d detached ??n", j);
  2688. continue;
  2689.     }
  2690.     dev = MINOR(sdp->i_rdev);
  2691.     if (sg_get_nth_sfp(sdp, 0)) {
  2692. PRINT_PROC(" >>> device=sg%d ", dev);
  2693. if (sdp->detached)
  2694.     PRINT_PROC("detached pending close ");
  2695. else
  2696.     PRINT_PROC("scsi%d chan=%d id=%d lun=%d   em=%d",
  2697.        scsidp->host->host_no, scsidp->channel,
  2698.        scsidp->id, scsidp->lun, scsidp->host->hostt->emulated);
  2699. PRINT_PROC(" sg_tablesize=%d excl=%dn", sdp->sg_tablesize, 
  2700.    sdp->exclude);
  2701.     }
  2702.     for (k = 0; (fp = sg_get_nth_sfp(sdp, k)); ++k) {
  2703. PRINT_PROC("   FD(%d): timeout=%dms bufflen=%d "
  2704.    "(res)sgat=%d low_dma=%dn", k + 1,
  2705.    sg_jif_to_ms(fp->timeout), fp->reserve.bufflen,
  2706.    (int)fp->reserve.k_use_sg, (int)fp->low_dma);
  2707. PRINT_PROC("   cmd_q=%d f_packid=%d k_orphan=%d closed=%dn",
  2708.    (int)fp->cmd_q, (int)fp->force_packid,
  2709.    (int)fp->keep_orphan, (int)fp->closed);
  2710. for (m = 0; (srp = sg_get_nth_request(fp, m)); ++m) {
  2711.     hp = &srp->header;
  2712.     new_interface = (hp->interface_id == '') ? 0 : 1;
  2713. /* stop indenting so far ... */
  2714. PRINT_PROC(srp->res_used ? ((new_interface && 
  2715.     (SG_FLAG_MMAP_IO & hp->flags)) ? "     mmap>> " : "     rb>> ") :
  2716.     ((SG_INFO_DIRECT_IO_MASK & hp->info) ? "     dio>> " : "     "));
  2717. blen = srp->my_cmdp ? srp->my_cmdp->sr_bufflen : srp->data.bufflen;
  2718. usg = srp->my_cmdp ? srp->my_cmdp->sr_use_sg : srp->data.k_use_sg;
  2719. PRINT_PROC(srp->done ? ((1 == srp->done) ? "rcv:" : "fin:") 
  2720.      : (srp->my_cmdp ? "act:" : "prior:"));
  2721. PRINT_PROC(" id=%d blen=%d", srp->header.pack_id, blen);
  2722. if (srp->done)
  2723.     PRINT_PROC(" dur=%d", hp->duration);
  2724. else
  2725.     PRINT_PROC(" t_o/elap=%d/%d", new_interface ? hp->timeout :
  2726. sg_jif_to_ms(fp->timeout),
  2727.   sg_jif_to_ms(hp->duration ? (jiffies - hp->duration) : 0));
  2728. PRINT_PROC("ms sgat=%d op=0x%02xn", usg, (int)srp->data.cmd_opcode);
  2729. /* reset indenting */
  2730. }
  2731. if (0 == m)
  2732.     PRINT_PROC("     No requests activen");
  2733.     }
  2734. }
  2735.     }
  2736.     return 1;
  2737. }
  2738. static int sg_proc_dev_read(char * buffer, char ** start, off_t offset,
  2739.     int size, int * eof, void * data)
  2740. { SG_PROC_READ_FN(sg_proc_dev_info); }
  2741. static int sg_proc_dev_info(char * buffer, int * len, off_t * begin,
  2742.     off_t offset, int size)
  2743. {
  2744.     Sg_device * sdp;
  2745.     int j, max_dev;
  2746.     struct scsi_device * scsidp;
  2747.     max_dev = sg_last_dev();
  2748.     for (j = 0; j < max_dev; ++j) {
  2749. sdp = sg_get_dev(j);
  2750. if (sdp && (scsidp = sdp->device) && (! sdp->detached))
  2751.     PRINT_PROC("%dt%dt%dt%dt%dt%dt%dt%dt%dn",
  2752.        scsidp->host->host_no, scsidp->channel, scsidp->id,
  2753.        scsidp->lun, (int)scsidp->type, (int)scsidp->access_count,
  2754.        (int)scsidp->queue_depth, (int)scsidp->device_busy,
  2755.        (int)scsidp->online);
  2756. else
  2757.     PRINT_PROC("-1t-1t-1t-1t-1t-1t-1t-1t-1n");
  2758.     }
  2759.     return 1;
  2760. }
  2761. static int sg_proc_devhdr_read(char * buffer, char ** start, off_t offset,
  2762.        int size, int * eof, void * data)
  2763. { SG_PROC_READ_FN(sg_proc_devhdr_info); }
  2764. static int sg_proc_devhdr_info(char * buffer, int * len, off_t * begin,
  2765.        off_t offset, int size)
  2766. {
  2767.     PRINT_PROC("hosttchantidtlunttypetopenstqdepthtbusytonlinen");
  2768.     return 1;
  2769. }
  2770. static int sg_proc_devstrs_read(char * buffer, char ** start, off_t offset,
  2771. int size, int * eof, void * data)
  2772. { SG_PROC_READ_FN(sg_proc_devstrs_info); }
  2773. static int sg_proc_devstrs_info(char * buffer, int * len, off_t * begin,
  2774. off_t offset, int size)
  2775. {
  2776.     Sg_device * sdp;
  2777.     int j, max_dev;
  2778.     struct scsi_device * scsidp;
  2779.     max_dev = sg_last_dev();
  2780.     for (j = 0; j < max_dev; ++j) {
  2781. sdp = sg_get_dev(j);
  2782. if (sdp && (scsidp = sdp->device) && (! sdp->detached))
  2783.     PRINT_PROC("%8.8st%16.16st%4.4sn",
  2784.        scsidp->vendor, scsidp->model, scsidp->rev);
  2785. else
  2786.     PRINT_PROC("<no active device>n");
  2787.     }
  2788.     return 1;
  2789. }
  2790. static int sg_proc_host_read(char * buffer, char ** start, off_t offset,
  2791.      int size, int * eof, void * data)
  2792. { SG_PROC_READ_FN(sg_proc_host_info); }
  2793. static int sg_proc_host_info(char * buffer, int * len, off_t * begin,
  2794.      off_t offset, int size)
  2795. {
  2796.     struct Scsi_Host * shp;
  2797.     int k;
  2798.     for (k = 0, shp = scsi_hostlist; shp; shp = shp->next, ++k) {
  2799.      for ( ; k < shp->host_no; ++k)
  2800.     PRINT_PROC("-1t-1t-1t-1t-1t-1n");
  2801. PRINT_PROC("%ut%hut%hdt%hut%dt%dn",
  2802.    shp->unique_id, shp->host_busy, shp->cmd_per_lun,
  2803.    shp->sg_tablesize, (int)shp->unchecked_isa_dma,
  2804.    (int)shp->hostt->emulated);
  2805.     }
  2806.     return 1;
  2807. }
  2808. static int sg_proc_hosthdr_read(char * buffer, char ** start, off_t offset,
  2809. int size, int * eof, void * data)
  2810. { SG_PROC_READ_FN(sg_proc_hosthdr_info); }
  2811. static int sg_proc_hosthdr_info(char * buffer, int * len, off_t * begin,
  2812. off_t offset, int size)
  2813. {
  2814.     PRINT_PROC("uidtbusytcpltscatgtisatemuln");
  2815.     return 1;
  2816. }
  2817. static int sg_proc_hoststrs_read(char * buffer, char ** start, off_t offset,
  2818.  int size, int * eof, void * data)
  2819. { SG_PROC_READ_FN(sg_proc_hoststrs_info); }
  2820. #define SG_MAX_HOST_STR_LEN 256
  2821. static int sg_proc_hoststrs_info(char * buffer, int * len, off_t * begin,
  2822.  off_t offset, int size)
  2823. {
  2824.     struct Scsi_Host * shp;
  2825.     int k;
  2826.     char buff[SG_MAX_HOST_STR_LEN];
  2827.     char * cp;
  2828.     for (k = 0, shp = scsi_hostlist; shp; shp = shp->next, ++k) {
  2829.      for ( ; k < shp->host_no; ++k)
  2830.     PRINT_PROC("<no active host>n");
  2831. strncpy(buff, shp->hostt->info ? shp->hostt->info(shp) :
  2832.     (shp->hostt->name ? shp->hostt->name : "<no name>"),
  2833. SG_MAX_HOST_STR_LEN);
  2834. buff[SG_MAX_HOST_STR_LEN - 1] = '';
  2835. for (cp = buff; *cp; ++cp) {
  2836.     if ('n' == *cp)
  2837. *cp = ' '; /* suppress imbedded newlines */
  2838. }
  2839. PRINT_PROC("%sn", buff);
  2840.     }
  2841.     return 1;
  2842. }
  2843. static int sg_proc_version_read(char * buffer, char ** start, off_t offset,
  2844. int size, int * eof, void * data)
  2845. { SG_PROC_READ_FN(sg_proc_version_info); }
  2846. static int sg_proc_version_info(char * buffer, int * len, off_t * begin,
  2847. off_t offset, int size)
  2848. {
  2849.     PRINT_PROC("%dt%sn", sg_version_num, sg_version_str);
  2850.     return 1;
  2851. }
  2852. #endif  /* CONFIG_PROC_FS */
  2853. module_init(init_sg);
  2854. module_exit(exit_sg);