sg.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:96k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *  History:
  3.  *  Started: Aug 9 by Lawrence Foard (entropy@world.std.com),
  4.  *           to allow user process control of SCSI devices.
  5.  *  Development Sponsored by Killy Corp. NY NY
  6.  *
  7.  * Original driver (sg.c):
  8.  *        Copyright (C) 1992 Lawrence Foard
  9.  * Version 2 and 3 extensions to driver:
  10.  *        Copyright (C) 1998 - 2001 Douglas Gilbert
  11.  *
  12.  *  Modified  19-JAN-1998  Richard Gooch <rgooch@atnf.csiro.au>  Devfs support
  13.  *
  14.  * This program is free software; you can redistribute it and/or modify
  15.  * it under the terms of the GNU General Public License as published by
  16.  * the Free Software Foundation; either version 2, or (at your option)
  17.  * any later version.
  18.  *
  19.  */
  20. #include <linux/config.h>
  21. #ifdef CONFIG_PROC_FS
  22.  static char sg_version_str[] = "Version: 3.1.22 (20011208)";
  23. #endif
  24.  static int sg_version_num = 30122; /* 2 digits for each component */
  25. /*
  26.  *  D. P. Gilbert (dgilbert@interlog.com, dougg@triode.net.au), notes:
  27.  *      - scsi logging is available via SCSI_LOG_TIMEOUT macros. First
  28.  *        the kernel/module needs to be built with CONFIG_SCSI_LOGGING
  29.  *        (otherwise the macros compile to empty statements).
  30.  *        Then before running the program to be debugged enter:
  31.  *          # echo "scsi log timeout 7" > /proc/scsi/scsi
  32.  *        This will send copious output to the console and the log which
  33.  *        is usually /var/log/messages. To turn off debugging enter:
  34.  *          # echo "scsi log timeout 0" > /proc/scsi/scsi
  35.  *        The 'timeout' token was chosen because it is relatively unused.
  36.  *        The token 'hlcomplete' should be used but that triggers too
  37.  *        much output from the sd device driver. To dump the current
  38.  *        state of the SCSI mid level data structures enter:
  39.  *          # echo "scsi dump 1" > /proc/scsi/scsi
  40.  *        To dump the state of sg's data structures use:
  41.  *          # cat /proc/scsi/sg/debug
  42.  *
  43.  */
  44. #include <linux/module.h>
  45. #include <linux/fs.h>
  46. #include <linux/kernel.h>
  47. #include <linux/sched.h>
  48. #include <linux/string.h>
  49. #include <linux/mm.h>
  50. #include <linux/errno.h>
  51. #include <linux/mtio.h>
  52. #include <linux/ioctl.h>
  53. #include <linux/fcntl.h>
  54. #include <linux/init.h>
  55. #include <linux/poll.h>
  56. #include <linux/smp_lock.h>
  57. #include <asm/io.h>
  58. #include <asm/uaccess.h>
  59. #include <asm/system.h>
  60. #include <linux/blk.h>
  61. #include "scsi.h"
  62. #include "hosts.h"
  63. #include <scsi/scsi_ioctl.h>
  64. #include <scsi/sg.h>
  65. #ifdef CONFIG_PROC_FS
  66. #include <linux/proc_fs.h>
  67. static int sg_proc_init(void);
  68. static void sg_proc_cleanup(void);
  69. #endif
  70. #ifndef LINUX_VERSION_CODE
  71. #include <linux/version.h>
  72. #endif /* LINUX_VERSION_CODE */
  73. #define SG_ALLOW_DIO_DEF 0
  74. #define SG_ALLOW_DIO_CODE /* compile out be commenting this define */
  75. #ifdef SG_ALLOW_DIO_CODE
  76. #include <linux/iobuf.h>
  77. #endif
  78. #define SG_NEW_KIOVEC 0 /* use alloc_kiovec(), not alloc_kiovec_sz() */
  79. int sg_big_buff = SG_DEF_RESERVED_SIZE;
  80. /* N.B. This variable is readable and writeable via
  81.    /proc/scsi/sg/def_reserved_size . Each time sg_open() is called a buffer
  82.    of this size (or less if there is not enough memory) will be reserved
  83.    for use by this file descriptor. [Deprecated usage: this variable is also
  84.    readable via /proc/sys/kernel/sg-big-buff if the sg driver is built into
  85.    the kernel (i.e. it is not a module).] */
  86. static int def_reserved_size = -1;      /* picks up init parameter */
  87. static int sg_allow_dio = SG_ALLOW_DIO_DEF;
  88. #define SG_SECTOR_SZ 512
  89. #define SG_SECTOR_MSK (SG_SECTOR_SZ - 1)
  90. #define SG_LOW_POOL_THRESHHOLD 30
  91. #define SG_MAX_POOL_SECTORS 320  /* Max. number of pool sectors to take */
  92. static int sg_pool_secs_avail = SG_MAX_POOL_SECTORS;
  93. #define SG_HEAP_PAGE 1  /* heap from kernel via get_free_pages() */
  94. #define SG_HEAP_KMAL 2  /* heap from kernel via kmalloc() */
  95. #define SG_HEAP_POOL 3  /* heap from scsi dma pool (mid-level) */
  96. #define SG_USER_MEM 4   /* memory belongs to user space */
  97. #define SG_DEV_ARR_LUMP 6 /* amount to over allocate sg_dev_arr by */
  98. static int sg_init(void);
  99. static int sg_attach(Scsi_Device *);
  100. static void sg_finish(void);
  101. static int sg_detect(Scsi_Device *);
  102. static void sg_detach(Scsi_Device *);
  103. static Scsi_Request * dummy_cmdp; /* only used for sizeof */
  104. static rwlock_t sg_dev_arr_lock = RW_LOCK_UNLOCKED;  /* Also used to lock
  105. file descriptor list for device */
  106. static struct Scsi_Device_Template sg_template =
  107. {
  108.       tag:"sg",
  109.       scsi_type:0xff,
  110.       major:SCSI_GENERIC_MAJOR,
  111.       detect:sg_detect,
  112.       init:sg_init,
  113.       finish:sg_finish,
  114.       attach:sg_attach,
  115.       detach:sg_detach
  116. };
  117. typedef struct sg_scatter_hold  /* holding area for scsi scatter gather info */
  118. {
  119.     unsigned short k_use_sg;    /* Count of kernel scatter-gather pieces */
  120.     unsigned short sglist_len;  /* size of malloc'd scatter-gather list ++ */
  121.     unsigned bufflen;           /* Size of (aggregate) data buffer */
  122.     unsigned b_malloc_len;      /* actual len malloc'ed in buffer */
  123.     void * buffer;              /* Data buffer or scatter list + mem_src_arr */
  124.     struct kiobuf * kiobp;      /* for direct IO information */
  125.     char mapped;                /* indicates kiobp has locked pages */
  126.     char buffer_mem_src;        /* heap whereabouts of 'buffer' */
  127.     unsigned char cmd_opcode;   /* first byte of command */
  128. } Sg_scatter_hold;    /* 24 bytes long on i386 */
  129. struct sg_device;               /* forward declarations */
  130. struct sg_fd;
  131. typedef struct sg_request  /* SG_MAX_QUEUE requests outstanding per file */
  132. {
  133.     Scsi_Request * my_cmdp;     /* != 0  when request with lower levels */
  134.     struct sg_request * nextrp; /* NULL -> tail request (slist) */
  135.     struct sg_fd * parentfp;    /* NULL -> not in use */
  136.     Sg_scatter_hold data;       /* hold buffer, perhaps scatter list */
  137.     sg_io_hdr_t header;         /* scsi command+info, see <scsi/sg.h> */
  138.     unsigned char sense_b[sizeof(dummy_cmdp->sr_sense_buffer)];
  139.     char res_used;              /* 1 -> using reserve buffer, 0 -> not ... */
  140.     char orphan;                /* 1 -> drop on sight, 0 -> normal */
  141.     char sg_io_owned;           /* 1 -> packet belongs to SG_IO */
  142.     volatile char done;         /* 0->before bh, 1->before read, 2->read */
  143. } Sg_request; /* 168 bytes long on i386 */
  144. typedef struct sg_fd /* holds the state of a file descriptor */
  145. {
  146.     struct sg_fd * nextfp; /* NULL when last opened fd on this device */
  147.     struct sg_device * parentdp;     /* owning device */
  148.     wait_queue_head_t read_wait;     /* queue read until command done */
  149.     rwlock_t rq_list_lock;      /* protect access to list in req_arr */
  150.     int timeout;                     /* defaults to SG_DEFAULT_TIMEOUT */
  151.     Sg_scatter_hold reserve;  /* buffer held for this file descriptor */
  152.     unsigned save_scat_len;   /* original length of trunc. scat. element */
  153.     Sg_request * headrp;      /* head of request slist, NULL->empty */
  154.     struct fasync_struct * async_qp; /* used by asynchronous notification */
  155.     Sg_request req_arr[SG_MAX_QUEUE]; /* used as singly-linked list */
  156.     char low_dma;       /* as in parent but possibly overridden to 1 */
  157.     char force_packid;  /* 1 -> pack_id input to read(), 0 -> ignored */
  158.     volatile char closed; /* 1 -> fd closed but request(s) outstanding */
  159.     char fd_mem_src;    /* heap whereabouts of this Sg_fd object */
  160.     char cmd_q;         /* 1 -> allow command queuing, 0 -> don't */
  161.     char next_cmd_len;  /* 0 -> automatic (def), >0 -> use on next write() */
  162.     char keep_orphan;   /* 0 -> drop orphan (def), 1 -> keep for read() */
  163.     char mmap_called;   /* 0 -> mmap() never called on this fd */
  164. } Sg_fd; /* 2760 bytes long on i386 */
  165. typedef struct sg_device /* holds the state of each scsi generic device */
  166. {
  167.     Scsi_Device * device;
  168.     wait_queue_head_t o_excl_wait;   /* queue open() when O_EXCL in use */
  169.     int sg_tablesize;   /* adapter's max scatter-gather table size */
  170.     Sg_fd * headfp;     /* first open fd belonging to this device */
  171.     devfs_handle_t de;
  172.     kdev_t i_rdev;      /* holds device major+minor number */
  173.     volatile char detached;  /* 0->attached, 1->detached pending removal */
  174.     volatile char exclude;   /* opened for exclusive access */
  175.     char sgdebug;       /* 0->off, 1->sense, 9->dump dev, 10-> all devs */
  176. } Sg_device; /* 36 bytes long on i386 */
  177. static int sg_fasync(int fd, struct file * filp, int mode);
  178. static void sg_cmd_done_bh(Scsi_Cmnd * SCpnt);
  179. static int sg_start_req(Sg_request * srp);
  180. static void sg_finish_rem_req(Sg_request * srp);
  181. static int sg_build_indi(Sg_scatter_hold * schp, Sg_fd * sfp, int buff_size);
  182. static int sg_build_sgat(Sg_scatter_hold * schp, const Sg_fd * sfp,
  183.  int tablesize);
  184. static ssize_t sg_new_read(Sg_fd * sfp, char * buf, size_t count,
  185.    Sg_request * srp);
  186. static ssize_t sg_new_write(Sg_fd * sfp, const char * buf, size_t count,
  187. int blocking, int read_only, Sg_request ** o_srp);
  188. static int sg_common_write(Sg_fd * sfp, Sg_request * srp,
  189.    unsigned char * cmnd, int timeout, int blocking);
  190. static int sg_u_iovec(sg_io_hdr_t * hp, int sg_num, int ind,
  191.       int wr_xf, int * countp, unsigned char ** up);
  192. static int sg_write_xfer(Sg_request * srp);
  193. static int sg_read_xfer(Sg_request * srp);
  194. static void sg_read_oxfer(Sg_request * srp, char * outp, int num_read_xfer);
  195. static void sg_remove_scat(Sg_scatter_hold * schp);
  196. static char * sg_get_sgat_msa(Sg_scatter_hold * schp);
  197. static void sg_build_reserve(Sg_fd * sfp, int req_size);
  198. static void sg_link_reserve(Sg_fd * sfp, Sg_request * srp, int size);
  199. static void sg_unlink_reserve(Sg_fd * sfp, Sg_request * srp);
  200. static char * sg_malloc(const Sg_fd * sfp, int size, int * retSzp,
  201.                         int * mem_srcp);
  202. static void sg_free(char * buff, int size, int mem_src);
  203. static char * sg_low_malloc(int rqSz, int lowDma, int mem_src,
  204.                             int * retSzp);
  205. static void sg_low_free(char * buff, int size, int mem_src);
  206. static Sg_fd * sg_add_sfp(Sg_device * sdp, int dev);
  207. static int sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp);
  208. static void __sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp);
  209. static Sg_request * sg_get_rq_mark(Sg_fd * sfp, int pack_id);
  210. static Sg_request * sg_add_request(Sg_fd * sfp);
  211. static int sg_remove_request(Sg_fd * sfp, Sg_request * srp);
  212. static int sg_res_in_use(Sg_fd * sfp);
  213. static int sg_ms_to_jif(unsigned int msecs);
  214. static inline unsigned sg_jif_to_ms(int jifs);
  215. static int sg_allow_access(unsigned char opcode, char dev_type);
  216. static int sg_build_dir(Sg_request * srp, Sg_fd * sfp, int dxfer_len);
  217. static void sg_unmap_and(Sg_scatter_hold * schp, int free_also);
  218. static Sg_device * sg_get_dev(int dev);
  219. static inline int sg_alloc_kiovec(int nr, struct kiobuf **bufp, int *szp);
  220. static inline void sg_free_kiovec(int nr, struct kiobuf **bufp, int *szp);
  221. #ifdef CONFIG_PROC_FS
  222. static int sg_last_dev(void);
  223. #endif
  224. static Sg_device ** sg_dev_arr = NULL;
  225. #define SZ_SG_HEADER sizeof(struct sg_header)
  226. #define SZ_SG_IO_HDR sizeof(sg_io_hdr_t)
  227. #define SZ_SG_IOVEC sizeof(sg_iovec_t)
  228. #define SZ_SG_REQ_INFO sizeof(sg_req_info_t)
  229. static int sg_open(struct inode * inode, struct file * filp)
  230. {
  231.     int dev = MINOR(inode->i_rdev);
  232.     int flags = filp->f_flags;
  233.     Sg_device * sdp;
  234.     Sg_fd * sfp;
  235.     int res;
  236.     int retval = -EBUSY;
  237.     SCSI_LOG_TIMEOUT(3, printk("sg_open: dev=%d, flags=0x%xn", dev, flags));
  238.     sdp = sg_get_dev(dev);
  239.     if ((! sdp) || (! sdp->device))
  240.         return -ENXIO;
  241.     if (sdp->detached)
  242.      return -ENODEV;
  243.      /* This driver's module count bumped by fops_get in <linux/fs.h> */
  244.      /* Prevent the device driver from vanishing while we sleep */
  245.      if (sdp->device->host->hostt->module)
  246.         __MOD_INC_USE_COUNT(sdp->device->host->hostt->module);
  247.     sdp->device->access_count++;
  248.     if (! ((flags & O_NONBLOCK) ||
  249.    scsi_block_when_processing_errors(sdp->device))) {
  250.         retval = -ENXIO;
  251. /* we are in error recovery for this device */
  252. goto error_out;
  253.     }
  254.     if (flags & O_EXCL) {
  255.         if (O_RDONLY == (flags & O_ACCMODE))  {
  256.             retval = -EACCES;   /* Can't lock it with read only access */
  257.     goto error_out;
  258. }
  259. if (sdp->headfp && (flags & O_NONBLOCK))
  260.             goto error_out;
  261.         res = 0; 
  262. __wait_event_interruptible(sdp->o_excl_wait,
  263.        ((sdp->headfp || sdp->exclude) ? 0 : (sdp->exclude = 1)),
  264.                                    res);
  265.         if (res) {
  266.             retval = res; /* -ERESTARTSYS because signal hit process */
  267.     goto error_out;
  268.         }
  269.     }
  270.     else if (sdp->exclude) { /* some other fd has an exclusive lock on dev */
  271.         if (flags & O_NONBLOCK)
  272.             goto error_out;
  273.         res = 0; 
  274.         __wait_event_interruptible(sdp->o_excl_wait, (! sdp->exclude), res);
  275.         if (res) {
  276.             retval = res; /* -ERESTARTSYS because signal hit process */
  277.     goto error_out;
  278.         }
  279.     }
  280.     if (sdp->detached) {
  281.      retval = -ENODEV;
  282. goto error_out;
  283.     }
  284.     if (! sdp->headfp) { /* no existing opens on this device */
  285.         sdp->sgdebug = 0;
  286.         sdp->sg_tablesize = sdp->device->host->sg_tablesize;
  287.     }
  288.     if ((sfp = sg_add_sfp(sdp, dev)))
  289.         filp->private_data = sfp;
  290.     else {
  291.         if (flags & O_EXCL) sdp->exclude = 0; /* undo if error */
  292.         retval = -ENOMEM;
  293. goto error_out;
  294.     }
  295.     return 0;
  296. error_out:
  297.     sdp->device->access_count--;
  298.     if ((! sdp->detached) && sdp->device->host->hostt->module)
  299.         __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  300.     return retval;
  301. }
  302. /* Following function was formerly called 'sg_close' */
  303. static int sg_release(struct inode * inode, struct file * filp)
  304. {
  305.     Sg_device * sdp;
  306.     Sg_fd * sfp;
  307.     lock_kernel();
  308.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp))) {
  309. unlock_kernel();
  310.         return -ENXIO;
  311.     }
  312.     SCSI_LOG_TIMEOUT(3, printk("sg_release: dev=%dn", MINOR(sdp->i_rdev)));
  313.     sg_fasync(-1, filp, 0);   /* remove filp from async notification list */
  314.     if (0 == sg_remove_sfp(sdp, sfp)) { /* Returns 1 when sdp gone */
  315.         if (! sdp->detached) {
  316.             sdp->device->access_count--;
  317.             if (sdp->device->host->hostt->module)
  318.                 __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  319.         }
  320. sdp->exclude = 0;
  321. wake_up_interruptible(&sdp->o_excl_wait);
  322.     }
  323.     unlock_kernel();
  324.     return 0;
  325. }
  326. static ssize_t sg_read(struct file * filp, char * buf,
  327.                        size_t count, loff_t *ppos)
  328. {
  329.     int k, res;
  330.     Sg_device * sdp;
  331.     Sg_fd * sfp;
  332.     Sg_request * srp;
  333.     int req_pack_id = -1;
  334.     struct sg_header old_hdr;
  335.     sg_io_hdr_t new_hdr;
  336.     sg_io_hdr_t * hp;
  337.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  338.         return -ENXIO;
  339.     SCSI_LOG_TIMEOUT(3, printk("sg_read: dev=%d, count=%dn",
  340.                                MINOR(sdp->i_rdev), (int)count));
  341.     if (ppos != &filp->f_pos)
  342.         ; /* FIXME: Hmm.  Seek to the right place, or fail?  */
  343.     if ((k = verify_area(VERIFY_WRITE, buf, count)))
  344.         return k;
  345.     if (sfp->force_packid && (count >= SZ_SG_HEADER)) {
  346. __copy_from_user(&old_hdr, buf, SZ_SG_HEADER);
  347. if (old_hdr.reply_len < 0) {
  348.     if (count >= SZ_SG_IO_HDR) {
  349. __copy_from_user(&new_hdr, buf, SZ_SG_IO_HDR);
  350. req_pack_id = new_hdr.pack_id;
  351.     }
  352. }
  353. else
  354.     req_pack_id = old_hdr.pack_id;
  355.     }
  356.     srp = sg_get_rq_mark(sfp, req_pack_id);
  357.     if (! srp) { /* now wait on packet to arrive */
  358. if (sdp->detached)
  359.     return -ENODEV;
  360.         if (filp->f_flags & O_NONBLOCK)
  361.             return -EAGAIN;
  362. while (1) {
  363.     res = 0;  /* following is a macro that beats race condition */
  364.     __wait_event_interruptible(sfp->read_wait, (sdp->detached || 
  365.     (srp = sg_get_rq_mark(sfp, req_pack_id))), res);
  366.     if (sdp->detached)
  367. return -ENODEV;
  368.     if (0 == res)
  369. break;
  370.     return res; /* -ERESTARTSYS because signal hit process */
  371. }
  372.     }
  373.     if (srp->header.interface_id != '')
  374. return sg_new_read(sfp, buf, count, srp);
  375.     hp = &srp->header;
  376.     memset(&old_hdr, 0, SZ_SG_HEADER);
  377.     old_hdr.reply_len = (int)hp->timeout;
  378.     old_hdr.pack_len = old_hdr.reply_len;   /* very old, strange behaviour */
  379.     old_hdr.pack_id = hp->pack_id;
  380.     old_hdr.twelve_byte =
  381.     ((srp->data.cmd_opcode >= 0xc0) && (12 == hp->cmd_len)) ? 1 : 0;
  382.     old_hdr.target_status = hp->masked_status;
  383.     old_hdr.host_status = hp->host_status;
  384.     old_hdr.driver_status = hp->driver_status;
  385.     if ((CHECK_CONDITION & hp->masked_status) ||
  386. (DRIVER_SENSE & hp->driver_status))
  387. memcpy(old_hdr.sense_buffer, srp->sense_b,
  388.        sizeof(old_hdr.sense_buffer));
  389.     switch (hp->host_status)
  390.     { /* This setup of 'result' is for backward compatibility and is best
  391.  ignored by the user who should use target, host + driver status */
  392. case DID_OK:
  393. case DID_PASSTHROUGH:
  394. case DID_SOFT_ERROR:
  395.     old_hdr.result = 0;
  396.     break;
  397. case DID_NO_CONNECT:
  398. case DID_BUS_BUSY:
  399. case DID_TIME_OUT:
  400.     old_hdr.result = EBUSY;
  401.     break;
  402. case DID_BAD_TARGET:
  403. case DID_ABORT:
  404. case DID_PARITY:
  405. case DID_RESET:
  406. case DID_BAD_INTR:
  407.     old_hdr.result = EIO;
  408.     break;
  409. case DID_ERROR:
  410.     old_hdr.result =
  411.       (srp->sense_b[0] == 0 && hp->masked_status == GOOD) ? 0 : EIO;
  412.     break;
  413. default:
  414.     old_hdr.result = EIO;
  415.     break;
  416.     }
  417.     /* Now copy the result back to the user buffer.  */
  418.     if (count >= SZ_SG_HEADER) {
  419. __copy_to_user(buf, &old_hdr, SZ_SG_HEADER);
  420.         buf += SZ_SG_HEADER;
  421. if (count > old_hdr.reply_len)
  422.     count = old_hdr.reply_len;
  423. if (count > SZ_SG_HEADER)
  424.     sg_read_oxfer(srp, buf, count - SZ_SG_HEADER);
  425.     }
  426.     else
  427. count = (old_hdr.result == 0) ? 0 : -EIO;
  428.     sg_finish_rem_req(srp);
  429.     return count;
  430. }
  431. static ssize_t sg_new_read(Sg_fd * sfp, char * buf, size_t count,
  432.    Sg_request * srp)
  433. {
  434.     sg_io_hdr_t * hp = &srp->header;
  435.     int err = 0;
  436.     int len;
  437.     if (count < SZ_SG_IO_HDR) {
  438. err = -EINVAL;
  439.      goto err_out;
  440.     }
  441.     hp->sb_len_wr = 0;
  442.     if ((hp->mx_sb_len > 0) && hp->sbp) {
  443. if ((CHECK_CONDITION & hp->masked_status) ||
  444.     (DRIVER_SENSE & hp->driver_status)) {
  445.     int sb_len = sizeof(dummy_cmdp->sr_sense_buffer);
  446.     sb_len = (hp->mx_sb_len > sb_len) ? sb_len : hp->mx_sb_len;
  447.     len = 8 + (int)srp->sense_b[7]; /* Additional sense length field */
  448.     len = (len > sb_len) ? sb_len : len;
  449.     if ((err = verify_area(VERIFY_WRITE, hp->sbp, len)))
  450. goto err_out;
  451.     __copy_to_user(hp->sbp, srp->sense_b, len);
  452.     hp->sb_len_wr = len;
  453. }
  454.     }
  455.     if (hp->masked_status || hp->host_status || hp->driver_status)
  456. hp->info |= SG_INFO_CHECK;
  457.     copy_to_user(buf, hp, SZ_SG_IO_HDR);
  458.     err = sg_read_xfer(srp);
  459. err_out:
  460.     sg_finish_rem_req(srp);
  461.     return (0 == err) ? count : err;
  462. }
  463. static ssize_t sg_write(struct file * filp, const char * buf,
  464.                         size_t count, loff_t *ppos)
  465. {
  466.     int                   mxsize, cmd_size, k;
  467.     int                   input_size, blocking;
  468.     unsigned char         opcode;
  469.     Sg_device           * sdp;
  470.     Sg_fd               * sfp;
  471.     Sg_request          * srp;
  472.     struct sg_header      old_hdr;
  473.     sg_io_hdr_t         * hp;
  474.     unsigned char         cmnd[sizeof(dummy_cmdp->sr_cmnd)];
  475.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  476.         return -ENXIO;
  477.     SCSI_LOG_TIMEOUT(3, printk("sg_write: dev=%d, count=%dn",
  478.                                MINOR(sdp->i_rdev), (int)count));
  479.     if (sdp->detached)
  480.      return -ENODEV;
  481.     if (! ((filp->f_flags & O_NONBLOCK) ||
  482.            scsi_block_when_processing_errors(sdp->device)))
  483.         return -ENXIO;
  484.     if (ppos != &filp->f_pos)
  485.         ; /* FIXME: Hmm.  Seek to the right place, or fail?  */
  486.     if ((k = verify_area(VERIFY_READ, buf, count)))
  487.         return k;  /* protects following copy_from_user()s + get_user()s */
  488.     if (count < SZ_SG_HEADER)
  489. return -EIO;
  490.     __copy_from_user(&old_hdr, buf, SZ_SG_HEADER);
  491.     blocking = !(filp->f_flags & O_NONBLOCK);
  492.     if (old_hdr.reply_len < 0)
  493. return sg_new_write(sfp, buf, count, blocking, 0, NULL);
  494.     if (count < (SZ_SG_HEADER + 6))
  495. return -EIO;   /* The minimum scsi command length is 6 bytes. */
  496.     if (! (srp = sg_add_request(sfp))) {
  497. SCSI_LOG_TIMEOUT(1, printk("sg_write: queue fulln"));
  498. return -EDOM;
  499.     }
  500.     buf += SZ_SG_HEADER;
  501.     __get_user(opcode, buf);
  502.     if (sfp->next_cmd_len > 0) {
  503.         if (sfp->next_cmd_len > MAX_COMMAND_SIZE) {
  504.             SCSI_LOG_TIMEOUT(1, printk("sg_write: command length too longn"));
  505.             sfp->next_cmd_len = 0;
  506.     sg_remove_request(sfp, srp);
  507.             return -EIO;
  508.         }
  509.         cmd_size = sfp->next_cmd_len;
  510.         sfp->next_cmd_len = 0; /* reset so only this write() effected */
  511.     }
  512.     else {
  513.         cmd_size = COMMAND_SIZE(opcode); /* based on SCSI command group */
  514. if ((opcode >= 0xc0) && old_hdr.twelve_byte)
  515.             cmd_size = 12;
  516.     }
  517.     SCSI_LOG_TIMEOUT(4, printk("sg_write:   scsi opcode=0x%02x, cmd_size=%dn",
  518.                                (int)opcode, cmd_size));
  519. /* Determine buffer size.  */
  520.     input_size = count - cmd_size;
  521.     mxsize = (input_size > old_hdr.reply_len) ? input_size :
  522. old_hdr.reply_len;
  523.     mxsize -= SZ_SG_HEADER;
  524.     input_size -= SZ_SG_HEADER;
  525.     if (input_size < 0) {
  526.         sg_remove_request(sfp, srp);
  527.         return -EIO; /* User did not pass enough bytes for this command. */
  528.     }
  529.     hp = &srp->header;
  530.     hp->interface_id = ''; /* indicator of old interface tunnelled */
  531.     hp->cmd_len = (unsigned char)cmd_size;
  532.     hp->iovec_count = 0;
  533.     hp->mx_sb_len = 0;
  534.     if (input_size > 0)
  535. hp->dxfer_direction = ((old_hdr.reply_len - SZ_SG_HEADER) > 0) ?
  536.       SG_DXFER_TO_FROM_DEV : SG_DXFER_TO_DEV;
  537.     else
  538. hp->dxfer_direction = (mxsize > 0) ? SG_DXFER_FROM_DEV :
  539.      SG_DXFER_NONE;
  540.     hp->dxfer_len = mxsize;
  541.     hp->dxferp = (unsigned char *)buf + cmd_size;
  542.     hp->sbp = NULL;
  543.     hp->timeout = old_hdr.reply_len;    /* structure abuse ... */
  544.     hp->flags = input_size;             /* structure abuse ... */
  545.     hp->pack_id = old_hdr.pack_id;
  546.     hp->usr_ptr = NULL;
  547.     __copy_from_user(cmnd, buf, cmd_size);
  548.     k = sg_common_write(sfp, srp, cmnd, sfp->timeout, blocking);
  549.     return (k < 0) ? k : count;
  550. }
  551. static ssize_t sg_new_write(Sg_fd * sfp, const char * buf, size_t count,
  552.     int blocking, int read_only, Sg_request ** o_srp)
  553. {
  554.     int                   k;
  555.     Sg_request          * srp;
  556.     sg_io_hdr_t         * hp;
  557.     unsigned char         cmnd[sizeof(dummy_cmdp->sr_cmnd)];
  558.     int                   timeout;
  559.     if (count < SZ_SG_IO_HDR)
  560. return -EINVAL;
  561.     if ((k = verify_area(VERIFY_READ, buf, count)))
  562. return k;  /* protects following copy_from_user()s + get_user()s */
  563.     sfp->cmd_q = 1;  /* when sg_io_hdr seen, set command queuing on */
  564.     if (! (srp = sg_add_request(sfp))) {
  565. SCSI_LOG_TIMEOUT(1, printk("sg_new_write: queue fulln"));
  566. return -EDOM;
  567.     }
  568.     hp = &srp->header;
  569.     __copy_from_user(hp, buf, SZ_SG_IO_HDR);
  570.     if (hp->interface_id != 'S') {
  571. sg_remove_request(sfp, srp);
  572. return -ENOSYS;
  573.     }
  574.     if (hp->flags & SG_FLAG_MMAP_IO) {
  575.      if (hp->dxfer_len > sfp->reserve.bufflen) {
  576.     sg_remove_request(sfp, srp);
  577.     return -ENOMEM; /* MMAP_IO size must fit in reserve buffer */
  578. }
  579. if (hp->flags & SG_FLAG_DIRECT_IO) {
  580.     sg_remove_request(sfp, srp);
  581.     return -EINVAL; /* either MMAP_IO or DIRECT_IO (not both) */
  582. }
  583. if (sg_res_in_use(sfp)) {
  584.     sg_remove_request(sfp, srp);
  585.     return -EBUSY; /* reserve buffer already being used */
  586. }
  587.     }
  588.     timeout = sg_ms_to_jif(srp->header.timeout);
  589.     if ((! hp->cmdp) || (hp->cmd_len < 6) || (hp->cmd_len > sizeof(cmnd))) {
  590. sg_remove_request(sfp, srp);
  591. return -EMSGSIZE;
  592.     }
  593.     if ((k = verify_area(VERIFY_READ, hp->cmdp, hp->cmd_len))) {
  594. sg_remove_request(sfp, srp);
  595. return k;  /* protects following copy_from_user()s + get_user()s */
  596.     }
  597.     __copy_from_user(cmnd, hp->cmdp, hp->cmd_len);
  598.     if (read_only &&
  599. (! sg_allow_access(cmnd[0], sfp->parentdp->device->type))) {
  600. sg_remove_request(sfp, srp);
  601. return -EACCES;
  602.     }
  603.     k = sg_common_write(sfp, srp, cmnd, timeout, blocking);
  604.     if (k < 0) return k;
  605.     if (o_srp) *o_srp = srp;
  606.     return count;
  607. }
  608. static int sg_common_write(Sg_fd * sfp, Sg_request * srp,
  609.    unsigned char * cmnd, int timeout, int blocking)
  610. {
  611.     int                   k;
  612.     Scsi_Request        * SRpnt;
  613.     Sg_device           * sdp = sfp->parentdp;
  614.     sg_io_hdr_t         * hp = &srp->header;
  615.     request_queue_t * q;
  616.     srp->data.cmd_opcode = cmnd[0];  /* hold opcode of command */
  617.     hp->status = 0;
  618.     hp->masked_status = 0;
  619.     hp->msg_status = 0;
  620.     hp->info = 0;
  621.     hp->host_status = 0;
  622.     hp->driver_status = 0;
  623.     hp->resid = 0;
  624.     SCSI_LOG_TIMEOUT(4,
  625. printk("sg_common_write:  scsi opcode=0x%02x, cmd_size=%dn",
  626.        (int)cmnd[0], (int)hp->cmd_len));
  627.     if ((k = sg_start_req(srp))) {
  628. SCSI_LOG_TIMEOUT(1, printk("sg_write: start_req err=%dn", k));
  629. sg_finish_rem_req(srp);
  630.         return k;    /* probably out of space --> ENOMEM */
  631.     }
  632.     if ((k = sg_write_xfer(srp))) {
  633. SCSI_LOG_TIMEOUT(1, printk("sg_write: write_xfer, bad addressn"));
  634. sg_finish_rem_req(srp);
  635. return k;
  636.     }
  637.     if (sdp->detached) {
  638.      sg_finish_rem_req(srp);
  639.      return -ENODEV;
  640.     }
  641.     SRpnt = scsi_allocate_request(sdp->device);
  642.     if(SRpnt == NULL) {
  643.      SCSI_LOG_TIMEOUT(1, printk("sg_write: no memn"));
  644.      sg_finish_rem_req(srp);
  645.      return -ENOMEM;
  646.     }
  647.     srp->my_cmdp = SRpnt;
  648.     q = &SRpnt->sr_device->request_queue;
  649.     SRpnt->sr_request.rq_dev = sdp->i_rdev;
  650.     SRpnt->sr_request.rq_status = RQ_ACTIVE;
  651.     SRpnt->sr_sense_buffer[0] = 0;
  652.     SRpnt->sr_cmd_len = hp->cmd_len;
  653.     if (! (hp->flags & SG_FLAG_LUN_INHIBIT)) {
  654. if (sdp->device->scsi_level <= SCSI_2)
  655.     cmnd[1] = (cmnd[1] & 0x1f) | (sdp->device->lun << 5);
  656.     }
  657.     SRpnt->sr_use_sg = srp->data.k_use_sg;
  658.     SRpnt->sr_sglist_len = srp->data.sglist_len;
  659.     SRpnt->sr_bufflen = srp->data.bufflen;
  660.     SRpnt->sr_underflow = 0;
  661.     SRpnt->sr_buffer = srp->data.buffer;
  662.     switch (hp->dxfer_direction) {
  663.     case SG_DXFER_TO_FROM_DEV:
  664.     case SG_DXFER_FROM_DEV:
  665. SRpnt->sr_data_direction = SCSI_DATA_READ; break;
  666.     case SG_DXFER_TO_DEV:
  667. SRpnt->sr_data_direction = SCSI_DATA_WRITE; break;
  668.     case SG_DXFER_UNKNOWN:
  669. SRpnt->sr_data_direction = SCSI_DATA_UNKNOWN; break;
  670.     default:
  671. SRpnt->sr_data_direction = SCSI_DATA_NONE; break;
  672.     }
  673.     srp->data.k_use_sg = 0;
  674.     srp->data.sglist_len = 0;
  675.     srp->data.bufflen = 0;
  676.     srp->data.buffer = NULL;
  677.     hp->duration = jiffies; /* unit jiffies now, millisecs after done */
  678. /* Now send everything of to mid-level. The next time we hear about this
  679.    packet is when sg_cmd_done_bh() is called (i.e. a callback). */
  680.     scsi_do_req(SRpnt, (void *)cmnd,
  681. (void *)SRpnt->sr_buffer, hp->dxfer_len,
  682. sg_cmd_done_bh, timeout, SG_DEFAULT_RETRIES);
  683.     /* dxfer_len overwrites SRpnt->sr_bufflen, hence need for b_malloc_len */
  684. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,1)
  685.     generic_unplug_device(q);
  686. #endif
  687.     return 0;
  688. }
  689. static int sg_ioctl(struct inode * inode, struct file * filp,
  690.                     unsigned int cmd_in, unsigned long arg)
  691. {
  692.     int result, val, read_only;
  693.     Sg_device * sdp;
  694.     Sg_fd * sfp;
  695.     Sg_request * srp;
  696.     unsigned long iflags;
  697.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  698.         return -ENXIO;
  699.     SCSI_LOG_TIMEOUT(3, printk("sg_ioctl: dev=%d, cmd=0x%xn",
  700.                                MINOR(sdp->i_rdev), (int)cmd_in));
  701.     read_only = (O_RDWR != (filp->f_flags & O_ACCMODE));
  702.     switch(cmd_in)
  703.     {
  704.     case SG_IO:
  705. {
  706.     int blocking = 1;   /* ignore O_NONBLOCK flag */
  707.     if (sdp->detached)
  708. return -ENODEV;
  709.     if(! scsi_block_when_processing_errors(sdp->device) )
  710. return -ENXIO;
  711.     result = verify_area(VERIFY_WRITE, (void *)arg, SZ_SG_IO_HDR);
  712.     if (result) return result;
  713.     result = sg_new_write(sfp, (const char *)arg, SZ_SG_IO_HDR,
  714.   blocking, read_only, &srp);
  715.     if (result < 0) return result;
  716.     srp->sg_io_owned = 1;
  717.     while (1) {
  718. result = 0;  /* following macro to beat race condition */
  719. __wait_event_interruptible(sfp->read_wait,
  720.        (sdp->detached || sfp->closed || srp->done), result);
  721. if (sdp->detached)
  722.     return -ENODEV;
  723. if (sfp->closed)
  724.     return 0;       /* request packet dropped already */
  725. if (0 == result)
  726.     break;
  727. srp->orphan = 1;
  728. return result; /* -ERESTARTSYS because signal hit process */
  729.     }
  730.     srp->done = 2;
  731.     result = sg_new_read(sfp, (char *)arg, SZ_SG_IO_HDR, srp);
  732.     return (result < 0) ? result : 0;
  733. }
  734.     case SG_SET_TIMEOUT:
  735.         result =  get_user(val, (int *)arg);
  736.         if (result) return result;
  737.         if (val < 0)
  738.             return -EIO;
  739.         sfp->timeout = val;
  740.         return 0;
  741.     case SG_GET_TIMEOUT:  /* N.B. User receives timeout as return value */
  742.         return sfp->timeout; /* strange ..., for backward compatibility */
  743.     case SG_SET_FORCE_LOW_DMA:
  744.         result = get_user(val, (int *)arg);
  745.         if (result) return result;
  746.         if (val) {
  747.             sfp->low_dma = 1;
  748.             if ((0 == sfp->low_dma) && (0 == sg_res_in_use(sfp))) {
  749.                 val = (int)sfp->reserve.bufflen;
  750.                 sg_remove_scat(&sfp->reserve);
  751.                 sg_build_reserve(sfp, val);
  752.             }
  753.         }
  754.         else {
  755.     if (sdp->detached)
  756. return -ENODEV;
  757.             sfp->low_dma = sdp->device->host->unchecked_isa_dma;
  758. }
  759.         return 0;
  760.     case SG_GET_LOW_DMA:
  761.         return put_user((int)sfp->low_dma, (int *)arg);
  762.     case SG_GET_SCSI_ID:
  763. result = verify_area(VERIFY_WRITE, (void *)arg, sizeof(sg_scsi_id_t));
  764.         if (result) return result;
  765.         else {
  766.     sg_scsi_id_t * sg_idp = (sg_scsi_id_t *)arg;
  767.     if (sdp->detached)
  768. return -ENODEV;
  769.             __put_user((int)sdp->device->host->host_no, &sg_idp->host_no);
  770.             __put_user((int)sdp->device->channel, &sg_idp->channel);
  771.             __put_user((int)sdp->device->id, &sg_idp->scsi_id);
  772.             __put_user((int)sdp->device->lun, &sg_idp->lun);
  773.             __put_user((int)sdp->device->type, &sg_idp->scsi_type);
  774.     __put_user((short)sdp->device->host->cmd_per_lun,
  775.                        &sg_idp->h_cmd_per_lun);
  776.     __put_user((short)sdp->device->queue_depth,
  777.                        &sg_idp->d_queue_depth);
  778.     __put_user(0, &sg_idp->unused[0]);
  779.     __put_user(0, &sg_idp->unused[1]);
  780.             return 0;
  781.         }
  782.     case SG_SET_FORCE_PACK_ID:
  783.         result = get_user(val, (int *)arg);
  784.         if (result) return result;
  785.         sfp->force_packid = val ? 1 : 0;
  786.         return 0;
  787.     case SG_GET_PACK_ID:
  788.         result = verify_area(VERIFY_WRITE, (void *) arg, sizeof(int));
  789.         if (result) return result;
  790. read_lock_irqsave(&sfp->rq_list_lock, iflags);
  791. for (srp = sfp->headrp; srp; srp = srp->nextrp) {
  792.     if ((1 == srp->done) && (! srp->sg_io_owned)) {
  793. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  794.                 __put_user(srp->header.pack_id, (int *)arg);
  795.                 return 0;
  796.             }
  797.         }
  798. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  799.         __put_user(-1, (int *)arg);
  800.         return 0;
  801.     case SG_GET_NUM_WAITING:
  802. read_lock_irqsave(&sfp->rq_list_lock, iflags);
  803.         for (val = 0, srp = sfp->headrp; srp; srp = srp->nextrp) {
  804.     if ((1 == srp->done) && (! srp->sg_io_owned))
  805.                 ++val;
  806.         }
  807. read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  808.         return put_user(val, (int *)arg);
  809.     case SG_GET_SG_TABLESIZE:
  810.         return put_user(sdp->sg_tablesize, (int *)arg);
  811.     case SG_SET_RESERVED_SIZE:
  812.         result = get_user(val, (int *)arg);
  813.         if (result) return result;
  814.         if (val != sfp->reserve.bufflen) {
  815.             if (sg_res_in_use(sfp) || sfp->mmap_called)
  816.                 return -EBUSY;
  817.             sg_remove_scat(&sfp->reserve);
  818.             sg_build_reserve(sfp, val);
  819.         }
  820.         return 0;
  821.     case SG_GET_RESERVED_SIZE:
  822.         val = (int)sfp->reserve.bufflen;
  823.         return put_user(val, (int *)arg);
  824.     case SG_SET_COMMAND_Q:
  825.         result = get_user(val, (int *)arg);
  826.         if (result) return result;
  827.         sfp->cmd_q = val ? 1 : 0;
  828.         return 0;
  829.     case SG_GET_COMMAND_Q:
  830.         return put_user((int)sfp->cmd_q, (int *)arg);
  831.     case SG_SET_KEEP_ORPHAN:
  832.         result = get_user(val, (int *)arg);
  833.         if (result) return result;
  834. sfp->keep_orphan = val;
  835.         return 0;
  836.     case SG_GET_KEEP_ORPHAN:
  837. return put_user((int)sfp->keep_orphan, (int *)arg);
  838.     case SG_NEXT_CMD_LEN:
  839.         result = get_user(val, (int *)arg);
  840.         if (result) return result;
  841.         sfp->next_cmd_len = (val > 0) ? val : 0;
  842.         return 0;
  843.     case SG_GET_VERSION_NUM:
  844.         return put_user(sg_version_num, (int *)arg);
  845.     case SG_GET_ACCESS_COUNT:
  846.      val = (sdp->device ? sdp->device->access_count : 0);
  847. return put_user(val, (int *)arg);
  848.     case SG_GET_REQUEST_TABLE:
  849. result = verify_area(VERIFY_WRITE, (void *) arg,
  850.      SZ_SG_REQ_INFO * SG_MAX_QUEUE);
  851. if (result) return result;
  852. else {
  853.     sg_req_info_t rinfo[SG_MAX_QUEUE];
  854.     Sg_request * srp;
  855.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  856.     for (srp = sfp->headrp, val = 0; val < SG_MAX_QUEUE;
  857.  ++val, srp = srp ? srp->nextrp : srp) {
  858. memset(&rinfo[val], 0, SZ_SG_REQ_INFO);
  859. if (srp) {
  860.     rinfo[val].req_state = srp->done + 1;
  861.     rinfo[val].problem = srp->header.masked_status &
  862. srp->header.host_status & srp->header.driver_status;
  863.     rinfo[val].duration = srp->done ?
  864.     srp->header.duration :
  865.     sg_jif_to_ms(jiffies - srp->header.duration);
  866.     rinfo[val].orphan = srp->orphan;
  867.     rinfo[val].sg_io_owned = srp->sg_io_owned;
  868.     rinfo[val].pack_id = srp->header.pack_id;
  869.     rinfo[val].usr_ptr = srp->header.usr_ptr;
  870. }
  871.     }
  872.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  873.     __copy_to_user((void *)arg, rinfo, SZ_SG_REQ_INFO * SG_MAX_QUEUE);
  874.     return 0;
  875. }
  876.     case SG_EMULATED_HOST:
  877. if (sdp->detached)
  878.     return -ENODEV;
  879.         return put_user(sdp->device->host->hostt->emulated, (int *)arg);
  880.     case SG_SCSI_RESET:
  881. if (sdp->detached)
  882.     return -ENODEV;
  883.         if (filp->f_flags & O_NONBLOCK) {
  884.     if (sdp->device->host->in_recovery)
  885. return -EBUSY;
  886. }
  887. else if (! scsi_block_when_processing_errors(sdp->device))
  888.             return -EBUSY;
  889.         result = get_user(val, (int *)arg);
  890.         if (result) return result;
  891. if (SG_SCSI_RESET_NOTHING == val)
  892.     return 0;
  893. #ifdef SCSI_TRY_RESET_DEVICE
  894. switch (val)
  895. {
  896. case SG_SCSI_RESET_DEVICE:
  897.     val = SCSI_TRY_RESET_DEVICE;
  898.     break;
  899. case SG_SCSI_RESET_BUS:
  900.     val = SCSI_TRY_RESET_BUS;
  901.     break;
  902. case SG_SCSI_RESET_HOST:
  903.     val = SCSI_TRY_RESET_HOST;
  904.     break;
  905. default:
  906.     return -EINVAL;
  907. }
  908. if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  909.     return -EACCES;
  910. return (scsi_reset_provider(sdp->device, val) == SUCCESS) ? 0 : -EIO;
  911. #else
  912. SCSI_LOG_TIMEOUT(1, printk("sg_ioctl: SG_RESET_SCSI not supportedn"));
  913. result = -EINVAL;
  914. #endif
  915.     case SCSI_IOCTL_SEND_COMMAND:
  916. if (sdp->detached)
  917.     return -ENODEV;
  918. if (read_only) {
  919.     unsigned char opcode = WRITE_6;
  920.     Scsi_Ioctl_Command * siocp = (void *)arg;
  921.     copy_from_user(&opcode, siocp->data, 1);
  922.     if (! sg_allow_access(opcode, sdp->device->type))
  923. return -EACCES;
  924. }
  925.         return scsi_ioctl_send_command(sdp->device, (void *)arg);
  926.     case SG_SET_DEBUG:
  927.         result = get_user(val, (int *)arg);
  928.         if (result) return result;
  929.         sdp->sgdebug = (char)val;
  930.         return 0;
  931.     case SCSI_IOCTL_GET_IDLUN:
  932.     case SCSI_IOCTL_GET_BUS_NUMBER:
  933.     case SCSI_IOCTL_PROBE_HOST:
  934.     case SG_GET_TRANSFORM:
  935. if (sdp->detached)
  936.     return -ENODEV;
  937.         return scsi_ioctl(sdp->device, cmd_in, (void *)arg);
  938.     default:
  939. if (read_only)
  940.             return -EACCES; /* don't know so take safe approach */
  941.         return scsi_ioctl(sdp->device, cmd_in, (void *)arg);
  942.     }
  943. }
  944. static unsigned int sg_poll(struct file * filp, poll_table * wait)
  945. {
  946.     unsigned int res = 0;
  947.     Sg_device * sdp;
  948.     Sg_fd * sfp;
  949.     Sg_request * srp;
  950.     int count = 0;
  951.     unsigned long iflags;
  952.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp))
  953.      || sfp->closed)
  954.         return POLLERR;
  955.     poll_wait(filp, &sfp->read_wait, wait);
  956.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  957.     for (srp = sfp->headrp; srp; srp = srp->nextrp) {   
  958.      /* if any read waiting, flag it */
  959. if ((0 == res) && (1 == srp->done) && (! srp->sg_io_owned))
  960.             res = POLLIN | POLLRDNORM;
  961.         ++count;
  962.     }
  963.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  964.     if (sdp->detached)
  965. res |= POLLHUP;
  966.     else if (! sfp->cmd_q) {
  967.         if (0 == count)
  968.             res |= POLLOUT | POLLWRNORM;
  969.     }
  970.     else if (count < SG_MAX_QUEUE)
  971.         res |= POLLOUT | POLLWRNORM;
  972.     SCSI_LOG_TIMEOUT(3, printk("sg_poll: dev=%d, res=0x%xn",
  973.                         MINOR(sdp->i_rdev), (int)res));
  974.     return res;
  975. }
  976. static int sg_fasync(int fd, struct file * filp, int mode)
  977. {
  978.     int retval;
  979.     Sg_device * sdp;
  980.     Sg_fd * sfp;
  981.     if ((! (sfp = (Sg_fd *)filp->private_data)) || (! (sdp = sfp->parentdp)))
  982.         return -ENXIO;
  983.     SCSI_LOG_TIMEOUT(3, printk("sg_fasync: dev=%d, mode=%dn",
  984.                                MINOR(sdp->i_rdev), mode));
  985.     retval = fasync_helper(fd, filp, mode, &sfp->async_qp);
  986.     return (retval < 0) ? retval : 0;
  987. }
  988. static void sg_rb_correct4mmap(Sg_scatter_hold * rsv_schp, int startFinish)
  989. {
  990.     void * page_ptr;
  991.     struct page * page;
  992.     int k, m;
  993.     SCSI_LOG_TIMEOUT(3, printk("sg_rb_correct4mmap: startFinish=%d, "
  994.    "scatg=%dn", startFinish, rsv_schp->k_use_sg)); 
  995.     /* N.B. correction _not_ applied to base page of aech allocation */
  996.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  997.         struct scatterlist * sclp = rsv_schp->buffer;
  998.         for (k = 0; k < rsv_schp->k_use_sg; ++k, ++sclp) {
  999.     for (m = PAGE_SIZE; m < sclp->length; m += PAGE_SIZE) {
  1000. page_ptr = (unsigned char *)sclp->address + m;
  1001. page = virt_to_page(page_ptr);
  1002. if (startFinish)
  1003.     get_page(page); /* increment page count */
  1004. else {
  1005.     if (page_count(page) > 0)
  1006. put_page_testzero(page); /* decrement page count */
  1007. }
  1008.     }
  1009.         }
  1010.     }
  1011.     else { /* reserve buffer is just a single allocation */
  1012. for (m = PAGE_SIZE; m < rsv_schp->bufflen; m += PAGE_SIZE) {
  1013.     page_ptr = (unsigned char *)rsv_schp->buffer + m;
  1014.     page = virt_to_page(page_ptr);
  1015.     if (startFinish)
  1016. get_page(page); /* increment page count */
  1017.     else {
  1018. if (page_count(page) > 0)
  1019.     put_page_testzero(page); /* decrement page count */
  1020.     }
  1021. }
  1022.     }
  1023. }
  1024. static struct page * sg_vma_nopage(struct vm_area_struct *vma, 
  1025.    unsigned long addr, int unused)
  1026. {
  1027.     Sg_fd * sfp;
  1028.     struct page * page = NOPAGE_SIGBUS;
  1029.     void * page_ptr = NULL;
  1030.     unsigned long offset;
  1031.     Sg_scatter_hold * rsv_schp;
  1032.     if ((NULL == vma) || (! (sfp = (Sg_fd *)vma->vm_private_data)))
  1033. return page;
  1034.     rsv_schp = &sfp->reserve;
  1035.     offset = addr - vma->vm_start;
  1036.     if (offset >= rsv_schp->bufflen)
  1037. return page;
  1038.     SCSI_LOG_TIMEOUT(3, printk("sg_vma_nopage: offset=%lu, scatg=%dn", 
  1039.        offset, rsv_schp->k_use_sg));
  1040.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  1041.         int k;
  1042.         unsigned long sa = vma->vm_start;
  1043.         unsigned long len;
  1044.         struct scatterlist * sclp = rsv_schp->buffer;
  1045.         for (k = 0; (k < rsv_schp->k_use_sg) && (sa < vma->vm_end);
  1046.              ++k, ++sclp) {
  1047.             len = vma->vm_end - sa;
  1048.             len = (len < sclp->length) ? len : sclp->length;
  1049.     if (offset < len) {
  1050. page_ptr = (unsigned char *)sclp->address + offset;
  1051. page = virt_to_page(page_ptr);
  1052. get_page(page); /* increment page count */
  1053. break;
  1054.     }
  1055.             sa += len;
  1056.     offset -= len;
  1057.         }
  1058.     }
  1059.     else { /* reserve buffer is just a single allocation */
  1060.         page_ptr = (unsigned char *)rsv_schp->buffer + offset;
  1061. page = virt_to_page(page_ptr);
  1062. get_page(page); /* increment page count */
  1063.     }
  1064.     return page;
  1065. }
  1066. static struct vm_operations_struct sg_mmap_vm_ops = {
  1067.     nopage : sg_vma_nopage,
  1068. };
  1069. static int sg_mmap(struct file * filp, struct vm_area_struct *vma)
  1070. {
  1071.     Sg_fd * sfp;
  1072.     unsigned long req_sz = vma->vm_end - vma->vm_start;
  1073.     Sg_scatter_hold * rsv_schp;
  1074.     if ((! filp) || (! vma) || (! (sfp = (Sg_fd *)filp->private_data)))
  1075.         return -ENXIO;
  1076.     SCSI_LOG_TIMEOUT(3, printk("sg_mmap starting, vm_start=%p, len=%dn", 
  1077.        (void *)vma->vm_start, (int)req_sz));
  1078.     if (vma->vm_pgoff)
  1079.      return -EINVAL; /* want no offset */
  1080.     rsv_schp = &sfp->reserve;
  1081.     if (req_sz > rsv_schp->bufflen)
  1082.      return -ENOMEM; /* cannot map more than reserved buffer */
  1083.     if (rsv_schp->k_use_sg) { /* reserve buffer is a scatter gather list */
  1084.      int k;
  1085. unsigned long sa = vma->vm_start;
  1086. unsigned long len;
  1087. struct scatterlist * sclp = rsv_schp->buffer;
  1088. for (k = 0; (k < rsv_schp->k_use_sg) && (sa < vma->vm_end); 
  1089.      ++k, ++sclp) {
  1090.     if ((unsigned long)sclp->address & (PAGE_SIZE - 1))
  1091.      return -EFAULT;     /* non page aligned memory ?? */
  1092.     len = vma->vm_end - sa;
  1093.     len = (len < sclp->length) ? len : sclp->length;
  1094.     sa += len;
  1095. }
  1096.     }
  1097.     else { /* reserve buffer is just a single allocation */
  1098.      if ((unsigned long)rsv_schp->buffer & (PAGE_SIZE - 1))
  1099.     return -EFAULT; /* non page aligned memory ?? */
  1100.     }
  1101.     if (0 == sfp->mmap_called) {
  1102.      sg_rb_correct4mmap(rsv_schp, 1);  /* do only once per fd lifetime */
  1103. sfp->mmap_called = 1;
  1104.     }
  1105.     vma->vm_flags |= (VM_RESERVED | VM_IO);
  1106.     vma->vm_private_data = sfp;
  1107.     vma->vm_ops = &sg_mmap_vm_ops;
  1108.     return 0;
  1109. }
  1110. /* This function is a "bottom half" handler that is called by the
  1111.  * mid level when a command is completed (or has failed). */
  1112. static void sg_cmd_done_bh(Scsi_Cmnd * SCpnt)
  1113. {
  1114.     Scsi_Request * SRpnt = SCpnt->sc_request;
  1115.     int dev = MINOR(SRpnt->sr_request.rq_dev);
  1116.     Sg_device * sdp = NULL;
  1117.     Sg_fd * sfp;
  1118.     Sg_request * srp = NULL;
  1119.     read_lock(&sg_dev_arr_lock);
  1120.     if (sg_dev_arr && (dev >= 0)) {
  1121. if (dev < sg_template.dev_max)
  1122.     sdp = sg_dev_arr[dev];
  1123.     }
  1124.     if ((NULL == sdp) || sdp->detached) {
  1125. read_unlock(&sg_dev_arr_lock);
  1126. SCSI_LOG_TIMEOUT(1, printk("sg...bh: dev=%d gonen", dev));
  1127.         scsi_release_request(SRpnt);
  1128.         SRpnt = NULL;
  1129.         return;
  1130.     }
  1131.     sfp = sdp->headfp;
  1132.     while (sfp) {
  1133. read_lock(&sfp->rq_list_lock);
  1134. for (srp = sfp->headrp; srp; srp = srp->nextrp) {
  1135.             if (SRpnt == srp->my_cmdp)
  1136.                 break;
  1137.         }
  1138. read_unlock(&sfp->rq_list_lock);
  1139.         if (srp)
  1140.             break;
  1141.         sfp = sfp->nextfp;
  1142.     }
  1143.     if (! srp) {
  1144. read_unlock(&sg_dev_arr_lock);
  1145. SCSI_LOG_TIMEOUT(1, printk("sg...bh: req missing, dev=%dn", dev));
  1146.         scsi_release_request(SRpnt);
  1147.         SRpnt = NULL;
  1148.         return;
  1149.     }
  1150.     /* First transfer ownership of data buffers to sg_device object. */
  1151.     srp->data.k_use_sg = SRpnt->sr_use_sg;
  1152.     srp->data.sglist_len = SRpnt->sr_sglist_len;
  1153.     srp->data.bufflen = SRpnt->sr_bufflen;
  1154.     srp->data.buffer = SRpnt->sr_buffer;
  1155.     /* now clear out request structure */
  1156.     SRpnt->sr_use_sg = 0;
  1157.     SRpnt->sr_sglist_len = 0;
  1158.     SRpnt->sr_bufflen = 0;
  1159.     SRpnt->sr_buffer = NULL;
  1160.     SRpnt->sr_underflow = 0;
  1161.     SRpnt->sr_request.rq_dev = MKDEV(0, 0);  /* "sg" _disowns_ request blk */
  1162.     srp->my_cmdp = NULL;
  1163.     srp->done = 1;
  1164.     read_unlock(&sg_dev_arr_lock);
  1165.     SCSI_LOG_TIMEOUT(4, printk("sg...bh: dev=%d, pack_id=%d, res=0x%xn",
  1166.      dev, srp->header.pack_id, (int)SRpnt->sr_result));
  1167.     srp->header.resid = SCpnt->resid;
  1168.     /* sg_unmap_and(&srp->data, 0); */     /* unmap locked pages a.s.a.p. */
  1169.     /* N.B. unit of duration changes here from jiffies to millisecs */
  1170.     srp->header.duration = sg_jif_to_ms(jiffies - (int)srp->header.duration);
  1171.     if (0 != SRpnt->sr_result) {
  1172. memcpy(srp->sense_b, SRpnt->sr_sense_buffer, sizeof(srp->sense_b));
  1173. srp->header.status = 0xff & SRpnt->sr_result;
  1174. srp->header.masked_status  = status_byte(SRpnt->sr_result);
  1175. srp->header.msg_status  = msg_byte(SRpnt->sr_result);
  1176. srp->header.host_status = host_byte(SRpnt->sr_result);
  1177. srp->header.driver_status = driver_byte(SRpnt->sr_result);
  1178. if ((sdp->sgdebug > 0) &&
  1179.     ((CHECK_CONDITION == srp->header.masked_status) ||
  1180.      (COMMAND_TERMINATED == srp->header.masked_status)))
  1181.     print_req_sense("sg_cmd_done_bh", SRpnt);
  1182. /* Following if statement is a patch supplied by Eric Youngdale */
  1183. if (driver_byte(SRpnt->sr_result) != 0
  1184.     && (SRpnt->sr_sense_buffer[0] & 0x7f) == 0x70
  1185.     && (SRpnt->sr_sense_buffer[2] & 0xf) == UNIT_ATTENTION
  1186.     && sdp->device->removable) {
  1187.     /* Detected disc change. Set the bit - this may be used if */
  1188.     /* there are filesystems using this device. */
  1189.     sdp->device->changed = 1;
  1190. }
  1191.     }
  1192.     /* Rely on write phase to clean out srp status values, so no "else" */
  1193.     scsi_release_request(SRpnt);
  1194.     SRpnt = NULL;
  1195.     if (sfp->closed) { /* whoops this fd already released, cleanup */
  1196.         SCSI_LOG_TIMEOUT(1,
  1197.        printk("sg...bh: already closed, freeing ...n"));
  1198. sg_finish_rem_req(srp);
  1199. srp = NULL;
  1200. if (NULL == sfp->headrp) {
  1201.             SCSI_LOG_TIMEOUT(1,
  1202. printk("sg...bh: already closed, final cleanupn"));
  1203.             if (0 == sg_remove_sfp(sdp, sfp)) { /* device still present */
  1204. sdp->device->access_count--;
  1205. if (sdp->device->host->hostt->module)
  1206.     __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  1207.     }
  1208.     if (sg_template.module)
  1209.     __MOD_DEC_USE_COUNT(sg_template.module);
  1210.     sfp = NULL;
  1211.         }
  1212.     }
  1213.     else if (srp && srp->orphan) {
  1214. if (sfp->keep_orphan)
  1215.     srp->sg_io_owned = 0;
  1216. else {
  1217.     sg_finish_rem_req(srp);
  1218.     srp = NULL;
  1219.         }
  1220.     }
  1221.     if (sfp && srp) {
  1222. /* Now wake up any sg_read() that is waiting for this packet. */
  1223. wake_up_interruptible(&sfp->read_wait);
  1224. kill_fasync(&sfp->async_qp, SIGPOLL, POLL_IN);
  1225.     }
  1226. }
  1227. static struct file_operations sg_fops = {
  1228. owner: THIS_MODULE,
  1229. read: sg_read,
  1230. write: sg_write,
  1231. poll: sg_poll,
  1232. ioctl: sg_ioctl,
  1233. open: sg_open,
  1234. mmap: sg_mmap,
  1235. release: sg_release,
  1236. fasync: sg_fasync,
  1237. };
  1238. static int sg_detect(Scsi_Device * scsidp)
  1239. {
  1240.     sg_template.dev_noticed++;
  1241.     return 1;
  1242. }
  1243. /* Driver initialization */
  1244. static int sg_init()
  1245. {
  1246.     static int sg_registered = 0;
  1247.     unsigned long iflags;
  1248.     if ((sg_template.dev_noticed == 0) || sg_dev_arr)
  1249.      return 0;
  1250.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1251.     if(!sg_registered) {
  1252. if (devfs_register_chrdev(SCSI_GENERIC_MAJOR,"sg",&sg_fops))
  1253.         {
  1254.             printk(KERN_ERR "Unable to get major %d for generic SCSI devicen",
  1255.                    SCSI_GENERIC_MAJOR);
  1256.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1257.             sg_template.dev_noticed = 0;
  1258.             return 1;
  1259.         }
  1260.         sg_registered++;
  1261.     }
  1262.     SCSI_LOG_TIMEOUT(3, printk("sg_initn"));
  1263.     sg_template.dev_max = sg_template.dev_noticed + SG_DEV_ARR_LUMP;
  1264.     sg_dev_arr = (Sg_device **)kmalloc(sg_template.dev_max * 
  1265.      sizeof(Sg_device *), GFP_ATOMIC);
  1266.     if (NULL == sg_dev_arr) {
  1267.         printk(KERN_ERR "sg_init: no space for sg_dev_arrn");
  1268. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1269.         sg_template.dev_noticed = 0;
  1270.         return 1;
  1271.     }
  1272.     memset(sg_dev_arr, 0, sg_template.dev_max * sizeof(Sg_device *));
  1273.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1274. #ifdef CONFIG_PROC_FS
  1275.     sg_proc_init();
  1276. #endif  /* CONFIG_PROC_FS */
  1277.     return 0;
  1278. }
  1279. #ifndef MODULE
  1280. static int __init sg_def_reserved_size_setup(char *str)
  1281. {
  1282.     int tmp;
  1283.     if (get_option(&str, &tmp) == 1) {
  1284. def_reserved_size = tmp;
  1285. if (tmp >= 0)
  1286.     sg_big_buff = tmp;
  1287. return 1;
  1288.     } else {
  1289. printk(KERN_WARNING "sg_def_reserved_size : usage "
  1290.     "sg_def_reserved_size=n (n could be 65536, 131072 or 262144)n");
  1291. return 0;
  1292.     }
  1293. }
  1294. __setup("sg_def_reserved_size=", sg_def_reserved_size_setup);
  1295. #endif
  1296. static int sg_attach(Scsi_Device * scsidp)
  1297. {
  1298.     Sg_device * sdp;
  1299.     unsigned long iflags;
  1300.     int k;
  1301.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1302.     if (sg_template.nr_dev >= sg_template.dev_max) { /* try to resize */
  1303.      Sg_device ** tmp_da;
  1304. int tmp_dev_max = sg_template.nr_dev + SG_DEV_ARR_LUMP;
  1305. tmp_da = (Sg_device **)kmalloc(tmp_dev_max * 
  1306.      sizeof(Sg_device *), GFP_ATOMIC);
  1307. if (NULL == tmp_da) {
  1308.     scsidp->attached--;
  1309.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1310.     printk(KERN_ERR "sg_attach: device array cannot be resizedn");
  1311.     return 1;
  1312. }
  1313. memset(tmp_da, 0, tmp_dev_max * sizeof(Sg_device *));
  1314. memcpy(tmp_da, sg_dev_arr, sg_template.dev_max * sizeof(Sg_device *));
  1315. kfree((char *)sg_dev_arr);
  1316. sg_dev_arr = tmp_da;
  1317. sg_template.dev_max = tmp_dev_max;
  1318.     }
  1319.     for(k = 0; k < sg_template.dev_max; k++)
  1320.         if(! sg_dev_arr[k]) break;
  1321.     if (k > MINORMASK) {
  1322. scsidp->attached--;
  1323. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1324. printk(KERN_WARNING "Unable to attach sg device <%d, %d, %d, %d>"
  1325.        " type=%d, minor number exceed %dn", scsidp->host->host_no, 
  1326.        scsidp->channel, scsidp->id, scsidp->lun, scsidp->type,
  1327.        MINORMASK);
  1328. return 1;
  1329.     }
  1330.     if(k < sg_template.dev_max)
  1331.      sdp = (Sg_device *)kmalloc(sizeof(Sg_device), GFP_ATOMIC);
  1332.     else
  1333.      sdp = NULL;
  1334.     if (NULL == sdp) {
  1335. scsidp->attached--;
  1336. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1337. printk(KERN_ERR "sg_attach: Sg_device cannot be allocatedn");
  1338. return 1;
  1339.     }
  1340.     SCSI_LOG_TIMEOUT(3, printk("sg_attach: dev=%d n", k));
  1341.     sdp->device = scsidp;
  1342.     init_waitqueue_head(&sdp->o_excl_wait);
  1343.     sdp->headfp= NULL;
  1344.     sdp->exclude = 0;
  1345.     sdp->sgdebug = 0;
  1346.     sdp->detached = 0;
  1347.     sdp->sg_tablesize = scsidp->host ? scsidp->host->sg_tablesize : 0;
  1348.     sdp->i_rdev = MKDEV(SCSI_GENERIC_MAJOR, k);
  1349.     sdp->de = devfs_register (scsidp->de, "generic", DEVFS_FL_DEFAULT,
  1350.                              SCSI_GENERIC_MAJOR, k,
  1351.                              S_IFCHR | S_IRUSR | S_IWUSR | S_IRGRP,
  1352.                              &sg_fops, sdp);
  1353.     sg_template.nr_dev++;
  1354.     sg_dev_arr[k] = sdp;
  1355.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1356.     switch (scsidp->type) {
  1357. case TYPE_DISK:
  1358. case TYPE_MOD:
  1359. case TYPE_ROM:
  1360. case TYPE_WORM:
  1361. case TYPE_TAPE: break;
  1362. default:
  1363.     printk(KERN_NOTICE "Attached scsi generic sg%d at scsi%d, channel"
  1364.         " %d, id %d, lun %d,  type %dn", k, scsidp->host->host_no, 
  1365.    scsidp->channel, scsidp->id, scsidp->lun, scsidp->type);
  1366.     }
  1367.     return 0;
  1368. }
  1369. /* Called at 'finish' of init process, after all attaches */
  1370. static void sg_finish(void)
  1371. { }
  1372. static void sg_detach(Scsi_Device * scsidp)
  1373. {
  1374.     Sg_device * sdp;
  1375.     unsigned long iflags;
  1376.     Sg_fd * sfp;
  1377.     Sg_fd * tsfp;
  1378.     Sg_request * srp;
  1379.     Sg_request * tsrp;
  1380.     int k, delay;
  1381.     if (NULL == sg_dev_arr)
  1382.      return;
  1383.     delay = 0;
  1384.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  1385.     for (k = 0; k < sg_template.dev_max; k++) {
  1386.      sdp = sg_dev_arr[k];
  1387.         if ((NULL == sdp) || (sdp->device != scsidp))
  1388.             continue;   /* dirty but lowers nesting */
  1389.         if (sdp->headfp) {
  1390.     sdp->detached = 1;
  1391.     for (sfp = sdp->headfp; sfp; sfp = tsfp) {
  1392.      tsfp = sfp->nextfp;
  1393. for (srp = sfp->headrp; srp; srp = tsrp) {
  1394.     tsrp = srp->nextrp;
  1395.     if (sfp->closed || (0 == srp->done))
  1396. sg_finish_rem_req(srp);
  1397. }
  1398. if (sfp->closed) {
  1399.     sdp->device->access_count--;
  1400.     if (sg_template.module)
  1401. __MOD_DEC_USE_COUNT(sg_template.module);
  1402.     if (sdp->device->host->hostt->module)
  1403. __MOD_DEC_USE_COUNT(sdp->device->host->hostt->module);
  1404.     __sg_remove_sfp(sdp, sfp);
  1405. }
  1406. else {
  1407.     delay = 1;
  1408.     wake_up_interruptible(&sfp->read_wait);
  1409.     kill_fasync(&sfp->async_qp, SIGPOLL, POLL_HUP);
  1410. }
  1411.             }
  1412.     SCSI_LOG_TIMEOUT(3, printk("sg_detach: dev=%d, dirtyn", k));
  1413.     devfs_unregister (sdp->de);
  1414.     sdp->de = NULL;
  1415.     if (NULL == sdp->headfp) {
  1416. kfree((char *)sdp);
  1417. sg_dev_arr[k] = NULL;
  1418.     }
  1419.         }
  1420.         else { /* nothing active, simple case */
  1421.             SCSI_LOG_TIMEOUT(3, printk("sg_detach: dev=%dn", k));
  1422.     devfs_unregister (sdp->de);
  1423.     kfree((char *)sdp);
  1424.     sg_dev_arr[k] = NULL;
  1425.         }
  1426.         scsidp->attached--;
  1427.         sg_template.nr_dev--;
  1428.         sg_template.dev_noticed--; /* from <dan@lectra.fr> */
  1429.         break;
  1430.     }
  1431.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  1432.     if (delay)
  1433. scsi_sleep(2); /* dirty detach so delay device destruction */
  1434. }
  1435. MODULE_AUTHOR("Douglas Gilbert");
  1436. MODULE_DESCRIPTION("SCSI generic (sg) driver");
  1437. #ifdef MODULE_LICENSE
  1438. MODULE_LICENSE("GPL");
  1439. #endif
  1440. MODULE_PARM(def_reserved_size, "i");
  1441. MODULE_PARM_DESC(def_reserved_size, "size of buffer reserved for each fd");
  1442. static int __init init_sg(void) {
  1443.     if (def_reserved_size >= 0)
  1444. sg_big_buff = def_reserved_size;
  1445.     sg_template.module = THIS_MODULE;
  1446.     return scsi_register_module(MODULE_SCSI_DEV, &sg_template);
  1447. }
  1448. static void __exit exit_sg( void)
  1449. {
  1450. #ifdef CONFIG_PROC_FS
  1451.     sg_proc_cleanup();
  1452. #endif  /* CONFIG_PROC_FS */
  1453.     scsi_unregister_module(MODULE_SCSI_DEV, &sg_template);
  1454.     devfs_unregister_chrdev(SCSI_GENERIC_MAJOR, "sg");
  1455.     if(sg_dev_arr != NULL) {
  1456. kfree((char *)sg_dev_arr);
  1457.         sg_dev_arr = NULL;
  1458.     }
  1459.     sg_template.dev_max = 0;
  1460. }
  1461. static int sg_start_req(Sg_request * srp)
  1462. {
  1463.     int res;
  1464.     Sg_fd * sfp = srp->parentfp;
  1465.     sg_io_hdr_t * hp = &srp->header;
  1466.     int dxfer_len = (int)hp->dxfer_len;
  1467.     int dxfer_dir = hp->dxfer_direction;
  1468.     Sg_scatter_hold * req_schp = &srp->data;
  1469.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  1470.     SCSI_LOG_TIMEOUT(4, printk("sg_start_req: dxfer_len=%dn", dxfer_len));
  1471.     if ((dxfer_len <= 0) || (dxfer_dir == SG_DXFER_NONE))
  1472.      return 0;
  1473.     if (sg_allow_dio && (hp->flags & SG_FLAG_DIRECT_IO) && 
  1474. (dxfer_dir != SG_DXFER_UNKNOWN) && (0 == hp->iovec_count) &&
  1475. (! sfp->parentdp->device->host->unchecked_isa_dma)) {
  1476. res = sg_build_dir(srp, sfp, dxfer_len);
  1477. if (res <= 0)   /* -ve -> error, 0 -> done, 1 -> try indirect */
  1478.     return res;
  1479.     }
  1480.     if ((! sg_res_in_use(sfp)) && (dxfer_len <= rsv_schp->bufflen))
  1481. sg_link_reserve(sfp, srp, dxfer_len);
  1482.     else {
  1483. res = sg_build_indi(req_schp, sfp, dxfer_len);
  1484.         if (res) {
  1485.             sg_remove_scat(req_schp);
  1486.             return res;
  1487.         }
  1488.     }
  1489.     return 0;
  1490. }
  1491. static void sg_finish_rem_req(Sg_request * srp)
  1492. {
  1493.     Sg_fd * sfp = srp->parentfp;
  1494.     Sg_scatter_hold * req_schp = &srp->data;
  1495.     SCSI_LOG_TIMEOUT(4, printk("sg_finish_rem_req: res_used=%dn",
  1496.        (int)srp->res_used));
  1497.     sg_unmap_and(&srp->data, 1);
  1498.     if (srp->res_used)
  1499.         sg_unlink_reserve(sfp, srp);
  1500.     else
  1501.         sg_remove_scat(req_schp);
  1502.     sg_remove_request(sfp, srp);
  1503. }
  1504. static int sg_build_sgat(Sg_scatter_hold * schp, const Sg_fd * sfp,
  1505.  int tablesize)
  1506. {
  1507.     int mem_src, ret_sz;
  1508.     int elem_sz = sizeof(struct scatterlist) + sizeof(char);
  1509.     /* scatter gather array, followed by mem_src_arr (array of chars) */
  1510.     int sg_bufflen = tablesize * elem_sz;
  1511.     int mx_sc_elems = tablesize;
  1512.     mem_src = SG_HEAP_KMAL;
  1513.     schp->buffer = sg_malloc(sfp, sg_bufflen, &ret_sz, &mem_src);
  1514.     if (! schp->buffer)
  1515. return -ENOMEM;
  1516.     else if (ret_sz != sg_bufflen) {
  1517. sg_bufflen = ret_sz;
  1518. mx_sc_elems = sg_bufflen / elem_sz;
  1519.     }
  1520.     schp->buffer_mem_src = (char)mem_src;
  1521.     schp->sglist_len = sg_bufflen;
  1522.     memset(schp->buffer, 0, sg_bufflen);
  1523.     return mx_sc_elems; /* number of scat_gath elements allocated */
  1524. }
  1525. static void sg_unmap_and(Sg_scatter_hold * schp, int free_also)
  1526. {
  1527. #ifdef SG_ALLOW_DIO_CODE
  1528.     int nbhs = 0;
  1529.     if (schp && schp->kiobp) {
  1530. if (schp->mapped) {
  1531.     unmap_kiobuf(schp->kiobp);
  1532.     schp->mapped = 0;
  1533. }
  1534. if (free_also) {
  1535.     sg_free_kiovec(1, &schp->kiobp, &nbhs);
  1536.     schp->kiobp = NULL;
  1537. }
  1538.     }
  1539. #endif
  1540. }
  1541. static int sg_build_dir(Sg_request * srp, Sg_fd * sfp, int dxfer_len)
  1542. {
  1543. #ifdef SG_ALLOW_DIO_CODE
  1544.     int res, k, split, offset, num, mx_sc_elems, rem_sz;
  1545.     struct kiobuf * kp;
  1546.     char * mem_src_arr;
  1547.     struct scatterlist * sclp;
  1548.     unsigned long addr, prev_addr;
  1549.     sg_io_hdr_t * hp = &srp->header;
  1550.     Sg_scatter_hold * schp = &srp->data;
  1551.     int sg_tablesize = sfp->parentdp->sg_tablesize;
  1552.     int nbhs = 0;
  1553.     res = sg_alloc_kiovec(1, &schp->kiobp, &nbhs);
  1554.     if (0 != res) {
  1555. SCSI_LOG_TIMEOUT(5, printk("sg_build_dir: sg_alloc_kiovec res=%dn", 
  1556.  res));
  1557. return 1;
  1558.     }
  1559.     res = map_user_kiobuf((SG_DXFER_TO_DEV == hp->dxfer_direction) ? 1 : 0,
  1560.   schp->kiobp, (unsigned long)hp->dxferp, dxfer_len);
  1561.     if (0 != res) {
  1562. SCSI_LOG_TIMEOUT(5,
  1563. printk("sg_build_dir: map_user_kiobuf res=%dn", res));
  1564. sg_unmap_and(schp, 1);
  1565. return 1;
  1566.     }
  1567.     schp->mapped = 1;
  1568.     kp = schp->kiobp;
  1569.     prev_addr = (unsigned long) page_address(kp->maplist[0]);
  1570.     for (k = 1, split = 0; k < kp->nr_pages; ++k, prev_addr = addr) {
  1571. addr = (unsigned long) page_address(kp->maplist[k]);
  1572. if ((prev_addr + PAGE_SIZE) != addr) {
  1573.     split = k;
  1574.     break;
  1575. }
  1576.     }
  1577.     if (! split) {
  1578. schp->k_use_sg = 0;
  1579. schp->buffer = page_address(kp->maplist[0]) + kp->offset;
  1580. schp->bufflen = dxfer_len;
  1581. schp->buffer_mem_src = SG_USER_MEM;
  1582. schp->b_malloc_len = dxfer_len;
  1583. hp->info |= SG_INFO_DIRECT_IO;
  1584. return 0;
  1585.     }
  1586.     mx_sc_elems = sg_build_sgat(schp, sfp, sg_tablesize);
  1587.     if (mx_sc_elems <= 1) {
  1588. sg_unmap_and(schp, 1);
  1589. sg_remove_scat(schp);
  1590. return 1;
  1591.     }
  1592.     mem_src_arr = schp->buffer + (mx_sc_elems * sizeof(struct scatterlist));
  1593.     for (k = 0, sclp = schp->buffer, rem_sz = dxfer_len;
  1594.  (rem_sz > 0) && (k < mx_sc_elems);
  1595.  ++k, ++sclp) {
  1596. offset = (0 == k) ? kp->offset : 0;
  1597. num = (rem_sz > (PAGE_SIZE - offset)) ? (PAGE_SIZE - offset) :
  1598. rem_sz;
  1599. sclp->address = page_address(kp->maplist[k]) + offset;
  1600. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1601. sclp->page = NULL;
  1602. #endif
  1603. sclp->length = num;
  1604. mem_src_arr[k] = SG_USER_MEM;
  1605. rem_sz -= num;
  1606. SCSI_LOG_TIMEOUT(5,
  1607.     printk("sg_build_dir: k=%d, a=0x%p, len=%d, ms=%dn",
  1608.     k, sclp->address, num, mem_src_arr[k]));
  1609.     }
  1610.     schp->k_use_sg = k;
  1611.     SCSI_LOG_TIMEOUT(5,
  1612. printk("sg_build_dir: k_use_sg=%d, rem_sz=%dn", k, rem_sz));
  1613.     schp->bufflen = dxfer_len;
  1614.     if (rem_sz > 0) {   /* must have failed */
  1615. sg_unmap_and(schp, 1);
  1616. sg_remove_scat(schp);
  1617. return 1;   /* out of scatter gather elements, try indirect */
  1618.     }
  1619.     hp->info |= SG_INFO_DIRECT_IO;
  1620.     return 0;
  1621. #else
  1622.     return 1;
  1623. #endif /* SG_ALLOW_DIO_CODE */
  1624. }
  1625. static int sg_build_indi(Sg_scatter_hold * schp, Sg_fd * sfp, int buff_size)
  1626. {
  1627.     int ret_sz, mem_src;
  1628.     int blk_size = buff_size;
  1629.     char * p = NULL;
  1630.     if ((blk_size < 0) || (! sfp))
  1631.         return -EFAULT;
  1632.     if (0 == blk_size)
  1633.         ++blk_size;             /* don't know why */
  1634. /* round request up to next highest SG_SECTOR_SZ byte boundary */
  1635.     blk_size = (blk_size + SG_SECTOR_MSK) & (~SG_SECTOR_MSK);
  1636.     SCSI_LOG_TIMEOUT(4, printk("sg_build_indi: buff_size=%d, blk_size=%dn",
  1637.                                buff_size, blk_size));
  1638.     if (blk_size <= SG_SCATTER_SZ) {
  1639.         mem_src = SG_HEAP_PAGE;
  1640.         p = sg_malloc(sfp, blk_size, &ret_sz, &mem_src);
  1641.         if (! p)
  1642.             return -ENOMEM;
  1643.         if (blk_size == ret_sz) { /* got it on the first attempt */
  1644.     schp->k_use_sg = 0;
  1645.             schp->buffer = p;
  1646.             schp->bufflen = blk_size;
  1647.     schp->buffer_mem_src = (char)mem_src;
  1648.             schp->b_malloc_len = blk_size;
  1649.             return 0;
  1650.         }
  1651.     }
  1652.     else {
  1653.         mem_src = SG_HEAP_PAGE;
  1654.         p = sg_malloc(sfp, SG_SCATTER_SZ, &ret_sz, &mem_src);
  1655.         if (! p)
  1656.             return -ENOMEM;
  1657.     }
  1658. /* Want some local declarations, so start new block ... */
  1659.     {   /* lets try and build a scatter gather list */
  1660.         struct scatterlist * sclp;
  1661. int k, rem_sz, num;
  1662. int mx_sc_elems;
  1663.         int sg_tablesize = sfp->parentdp->sg_tablesize;
  1664.         int first = 1;
  1665. char * mem_src_arr;
  1666.         /* N.B. ret_sz and mem_src carried into this block ... */
  1667. mx_sc_elems = sg_build_sgat(schp, sfp, sg_tablesize);
  1668. if (mx_sc_elems < 0)
  1669.     return mx_sc_elems; /* most likely -ENOMEM */
  1670. mem_src_arr = schp->buffer +
  1671.       (mx_sc_elems * sizeof(struct scatterlist));
  1672. for (k = 0, sclp = schp->buffer, rem_sz = blk_size;
  1673.      (rem_sz > 0) && (k < mx_sc_elems);
  1674.              ++k, rem_sz -= ret_sz, ++sclp) {
  1675.     if (first)
  1676.                 first = 0;
  1677.             else {
  1678.                 num = (rem_sz > SG_SCATTER_SZ) ? SG_SCATTER_SZ : rem_sz;
  1679.                 mem_src = SG_HEAP_PAGE;
  1680.                 p = sg_malloc(sfp, num, &ret_sz, &mem_src);
  1681.                 if (! p)
  1682.                     break;
  1683.             }
  1684.             sclp->address = p;
  1685. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1686.     sclp->page = NULL;
  1687. #endif
  1688.             sclp->length = ret_sz;
  1689.     mem_src_arr[k] = mem_src;
  1690.     SCSI_LOG_TIMEOUT(5,
  1691. printk("sg_build_build: k=%d, a=0x%p, len=%d, ms=%dn",
  1692.                 k, sclp->address, ret_sz, mem_src));
  1693.         } /* end of for loop */
  1694. schp->k_use_sg = k;
  1695. SCSI_LOG_TIMEOUT(5,
  1696.     printk("sg_build_indi: k_use_sg=%d, rem_sz=%dn", k, rem_sz));
  1697.         schp->bufflen = blk_size;
  1698.         if (rem_sz > 0)   /* must have failed */
  1699.             return -ENOMEM;
  1700.     }
  1701.     return 0;
  1702. }
  1703. static int sg_write_xfer(Sg_request * srp)
  1704. {
  1705.     sg_io_hdr_t * hp = &srp->header;
  1706.     Sg_scatter_hold * schp = &srp->data;
  1707.     int num_xfer = 0;
  1708.     int j, k, onum, usglen, ksglen, res, ok;
  1709.     int iovec_count = (int)hp->iovec_count;
  1710.     int dxfer_dir = hp->dxfer_direction;
  1711.     unsigned char * p;
  1712.     unsigned char * up;
  1713.     int new_interface = ('' == hp->interface_id) ? 0 : 1;
  1714.     if ((SG_DXFER_UNKNOWN == dxfer_dir) || (SG_DXFER_TO_DEV == dxfer_dir) ||
  1715. (SG_DXFER_TO_FROM_DEV == dxfer_dir)) {
  1716. num_xfer = (int)(new_interface ?  hp->dxfer_len : hp->flags);
  1717. if (schp->bufflen < num_xfer)
  1718.     num_xfer = schp->bufflen;
  1719.     }
  1720.     if ((num_xfer <= 0) || 
  1721.      (new_interface && ((SG_FLAG_NO_DXFER | SG_FLAG_MMAP_IO) & hp->flags)))
  1722. return 0;
  1723.     SCSI_LOG_TIMEOUT(4,
  1724.  printk("sg_write_xfer: num_xfer=%d, iovec_count=%d, k_use_sg=%dn",
  1725. num_xfer, iovec_count, schp->k_use_sg));
  1726.     if (iovec_count) {
  1727. onum = iovec_count;
  1728. if ((k = verify_area(VERIFY_READ, hp->dxferp,
  1729.      SZ_SG_IOVEC * onum)))
  1730.     return k;
  1731.     }
  1732.     else
  1733. onum = 1;
  1734.     if (0 == schp->k_use_sg) {  /* kernel has single buffer */
  1735. if (SG_USER_MEM != schp->buffer_mem_src) { /* else nothing to do */
  1736.     for (j = 0, p = schp->buffer; j < onum; ++j) {
  1737. res = sg_u_iovec(hp, iovec_count, j, 1, &usglen, &up);
  1738. if (res) return res;
  1739. usglen = (num_xfer > usglen) ? usglen : num_xfer;
  1740. __copy_from_user(p, up, usglen);
  1741. p += usglen;
  1742. num_xfer -= usglen;
  1743. if (num_xfer <= 0)
  1744.     return 0;
  1745.             }
  1746. }
  1747.     }
  1748.     else {      /* kernel using scatter gather list */
  1749. struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1750. char * mem_src_arr = sg_get_sgat_msa(schp);
  1751. ksglen = (int)sclp->length;
  1752. p = sclp->address;
  1753. for (j = 0, k = 0; j < onum; ++j) {
  1754.     res = sg_u_iovec(hp, iovec_count, j, 1, &usglen, &up);
  1755.     if (res) return res;
  1756.     for (; (k < schp->k_use_sg) && p;
  1757.  ++k, ++sclp, ksglen = (int)sclp->length, p = sclp->address) {
  1758. ok = (SG_USER_MEM != mem_src_arr[k]);
  1759. if (usglen <= 0)
  1760.     break;
  1761. if (ksglen > usglen) {
  1762.     if (usglen >= num_xfer) {
  1763. if (ok) __copy_from_user(p, up, num_xfer);
  1764. return 0;
  1765.     }
  1766.     if (ok) __copy_from_user(p, up, usglen);
  1767.     p += usglen;
  1768.     ksglen -= usglen;
  1769.                     break;
  1770. }
  1771. else {
  1772.     if (ksglen >= num_xfer) {
  1773. if (ok) __copy_from_user(p, up, num_xfer);
  1774. return 0;
  1775.     }
  1776.     if (ok) __copy_from_user(p, up, ksglen);
  1777.     up += ksglen;
  1778.     usglen -= ksglen;
  1779. }
  1780.             }
  1781.         }
  1782.     }
  1783.     return 0;
  1784. }
  1785. static int sg_u_iovec(sg_io_hdr_t * hp, int sg_num, int ind,
  1786.       int wr_xf, int * countp, unsigned char ** up)
  1787. {
  1788.     int num_xfer = (int)hp->dxfer_len;
  1789.     unsigned char * p;
  1790.     int count, k;
  1791.     sg_iovec_t u_iovec;
  1792.     if (0 == sg_num) {
  1793. p = (unsigned char *)hp->dxferp;
  1794. if (wr_xf && ('' == hp->interface_id))
  1795.     count = (int)hp->flags; /* holds "old" input_size */
  1796. else
  1797.     count = num_xfer;
  1798.     }
  1799.     else {
  1800. __copy_from_user(&u_iovec,
  1801.  (unsigned char *)hp->dxferp + (ind * SZ_SG_IOVEC),
  1802.  SZ_SG_IOVEC);
  1803. p = (unsigned char *)u_iovec.iov_base;
  1804. count = (int)u_iovec.iov_len;
  1805.     }
  1806.     if ((k = verify_area(wr_xf ? VERIFY_READ : VERIFY_WRITE, p, count)))
  1807. return k;
  1808.     if (up) *up = p;
  1809.     if (countp) *countp = count;
  1810.     return 0;
  1811. }
  1812. static char * sg_get_sgat_msa(Sg_scatter_hold * schp)
  1813. {
  1814.     int elem_sz = sizeof(struct scatterlist) + sizeof(char);
  1815.     int mx_sc_elems = schp->sglist_len / elem_sz;
  1816.     return schp->buffer + (sizeof(struct scatterlist) * mx_sc_elems);
  1817. }
  1818. static void sg_remove_scat(Sg_scatter_hold * schp)
  1819. {
  1820.     SCSI_LOG_TIMEOUT(4, printk("sg_remove_scat: k_use_sg=%dn",
  1821.        schp->k_use_sg));
  1822.     if (schp->buffer && schp->sglist_len) {
  1823.         int k, mem_src;
  1824.         struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1825. char * mem_src_arr = sg_get_sgat_msa(schp);
  1826. for (k = 0; (k < schp->k_use_sg) && sclp->address; ++k, ++sclp) {
  1827.     mem_src = mem_src_arr[k];
  1828.     SCSI_LOG_TIMEOUT(5,
  1829. printk("sg_remove_scat: k=%d, a=0x%p, len=%d, ms=%dn",
  1830.                        k, sclp->address, sclp->length, mem_src));
  1831.             sg_free(sclp->address, sclp->length, mem_src);
  1832.             sclp->address = NULL;
  1833. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,13)
  1834.     sclp->page = NULL;
  1835. #endif
  1836.             sclp->length = 0;
  1837.         }
  1838. sg_free(schp->buffer, schp->sglist_len, schp->buffer_mem_src);
  1839.     }
  1840.     else if (schp->buffer)
  1841. sg_free(schp->buffer, schp->b_malloc_len, schp->buffer_mem_src);
  1842.     memset(schp, 0, sizeof(*schp));
  1843. }
  1844. static int sg_read_xfer(Sg_request * srp)
  1845. {
  1846.     sg_io_hdr_t * hp = &srp->header;
  1847.     Sg_scatter_hold * schp = &srp->data;
  1848.     int num_xfer = 0;
  1849.     int j, k, onum, usglen, ksglen, res, ok;
  1850.     int iovec_count = (int)hp->iovec_count;
  1851.     int dxfer_dir = hp->dxfer_direction;
  1852.     unsigned char * p;
  1853.     unsigned char * up;
  1854.     int new_interface = ('' == hp->interface_id) ? 0 : 1;
  1855.     if ((SG_DXFER_UNKNOWN == dxfer_dir) || (SG_DXFER_FROM_DEV == dxfer_dir) ||
  1856. (SG_DXFER_TO_FROM_DEV == dxfer_dir)) {
  1857. num_xfer =  hp->dxfer_len;
  1858. if (schp->bufflen < num_xfer)
  1859.     num_xfer = schp->bufflen;
  1860.     }
  1861.     if ((num_xfer <= 0) || 
  1862.      (new_interface && ((SG_FLAG_NO_DXFER | SG_FLAG_MMAP_IO) & hp->flags)))
  1863. return 0;
  1864.     SCSI_LOG_TIMEOUT(4,
  1865.  printk("sg_read_xfer: num_xfer=%d, iovec_count=%d, k_use_sg=%dn",
  1866. num_xfer, iovec_count, schp->k_use_sg));
  1867.     if (iovec_count) {
  1868. onum = iovec_count;
  1869. if ((k = verify_area(VERIFY_READ, hp->dxferp,
  1870.      SZ_SG_IOVEC * onum)))
  1871.     return k;
  1872.     }
  1873.     else
  1874. onum = 1;
  1875.     if (0 == schp->k_use_sg) {  /* kernel has single buffer */
  1876. if (SG_USER_MEM != schp->buffer_mem_src) { /* else nothing to do */
  1877.     for (j = 0, p = schp->buffer; j < onum; ++j) {
  1878. res = sg_u_iovec(hp, iovec_count, j, 0, &usglen, &up);
  1879. if (res) return res;
  1880. usglen = (num_xfer > usglen) ? usglen : num_xfer;
  1881. __copy_to_user(up, p, usglen);
  1882. p += usglen;
  1883. num_xfer -= usglen;
  1884. if (num_xfer <= 0)
  1885.     return 0;
  1886.     }
  1887. }
  1888.     }
  1889.     else {      /* kernel using scatter gather list */
  1890. struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1891. char * mem_src_arr = sg_get_sgat_msa(schp);
  1892. ksglen = (int)sclp->length;
  1893. p = sclp->address;
  1894. for (j = 0, k = 0; j < onum; ++j) {
  1895.     res = sg_u_iovec(hp, iovec_count, j, 0, &usglen, &up);
  1896.     if (res) return res;
  1897.     for (; (k < schp->k_use_sg) && p;
  1898.  ++k, ++sclp, ksglen = (int)sclp->length, p = sclp->address) {
  1899. ok = (SG_USER_MEM != mem_src_arr[k]);
  1900. if (usglen <= 0)
  1901.     break;
  1902. if (ksglen > usglen) {
  1903.     if (usglen >= num_xfer) {
  1904. if (ok) __copy_to_user(up, p, num_xfer);
  1905. return 0;
  1906.     }
  1907.     if (ok) __copy_to_user(up, p, usglen);
  1908.     p += usglen;
  1909.     ksglen -= usglen;
  1910.     break;
  1911. }
  1912. else {
  1913.     if (ksglen >= num_xfer) {
  1914. if (ok) __copy_to_user(up, p, num_xfer);
  1915. return 0;
  1916.     }
  1917.     if (ok) __copy_to_user(up, p, ksglen);
  1918.     up += ksglen;
  1919.     usglen -= ksglen;
  1920. }
  1921.     }
  1922. }
  1923.     }
  1924.     return 0;
  1925. }
  1926. static void sg_read_oxfer(Sg_request * srp, char * outp, int num_read_xfer)
  1927. {
  1928.     Sg_scatter_hold * schp = &srp->data;
  1929.     SCSI_LOG_TIMEOUT(4, printk("sg_read_oxfer: num_read_xfer=%dn",
  1930.        num_read_xfer));
  1931.     if ((! outp) || (num_read_xfer <= 0))
  1932.         return;
  1933.     if(schp->k_use_sg > 0) {
  1934.         int k, num;
  1935.         struct scatterlist * sclp = (struct scatterlist *)schp->buffer;
  1936. for (k = 0; (k < schp->k_use_sg) && sclp->address; ++k, ++sclp) {
  1937.             num = (int)sclp->length;
  1938.             if (num > num_read_xfer) {
  1939.                 __copy_to_user(outp, sclp->address, num_read_xfer);
  1940.                 break;
  1941.             }
  1942.             else {
  1943.                 __copy_to_user(outp, sclp->address, num);
  1944.                 num_read_xfer -= num;
  1945.                 if (num_read_xfer <= 0)
  1946.                     break;
  1947.                 outp += num;
  1948.             }
  1949.         }
  1950.     }
  1951.     else
  1952.         __copy_to_user(outp, schp->buffer, num_read_xfer);
  1953. }
  1954. static void sg_build_reserve(Sg_fd * sfp, int req_size)
  1955. {
  1956.     Sg_scatter_hold * schp = &sfp->reserve;
  1957.     SCSI_LOG_TIMEOUT(4, printk("sg_build_reserve: req_size=%dn", req_size));
  1958.     do {
  1959.         if (req_size < PAGE_SIZE)
  1960.             req_size = PAGE_SIZE;
  1961. if (0 == sg_build_indi(schp, sfp, req_size))
  1962.             return;
  1963.         else
  1964.             sg_remove_scat(schp);
  1965.         req_size >>= 1; /* divide by 2 */
  1966.     } while (req_size >  (PAGE_SIZE / 2));
  1967. }
  1968. static void sg_link_reserve(Sg_fd * sfp, Sg_request * srp, int size)
  1969. {
  1970.     Sg_scatter_hold * req_schp = &srp->data;
  1971.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  1972.     srp->res_used = 1;
  1973.     SCSI_LOG_TIMEOUT(4, printk("sg_link_reserve: size=%dn", size));
  1974.     size = (size + 1) & (~1);    /* round to even for aha1542 */
  1975.     if (rsv_schp->k_use_sg > 0) {
  1976.         int k, num;
  1977.         int rem = size;
  1978.         struct scatterlist * sclp = (struct scatterlist *)rsv_schp->buffer;
  1979. for (k = 0; k < rsv_schp->k_use_sg; ++k, ++sclp) {
  1980.             num = (int)sclp->length;
  1981.             if (rem <= num) {
  1982. if (0 == k) {
  1983.     req_schp->k_use_sg = 0;
  1984.     req_schp->buffer = sclp->address;
  1985. }
  1986. else {
  1987.          sfp->save_scat_len = num;
  1988.          sclp->length = (unsigned)rem;
  1989.          req_schp->k_use_sg = k + 1;
  1990.          req_schp->sglist_len = rsv_schp->sglist_len;
  1991.          req_schp->buffer = rsv_schp->buffer;
  1992. }
  1993. req_schp->bufflen = size;
  1994. req_schp->buffer_mem_src = rsv_schp->buffer_mem_src;
  1995. req_schp->b_malloc_len = rsv_schp->b_malloc_len;
  1996. break;
  1997.             }
  1998.             else
  1999.                 rem -= num;
  2000.         }
  2001. if (k >= rsv_schp->k_use_sg)
  2002.     SCSI_LOG_TIMEOUT(1, printk("sg_link_reserve: BAD sizen"));
  2003.     }
  2004.     else {
  2005. req_schp->k_use_sg = 0;
  2006.         req_schp->bufflen = size;
  2007.         req_schp->buffer = rsv_schp->buffer;
  2008. req_schp->buffer_mem_src = rsv_schp->buffer_mem_src;
  2009.         req_schp->b_malloc_len = rsv_schp->b_malloc_len;
  2010.     }
  2011. }
  2012. static void sg_unlink_reserve(Sg_fd * sfp, Sg_request * srp)
  2013. {
  2014.     Sg_scatter_hold * req_schp = &srp->data;
  2015.     Sg_scatter_hold * rsv_schp = &sfp->reserve;
  2016.     SCSI_LOG_TIMEOUT(4, printk("sg_unlink_reserve: req->k_use_sg=%dn",
  2017.        (int)req_schp->k_use_sg));
  2018.     if ((rsv_schp->k_use_sg > 0) && (req_schp->k_use_sg > 0)) {
  2019.         struct scatterlist * sclp = (struct scatterlist *)rsv_schp->buffer;
  2020. if (sfp->save_scat_len > 0)
  2021.     (sclp + (req_schp->k_use_sg - 1))->length =
  2022.                                         (unsigned)sfp->save_scat_len;
  2023.         else
  2024.             SCSI_LOG_TIMEOUT(1, printk(
  2025. "sg_unlink_reserve: BAD save_scat_lenn"));
  2026.     }
  2027.     req_schp->k_use_sg = 0;
  2028.     req_schp->bufflen = 0;
  2029.     req_schp->buffer = NULL;
  2030.     req_schp->sglist_len = 0;
  2031.     sfp->save_scat_len = 0;
  2032.     srp->res_used = 0;
  2033. }
  2034. static Sg_request * sg_get_rq_mark(Sg_fd * sfp, int pack_id)
  2035. {
  2036.     Sg_request * resp;
  2037.     unsigned long iflags;
  2038.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2039.     for (resp = sfp->headrp; resp; resp = resp->nextrp) { 
  2040. /* look for requests that are ready + not SG_IO owned */
  2041. if ((1 == resp->done) && (! resp->sg_io_owned) &&
  2042.             ((-1 == pack_id) || (resp->header.pack_id == pack_id))) {
  2043.     resp->done = 2;   /* guard against other readers */
  2044.             break;
  2045. }
  2046.     }
  2047.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2048.     return resp;
  2049. }
  2050. #ifdef CONFIG_PROC_FS
  2051. static Sg_request * sg_get_nth_request(Sg_fd * sfp, int nth)
  2052. {
  2053.     Sg_request * resp;
  2054.     unsigned long iflags;
  2055.     int k;
  2056.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  2057.     for (k = 0, resp = sfp->headrp; resp && (k < nth); 
  2058.  ++k, resp = resp->nextrp)
  2059. ;
  2060.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2061.     return resp;
  2062. }
  2063. #endif
  2064. /* always adds to end of list */
  2065. static Sg_request * sg_add_request(Sg_fd * sfp)
  2066. {
  2067.     int k;
  2068.     unsigned long iflags;
  2069.     Sg_request * resp;
  2070.     Sg_request * rp =  sfp->req_arr;
  2071.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2072.     resp = sfp->headrp;
  2073.     if (! resp) {
  2074. memset(rp, 0, sizeof(Sg_request));
  2075. rp->parentfp = sfp;
  2076. resp = rp;
  2077. sfp->headrp = resp;
  2078.     }
  2079.     else {
  2080.         if (0 == sfp->cmd_q)
  2081.             resp = NULL;   /* command queuing disallowed */
  2082.         else {
  2083.             for (k = 0; k < SG_MAX_QUEUE; ++k, ++rp) {
  2084.                 if (! rp->parentfp)
  2085.                     break;
  2086.             }
  2087.             if (k < SG_MAX_QUEUE) {
  2088. memset(rp, 0, sizeof(Sg_request));
  2089. rp->parentfp = sfp;
  2090. while (resp->nextrp) 
  2091.     resp = resp->nextrp;
  2092. resp->nextrp = rp;
  2093. resp = rp;
  2094.             }
  2095.             else
  2096.                 resp = NULL;
  2097.         }
  2098.     }
  2099.     if (resp) {
  2100.         resp->nextrp = NULL;
  2101. resp->header.duration = jiffies;
  2102.         resp->my_cmdp = NULL;
  2103. resp->data.kiobp = NULL;
  2104.     }
  2105.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2106.     return resp;
  2107. }
  2108. /* Return of 1 for found; 0 for not found */
  2109. static int sg_remove_request(Sg_fd * sfp, Sg_request * srp)
  2110. {
  2111.     Sg_request * prev_rp;
  2112.     Sg_request * rp;
  2113.     unsigned long iflags;
  2114.     int res = 0;
  2115.     if ((! sfp) || (! srp) || (! sfp->headrp))
  2116.         return res;
  2117.     write_lock_irqsave(&sfp->rq_list_lock, iflags);
  2118.     prev_rp = sfp->headrp;
  2119.     if (srp == prev_rp) {
  2120.         sfp->headrp = prev_rp->nextrp;
  2121.         prev_rp->parentfp = NULL;
  2122.         res = 1;
  2123.     }
  2124.     else {
  2125. while ((rp = prev_rp->nextrp)) {
  2126.     if (srp == rp) {
  2127. prev_rp->nextrp = rp->nextrp;
  2128. rp->parentfp = NULL;
  2129. res = 1;
  2130. break;
  2131.     }
  2132.     prev_rp = rp;
  2133. }
  2134.     }
  2135.     write_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2136.     return res;
  2137. }
  2138. #ifdef CONFIG_PROC_FS
  2139. static Sg_fd * sg_get_nth_sfp(Sg_device * sdp, int nth)
  2140. {
  2141.     Sg_fd * resp;
  2142.     unsigned long iflags;
  2143.     int k;
  2144.     read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2145.     for (k = 0, resp = sdp->headfp; resp && (k < nth); 
  2146.  ++k, resp = resp->nextfp)
  2147. ;
  2148.     read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2149.     return resp;
  2150. }
  2151. #endif
  2152. static Sg_fd * sg_add_sfp(Sg_device * sdp, int dev)
  2153. {
  2154.     Sg_fd * sfp;
  2155.     unsigned long iflags;
  2156.     sfp = (Sg_fd *)sg_low_malloc(sizeof(Sg_fd), 0, SG_HEAP_KMAL, 0);
  2157.     if (! sfp)
  2158.         return NULL;
  2159.     memset(sfp, 0, sizeof(Sg_fd));
  2160.     sfp->fd_mem_src = SG_HEAP_KMAL;
  2161.     init_waitqueue_head(&sfp->read_wait);
  2162.     sfp->rq_list_lock = RW_LOCK_UNLOCKED;
  2163.     sfp->timeout = SG_DEFAULT_TIMEOUT;
  2164.     sfp->force_packid = SG_DEF_FORCE_PACK_ID;
  2165.     sfp->low_dma = (SG_DEF_FORCE_LOW_DMA == 0) ?
  2166.                    sdp->device->host->unchecked_isa_dma : 1;
  2167.     sfp->cmd_q = SG_DEF_COMMAND_Q;
  2168.     sfp->keep_orphan = SG_DEF_KEEP_ORPHAN;
  2169.     sfp->parentdp = sdp;
  2170.     write_lock_irqsave(&sg_dev_arr_lock, iflags);
  2171.     if (! sdp->headfp)
  2172.         sdp->headfp = sfp;
  2173.     else {    /* add to tail of existing list */
  2174. Sg_fd * pfp = sdp->headfp;
  2175. while (pfp->nextfp)
  2176.     pfp = pfp->nextfp;
  2177. pfp->nextfp = sfp;
  2178.     }
  2179.     write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2180.     SCSI_LOG_TIMEOUT(3, printk("sg_add_sfp: sfp=0x%p, m_s=%dn",
  2181.        sfp, (int)sfp->fd_mem_src));
  2182.     sg_build_reserve(sfp, sg_big_buff);
  2183.     SCSI_LOG_TIMEOUT(3, printk("sg_add_sfp:   bufflen=%d, k_use_sg=%dn",
  2184.    sfp->reserve.bufflen, sfp->reserve.k_use_sg));
  2185.     return sfp;
  2186. }
  2187. static void __sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp)
  2188. {
  2189.     Sg_fd * fp;
  2190.     Sg_fd * prev_fp;
  2191.     prev_fp =  sdp->headfp;
  2192.     if (sfp == prev_fp)
  2193. sdp->headfp = prev_fp->nextfp;
  2194.     else {
  2195. while ((fp = prev_fp->nextfp)) {
  2196.     if (sfp == fp) {
  2197. prev_fp->nextfp = fp->nextfp;
  2198. break;
  2199.     }
  2200.     prev_fp = fp;
  2201. }
  2202.     }
  2203.     if (sfp->reserve.bufflen > 0) {
  2204.     SCSI_LOG_TIMEOUT(6, printk("__sg_remove_sfp:    bufflen=%d, k_use_sg=%dn",
  2205.      (int)sfp->reserve.bufflen, (int)sfp->reserve.k_use_sg));
  2206. if (sfp->mmap_called)
  2207.     sg_rb_correct4mmap(&sfp->reserve, 0); /* undo correction */
  2208. sg_remove_scat(&sfp->reserve);
  2209.     }
  2210.     sfp->parentdp = NULL;
  2211.     SCSI_LOG_TIMEOUT(6, printk("__sg_remove_sfp:    sfp=0x%pn", sfp));
  2212.     sg_low_free((char *)sfp, sizeof(Sg_fd), sfp->fd_mem_src);
  2213. }
  2214. /* Returns 0 in normal case, 1 when detached and sdp object removed */
  2215. static int sg_remove_sfp(Sg_device * sdp, Sg_fd * sfp)
  2216. {
  2217.     Sg_request * srp;
  2218.     Sg_request * tsrp;
  2219.     int dirty = 0;
  2220.     int res = 0;
  2221.     for (srp = sfp->headrp; srp; srp = tsrp) {
  2222. tsrp = srp->nextrp;
  2223. if (srp->done)
  2224.     sg_finish_rem_req(srp);
  2225. else
  2226.     ++dirty;
  2227.     }
  2228.     if (0 == dirty) {
  2229. unsigned long iflags;
  2230. write_lock_irqsave(&sg_dev_arr_lock, iflags);
  2231. __sg_remove_sfp(sdp, sfp);
  2232. if (sdp->detached && (NULL == sdp->headfp)) {
  2233.     int k, maxd;
  2234.     maxd = sg_template.dev_max;
  2235.     for (k = 0; k < maxd; ++k) {
  2236.      if (sdp == sg_dev_arr[k])
  2237.     break;
  2238.     }
  2239.     if (k < maxd)
  2240. sg_dev_arr[k] = NULL;
  2241.     kfree((char *)sdp);
  2242.     res = 1;
  2243. }
  2244. write_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2245.     }
  2246.     else {
  2247.         sfp->closed = 1; /* flag dirty state on this fd */
  2248. sdp->device->access_count++;
  2249. /* MOD_INC's to inhibit unloading sg and associated adapter driver */
  2250. if (sg_template.module)
  2251.     __MOD_INC_USE_COUNT(sg_template.module);
  2252. if (sdp->device->host->hostt->module)
  2253.     __MOD_INC_USE_COUNT(sdp->device->host->hostt->module);
  2254.         SCSI_LOG_TIMEOUT(1, printk(
  2255.           "sg_remove_sfp: worrisome, %d writes pendingn", dirty));
  2256.     }
  2257.     return res;
  2258. }
  2259. static int sg_res_in_use(Sg_fd * sfp)
  2260. {
  2261.     const Sg_request * srp;
  2262.     unsigned long iflags;
  2263.     read_lock_irqsave(&sfp->rq_list_lock, iflags);
  2264.     for (srp = sfp->headrp; srp; srp = srp->nextrp)
  2265.         if (srp->res_used) break;
  2266.     read_unlock_irqrestore(&sfp->rq_list_lock, iflags);
  2267.     return srp ? 1 : 0;
  2268. }
  2269. /* If retSzp==NULL want exact size or fail */
  2270. static char * sg_low_malloc(int rqSz, int lowDma, int mem_src, int * retSzp)
  2271. {
  2272.     char * resp = NULL;
  2273.     int page_mask = lowDma ? (GFP_ATOMIC | GFP_DMA) : GFP_ATOMIC;
  2274.     if (rqSz <= 0)
  2275.         return resp;
  2276.     if (SG_HEAP_KMAL == mem_src) {
  2277.         resp = kmalloc(rqSz, page_mask);
  2278.         if (resp && retSzp) *retSzp = rqSz;
  2279.         return resp;
  2280.     }
  2281.     if (SG_HEAP_POOL == mem_src) {
  2282.         int num_sect = rqSz / SG_SECTOR_SZ;
  2283.         if (0 != (rqSz & SG_SECTOR_MSK)) {
  2284.             if (! retSzp)
  2285.                 return resp;
  2286.             ++num_sect;
  2287.             rqSz = num_sect * SG_SECTOR_SZ;
  2288.         }
  2289.         while (num_sect > 0) {
  2290.             if ((num_sect <= sg_pool_secs_avail) &&
  2291.                 (scsi_dma_free_sectors > (SG_LOW_POOL_THRESHHOLD + num_sect))) {
  2292.                 resp = scsi_malloc(rqSz);
  2293.                 if (resp) {
  2294.                     if (retSzp) *retSzp = rqSz;
  2295.                     sg_pool_secs_avail -= num_sect;
  2296.                     return resp;
  2297.                 }
  2298.             }
  2299.             if (! retSzp)
  2300.                 return resp;
  2301.             num_sect /= 2;      /* try half as many */
  2302.             rqSz = num_sect * SG_SECTOR_SZ;
  2303.         }
  2304.     }
  2305.     else if (SG_HEAP_PAGE == mem_src) {
  2306.         int order, a_size;
  2307.         int resSz = rqSz;
  2308.         for (order = 0, a_size = PAGE_SIZE;
  2309.              a_size < rqSz; order++, a_size <<= 1)
  2310.             ;
  2311.         resp = (char *)__get_free_pages(page_mask, order);
  2312.         while ((! resp) && order && retSzp) {
  2313.             --order;
  2314.             a_size >>= 1;   /* divide by 2, until PAGE_SIZE */
  2315.             resp = (char *)__get_free_pages(page_mask, order); /* try half */
  2316.             resSz = a_size;
  2317.         }
  2318.         if (retSzp) *retSzp = resSz;
  2319.     }
  2320.     else
  2321.         printk(KERN_ERR "sg_low_malloc: bad mem_src=%d, rqSz=%dfn", 
  2322.        mem_src, rqSz);
  2323.     return resp;
  2324. }
  2325. static char * sg_malloc(const Sg_fd * sfp, int size, int * retSzp,
  2326.                         int * mem_srcp)
  2327. {
  2328.     char * resp = NULL;
  2329.     if (retSzp) *retSzp = size;
  2330.     if (size <= 0)
  2331.         ;
  2332.     else {
  2333.         int low_dma = sfp->low_dma;
  2334.         int l_ms = -1;  /* invalid value */
  2335. switch (*mem_srcp)
  2336.         {
  2337.         case SG_HEAP_PAGE:
  2338.             l_ms = (size < PAGE_SIZE) ? SG_HEAP_POOL : SG_HEAP_PAGE;
  2339.             resp = sg_low_malloc(size, low_dma, l_ms, 0);
  2340.             if (resp)
  2341.                 break;
  2342.             resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2343.             if (! resp) {
  2344.                 l_ms = (SG_HEAP_POOL == l_ms) ? SG_HEAP_PAGE : SG_HEAP_POOL;
  2345.                 resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2346.                 if (! resp) {
  2347.                     l_ms = SG_HEAP_KMAL;
  2348.                     resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2349.                 }
  2350.             }
  2351.             if (resp && retSzp) *retSzp = size;
  2352.             break;
  2353.         case SG_HEAP_KMAL:
  2354.             l_ms = SG_HEAP_KMAL; /* was SG_HEAP_PAGE */
  2355.             resp = sg_low_malloc(size, low_dma, l_ms, 0);
  2356.             if (resp)
  2357.                 break;
  2358.             l_ms = SG_HEAP_POOL;
  2359.             resp = sg_low_malloc(size, low_dma, l_ms, &size);
  2360.             if (resp && retSzp) *retSzp = size;
  2361.             break;
  2362.         default:
  2363.             SCSI_LOG_TIMEOUT(1, printk("sg_malloc: bad ms=%dn", *mem_srcp));
  2364.             break;
  2365.         }
  2366.         if (resp) *mem_srcp = l_ms;
  2367.     }
  2368.     SCSI_LOG_TIMEOUT(6, printk("sg_malloc: size=%d, ms=%d, ret=0x%pn",
  2369.                                size, *mem_srcp, resp));
  2370.     return resp;
  2371. }
  2372. static inline int sg_alloc_kiovec(int nr, struct kiobuf **bufp, int *szp)
  2373. {
  2374. #if SG_NEW_KIOVEC
  2375.     return alloc_kiovec_sz(nr, bufp, szp);
  2376. #else
  2377.     return alloc_kiovec(nr, bufp);
  2378. #endif
  2379. }
  2380. static void sg_low_free(char * buff, int size, int mem_src)
  2381. {
  2382.     if (! buff) return;
  2383.     switch (mem_src) {
  2384.     case SG_HEAP_POOL:
  2385. {
  2386.     int num_sect = size / SG_SECTOR_SZ;
  2387.     scsi_free(buff, size);
  2388.     sg_pool_secs_avail += num_sect;
  2389. }
  2390. break;
  2391.     case SG_HEAP_KMAL:
  2392. kfree(buff);    /* size not used */
  2393. break;
  2394.     case SG_HEAP_PAGE:
  2395. {
  2396.     int order, a_size;
  2397.     for (order = 0, a_size = PAGE_SIZE;
  2398.  a_size < size; order++, a_size <<= 1)
  2399. ;
  2400.     free_pages((unsigned long)buff, order);
  2401. }
  2402. break;
  2403.     case SG_USER_MEM:
  2404. break; /* nothing to do */
  2405.     default:
  2406. printk(KERN_ERR "sg_low_free: bad mem_src=%d, buff=0x%p, rqSz=%dn",
  2407.                mem_src, buff, size);
  2408. break;
  2409.     }
  2410. }
  2411. static void sg_free(char * buff, int size, int mem_src)
  2412. {
  2413.     SCSI_LOG_TIMEOUT(6,
  2414.         printk("sg_free: buff=0x%p, size=%dn", buff, size));
  2415.     if ((! buff) || (size <= 0))
  2416.         ;
  2417.     else
  2418.         sg_low_free(buff, size, mem_src);
  2419. }
  2420. static inline void sg_free_kiovec(int nr, struct kiobuf **bufp, int *szp)
  2421. {
  2422. #if SG_NEW_KIOVEC
  2423.     free_kiovec_sz(nr, bufp, szp);
  2424. #else
  2425.     free_kiovec(nr, bufp);
  2426. #endif
  2427. }
  2428. static int sg_ms_to_jif(unsigned int msecs)
  2429. {
  2430.     if ((UINT_MAX / 2U) < msecs)
  2431. return INT_MAX;      /* special case, set largest possible */
  2432.     else
  2433. return ((int)msecs < (INT_MAX / 1000)) ? (((int)msecs * HZ) / 1000)
  2434.        : (((int)msecs / 1000) * HZ);
  2435. }
  2436. static inline unsigned sg_jif_to_ms(int jifs)
  2437. {
  2438.     if (jifs <= 0)
  2439. return 0U;
  2440.     else {
  2441. unsigned int j = (unsigned int)jifs;
  2442. return (j < (UINT_MAX / 1000)) ? ((j * 1000) / HZ) : ((j / HZ) * 1000);
  2443.     }
  2444. }
  2445. static unsigned char allow_ops[] = {TEST_UNIT_READY, INQUIRY,
  2446. READ_CAPACITY, READ_BUFFER, READ_6, READ_10, READ_12,
  2447. MODE_SENSE, MODE_SENSE_10};
  2448. static int sg_allow_access(unsigned char opcode, char dev_type)
  2449. {
  2450.     int k;
  2451.     if (TYPE_SCANNER == dev_type) /* TYPE_ROM maybe burner */
  2452. return 1;
  2453.     for (k = 0; k < sizeof(allow_ops); ++k) {
  2454. if (opcode == allow_ops[k])
  2455.     return 1;
  2456.     }
  2457.     return 0;
  2458. }
  2459. #ifdef CONFIG_PROC_FS
  2460. static int sg_last_dev()
  2461. {
  2462.     int k;
  2463.     unsigned long iflags;
  2464.     read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2465.     for (k = sg_template.dev_max - 1; k >= 0; --k)
  2466. if (sg_dev_arr[k] && sg_dev_arr[k]->device) break;
  2467.     read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2468.     return k + 1;   /* origin 1 */
  2469. }
  2470. #endif
  2471. static Sg_device * sg_get_dev(int dev)
  2472. {
  2473.     Sg_device * sdp = NULL;
  2474.     unsigned long iflags;
  2475.     if (sg_dev_arr && (dev >= 0))
  2476.     {
  2477. read_lock_irqsave(&sg_dev_arr_lock, iflags);
  2478. if (dev < sg_template.dev_max)
  2479.     sdp = sg_dev_arr[dev];
  2480. read_unlock_irqrestore(&sg_dev_arr_lock, iflags);
  2481.     }
  2482.     return sdp;
  2483. }
  2484. #ifdef CONFIG_PROC_FS
  2485. static struct proc_dir_entry * sg_proc_sgp = NULL;
  2486. static char sg_proc_sg_dirname[] = "sg";
  2487. static const char * sg_proc_leaf_names[] = {"allow_dio", "def_reserved_size",
  2488. "debug", "devices", "device_hdr", "device_strs",
  2489. "hosts", "host_hdr", "host_strs", "version"};
  2490. static int sg_proc_adio_read(char * buffer, char ** start, off_t offset,
  2491.      int size, int * eof, void * data);
  2492. static int sg_proc_adio_info(char * buffer, int * len, off_t * begin,
  2493.      off_t offset, int size);
  2494. static int sg_proc_adio_write(struct file * filp, const char * buffer,
  2495.       unsigned long count, void * data);
  2496. static int sg_proc_dressz_read(char * buffer, char ** start, off_t offset,
  2497.        int size, int * eof, void * data);
  2498. static int sg_proc_dressz_info(char * buffer, int * len, off_t * begin,
  2499.        off_t offset, int size);
  2500. static int sg_proc_dressz_write(struct file * filp, const char * buffer,
  2501. unsigned long count, void * data);
  2502. static int sg_proc_debug_read(char * buffer, char ** start, off_t offset,
  2503.       int size, int * eof, void * data);
  2504. static int sg_proc_debug_info(char * buffer, int * len, off_t * begin,
  2505.       off_t offset, int size);
  2506. static int sg_proc_dev_read(char * buffer, char ** start, off_t offset,
  2507.     int size, int * eof, void * data);
  2508. static int sg_proc_dev_info(char * buffer, int * len, off_t * begin,
  2509.     off_t offset, int size);
  2510. static int sg_proc_devhdr_read(char * buffer, char ** start, off_t offset,
  2511.        int size, int * eof, void * data);
  2512. static int sg_proc_devhdr_info(char * buffer, int * len, off_t * begin,
  2513.        off_t offset, int size);
  2514. static int sg_proc_devstrs_read(char * buffer, char ** start, off_t offset,
  2515. int size, int * eof, void * data);
  2516. static int sg_proc_devstrs_info(char * buffer, int * len, off_t * begin,
  2517. off_t offset, int size);
  2518. static int sg_proc_host_read(char * buffer, char ** start, off_t offset,
  2519.      int size, int * eof, void * data);
  2520. static int sg_proc_host_info(char * buffer, int * len, off_t * begin,
  2521.      off_t offset, int size);
  2522. static int sg_proc_hosthdr_read(char * buffer, char ** start, off_t offset,
  2523. int size, int * eof, void * data);
  2524. static int sg_proc_hosthdr_info(char * buffer, int * len, off_t * begin,
  2525. off_t offset, int size);
  2526. static int sg_proc_hoststrs_read(char * buffer, char ** start, off_t offset,
  2527.  int size, int * eof, void * data);
  2528. static int sg_proc_hoststrs_info(char * buffer, int * len, off_t * begin,
  2529.  off_t offset, int size);
  2530. static int sg_proc_version_read(char * buffer, char ** start, off_t offset,
  2531. int size, int * eof, void * data);
  2532. static int sg_proc_version_info(char * buffer, int * len, off_t * begin,
  2533. off_t offset, int size);
  2534. static read_proc_t * sg_proc_leaf_reads[] = {
  2535.      sg_proc_adio_read, sg_proc_dressz_read, sg_proc_debug_read,
  2536.      sg_proc_dev_read, sg_proc_devhdr_read, sg_proc_devstrs_read,
  2537.      sg_proc_host_read, sg_proc_hosthdr_read, sg_proc_hoststrs_read,
  2538.      sg_proc_version_read};
  2539. static write_proc_t * sg_proc_leaf_writes[] = {
  2540.      sg_proc_adio_write, sg_proc_dressz_write, 0, 0, 0, 0, 0, 0, 0, 0};
  2541. #define PRINT_PROC(fmt,args...)                                 
  2542.     do {                                                        
  2543. *len += sprintf(buffer + *len, fmt, ##args);            
  2544. if (*begin + *len > offset + size)                      
  2545.     return 0;                                           
  2546. if (*begin + *len < offset) {                           
  2547.     *begin += *len;                                     
  2548.     *len = 0;                                           
  2549. }                                                       
  2550.     } while(0)
  2551. #define SG_PROC_READ_FN(infofp)                                 
  2552.     do {                                                        
  2553. int len = 0;                                            
  2554. off_t begin = 0;                                        
  2555. *eof = infofp(buffer, &len, &begin, offset, size);      
  2556. if (offset >= (begin + len))                            
  2557.     return 0;                                           
  2558. *start = buffer + offset - begin;
  2559. return (size < (begin + len - offset)) ?                
  2560. size : begin + len - offset;    
  2561.     } while(0)
  2562. static int sg_proc_init()
  2563. {
  2564.     int k, mask;
  2565.     int leaves = sizeof(sg_proc_leaf_names) / sizeof(sg_proc_leaf_names[0]);
  2566.     struct proc_dir_entry * pdep;
  2567.     if (! proc_scsi)
  2568. return 1;
  2569.     sg_proc_sgp = create_proc_entry(sg_proc_sg_dirname,
  2570.     S_IFDIR | S_IRUGO | S_IXUGO, proc_scsi);
  2571.     if (! sg_proc_sgp)
  2572. return 1;
  2573.     for (k = 0; k < leaves; ++k) {
  2574. mask = sg_proc_leaf_writes[k] ? S_IRUGO | S_IWUSR : S_IRUGO;
  2575. pdep = create_proc_entry(sg_proc_leaf_names[k], mask, sg_proc_sgp);
  2576. if (pdep) {
  2577.     pdep->read_proc = sg_proc_leaf_reads[k];
  2578.     if (sg_proc_leaf_writes[k])
  2579. pdep->write_proc = sg_proc_leaf_writes[k];
  2580. }
  2581.     }
  2582.     return 0;
  2583. }
  2584. static void sg_proc_cleanup()
  2585. {
  2586.     int k;
  2587.     int leaves = sizeof(sg_proc_leaf_names) / sizeof(sg_proc_leaf_names[0]);
  2588.     if ((! proc_scsi) || (! sg_proc_sgp))
  2589. return;
  2590.     for (k = 0; k < leaves; ++k)
  2591. remove_proc_entry(sg_proc_leaf_names[k], sg_proc_sgp);
  2592.     remove_proc_entry(sg_proc_sg_dirname, proc_scsi);
  2593. }
  2594. static int sg_proc_adio_read(char * buffer, char ** start, off_t offset,
  2595.        int size, int * eof, void * data)
  2596. { SG_PROC_READ_FN(sg_proc_adio_info); }
  2597. static int sg_proc_adio_info(char * buffer, int * len, off_t * begin,
  2598.      off_t offset, int size)
  2599. {
  2600.     PRINT_PROC("%dn", sg_allow_dio);
  2601.     return 1;
  2602. }
  2603. static int sg_proc_adio_write(struct file * filp, const char * buffer,
  2604.       unsigned long count, void * data)
  2605. {
  2606.     int num;
  2607.     char buff[11];
  2608.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2609. return -EACCES;
  2610.     num = (count < 10) ? count : 10;
  2611.     copy_from_user(buff, buffer, num);
  2612.     buff[num] = '';
  2613.     sg_allow_dio = simple_strtoul(buff, 0, 10) ? 1 : 0;
  2614.     return count;
  2615. }
  2616. static int sg_proc_dressz_read(char * buffer, char ** start, off_t offset,
  2617.        int size, int * eof, void * data)
  2618. { SG_PROC_READ_FN(sg_proc_dressz_info); }
  2619. static int sg_proc_dressz_info(char * buffer, int * len, off_t * begin,
  2620.        off_t offset, int size)
  2621. {
  2622.     PRINT_PROC("%dn", sg_big_buff);
  2623.     return 1;
  2624. }
  2625. static int sg_proc_dressz_write(struct file * filp, const char * buffer,
  2626. unsigned long count, void * data)
  2627. {
  2628.     int num;
  2629.     unsigned long k = ULONG_MAX;
  2630.     char buff[11];
  2631.     if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
  2632. return -EACCES;
  2633.     num = (count < 10) ? count : 10;
  2634.     copy_from_user(buff, buffer, num);
  2635.     buff[num] = '';
  2636.     k = simple_strtoul(buff, 0, 10);
  2637.     if (k <= 1048576) {
  2638. sg_big_buff = k;
  2639. return count;
  2640.     }
  2641.     return -ERANGE;
  2642. }
  2643. static int sg_proc_debug_read(char * buffer, char ** start, off_t offset,
  2644.       int size, int * eof, void * data)
  2645. { SG_PROC_READ_FN(sg_proc_debug_info); }
  2646. static int sg_proc_debug_info(char * buffer, int * len, off_t * begin,
  2647.       off_t offset, int size)
  2648. {
  2649.     Sg_device * sdp;
  2650.     const sg_io_hdr_t * hp;
  2651.     int j, max_dev, new_interface;
  2652.     if (NULL == sg_dev_arr) {
  2653. PRINT_PROC("sg_dev_arr NULL, driver not initializedn");
  2654. return 1;
  2655.     }
  2656.     max_dev = sg_last_dev();
  2657.     PRINT_PROC("dev_max(currently)=%d max_active_device=%d (origin 1)n",
  2658.        sg_template.dev_max, max_dev);
  2659.     PRINT_PROC(" scsi_dma_free_sectors=%u sg_pool_secs_aval=%d "
  2660.        "def_reserved_size=%dn",
  2661.        scsi_dma_free_sectors, sg_pool_secs_avail, sg_big_buff);
  2662.     for (j = 0; j < max_dev; ++j) {
  2663. if ((sdp = sg_get_dev(j))) {
  2664.     Sg_fd * fp;
  2665.     Sg_request * srp;
  2666.     struct scsi_device * scsidp;
  2667.     int dev, k, m, blen, usg;
  2668.  
  2669.     scsidp = sdp->device;
  2670.     if (NULL == scsidp) {
  2671. PRINT_PROC("device %d detached ??n", j);
  2672. continue;
  2673.     }
  2674.     dev = MINOR(sdp->i_rdev);
  2675.     if (sg_get_nth_sfp(sdp, 0)) {
  2676. PRINT_PROC(" >>> device=sg%d ", dev);
  2677. if (sdp->detached)
  2678.     PRINT_PROC("detached pending close ");
  2679. else
  2680.     PRINT_PROC("scsi%d chan=%d id=%d lun=%d   em=%d",
  2681.        scsidp->host->host_no, scsidp->channel,
  2682.        scsidp->id, scsidp->lun, scsidp->host->hostt->emulated);
  2683. PRINT_PROC(" sg_tablesize=%d excl=%dn", sdp->sg_tablesize, 
  2684.    sdp->exclude);
  2685.     }
  2686.     for (k = 0; (fp = sg_get_nth_sfp(sdp, k)); ++k) {
  2687. PRINT_PROC("   FD(%d): timeout=%dms bufflen=%d "
  2688.    "(res)sgat=%d low_dma=%dn", k + 1,
  2689.    sg_jif_to_ms(fp->timeout), fp->reserve.bufflen,
  2690.    (int)fp->reserve.k_use_sg, (int)fp->low_dma);
  2691. PRINT_PROC("   cmd_q=%d f_packid=%d k_orphan=%d closed=%dn",
  2692.    (int)fp->cmd_q, (int)fp->force_packid,
  2693.    (int)fp->keep_orphan, (int)fp->closed);
  2694. for (m = 0; (srp = sg_get_nth_request(fp, m)); ++m) {
  2695.     hp = &srp->header;
  2696.     new_interface = (hp->interface_id == '') ? 0 : 1;
  2697. /* stop indenting so far ... */
  2698. PRINT_PROC(srp->res_used ? ((new_interface && 
  2699.     (SG_FLAG_MMAP_IO & hp->flags)) ? "     mmap>> " : "     rb>> ") :
  2700.     ((SG_INFO_DIRECT_IO_MASK & hp->info) ? "     dio>> " : "     "));
  2701. blen = srp->my_cmdp ? srp->my_cmdp->sr_bufflen : srp->data.bufflen;
  2702. usg = srp->my_cmdp ? srp->my_cmdp->sr_use_sg : srp->data.k_use_sg;
  2703. PRINT_PROC(srp->done ? ((1 == srp->done) ? "rcv:" : "fin:") 
  2704.      : (srp->my_cmdp ? "act:" : "prior:"));
  2705. PRINT_PROC(" id=%d blen=%d", srp->header.pack_id, blen);
  2706. if (srp->done)
  2707.     PRINT_PROC(" dur=%d", hp->duration);
  2708. else
  2709.     PRINT_PROC(" t_o/elap=%d/%d", new_interface ? hp->timeout :
  2710. sg_jif_to_ms(fp->timeout),
  2711.   sg_jif_to_ms(hp->duration ? (jiffies - hp->duration) : 0));
  2712. PRINT_PROC("ms sgat=%d op=0x%02xn", usg, (int)srp->data.cmd_opcode);
  2713. /* reset indenting */
  2714. }
  2715. if (0 == m)
  2716.     PRINT_PROC("     No requests activen");
  2717.     }
  2718. }
  2719.     }
  2720.     return 1;
  2721. }
  2722. static int sg_proc_dev_read(char * buffer, char ** start, off_t offset,
  2723.     int size, int * eof, void * data)
  2724. { SG_PROC_READ_FN(sg_proc_dev_info); }
  2725. static int sg_proc_dev_info(char * buffer, int * len, off_t * begin,
  2726.     off_t offset, int size)
  2727. {
  2728.     Sg_device * sdp;
  2729.     int j, max_dev;
  2730.     struct scsi_device * scsidp;
  2731.     max_dev = sg_last_dev();
  2732.     for (j = 0; j < max_dev; ++j) {
  2733. sdp = sg_get_dev(j);
  2734. if (sdp && (scsidp = sdp->device) && (! sdp->detached))
  2735.     PRINT_PROC("%dt%dt%dt%dt%dt%dt%dt%dt%dn",
  2736.        scsidp->host->host_no, scsidp->channel, scsidp->id,
  2737.        scsidp->lun, (int)scsidp->type, (int)scsidp->access_count,
  2738.        (int)scsidp->queue_depth, (int)scsidp->device_busy,
  2739.        (int)scsidp->online);
  2740. else
  2741.     PRINT_PROC("-1t-1t-1t-1t-1t-1t-1t-1t-1n");
  2742.     }
  2743.     return 1;
  2744. }
  2745. static int sg_proc_devhdr_read(char * buffer, char ** start, off_t offset,
  2746.        int size, int * eof, void * data)
  2747. { SG_PROC_READ_FN(sg_proc_devhdr_info); }
  2748. static int sg_proc_devhdr_info(char * buffer, int * len, off_t * begin,
  2749.        off_t offset, int size)
  2750. {
  2751.     PRINT_PROC("hosttchantidtlunttypetopenstqdepthtbusytonlinen");
  2752.     return 1;
  2753. }
  2754. static int sg_proc_devstrs_read(char * buffer, char ** start, off_t offset,
  2755. int size, int * eof, void * data)
  2756. { SG_PROC_READ_FN(sg_proc_devstrs_info); }
  2757. static int sg_proc_devstrs_info(char * buffer, int * len, off_t * begin,
  2758. off_t offset, int size)
  2759. {
  2760.     Sg_device * sdp;
  2761.     int j, max_dev;
  2762.     struct scsi_device * scsidp;
  2763.     max_dev = sg_last_dev();
  2764.     for (j = 0; j < max_dev; ++j) {
  2765. sdp = sg_get_dev(j);
  2766. if (sdp && (scsidp = sdp->device) && (! sdp->detached))
  2767.     PRINT_PROC("%8.8st%16.16st%4.4sn",
  2768.        scsidp->vendor, scsidp->model, scsidp->rev);
  2769. else
  2770.     PRINT_PROC("<no active device>n");
  2771.     }
  2772.     return 1;
  2773. }
  2774. static int sg_proc_host_read(char * buffer, char ** start, off_t offset,
  2775.      int size, int * eof, void * data)
  2776. { SG_PROC_READ_FN(sg_proc_host_info); }
  2777. static int sg_proc_host_info(char * buffer, int * len, off_t * begin,
  2778.      off_t offset, int size)
  2779. {
  2780.     struct Scsi_Host * shp;
  2781.     int k;
  2782.     for (k = 0, shp = scsi_hostlist; shp; shp = shp->next, ++k) {
  2783.      for ( ; k < shp->host_no; ++k)
  2784.     PRINT_PROC("-1t-1t-1t-1t-1t-1n");
  2785. PRINT_PROC("%ut%hut%hdt%hut%dt%dn",
  2786.    shp->unique_id, shp->host_busy, shp->cmd_per_lun,
  2787.    shp->sg_tablesize, (int)shp->unchecked_isa_dma,
  2788.    (int)shp->hostt->emulated);
  2789.     }
  2790.     return 1;
  2791. }
  2792. static int sg_proc_hosthdr_read(char * buffer, char ** start, off_t offset,
  2793. int size, int * eof, void * data)
  2794. { SG_PROC_READ_FN(sg_proc_hosthdr_info); }
  2795. static int sg_proc_hosthdr_info(char * buffer, int * len, off_t * begin,
  2796. off_t offset, int size)
  2797. {
  2798.     PRINT_PROC("uidtbusytcpltscatgtisatemuln");
  2799.     return 1;
  2800. }
  2801. static int sg_proc_hoststrs_read(char * buffer, char ** start, off_t offset,
  2802.  int size, int * eof, void * data)
  2803. { SG_PROC_READ_FN(sg_proc_hoststrs_info); }
  2804. static int sg_proc_hoststrs_info(char * buffer, int * len, off_t * begin,
  2805.  off_t offset, int size)
  2806. {
  2807.     struct Scsi_Host * shp;
  2808.     int k;
  2809.     for (k = 0, shp = scsi_hostlist; shp; shp = shp->next, ++k) {
  2810.      for ( ; k < shp->host_no; ++k)
  2811.     PRINT_PROC("<no active host>n");
  2812. PRINT_PROC("%sn", shp->hostt->info ? shp->hostt->info(shp) :
  2813.     (shp->hostt->name ? shp->hostt->name : "<no name>"));
  2814.     }
  2815.     return 1;
  2816. }
  2817. static int sg_proc_version_read(char * buffer, char ** start, off_t offset,
  2818. int size, int * eof, void * data)
  2819. { SG_PROC_READ_FN(sg_proc_version_info); }
  2820. static int sg_proc_version_info(char * buffer, int * len, off_t * begin,
  2821. off_t offset, int size)
  2822. {
  2823.     PRINT_PROC("%dt%sn", sg_version_num, sg_version_str);
  2824.     return 1;
  2825. }
  2826. #endif  /* CONFIG_PROC_FS */
  2827. module_init(init_sg);
  2828. module_exit(exit_sg);