scsi_merge.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:35k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *  scsi_merge.c Copyright (C) 1999 Eric Youngdale
  3.  *
  4.  *  SCSI queueing library.
  5.  *      Initial versions: Eric Youngdale (eric@andante.org).
  6.  *                        Based upon conversations with large numbers
  7.  *                        of people at Linux Expo.
  8.  * Support for dynamic DMA mapping: Jakub Jelinek (jakub@redhat.com).
  9.  */
  10. /*
  11.  * This file contains queue management functions that are used by SCSI.
  12.  * Typically this is used for several purposes.   First, we need to ensure
  13.  * that commands do not grow so large that they cannot be handled all at
  14.  * once by a host adapter.   The various flavors of merge functions included
  15.  * here serve this purpose.
  16.  *
  17.  * Note that it would be quite trivial to allow the low-level driver the
  18.  * flexibility to define it's own queue handling functions.  For the time
  19.  * being, the hooks are not present.   Right now we are just using the
  20.  * data in the host template as an indicator of how we should be handling
  21.  * queues, and we select routines that are optimized for that purpose.
  22.  *
  23.  * Some hosts do not impose any restrictions on the size of a request.
  24.  * In such cases none of the merge functions in this file are called,
  25.  * and we allow ll_rw_blk to merge requests in the default manner.
  26.  * This isn't guaranteed to be optimal, but it should be pretty darned
  27.  * good.   If someone comes up with ideas of better ways of managing queues
  28.  * to improve on the default behavior, then certainly fit it into this
  29.  * scheme in whatever manner makes the most sense.   Please note that
  30.  * since each device has it's own queue, we have considerable flexibility
  31.  * in queue management.
  32.  */
  33. #define __NO_VERSION__
  34. #include <linux/config.h>
  35. #include <linux/module.h>
  36. #include <linux/sched.h>
  37. #include <linux/timer.h>
  38. #include <linux/string.h>
  39. #include <linux/slab.h>
  40. #include <linux/ioport.h>
  41. #include <linux/kernel.h>
  42. #include <linux/stat.h>
  43. #include <linux/blk.h>
  44. #include <linux/interrupt.h>
  45. #include <linux/delay.h>
  46. #include <linux/smp_lock.h>
  47. #define __KERNEL_SYSCALLS__
  48. #include <linux/unistd.h>
  49. #include <asm/system.h>
  50. #include <asm/irq.h>
  51. #include <asm/dma.h>
  52. #include <asm/io.h>
  53. #include "scsi.h"
  54. #include "hosts.h"
  55. #include "constants.h"
  56. #include <scsi/scsi_ioctl.h>
  57. /*
  58.  * This means that bounce buffers cannot be allocated in chunks > PAGE_SIZE.
  59.  * Ultimately we should get away from using a dedicated DMA bounce buffer
  60.  * pool, and we should instead try and use kmalloc() instead.  If we can
  61.  * eliminate this pool, then this restriction would no longer be needed.
  62.  */
  63. #define DMA_SEGMENT_SIZE_LIMITED
  64. #ifdef CONFIG_SCSI_DEBUG_QUEUES
  65. /*
  66.  * Enable a bunch of additional consistency checking.   Turn this off
  67.  * if you are benchmarking.
  68.  */
  69. static int dump_stats(struct request *req,
  70.       int use_clustering,
  71.       int dma_host,
  72.       int segments)
  73. {
  74. struct buffer_head *bh;
  75. /*
  76.  * Dump the information that we have.  We know we have an
  77.  * inconsistency.
  78.  */
  79. printk("nr_segments is %xn", req->nr_segments);
  80. printk("counted segments is %xn", segments);
  81. printk("Flags %d %dn", use_clustering, dma_host);
  82. for (bh = req->bh; bh->b_reqnext != NULL; bh = bh->b_reqnext) 
  83. {
  84. printk("Segment 0x%p, blocks %d, addr 0x%lxn",
  85.        bh,
  86.        bh->b_size >> 9,
  87.        virt_to_phys(bh->b_data - 1));
  88. }
  89. panic("Ththththaats all folks.  Too dangerous to continue.n");
  90. }
  91. /*
  92.  * Simple sanity check that we will use for the first go around
  93.  * in order to ensure that we are doing the counting correctly.
  94.  * This can be removed for optimization.
  95.  */
  96. #define SANITY_CHECK(req, _CLUSTER, _DMA)
  97.     if( req->nr_segments != __count_segments(req, _CLUSTER, _DMA, NULL) )
  98.     {
  99. printk("Incorrect segment count at 0x%p", current_text_addr());
  100. dump_stats(req, _CLUSTER, _DMA, __count_segments(req, _CLUSTER, _DMA, NULL)); 
  101.     }
  102. #else
  103. #define SANITY_CHECK(req, _CLUSTER, _DMA)
  104. #endif
  105. static void dma_exhausted(Scsi_Cmnd * SCpnt, int i)
  106. {
  107. int jj;
  108. struct scatterlist *sgpnt;
  109. void **bbpnt;
  110. int consumed = 0;
  111. sgpnt = (struct scatterlist *) SCpnt->request_buffer;
  112. bbpnt = SCpnt->bounce_buffers;
  113. /*
  114.  * Now print out a bunch of stats.  First, start with the request
  115.  * size.
  116.  */
  117. printk("dma_free_sectors:%dn", scsi_dma_free_sectors);
  118. printk("use_sg:%dti:%dn", SCpnt->use_sg, i);
  119. printk("request_bufflen:%dn", SCpnt->request_bufflen);
  120. /*
  121.  * Now dump the scatter-gather table, up to the point of failure.
  122.  */
  123. for(jj=0; jj < SCpnt->use_sg; jj++)
  124. {
  125. printk("[%d]tlen:%dtaddr:%ptbounce:%pn",
  126.        jj,
  127.        sgpnt[jj].length,
  128.        sgpnt[jj].address,
  129.        (bbpnt ? bbpnt[jj] : NULL));
  130. if (bbpnt && bbpnt[jj])
  131. consumed += sgpnt[jj].length;
  132. }
  133. printk("Total %d sectors consumedn", consumed);
  134. panic("DMA pool exhausted");
  135. }
  136. #define CLUSTERABLE_DEVICE(SH,SD) (SH->use_clustering)
  137. /*
  138.  * This entire source file deals with the new queueing code.
  139.  */
  140. /*
  141.  * Function:    __count_segments()
  142.  *
  143.  * Purpose:     Prototype for queue merge function.
  144.  *
  145.  * Arguments:   q       - Queue for which we are merging request.
  146.  *              req     - request into which we wish to merge.
  147.  *              use_clustering - 1 if this host wishes to use clustering
  148.  *              dma_host - 1 if this host has ISA DMA issues (bus doesn't
  149.  *                      expose all of the address lines, so that DMA cannot
  150.  *                      be done from an arbitrary address).
  151.  * remainder - used to track the residual size of the last
  152.  * segment.  Comes in handy when we want to limit the 
  153.  * size of bounce buffer segments to PAGE_SIZE.
  154.  *
  155.  * Returns:     Count of the number of SG segments for the request.
  156.  *
  157.  * Lock status: 
  158.  *
  159.  * Notes:       This is only used for diagnostic purposes.
  160.  */
  161. __inline static int __count_segments(struct request *req,
  162.      int use_clustering,
  163.      int dma_host,
  164.      int * remainder)
  165. {
  166. int ret = 1;
  167. int reqsize = 0;
  168. struct buffer_head *bh;
  169. struct buffer_head *bhnext;
  170. if( remainder != NULL ) {
  171. reqsize = *remainder;
  172. }
  173. /*
  174.  * Add in the size increment for the first buffer.
  175.  */
  176. bh = req->bh;
  177. #ifdef DMA_SEGMENT_SIZE_LIMITED
  178. if( reqsize + bh->b_size > PAGE_SIZE ) {
  179. ret++;
  180. reqsize = bh->b_size;
  181. } else {
  182. reqsize += bh->b_size;
  183. }
  184. #else
  185. reqsize += bh->b_size;
  186. #endif
  187. for (bh = req->bh, bhnext = bh->b_reqnext; 
  188.      bhnext != NULL; 
  189.      bh = bhnext, bhnext = bh->b_reqnext) {
  190. if (use_clustering) {
  191. /* 
  192.  * See if we can do this without creating another
  193.  * scatter-gather segment.  In the event that this is a
  194.  * DMA capable host, make sure that a segment doesn't span
  195.  * the DMA threshold boundary.  
  196.  */
  197. if (dma_host &&
  198.     virt_to_phys(bhnext->b_data) - 1 == ISA_DMA_THRESHOLD) {
  199. ret++;
  200. reqsize = bhnext->b_size;
  201. } else if (CONTIGUOUS_BUFFERS(bh, bhnext)) {
  202. /*
  203.  * This one is OK.  Let it go.
  204.  */ 
  205. #ifdef DMA_SEGMENT_SIZE_LIMITED
  206. /* Note scsi_malloc is only able to hand out
  207.  * chunks of memory in sizes of PAGE_SIZE or
  208.  * less.  Thus we need to keep track of
  209.  * the size of the piece that we have
  210.  * seen so far, and if we have hit
  211.  * the limit of PAGE_SIZE, then we are
  212.  * kind of screwed and we need to start
  213.  * another segment.
  214.  */
  215. if( dma_host
  216.     && virt_to_phys(bh->b_data) - 1 >= ISA_DMA_THRESHOLD
  217.     && reqsize + bhnext->b_size > PAGE_SIZE )
  218. {
  219. ret++;
  220. reqsize = bhnext->b_size;
  221. continue;
  222. }
  223. #endif
  224. reqsize += bhnext->b_size;
  225. continue;
  226. }
  227. ret++;
  228. reqsize = bhnext->b_size;
  229. } else {
  230. ret++;
  231. reqsize = bhnext->b_size;
  232. }
  233. }
  234. if( remainder != NULL ) {
  235. *remainder = reqsize;
  236. }
  237. return ret;
  238. }
  239. /*
  240.  * Function:    recount_segments()
  241.  *
  242.  * Purpose:     Recount the number of scatter-gather segments for this request.
  243.  *
  244.  * Arguments:   req     - request that needs recounting.
  245.  *
  246.  * Returns:     Count of the number of SG segments for the request.
  247.  *
  248.  * Lock status: Irrelevant.
  249.  *
  250.  * Notes: This is only used when we have partially completed requests
  251.  * and the bit that is leftover is of an indeterminate size.
  252.  * This can come up if you get a MEDIUM_ERROR, for example,
  253.  * as we will have "completed" all of the sectors up to and
  254.  * including the bad sector, and the leftover bit is what
  255.  * we have to do now.  This tends to be a rare occurrence, so
  256.  * we aren't busting our butts to instantiate separate versions
  257.  * of this function for the 4 different flag values.  We
  258.  * probably should, however.
  259.  */
  260. void
  261. recount_segments(Scsi_Cmnd * SCpnt)
  262. {
  263. struct request *req;
  264. struct Scsi_Host *SHpnt;
  265. Scsi_Device * SDpnt;
  266. req   = &SCpnt->request;
  267. SHpnt = SCpnt->host;
  268. SDpnt = SCpnt->device;
  269. req->nr_segments = __count_segments(req, 
  270.     CLUSTERABLE_DEVICE(SHpnt, SDpnt),
  271.     SHpnt->unchecked_isa_dma, NULL);
  272. }
  273. #define MERGEABLE_BUFFERS(X,Y) 
  274. (((((long)(X)->b_data+(X)->b_size)|((long)(Y)->b_data)) & 
  275.   (DMA_CHUNK_SIZE - 1)) == 0)
  276. #ifdef DMA_CHUNK_SIZE
  277. static inline int scsi_new_mergeable(request_queue_t * q,
  278.      struct request * req,
  279.      struct Scsi_Host *SHpnt,
  280.      int max_segments)
  281. {
  282. /*
  283.  * pci_map_sg will be able to merge these two
  284.  * into a single hardware sg entry, check if
  285.  * we'll have enough memory for the sg list.
  286.  * scsi.c allocates for this purpose
  287.  * min(64,sg_tablesize) entries.
  288.  */
  289. if (req->nr_segments >= max_segments ||
  290.     req->nr_segments >= SHpnt->sg_tablesize)
  291. return 0;
  292. req->nr_segments++;
  293. return 1;
  294. }
  295. static inline int scsi_new_segment(request_queue_t * q,
  296.    struct request * req,
  297.    struct Scsi_Host *SHpnt,
  298.    int max_segments)
  299. {
  300. /*
  301.  * pci_map_sg won't be able to map these two
  302.  * into a single hardware sg entry, so we have to
  303.  * check if things fit into sg_tablesize.
  304.  */
  305. if (req->nr_hw_segments >= SHpnt->sg_tablesize ||
  306.      req->nr_segments >= SHpnt->sg_tablesize)
  307. return 0;
  308. req->nr_hw_segments++;
  309. req->nr_segments++;
  310. return 1;
  311. }
  312. #else
  313. static inline int scsi_new_segment(request_queue_t * q,
  314.    struct request * req,
  315.    struct Scsi_Host *SHpnt,
  316.    int max_segments)
  317. {
  318. if (req->nr_segments < SHpnt->sg_tablesize &&
  319.     req->nr_segments < max_segments) {
  320. /*
  321.  * This will form the start of a new segment.  Bump the 
  322.  * counter.
  323.  */
  324. req->nr_segments++;
  325. return 1;
  326. } else {
  327. return 0;
  328. }
  329. }
  330. #endif
  331. /*
  332.  * Function:    __scsi_merge_fn()
  333.  *
  334.  * Purpose:     Prototype for queue merge function.
  335.  *
  336.  * Arguments:   q       - Queue for which we are merging request.
  337.  *              req     - request into which we wish to merge.
  338.  *              bh      - Block which we may wish to merge into request
  339.  *              use_clustering - 1 if this host wishes to use clustering
  340.  *              dma_host - 1 if this host has ISA DMA issues (bus doesn't
  341.  *                      expose all of the address lines, so that DMA cannot
  342.  *                      be done from an arbitrary address).
  343.  *
  344.  * Returns:     1 if it is OK to merge the block into the request.  0
  345.  *              if it is not OK.
  346.  *
  347.  * Lock status: io_request_lock is assumed to be held here.
  348.  *
  349.  * Notes:       Some drivers have limited scatter-gather table sizes, and
  350.  *              thus they cannot queue an infinitely large command.  This
  351.  *              function is called from ll_rw_blk before it attempts to merge
  352.  *              a new block into a request to make sure that the request will
  353.  *              not become too large.
  354.  *
  355.  *              This function is not designed to be directly called.  Instead
  356.  *              it should be referenced from other functions where the
  357.  *              use_clustering and dma_host parameters should be integer
  358.  *              constants.  The compiler should thus be able to properly
  359.  *              optimize the code, eliminating stuff that is irrelevant.
  360.  *              It is more maintainable to do this way with a single function
  361.  *              than to have 4 separate functions all doing roughly the
  362.  *              same thing.
  363.  */
  364. __inline static int __scsi_back_merge_fn(request_queue_t * q,
  365.  struct request *req,
  366.  struct buffer_head *bh,
  367.  int max_segments,
  368.  int use_clustering,
  369.  int dma_host)
  370. {
  371. unsigned int count;
  372. unsigned int segment_size = 0;
  373. Scsi_Device *SDpnt;
  374. struct Scsi_Host *SHpnt;
  375. SDpnt = (Scsi_Device *) q->queuedata;
  376. SHpnt = SDpnt->host;
  377. #ifdef DMA_CHUNK_SIZE
  378. if (max_segments > 64)
  379. max_segments = 64;
  380. #endif
  381. if ((req->nr_sectors + (bh->b_size >> 9)) > SHpnt->max_sectors)
  382. return 0;
  383. if (use_clustering) {
  384. /* 
  385.  * See if we can do this without creating another
  386.  * scatter-gather segment.  In the event that this is a
  387.  * DMA capable host, make sure that a segment doesn't span
  388.  * the DMA threshold boundary.  
  389.  */
  390. if (dma_host &&
  391.     virt_to_phys(req->bhtail->b_data) - 1 == ISA_DMA_THRESHOLD) {
  392. goto new_end_segment;
  393. }
  394. if (CONTIGUOUS_BUFFERS(req->bhtail, bh)) {
  395. #ifdef DMA_SEGMENT_SIZE_LIMITED
  396. if( dma_host
  397.     && virt_to_phys(bh->b_data) - 1 >= ISA_DMA_THRESHOLD ) {
  398. segment_size = 0;
  399. count = __count_segments(req, use_clustering, dma_host, &segment_size);
  400. if( segment_size + bh->b_size > PAGE_SIZE ) {
  401. goto new_end_segment;
  402. }
  403. }
  404. #endif
  405. /*
  406.  * This one is OK.  Let it go.
  407.  */
  408. return 1;
  409. }
  410. }
  411.  new_end_segment:
  412. #ifdef DMA_CHUNK_SIZE
  413. if (MERGEABLE_BUFFERS(req->bhtail, bh))
  414. return scsi_new_mergeable(q, req, SHpnt, max_segments);
  415. #endif
  416. return scsi_new_segment(q, req, SHpnt, max_segments);
  417. }
  418. __inline static int __scsi_front_merge_fn(request_queue_t * q,
  419.   struct request *req,
  420.   struct buffer_head *bh,
  421.   int max_segments,
  422.   int use_clustering,
  423.   int dma_host)
  424. {
  425. unsigned int count;
  426. unsigned int segment_size = 0;
  427. Scsi_Device *SDpnt;
  428. struct Scsi_Host *SHpnt;
  429. SDpnt = (Scsi_Device *) q->queuedata;
  430. SHpnt = SDpnt->host;
  431. #ifdef DMA_CHUNK_SIZE
  432. if (max_segments > 64)
  433. max_segments = 64;
  434. #endif
  435. if ((req->nr_sectors + (bh->b_size >> 9)) > SHpnt->max_sectors)
  436. return 0;
  437. if (use_clustering) {
  438. /* 
  439.  * See if we can do this without creating another
  440.  * scatter-gather segment.  In the event that this is a
  441.  * DMA capable host, make sure that a segment doesn't span
  442.  * the DMA threshold boundary. 
  443.  */
  444. if (dma_host &&
  445.     virt_to_phys(bh->b_data) - 1 == ISA_DMA_THRESHOLD) {
  446. goto new_start_segment;
  447. }
  448. if (CONTIGUOUS_BUFFERS(bh, req->bh)) {
  449. #ifdef DMA_SEGMENT_SIZE_LIMITED
  450. if( dma_host
  451.     && virt_to_phys(bh->b_data) - 1 >= ISA_DMA_THRESHOLD ) {
  452. segment_size = bh->b_size;
  453. count = __count_segments(req, use_clustering, dma_host, &segment_size);
  454. if( count != req->nr_segments ) {
  455. goto new_start_segment;
  456. }
  457. }
  458. #endif
  459. /*
  460.  * This one is OK.  Let it go.
  461.  */
  462. return 1;
  463. }
  464. }
  465.  new_start_segment:
  466. #ifdef DMA_CHUNK_SIZE
  467. if (MERGEABLE_BUFFERS(bh, req->bh))
  468. return scsi_new_mergeable(q, req, SHpnt, max_segments);
  469. #endif
  470. return scsi_new_segment(q, req, SHpnt, max_segments);
  471. }
  472. /*
  473.  * Function:    scsi_merge_fn_()
  474.  *
  475.  * Purpose:     queue merge function.
  476.  *
  477.  * Arguments:   q       - Queue for which we are merging request.
  478.  *              req     - request into which we wish to merge.
  479.  *              bh      - Block which we may wish to merge into request
  480.  *
  481.  * Returns:     1 if it is OK to merge the block into the request.  0
  482.  *              if it is not OK.
  483.  *
  484.  * Lock status: io_request_lock is assumed to be held here.
  485.  *
  486.  * Notes:       Optimized for different cases depending upon whether
  487.  *              ISA DMA is in use and whether clustering should be used.
  488.  */
  489. #define MERGEFCT(_FUNCTION, _BACK_FRONT, _CLUSTER, _DMA)
  490. static int _FUNCTION(request_queue_t * q,
  491.      struct request * req,
  492.      struct buffer_head * bh,
  493.      int max_segments)
  494. {
  495.     int ret;
  496.     SANITY_CHECK(req, _CLUSTER, _DMA);
  497.     ret =  __scsi_ ## _BACK_FRONT ## _merge_fn(q,
  498.        req,
  499.        bh,
  500.        max_segments,
  501.        _CLUSTER,
  502.        _DMA);
  503.     return ret;
  504. }
  505. /* Version with use_clustering 0 and dma_host 1 is not necessary,
  506.  * since the only use of dma_host above is protected by use_clustering.
  507.  */
  508. MERGEFCT(scsi_back_merge_fn_, back, 0, 0)
  509. MERGEFCT(scsi_back_merge_fn_c, back, 1, 0)
  510. MERGEFCT(scsi_back_merge_fn_dc, back, 1, 1)
  511. MERGEFCT(scsi_front_merge_fn_, front, 0, 0)
  512. MERGEFCT(scsi_front_merge_fn_c, front, 1, 0)
  513. MERGEFCT(scsi_front_merge_fn_dc, front, 1, 1)
  514. /*
  515.  * Function:    __scsi_merge_requests_fn()
  516.  *
  517.  * Purpose:     Prototype for queue merge function.
  518.  *
  519.  * Arguments:   q       - Queue for which we are merging request.
  520.  *              req     - request into which we wish to merge.
  521.  *              next    - 2nd request that we might want to combine with req
  522.  *              use_clustering - 1 if this host wishes to use clustering
  523.  *              dma_host - 1 if this host has ISA DMA issues (bus doesn't
  524.  *                      expose all of the address lines, so that DMA cannot
  525.  *                      be done from an arbitrary address).
  526.  *
  527.  * Returns:     1 if it is OK to merge the two requests.  0
  528.  *              if it is not OK.
  529.  *
  530.  * Lock status: io_request_lock is assumed to be held here.
  531.  *
  532.  * Notes:       Some drivers have limited scatter-gather table sizes, and
  533.  *              thus they cannot queue an infinitely large command.  This
  534.  *              function is called from ll_rw_blk before it attempts to merge
  535.  *              a new block into a request to make sure that the request will
  536.  *              not become too large.
  537.  *
  538.  *              This function is not designed to be directly called.  Instead
  539.  *              it should be referenced from other functions where the
  540.  *              use_clustering and dma_host parameters should be integer
  541.  *              constants.  The compiler should thus be able to properly
  542.  *              optimize the code, eliminating stuff that is irrelevant.
  543.  *              It is more maintainable to do this way with a single function
  544.  *              than to have 4 separate functions all doing roughly the
  545.  *              same thing.
  546.  */
  547. __inline static int __scsi_merge_requests_fn(request_queue_t * q,
  548.      struct request *req,
  549.      struct request *next,
  550.      int max_segments,
  551.      int use_clustering,
  552.      int dma_host)
  553. {
  554. Scsi_Device *SDpnt;
  555. struct Scsi_Host *SHpnt;
  556. /*
  557.  * First check if the either of the requests are re-queued
  558.  * requests.  Can't merge them if they are.
  559.  */
  560. if (req->special || next->special)
  561. return 0;
  562. SDpnt = (Scsi_Device *) q->queuedata;
  563. SHpnt = SDpnt->host;
  564. #ifdef DMA_CHUNK_SIZE
  565. if (max_segments > 64)
  566. max_segments = 64;
  567. /* If it would not fit into prepared memory space for sg chain,
  568.  * then don't allow the merge.
  569.  */
  570. if (req->nr_segments + next->nr_segments - 1 > max_segments ||
  571.     req->nr_segments + next->nr_segments - 1 > SHpnt->sg_tablesize) {
  572. return 0;
  573. }
  574. if (req->nr_hw_segments + next->nr_hw_segments - 1 > SHpnt->sg_tablesize) {
  575. return 0;
  576. }
  577. #else
  578. /*
  579.  * If the two requests together are too large (even assuming that we
  580.  * can merge the boundary requests into one segment, then don't
  581.  * allow the merge.
  582.  */
  583. if (req->nr_segments + next->nr_segments - 1 > SHpnt->sg_tablesize) {
  584. return 0;
  585. }
  586. #endif
  587. if ((req->nr_sectors + next->nr_sectors) > SHpnt->max_sectors)
  588. return 0;
  589. /*
  590.  * The main question is whether the two segments at the boundaries
  591.  * would be considered one or two.
  592.  */
  593. if (use_clustering) {
  594. /* 
  595.  * See if we can do this without creating another
  596.  * scatter-gather segment.  In the event that this is a
  597.  * DMA capable host, make sure that a segment doesn't span
  598.  * the DMA threshold boundary.  
  599.  */
  600. if (dma_host &&
  601.     virt_to_phys(req->bhtail->b_data) - 1 == ISA_DMA_THRESHOLD) {
  602. goto dont_combine;
  603. }
  604. #ifdef DMA_SEGMENT_SIZE_LIMITED
  605. /*
  606.  * We currently can only allocate scatter-gather bounce
  607.  * buffers in chunks of PAGE_SIZE or less.
  608.  */
  609. if (dma_host
  610.     && CONTIGUOUS_BUFFERS(req->bhtail, next->bh)
  611.     && virt_to_phys(req->bhtail->b_data) - 1 >= ISA_DMA_THRESHOLD )
  612. {
  613. int segment_size = 0;
  614. int count = 0;
  615. count = __count_segments(req, use_clustering, dma_host, &segment_size);
  616. count += __count_segments(next, use_clustering, dma_host, &segment_size);
  617. if( count != req->nr_segments + next->nr_segments ) {
  618. goto dont_combine;
  619. }
  620. }
  621. #endif
  622. if (CONTIGUOUS_BUFFERS(req->bhtail, next->bh)) {
  623. /*
  624.  * This one is OK.  Let it go.
  625.  */
  626. req->nr_segments += next->nr_segments - 1;
  627. #ifdef DMA_CHUNK_SIZE
  628. req->nr_hw_segments += next->nr_hw_segments - 1;
  629. #endif
  630. return 1;
  631. }
  632. }
  633.       dont_combine:
  634. #ifdef DMA_CHUNK_SIZE
  635. if (req->nr_segments + next->nr_segments > max_segments ||
  636.     req->nr_segments + next->nr_segments > SHpnt->sg_tablesize) {
  637. return 0;
  638. }
  639. /* If dynamic DMA mapping can merge last segment in req with
  640.  * first segment in next, then the check for hw segments was
  641.  * done above already, so we can always merge.
  642.  */
  643. if (MERGEABLE_BUFFERS (req->bhtail, next->bh)) {
  644. req->nr_hw_segments += next->nr_hw_segments - 1;
  645. } else if (req->nr_hw_segments + next->nr_hw_segments > SHpnt->sg_tablesize) {
  646. return 0;
  647. } else {
  648. req->nr_hw_segments += next->nr_hw_segments;
  649. }
  650. req->nr_segments += next->nr_segments;
  651. return 1;
  652. #else
  653. /*
  654.  * We know that the two requests at the boundary should not be combined.
  655.  * Make sure we can fix something that is the sum of the two.
  656.  * A slightly stricter test than we had above.
  657.  */
  658. if (req->nr_segments + next->nr_segments > max_segments ||
  659.     req->nr_segments + next->nr_segments > SHpnt->sg_tablesize) {
  660. return 0;
  661. } else {
  662. /*
  663.  * This will form the start of a new segment.  Bump the 
  664.  * counter.
  665.  */
  666. req->nr_segments += next->nr_segments;
  667. return 1;
  668. }
  669. #endif
  670. }
  671. /*
  672.  * Function:    scsi_merge_requests_fn_()
  673.  *
  674.  * Purpose:     queue merge function.
  675.  *
  676.  * Arguments:   q       - Queue for which we are merging request.
  677.  *              req     - request into which we wish to merge.
  678.  *              bh      - Block which we may wish to merge into request
  679.  *
  680.  * Returns:     1 if it is OK to merge the block into the request.  0
  681.  *              if it is not OK.
  682.  *
  683.  * Lock status: io_request_lock is assumed to be held here.
  684.  *
  685.  * Notes:       Optimized for different cases depending upon whether
  686.  *              ISA DMA is in use and whether clustering should be used.
  687.  */
  688. #define MERGEREQFCT(_FUNCTION, _CLUSTER, _DMA)
  689. static int _FUNCTION(request_queue_t * q,
  690.      struct request * req,
  691.      struct request * next,
  692.      int max_segments)
  693. {
  694.     int ret;
  695.     SANITY_CHECK(req, _CLUSTER, _DMA);
  696.     ret =  __scsi_merge_requests_fn(q, req, next, max_segments, _CLUSTER, _DMA); 
  697.     return ret;
  698. }
  699. /* Version with use_clustering 0 and dma_host 1 is not necessary,
  700.  * since the only use of dma_host above is protected by use_clustering.
  701.  */
  702. MERGEREQFCT(scsi_merge_requests_fn_, 0, 0)
  703. MERGEREQFCT(scsi_merge_requests_fn_c, 1, 0)
  704. MERGEREQFCT(scsi_merge_requests_fn_dc, 1, 1)
  705. /*
  706.  * Function:    __init_io()
  707.  *
  708.  * Purpose:     Prototype for io initialize function.
  709.  *
  710.  * Arguments:   SCpnt   - Command descriptor we wish to initialize
  711.  *              sg_count_valid  - 1 if the sg count in the req is valid.
  712.  *              use_clustering - 1 if this host wishes to use clustering
  713.  *              dma_host - 1 if this host has ISA DMA issues (bus doesn't
  714.  *                      expose all of the address lines, so that DMA cannot
  715.  *                      be done from an arbitrary address).
  716.  *
  717.  * Returns:     1 on success.
  718.  *
  719.  * Lock status: 
  720.  *
  721.  * Notes:       Only the SCpnt argument should be a non-constant variable.
  722.  *              This function is designed in such a way that it will be
  723.  *              invoked from a series of small stubs, each of which would
  724.  *              be optimized for specific circumstances.
  725.  *
  726.  *              The advantage of this is that hosts that don't do DMA
  727.  *              get versions of the function that essentially don't have
  728.  *              any of the DMA code.  Same goes for clustering - in the
  729.  *              case of hosts with no need for clustering, there is no point
  730.  *              in a whole bunch of overhead.
  731.  *
  732.  *              Finally, in the event that a host has set can_queue to SG_ALL
  733.  *              implying that there is no limit to the length of a scatter
  734.  *              gather list, the sg count in the request won't be valid
  735.  *              (mainly because we don't need queue management functions
  736.  *              which keep the tally uptodate.
  737.  */
  738. __inline static int __init_io(Scsi_Cmnd * SCpnt,
  739.       int sg_count_valid,
  740.       int use_clustering,
  741.       int dma_host)
  742. {
  743. struct buffer_head * bh;
  744. struct buffer_head * bhprev;
  745. char    * buff;
  746. int      count;
  747. int      i;
  748. struct request     * req;
  749. int      sectors;
  750. struct scatterlist * sgpnt;
  751. int      this_count;
  752. void    ** bbpnt;
  753. /*
  754.  * FIXME(eric) - don't inline this - it doesn't depend on the
  755.  * integer flags.   Come to think of it, I don't think this is even
  756.  * needed any more.  Need to play with it and see if we hit the
  757.  * panic.  If not, then don't bother.
  758.  */
  759. if (!SCpnt->request.bh) {
  760. /* 
  761.  * Case of page request (i.e. raw device), or unlinked buffer 
  762.  * Typically used for swapping, but this isn't how we do
  763.  * swapping any more.
  764.  */
  765. panic("I believe this is dead code.  If we hit this, I was wrong");
  766. #if 0
  767. SCpnt->request_bufflen = SCpnt->request.nr_sectors << 9;
  768. SCpnt->request_buffer = SCpnt->request.buffer;
  769. SCpnt->use_sg = 0;
  770. /*
  771.  * FIXME(eric) - need to handle DMA here.
  772.  */
  773. #endif
  774. return 1;
  775. }
  776. req = &SCpnt->request;
  777. /*
  778.  * First we need to know how many scatter gather segments are needed.
  779.  */
  780. if (!sg_count_valid) {
  781. count = __count_segments(req, use_clustering, dma_host, NULL);
  782. } else {
  783. count = req->nr_segments;
  784. }
  785. /*
  786.  * If the dma pool is nearly empty, then queue a minimal request
  787.  * with a single segment.  Typically this will satisfy a single
  788.  * buffer.
  789.  */
  790. if (dma_host && scsi_dma_free_sectors <= 10) {
  791. this_count = SCpnt->request.current_nr_sectors;
  792. goto single_segment;
  793. }
  794. /*
  795.  * Don't bother with scatter-gather if there is only one segment.
  796.  */
  797. if (count == 1) {
  798. this_count = SCpnt->request.nr_sectors;
  799. goto single_segment;
  800. }
  801. SCpnt->use_sg = count;
  802. /* 
  803.  * Allocate the actual scatter-gather table itself.
  804.  */
  805. SCpnt->sglist_len = (SCpnt->use_sg * sizeof(struct scatterlist));
  806. /* If we could potentially require ISA bounce buffers, allocate
  807.  * space for this array here.
  808.  */
  809. if (dma_host)
  810. SCpnt->sglist_len += (SCpnt->use_sg * sizeof(void *));
  811. /* scsi_malloc can only allocate in chunks of 512 bytes so
  812.  * round it up.
  813.  */
  814. SCpnt->sglist_len = (SCpnt->sglist_len + 511) & ~511;
  815. sgpnt = (struct scatterlist *) scsi_malloc(SCpnt->sglist_len);
  816. /*
  817.  * Now fill the scatter-gather table.
  818.  */
  819. if (!sgpnt) {
  820. /*
  821.  * If we cannot allocate the scatter-gather table, then
  822.  * simply write the first buffer all by itself.
  823.  */
  824. printk("Warning - running *really* short on DMA buffersn");
  825. this_count = SCpnt->request.current_nr_sectors;
  826. goto single_segment;
  827. }
  828. /* 
  829.  * Next, walk the list, and fill in the addresses and sizes of
  830.  * each segment.
  831.  */
  832. memset(sgpnt, 0, SCpnt->sglist_len);
  833. SCpnt->request_buffer = (char *) sgpnt;
  834. SCpnt->request_bufflen = 0;
  835. bhprev = NULL;
  836. if (dma_host)
  837. bbpnt = (void **) ((char *)sgpnt +
  838.  (SCpnt->use_sg * sizeof(struct scatterlist)));
  839. else
  840. bbpnt = NULL;
  841. SCpnt->bounce_buffers = bbpnt;
  842. for (count = 0, bh = SCpnt->request.bh;
  843.      bh; bh = bh->b_reqnext) {
  844. if (use_clustering && bhprev != NULL) {
  845. if (dma_host &&
  846.     virt_to_phys(bhprev->b_data) - 1 == ISA_DMA_THRESHOLD) {
  847. /* Nothing - fall through */
  848. } else if (CONTIGUOUS_BUFFERS(bhprev, bh)) {
  849. /*
  850.  * This one is OK.  Let it go.  Note that we
  851.  * do not have the ability to allocate
  852.  * bounce buffer segments > PAGE_SIZE, so
  853.  * for now we limit the thing.
  854.  */
  855. if( dma_host ) {
  856. #ifdef DMA_SEGMENT_SIZE_LIMITED
  857. if( virt_to_phys(bh->b_data) - 1 < ISA_DMA_THRESHOLD
  858.     || sgpnt[count - 1].length + bh->b_size <= PAGE_SIZE ) {
  859. sgpnt[count - 1].length += bh->b_size;
  860. bhprev = bh;
  861. continue;
  862. }
  863. #else
  864. sgpnt[count - 1].length += bh->b_size;
  865. bhprev = bh;
  866. continue;
  867. #endif
  868. } else {
  869. sgpnt[count - 1].length += bh->b_size;
  870. SCpnt->request_bufflen += bh->b_size;
  871. bhprev = bh;
  872. continue;
  873. }
  874. }
  875. }
  876. count++;
  877. sgpnt[count - 1].address = bh->b_data;
  878. sgpnt[count - 1].page = NULL;
  879. sgpnt[count - 1].length += bh->b_size;
  880. if (!dma_host) {
  881. SCpnt->request_bufflen += bh->b_size;
  882. }
  883. bhprev = bh;
  884. }
  885. /*
  886.  * Verify that the count is correct.
  887.  */
  888. if (count != SCpnt->use_sg) {
  889. printk("Incorrect number of segments after building listn");
  890. #ifdef CONFIG_SCSI_DEBUG_QUEUES
  891. dump_stats(req, use_clustering, dma_host, count);
  892. #endif
  893. }
  894. if (!dma_host) {
  895. return 1;
  896. }
  897. /*
  898.  * Now allocate bounce buffers, if needed.
  899.  */
  900. SCpnt->request_bufflen = 0;
  901. for (i = 0; i < count; i++) {
  902. sectors = (sgpnt[i].length >> 9);
  903. SCpnt->request_bufflen += sgpnt[i].length;
  904. if (virt_to_phys(sgpnt[i].address) + sgpnt[i].length - 1 >
  905.     ISA_DMA_THRESHOLD) {
  906. if( scsi_dma_free_sectors - sectors <= 10  ) {
  907. /*
  908.  * If this would nearly drain the DMA
  909.  * pool empty, then let's stop here.
  910.  * Don't make this request any larger.
  911.  * This is kind of a safety valve that
  912.  * we use - we could get screwed later
  913.  * on if we run out completely.  
  914.  */
  915. SCpnt->request_bufflen -= sgpnt[i].length;
  916. SCpnt->use_sg = i;
  917. if (i == 0) {
  918. goto big_trouble;
  919. }
  920. break;
  921. }
  922. bbpnt[i] = sgpnt[i].address;
  923. sgpnt[i].address =
  924.     (char *) scsi_malloc(sgpnt[i].length);
  925. /*
  926.  * If we cannot allocate memory for this DMA bounce
  927.  * buffer, then queue just what we have done so far.
  928.  */
  929. if (sgpnt[i].address == NULL) {
  930. printk("Warning - running low on DMA memoryn");
  931. SCpnt->request_bufflen -= sgpnt[i].length;
  932. SCpnt->use_sg = i;
  933. if (i == 0) {
  934. goto big_trouble;
  935. }
  936. break;
  937. }
  938. if (SCpnt->request.cmd == WRITE) {
  939. memcpy(sgpnt[i].address, bbpnt[i],
  940.        sgpnt[i].length);
  941. }
  942. }
  943. }
  944. return 1;
  945.       big_trouble:
  946. /*
  947.  * We come here in the event that we get one humongous
  948.  * request, where we need a bounce buffer, and the buffer is
  949.  * more than we can allocate in a single call to
  950.  * scsi_malloc().  In addition, we only come here when it is
  951.  * the 0th element of the scatter-gather table that gets us
  952.  * into this trouble.  As a fallback, we fall back to
  953.  * non-scatter-gather, and ask for a single segment.  We make
  954.  * a half-hearted attempt to pick a reasonably large request
  955.  * size mainly so that we don't thrash the thing with
  956.  * iddy-biddy requests.
  957.  */
  958. /*
  959.  * The original number of sectors in the 0th element of the
  960.  * scatter-gather table.  
  961.  */
  962. sectors = sgpnt[0].length >> 9;
  963. /* 
  964.  * Free up the original scatter-gather table.  Note that since
  965.  * it was the 0th element that got us here, we don't have to
  966.  * go in and free up memory from the other slots.  
  967.  */
  968. SCpnt->request_bufflen = 0;
  969. SCpnt->use_sg = 0;
  970. scsi_free(SCpnt->request_buffer, SCpnt->sglist_len);
  971. /*
  972.  * Make an attempt to pick up as much as we reasonably can.
  973.  * Just keep adding sectors until the pool starts running kind of
  974.  * low.  The limit of 30 is somewhat arbitrary - the point is that
  975.  * it would kind of suck if we dropped down and limited ourselves to
  976.  * single-block requests if we had hundreds of free sectors.
  977.  */
  978. if( scsi_dma_free_sectors > 30 ) {
  979. for (this_count = 0, bh = SCpnt->request.bh;
  980.      bh; bh = bh->b_reqnext) {
  981. if( scsi_dma_free_sectors - this_count < 30 
  982.     || this_count == sectors )
  983. {
  984. break;
  985. }
  986. this_count += bh->b_size >> 9;
  987. }
  988. } else {
  989. /*
  990.  * Yow!   Take the absolute minimum here.
  991.  */
  992. this_count = SCpnt->request.current_nr_sectors;
  993. }
  994. /*
  995.  * Now drop through into the single-segment case.
  996.  */
  997.       single_segment:
  998. /*
  999.  * Come here if for any reason we choose to do this as a single
  1000.  * segment.  Possibly the entire request, or possibly a small
  1001.  * chunk of the entire request.
  1002.  */
  1003. bh = SCpnt->request.bh;
  1004. buff = SCpnt->request.buffer;
  1005. if (dma_host) {
  1006. /*
  1007.  * Allocate a DMA bounce buffer.  If the allocation fails, fall
  1008.  * back and allocate a really small one - enough to satisfy
  1009.  * the first buffer.
  1010.  */
  1011. if (virt_to_phys(SCpnt->request.bh->b_data)
  1012.     + (this_count << 9) - 1 > ISA_DMA_THRESHOLD) {
  1013. buff = (char *) scsi_malloc(this_count << 9);
  1014. if (!buff) {
  1015. printk("Warning - running low on DMA memoryn");
  1016. this_count = SCpnt->request.current_nr_sectors;
  1017. buff = (char *) scsi_malloc(this_count << 9);
  1018. if (!buff) {
  1019. dma_exhausted(SCpnt, 0);
  1020. }
  1021. }
  1022. if (SCpnt->request.cmd == WRITE)
  1023. memcpy(buff, (char *) SCpnt->request.buffer, this_count << 9);
  1024. }
  1025. }
  1026. SCpnt->request_bufflen = this_count << 9;
  1027. SCpnt->request_buffer = buff;
  1028. SCpnt->use_sg = 0;
  1029. return 1;
  1030. }
  1031. #define INITIO(_FUNCTION, _VALID, _CLUSTER, _DMA)
  1032. static int _FUNCTION(Scsi_Cmnd * SCpnt)
  1033. {
  1034.     return __init_io(SCpnt, _VALID, _CLUSTER, _DMA);
  1035. }
  1036. /*
  1037.  * ll_rw_blk.c now keeps track of the number of segments in
  1038.  * a request.  Thus we don't have to do it any more here.
  1039.  * We always force "_VALID" to 1.  Eventually clean this up
  1040.  * and get rid of the extra argument.
  1041.  */
  1042. INITIO(scsi_init_io_v, 1, 0, 0)
  1043. INITIO(scsi_init_io_vd, 1, 0, 1)
  1044. INITIO(scsi_init_io_vc, 1, 1, 0)
  1045. INITIO(scsi_init_io_vdc, 1, 1, 1)
  1046. /*
  1047.  * Function:    initialize_merge_fn()
  1048.  *
  1049.  * Purpose:     Initialize merge function for a host
  1050.  *
  1051.  * Arguments:   SHpnt   - Host descriptor.
  1052.  *
  1053.  * Returns:     Nothing.
  1054.  *
  1055.  * Lock status: 
  1056.  *
  1057.  * Notes:
  1058.  */
  1059. void initialize_merge_fn(Scsi_Device * SDpnt)
  1060. {
  1061. request_queue_t *q;
  1062. struct Scsi_Host *SHpnt;
  1063. SHpnt = SDpnt->host;
  1064. q = &SDpnt->request_queue;
  1065. /*
  1066.  * If the host has already selected a merge manager, then don't
  1067.  * pick a new one.
  1068.  */
  1069. #if 0
  1070. if (q->back_merge_fn && q->front_merge_fn)
  1071. return;
  1072. #endif
  1073. /*
  1074.  * If this host has an unlimited tablesize, then don't bother with a
  1075.  * merge manager.  The whole point of the operation is to make sure
  1076.  * that requests don't grow too large, and this host isn't picky.
  1077.  *
  1078.  * Note that ll_rw_blk.c is effectively maintaining a segment
  1079.  * count which is only valid if clustering is used, and it obviously
  1080.  * doesn't handle the DMA case.   In the end, it
  1081.  * is simply easier to do it ourselves with our own functions
  1082.  * rather than rely upon the default behavior of ll_rw_blk.
  1083.  */
  1084. if (!CLUSTERABLE_DEVICE(SHpnt, SDpnt) && SHpnt->unchecked_isa_dma == 0) {
  1085. q->back_merge_fn = scsi_back_merge_fn_;
  1086. q->front_merge_fn = scsi_front_merge_fn_;
  1087. q->merge_requests_fn = scsi_merge_requests_fn_;
  1088. SDpnt->scsi_init_io_fn = scsi_init_io_v;
  1089. } else if (!CLUSTERABLE_DEVICE(SHpnt, SDpnt) && SHpnt->unchecked_isa_dma != 0) {
  1090. q->back_merge_fn = scsi_back_merge_fn_;
  1091. q->front_merge_fn = scsi_front_merge_fn_;
  1092. q->merge_requests_fn = scsi_merge_requests_fn_;
  1093. SDpnt->scsi_init_io_fn = scsi_init_io_vd;
  1094. } else if (CLUSTERABLE_DEVICE(SHpnt, SDpnt) && SHpnt->unchecked_isa_dma == 0) {
  1095. q->back_merge_fn = scsi_back_merge_fn_c;
  1096. q->front_merge_fn = scsi_front_merge_fn_c;
  1097. q->merge_requests_fn = scsi_merge_requests_fn_c;
  1098. SDpnt->scsi_init_io_fn = scsi_init_io_vc;
  1099. } else if (CLUSTERABLE_DEVICE(SHpnt, SDpnt) && SHpnt->unchecked_isa_dma != 0) {
  1100. q->back_merge_fn = scsi_back_merge_fn_dc;
  1101. q->front_merge_fn = scsi_front_merge_fn_dc;
  1102. q->merge_requests_fn = scsi_merge_requests_fn_dc;
  1103. SDpnt->scsi_init_io_fn = scsi_init_io_vdc;
  1104. }
  1105. }