mf_iocache.c
上传用户:romrleung
上传日期:2022-05-23
资源大小:18897k
文件大小:38k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. /* Copyright (C) 2000 MySQL AB
  2.    This program is free software; you can redistribute it and/or modify
  3.    it under the terms of the GNU General Public License as published by
  4.    the Free Software Foundation; either version 2 of the License, or
  5.    (at your option) any later version.
  6.    This program is distributed in the hope that it will be useful,
  7.    but WITHOUT ANY WARRANTY; without even the implied warranty of
  8.    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  9.    GNU General Public License for more details.
  10.    You should have received a copy of the GNU General Public License
  11.    along with this program; if not, write to the Free Software
  12.    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA */
  13. /*
  14.   Cashing of files with only does (sequential) read or writes of fixed-
  15.   length records. A read isn't allowed to go over file-length. A read is ok
  16.   if it ends at file-length and next read can try to read after file-length
  17.   (and get a EOF-error).
  18.   Possibly use of asyncronic io.
  19.   macros for read and writes for faster io.
  20.   Used instead of FILE when reading or writing whole files.
  21.   This code makes mf_rec_cache obsolete (currently only used by ISAM)
  22.   One can change info->pos_in_file to a higher value to skip bytes in file if
  23.   also info->read_pos is set to info->read_end.
  24.   If called through open_cached_file(), then the temporary file will
  25.   only be created if a write exeeds the file buffer or if one calls
  26.   flush_io_cache().
  27.   If one uses SEQ_READ_APPEND, then two buffers are allocated, one for
  28.   reading and another for writing.  Reads are first done from disk and
  29.   then done from the write buffer.  This is an efficient way to read
  30.   from a log file when one is writing to it at the same time.
  31.   For this to work, the file has to be opened in append mode!
  32.   Note that when one uses SEQ_READ_APPEND, one MUST write using
  33.   my_b_append !  This is needed because we need to lock the mutex
  34.   every time we access the write buffer.
  35. TODO:
  36.   When one SEQ_READ_APPEND and we are reading and writing at the same time,
  37.   each time the write buffer gets full and it's written to disk, we will
  38.   always do a disk read to read a part of the buffer from disk to the
  39.   read buffer.
  40.   This should be fixed so that when we do a flush_io_cache() and
  41.   we have been reading the write buffer, we should transfer the rest of the
  42.   write buffer to the read buffer before we start to reuse it.
  43. */
  44. #define MAP_TO_USE_RAID
  45. #include "mysys_priv.h"
  46. #include <m_string.h>
  47. #ifdef HAVE_AIOWAIT
  48. #include "mysys_err.h"
  49. static void my_aiowait(my_aio_result *result);
  50. #endif
  51. #include <errno.h>
  52. #ifdef THREAD
  53. #define lock_append_buffer(info) 
  54.  pthread_mutex_lock(&(info)->append_buffer_lock)
  55. #define unlock_append_buffer(info) 
  56.  pthread_mutex_unlock(&(info)->append_buffer_lock)
  57. #else
  58. #define lock_append_buffer(info)
  59. #define unlock_append_buffer(info)
  60. #endif
  61. #define IO_ROUND_UP(X) (((X)+IO_SIZE-1) & ~(IO_SIZE-1))
  62. #define IO_ROUND_DN(X) ( (X)            & ~(IO_SIZE-1))
  63. /*
  64.   Setup internal pointers inside IO_CACHE
  65.   SYNOPSIS
  66.     setup_io_cache()
  67.     info IO_CACHE handler
  68.   NOTES
  69.     This is called on automaticly on init or reinit of IO_CACHE
  70.     It must be called externally if one moves or copies an IO_CACHE
  71.     object.
  72. */
  73. void setup_io_cache(IO_CACHE* info)
  74. {
  75.   /* Ensure that my_b_tell() and my_b_bytes_in_cache works */
  76.   if (info->type == WRITE_CACHE)
  77.   {
  78.     info->current_pos= &info->write_pos;
  79.     info->current_end= &info->write_end;
  80.   }
  81.   else
  82.   {
  83.     info->current_pos= &info->read_pos;
  84.     info->current_end= &info->read_end;
  85.   }
  86. }
  87. static void
  88. init_functions(IO_CACHE* info)
  89. {
  90.   enum cache_type type= info->type;
  91.   switch (type) {
  92.   case READ_NET:
  93.     /*
  94.       Must be initialized by the caller. The problem is that
  95.       _my_b_net_read has to be defined in sql directory because of
  96.       the dependency on THD, and therefore cannot be visible to
  97.       programs that link against mysys but know nothing about THD, such
  98.       as myisamchk
  99.     */
  100.     break;
  101.   case SEQ_READ_APPEND:
  102.     info->read_function = _my_b_seq_read;
  103.     info->write_function = 0; /* Force a core if used */
  104.     break;
  105.   default:
  106.     info->read_function =
  107. #ifdef THREAD
  108.                           info->share ? _my_b_read_r :
  109. #endif
  110.                                         _my_b_read;
  111.     info->write_function = _my_b_write;
  112.   }
  113.   setup_io_cache(info);
  114. }
  115. /*
  116.   Initialize an IO_CACHE object
  117.   SYNOPSOS
  118.     init_io_cache()
  119.     info cache handler to initialize
  120.     file File that should be associated to to the handler
  121. If == -1 then real_open_cached_file()
  122. will be called when it's time to open file.
  123.     cachesize Size of buffer to allocate for read/write
  124. If == 0 then use my_default_record_cache_size
  125.     type Type of cache
  126.     seek_offset Where cache should start reading/writing
  127.     use_async_io Set to 1 of we should use async_io (if avaiable)
  128.     cache_myflags Bitmap of differnt flags
  129. MY_WME | MY_FAE | MY_NABP | MY_FNABP |
  130. MY_DONT_CHECK_FILESIZE
  131.   RETURN
  132.     0  ok
  133.     #  error
  134. */
  135. int init_io_cache(IO_CACHE *info, File file, uint cachesize,
  136.   enum cache_type type, my_off_t seek_offset,
  137.   pbool use_async_io, myf cache_myflags)
  138. {
  139.   uint min_cache;
  140.   my_off_t end_of_file= ~(my_off_t) 0;
  141.   DBUG_ENTER("init_io_cache");
  142.   DBUG_PRINT("enter",("cache: 0x%lx  type: %d  pos: %ld",
  143.       (ulong) info, (int) type, (ulong) seek_offset));
  144.   info->file= file;
  145.   info->type= 0; /* Don't set it until mutex are created */
  146.   info->pos_in_file= seek_offset;
  147.   info->pre_close = info->pre_read = info->post_read = 0;
  148.   info->arg = 0;
  149.   info->alloced_buffer = 0;
  150.   info->buffer=0;
  151.   info->seek_not_done= test(file >= 0);
  152.   info->disk_writes= 0;
  153. #ifdef THREAD
  154.   info->share=0;
  155. #endif
  156.   if (!cachesize && !(cachesize= my_default_record_cache_size))
  157.     DBUG_RETURN(1); /* No cache requested */
  158.   min_cache=use_async_io ? IO_SIZE*4 : IO_SIZE*2;
  159.   if (type == READ_CACHE || type == SEQ_READ_APPEND)
  160.   { /* Assume file isn't growing */
  161.     if (!(cache_myflags & MY_DONT_CHECK_FILESIZE))
  162.     {
  163.       /* Calculate end of file to not allocate to big buffers */
  164.       end_of_file=my_seek(file,0L,MY_SEEK_END,MYF(0));
  165.       if (end_of_file < seek_offset)
  166. end_of_file=seek_offset;
  167.       /* Trim cache size if the file is very small */
  168.       if ((my_off_t) cachesize > end_of_file-seek_offset+IO_SIZE*2-1)
  169.       {
  170. cachesize=(uint) (end_of_file-seek_offset)+IO_SIZE*2-1;
  171. use_async_io=0; /* No need to use async */
  172.       }
  173.     }
  174.   }
  175.   cache_myflags &= ~MY_DONT_CHECK_FILESIZE;
  176.   if (type != READ_NET && type != WRITE_NET)
  177.   {
  178.     /* Retry allocating memory in smaller blocks until we get one */
  179.     for (;;)
  180.     {
  181.       uint buffer_block;
  182.       cachesize=(uint) ((ulong) (cachesize + min_cache-1) &
  183. (ulong) ~(min_cache-1));
  184.       if (cachesize < min_cache)
  185. cachesize = min_cache;
  186.       buffer_block = cachesize;
  187.       if (type == SEQ_READ_APPEND)
  188. buffer_block *= 2;
  189.       if ((info->buffer=
  190.    (byte*) my_malloc(buffer_block,
  191.      MYF((cache_myflags & ~ MY_WME) |
  192.  (cachesize == min_cache ? MY_WME : 0)))) != 0)
  193.       {
  194. info->write_buffer=info->buffer;
  195. if (type == SEQ_READ_APPEND)
  196.   info->write_buffer = info->buffer + cachesize;
  197. info->alloced_buffer=1;
  198. break; /* Enough memory found */
  199.       }
  200.       if (cachesize == min_cache)
  201. DBUG_RETURN(2); /* Can't alloc cache */
  202.       cachesize= (uint) ((long) cachesize*3/4); /* Try with less memory */
  203.     }
  204.   }
  205.   DBUG_PRINT("info",("init_io_cache: cachesize = %u",cachesize));
  206.   info->read_length=info->buffer_length=cachesize;
  207.   info->myflags=cache_myflags & ~(MY_NABP | MY_FNABP);
  208.   info->request_pos= info->read_pos= info->write_pos = info->buffer;
  209.   if (type == SEQ_READ_APPEND)
  210.   {
  211.     info->append_read_pos = info->write_pos = info->write_buffer;
  212.     info->write_end = info->write_buffer + info->buffer_length;
  213. #ifdef THREAD
  214.     pthread_mutex_init(&info->append_buffer_lock,MY_MUTEX_INIT_FAST);
  215. #endif
  216.   }
  217. #if defined(SAFE_MUTEX) && defined(THREAD)
  218.   else
  219.   {
  220.     /* Clear mutex so that safe_mutex will notice that it's not initialized */
  221.     bzero((char*) &info->append_buffer_lock, sizeof(info));
  222.   }
  223. #endif
  224.   if (type == WRITE_CACHE)
  225.     info->write_end=
  226.       info->buffer+info->buffer_length- (seek_offset & (IO_SIZE-1));
  227.   else
  228.     info->read_end=info->buffer; /* Nothing in cache */
  229.   /* End_of_file may be changed by user later */
  230.   info->end_of_file= end_of_file;
  231.   info->error=0;
  232.   info->type= type;
  233.   init_functions(info);
  234. #ifdef HAVE_AIOWAIT
  235.   if (use_async_io && ! my_disable_async_io)
  236.   {
  237.     DBUG_PRINT("info",("Using async io"));
  238.     info->read_length/=2;
  239.     info->read_function=_my_b_async_read;
  240.   }
  241.   info->inited=info->aio_result.pending=0;
  242. #endif
  243.   DBUG_RETURN(0);
  244. } /* init_io_cache */
  245. /* Wait until current request is ready */
  246. #ifdef HAVE_AIOWAIT
  247. static void my_aiowait(my_aio_result *result)
  248. {
  249.   if (result->pending)
  250.   {
  251.     struct aio_result_t *tmp;
  252.     for (;;)
  253.     {
  254.       if ((int) (tmp=aiowait((struct timeval *) 0)) == -1)
  255.       {
  256. if (errno == EINTR)
  257.   continue;
  258. DBUG_PRINT("error",("No aio request, error: %d",errno));
  259. result->pending=0; /* Assume everythings is ok */
  260. break;
  261.       }
  262.       ((my_aio_result*) tmp)->pending=0;
  263.       if ((my_aio_result*) tmp == result)
  264. break;
  265.     }
  266.   }
  267.   return;
  268. }
  269. #endif
  270. /*
  271.   Use this to reset cache to re-start reading or to change the type
  272.   between READ_CACHE <-> WRITE_CACHE
  273.   If we are doing a reinit of a cache where we have the start of the file
  274.   in the cache, we are reusing this memory without flushing it to disk.
  275. */
  276. my_bool reinit_io_cache(IO_CACHE *info, enum cache_type type,
  277. my_off_t seek_offset,
  278. pbool use_async_io __attribute__((unused)),
  279. pbool clear_cache)
  280. {
  281.   DBUG_ENTER("reinit_io_cache");
  282.   DBUG_PRINT("enter",("cache: 0x%lx type: %d  seek_offset: %lu  clear_cache: %d",
  283.       (ulong) info, type, (ulong) seek_offset,
  284.       (int) clear_cache));
  285.   /* One can't do reinit with the following types */
  286.   DBUG_ASSERT(type != READ_NET && info->type != READ_NET &&
  287.       type != WRITE_NET && info->type != WRITE_NET &&
  288.       type != SEQ_READ_APPEND && info->type != SEQ_READ_APPEND);
  289.   /* If the whole file is in memory, avoid flushing to disk */
  290.   if (! clear_cache &&
  291.       seek_offset >= info->pos_in_file &&
  292.       seek_offset <= my_b_tell(info))
  293.   {
  294.     /* Reuse current buffer without flushing it to disk */
  295.     byte *pos;
  296.     if (info->type == WRITE_CACHE && type == READ_CACHE)
  297.     {
  298.       info->read_end=info->write_pos;
  299.       info->end_of_file=my_b_tell(info);
  300.       info->seek_not_done=1;
  301.     }
  302.     else if (type == WRITE_CACHE)
  303.     {
  304.       if (info->type == READ_CACHE)
  305.       {
  306. info->write_end=info->write_buffer+info->buffer_length;
  307. info->seek_not_done=1;
  308.       }
  309.       info->end_of_file = ~(my_off_t) 0;
  310.     }
  311.     pos=info->request_pos+(seek_offset-info->pos_in_file);
  312.     if (type == WRITE_CACHE)
  313.       info->write_pos=pos;
  314.     else
  315.       info->read_pos= pos;
  316. #ifdef HAVE_AIOWAIT
  317.     my_aiowait(&info->aio_result); /* Wait for outstanding req */
  318. #endif
  319.   }
  320.   else
  321.   {
  322.     /*
  323.       If we change from WRITE_CACHE to READ_CACHE, assume that everything
  324.       after the current positions should be ignored
  325.     */
  326.     if (info->type == WRITE_CACHE && type == READ_CACHE)
  327.       info->end_of_file=my_b_tell(info);
  328.     /* flush cache if we want to reuse it */
  329.     if (!clear_cache && flush_io_cache(info))
  330.       DBUG_RETURN(1);
  331.     info->pos_in_file=seek_offset;
  332.     /* Better to do always do a seek */
  333.     info->seek_not_done=1;
  334.     info->request_pos=info->read_pos=info->write_pos=info->buffer;
  335.     if (type == READ_CACHE)
  336.     {
  337.       info->read_end=info->buffer; /* Nothing in cache */
  338.     }
  339.     else
  340.     {
  341.       info->write_end=(info->buffer + info->buffer_length -
  342.        (seek_offset & (IO_SIZE-1)));
  343.       info->end_of_file= ~(my_off_t) 0;
  344.     }
  345.   }
  346.   info->type=type;
  347.   info->error=0;
  348.   init_functions(info);
  349. #ifdef HAVE_AIOWAIT
  350.   if (use_async_io && ! my_disable_async_io &&
  351.       ((ulong) info->buffer_length <
  352.        (ulong) (info->end_of_file - seek_offset)))
  353.   {
  354.     info->read_length=info->buffer_length/2;
  355.     info->read_function=_my_b_async_read;
  356.   }
  357.   info->inited=0;
  358. #endif
  359.   DBUG_RETURN(0);
  360. } /* reinit_io_cache */
  361. /*
  362.   Read buffered. Returns 1 if can't read requested characters
  363.   This function is only called from the my_b_read() macro
  364.   when there isn't enough characters in the buffer to
  365.   satisfy the request.
  366.   Returns 0 we succeeded in reading all data
  367. */
  368. int _my_b_read(register IO_CACHE *info, byte *Buffer, uint Count)
  369. {
  370.   uint length,diff_length,left_length;
  371.   my_off_t max_length, pos_in_file;
  372.   DBUG_ENTER("_my_b_read");
  373.   if ((left_length=(uint) (info->read_end-info->read_pos)))
  374.   {
  375.     DBUG_ASSERT(Count >= left_length); /* User is not using my_b_read() */
  376.     memcpy(Buffer,info->read_pos, (size_t) (left_length));
  377.     Buffer+=left_length;
  378.     Count-=left_length;
  379.   }
  380.   /* pos_in_file always point on where info->buffer was read */
  381.   pos_in_file=info->pos_in_file+(uint) (info->read_end - info->buffer);
  382.   if (info->seek_not_done)
  383.   { /* File touched, do seek */
  384.     VOID(my_seek(info->file,pos_in_file,MY_SEEK_SET,MYF(0)));
  385.     info->seek_not_done=0;
  386.   }
  387.   diff_length=(uint) (pos_in_file & (IO_SIZE-1));
  388.   if (Count >= (uint) (IO_SIZE+(IO_SIZE-diff_length)))
  389.   { /* Fill first intern buffer */
  390.     uint read_length;
  391.     if (info->end_of_file == pos_in_file)
  392.     { /* End of file */
  393.       info->error=(int) left_length;
  394.       DBUG_RETURN(1);
  395.     }
  396.     length=(Count & (uint) ~(IO_SIZE-1))-diff_length;
  397.     if ((read_length=my_read(info->file,Buffer,(uint) length,info->myflags))
  398. != (uint) length)
  399.     {
  400.       info->error= (read_length == (uint) -1 ? -1 :
  401.     (int) (read_length+left_length));
  402.       DBUG_RETURN(1);
  403.     }
  404.     Count-=length;
  405.     Buffer+=length;
  406.     pos_in_file+=length;
  407.     left_length+=length;
  408.     diff_length=0;
  409.   }
  410.   max_length=info->read_length-diff_length;
  411.   if (info->type != READ_FIFO &&
  412.       max_length > (info->end_of_file - pos_in_file))
  413.     max_length = info->end_of_file - pos_in_file;
  414.   if (!max_length)
  415.   {
  416.     if (Count)
  417.     {
  418.       info->error= left_length; /* We only got this many char */
  419.       DBUG_RETURN(1);
  420.     }
  421.     length=0; /* Didn't read any chars */
  422.   }
  423.   else if ((length=my_read(info->file,info->buffer,(uint) max_length,
  424.    info->myflags)) < Count ||
  425.    length == (uint) -1)
  426.   {
  427.     if (length != (uint) -1)
  428.       memcpy(Buffer,info->buffer,(size_t) length);
  429.     info->pos_in_file= pos_in_file;
  430.     info->error= length == (uint) -1 ? -1 : (int) (length+left_length);
  431.     info->read_pos=info->read_end=info->buffer;
  432.     DBUG_RETURN(1);
  433.   }
  434.   info->read_pos=info->buffer+Count;
  435.   info->read_end=info->buffer+length;
  436.   info->pos_in_file=pos_in_file;
  437.   memcpy(Buffer,info->buffer,(size_t) Count);
  438.   DBUG_RETURN(0);
  439. }
  440. #ifdef THREAD
  441. /* Prepare IO_CACHE for shared use */
  442. void init_io_cache_share(IO_CACHE *info, IO_CACHE_SHARE *s, uint num_threads)
  443. {
  444.   DBUG_ASSERT(info->type == READ_CACHE);
  445.   pthread_mutex_init(&s->mutex, MY_MUTEX_INIT_FAST);
  446.   pthread_cond_init (&s->cond, 0);
  447.   s->total=s->count=num_threads-1;
  448.   s->active=0;
  449.   info->share=s;
  450.   info->read_function=_my_b_read_r;
  451.   info->current_pos= info->current_end= 0;
  452. }
  453. /*
  454.   Remove a thread from shared access to IO_CACHE
  455.   Every thread should do that on exit for not
  456.   to deadlock other threads
  457. */
  458. void remove_io_thread(IO_CACHE *info)
  459. {
  460.   IO_CACHE_SHARE *s=info->share;
  461.   pthread_mutex_lock(&s->mutex);
  462.   s->total--;
  463.   if (! s->count--)
  464.     pthread_cond_signal(&s->cond);
  465.   pthread_mutex_unlock(&s->mutex);
  466. }
  467. static int lock_io_cache(IO_CACHE *info, my_off_t pos)
  468. {
  469.   int total;
  470.   IO_CACHE_SHARE *s=info->share;
  471.   pthread_mutex_lock(&s->mutex);
  472.   if (!s->count)
  473.   {
  474.     s->count=s->total;
  475.     return 1;
  476.   }
  477.   total=s->total;
  478.   s->count--;
  479.   while (!s->active || s->active->pos_in_file < pos)
  480.     pthread_cond_wait(&s->cond, &s->mutex);
  481.   if (s->total < total &&
  482.       (!s->active || s->active->pos_in_file < pos))
  483.     return 1;
  484.   pthread_mutex_unlock(&s->mutex);
  485.   return 0;
  486. }
  487. static void unlock_io_cache(IO_CACHE *info)
  488. {
  489.   pthread_cond_broadcast(&info->share->cond);
  490.   pthread_mutex_unlock(&info->share->mutex);
  491. }
  492. /*
  493.   Read from IO_CACHE when it is shared between several threads.
  494.   It works as follows: when a thread tries to read from a file
  495.   (that is, after using all the data from the (shared) buffer),
  496.   it just hangs on lock_io_cache(), wating for other threads.
  497.   When the very last thread attempts a read, lock_io_cache()
  498.   returns 1, the thread does actual IO and unlock_io_cache(),
  499.   which signals all the waiting threads that data is in the buffer.
  500. */
  501. int _my_b_read_r(register IO_CACHE *info, byte *Buffer, uint Count)
  502. {
  503.   my_off_t pos_in_file;
  504.   uint length,diff_length,read_len;
  505.   DBUG_ENTER("_my_b_read_r");
  506.   if ((read_len=(uint) (info->read_end-info->read_pos)))
  507.   {
  508.     DBUG_ASSERT(Count >= read_len); /* User is not using my_b_read() */
  509.     memcpy(Buffer,info->read_pos, (size_t) (read_len));
  510.     Buffer+=read_len;
  511.     Count-=read_len;
  512.   }
  513.   while (Count)
  514.   {
  515.     int cnt, len;
  516.     pos_in_file= info->pos_in_file + (uint)(info->read_end - info->buffer);
  517.     diff_length= (uint) (pos_in_file & (IO_SIZE-1));
  518.     length=IO_ROUND_UP(Count+diff_length)-diff_length;
  519.     length=(length <= info->read_length) ?
  520.                    length + IO_ROUND_DN(info->read_length - length) :
  521.                    length - IO_ROUND_UP(length - info->read_length) ;
  522.     if (info->type != READ_FIFO &&
  523. (length > (uint) (info->end_of_file - pos_in_file)))
  524.       length= (uint) (info->end_of_file - pos_in_file);
  525.     if (length == 0)
  526.     {
  527.       info->error=(int) read_len;
  528.       DBUG_RETURN(1);
  529.     }
  530.     if (lock_io_cache(info, pos_in_file))
  531.     {
  532.       info->share->active=info;
  533.       if (info->seek_not_done)             /* File touched, do seek */
  534.         VOID(my_seek(info->file,pos_in_file,MY_SEEK_SET,MYF(0)));
  535.       len=(int)my_read(info->file,info->buffer, length, info->myflags);
  536.       info->read_end=info->buffer + (len == -1 ? 0 : len);
  537.       info->error=(len == (int)length ? 0 : len);
  538.       info->pos_in_file=pos_in_file;
  539.       unlock_io_cache(info);
  540.     }
  541.     else
  542.     {
  543.       info->error=          info->share->active->error;
  544.       info->read_end=       info->share->active->read_end;
  545.       info->pos_in_file=    info->share->active->pos_in_file;
  546.       len= (info->error == -1 ? -1 : info->read_end-info->buffer);
  547.     }
  548.     info->read_pos=info->buffer;
  549.     info->seek_not_done=0;
  550.     if (len <= 0)
  551.     {
  552.       info->error=(int) read_len;
  553.       DBUG_RETURN(1);
  554.     }
  555.     cnt=((uint) len > Count) ? (int) Count : len;
  556.     memcpy(Buffer,info->read_pos, (size_t)cnt);
  557.     Count -=cnt;
  558.     Buffer+=cnt;
  559.     read_len+=cnt;
  560.     info->read_pos+=cnt;
  561.   }
  562.   DBUG_RETURN(0);
  563. }
  564. #endif
  565. /*
  566.   Do sequential read from the SEQ_READ_APPEND cache
  567.   we do this in three stages:
  568.    - first read from info->buffer
  569.    - then if there are still data to read, try the file descriptor
  570.    - afterwards, if there are still data to read, try append buffer
  571. */
  572. int _my_b_seq_read(register IO_CACHE *info, byte *Buffer, uint Count)
  573. {
  574.   uint length,diff_length,left_length,save_count;
  575.   my_off_t max_length, pos_in_file;
  576.   save_count=Count;
  577.   /* first, read the regular buffer */
  578.   if ((left_length=(uint) (info->read_end-info->read_pos)))
  579.   {
  580.     DBUG_ASSERT(Count > left_length); /* User is not using my_b_read() */
  581.     memcpy(Buffer,info->read_pos, (size_t) (left_length));
  582.     Buffer+=left_length;
  583.     Count-=left_length;
  584.   }
  585.   lock_append_buffer(info);
  586.   /* pos_in_file always point on where info->buffer was read */
  587.   if ((pos_in_file=info->pos_in_file+(uint) (info->read_end - info->buffer)) >=
  588.       info->end_of_file)
  589.     goto read_append_buffer;
  590.   /*
  591.     With read-append cache we must always do a seek before we read,
  592.     because the write could have moved the file pointer astray
  593.   */
  594.   VOID(my_seek(info->file,pos_in_file,MY_SEEK_SET,MYF(0)));
  595.   info->seek_not_done=0;
  596.   diff_length=(uint) (pos_in_file & (IO_SIZE-1));
  597.   /* now the second stage begins - read from file descriptor */
  598.   if (Count >= (uint) (IO_SIZE+(IO_SIZE-diff_length)))
  599.   { /* Fill first intern buffer */
  600.     uint read_length;
  601.     length=(Count & (uint) ~(IO_SIZE-1))-diff_length;
  602.     if ((read_length=my_read(info->file,Buffer,(uint) length,info->myflags)) ==
  603. (uint)-1)
  604.     {
  605.       info->error= -1;
  606.       unlock_append_buffer(info);
  607.       return 1;
  608.     }
  609.     Count-=read_length;
  610.     Buffer+=read_length;
  611.     pos_in_file+=read_length;
  612.     if (read_length != (uint) length)
  613.     {
  614.       /*
  615. We only got part of data;  Read the rest of the data from the
  616. write buffer
  617.       */
  618.       goto read_append_buffer;
  619.     }
  620.     left_length+=length;
  621.     diff_length=0;
  622.   }
  623.   max_length=info->read_length-diff_length;
  624.   if (max_length > (info->end_of_file - pos_in_file))
  625.     max_length = info->end_of_file - pos_in_file;
  626.   if (!max_length)
  627.   {
  628.     if (Count)
  629.       goto read_append_buffer;
  630.     length=0; /* Didn't read any more chars */
  631.   }
  632.   else
  633.   {
  634.     length=my_read(info->file,info->buffer,(uint) max_length,
  635.    info->myflags);
  636.     if (length == (uint) -1)
  637.     {
  638.       info->error= -1;
  639.       unlock_append_buffer(info);
  640.       return 1;
  641.     }
  642.     if (length < Count)
  643.     {
  644.       memcpy(Buffer,info->buffer,(size_t) length);
  645.       Count -= length;
  646.       Buffer += length;
  647.       /*
  648.  added the line below to make
  649.  DBUG_ASSERT(pos_in_file==info->end_of_file) pass.
  650.  otherwise this does not appear to be needed
  651.       */
  652.       pos_in_file += length;
  653.       goto read_append_buffer;
  654.     }
  655.   }
  656.   unlock_append_buffer(info);
  657.   info->read_pos=info->buffer+Count;
  658.   info->read_end=info->buffer+length;
  659.   info->pos_in_file=pos_in_file;
  660.   memcpy(Buffer,info->buffer,(size_t) Count);
  661.   return 0;
  662. read_append_buffer:
  663.   /*
  664.      Read data from the current write buffer.
  665.      Count should never be == 0 here (The code will work even if count is 0)
  666.   */
  667.   {
  668.     /* First copy the data to Count */
  669.     uint len_in_buff = (uint) (info->write_pos - info->append_read_pos);
  670.     uint copy_len;
  671.     uint transfer_len;
  672.     DBUG_ASSERT(info->append_read_pos <= info->write_pos);
  673.     /*
  674.       TODO: figure out if the assert below is needed or correct.
  675.     */
  676.     DBUG_ASSERT(pos_in_file == info->end_of_file);
  677.     copy_len=min(Count, len_in_buff);
  678.     memcpy(Buffer, info->append_read_pos, copy_len);
  679.     info->append_read_pos += copy_len;
  680.     Count -= copy_len;
  681.     if (Count)
  682.       info->error = save_count - Count;
  683.     /* Fill read buffer with data from write buffer */
  684.     memcpy(info->buffer, info->append_read_pos,
  685.    (size_t) (transfer_len=len_in_buff - copy_len));
  686.     info->read_pos= info->buffer;
  687.     info->read_end= info->buffer+transfer_len;
  688.     info->append_read_pos=info->write_pos;
  689.     info->pos_in_file=pos_in_file+copy_len;
  690.     info->end_of_file+=len_in_buff;
  691.   }
  692.   unlock_append_buffer(info);
  693.   return Count ? 1 : 0;
  694. }
  695. #ifdef HAVE_AIOWAIT
  696. int _my_b_async_read(register IO_CACHE *info, byte *Buffer, uint Count)
  697. {
  698.   uint length,read_length,diff_length,left_length,use_length,org_Count;
  699.   my_off_t max_length;
  700.   my_off_t next_pos_in_file;
  701.   byte *read_buffer;
  702.   memcpy(Buffer,info->read_pos,
  703.  (size_t) (left_length=(uint) (info->read_end-info->read_pos)));
  704.   Buffer+=left_length;
  705.   org_Count=Count;
  706.   Count-=left_length;
  707.   if (info->inited)
  708.   { /* wait for read block */
  709.     info->inited=0; /* No more block to read */
  710.     my_aiowait(&info->aio_result); /* Wait for outstanding req */
  711.     if (info->aio_result.result.aio_errno)
  712.     {
  713.       if (info->myflags & MY_WME)
  714. my_error(EE_READ, MYF(ME_BELL+ME_WAITTANG),
  715.  my_filename(info->file),
  716.  info->aio_result.result.aio_errno);
  717.       my_errno=info->aio_result.result.aio_errno;
  718.       info->error= -1;
  719.       return(1);
  720.     }
  721.     if (! (read_length = (uint) info->aio_result.result.aio_return) ||
  722. read_length == (uint) -1)
  723.     {
  724.       my_errno=0; /* For testing */
  725.       info->error= (read_length == (uint) -1 ? -1 :
  726.     (int) (read_length+left_length));
  727.       return(1);
  728.     }
  729.     info->pos_in_file+=(uint) (info->read_end - info->request_pos);
  730.     if (info->request_pos != info->buffer)
  731.       info->request_pos=info->buffer;
  732.     else
  733.       info->request_pos=info->buffer+info->read_length;
  734.     info->read_pos=info->request_pos;
  735.     next_pos_in_file=info->aio_read_pos+read_length;
  736. /* Check if pos_in_file is changed
  737.    (_ni_read_cache may have skipped some bytes) */
  738.     if (info->aio_read_pos < info->pos_in_file)
  739.     { /* Fix if skipped bytes */
  740.       if (info->aio_read_pos + read_length < info->pos_in_file)
  741.       {
  742. read_length=0; /* Skip block */
  743. next_pos_in_file=info->pos_in_file;
  744.       }
  745.       else
  746.       {
  747. my_off_t offset= (info->pos_in_file - info->aio_read_pos);
  748. info->pos_in_file=info->aio_read_pos; /* Whe are here */
  749. info->read_pos=info->request_pos+offset;
  750. read_length-=offset; /* Bytes left from read_pos */
  751.       }
  752.     }
  753. #ifndef DBUG_OFF
  754.     if (info->aio_read_pos > info->pos_in_file)
  755.     {
  756.       my_errno=EINVAL;
  757.       return(info->read_length= -1);
  758.     }
  759. #endif
  760. /* Copy found bytes to buffer */
  761.     length=min(Count,read_length);
  762.     memcpy(Buffer,info->read_pos,(size_t) length);
  763.     Buffer+=length;
  764.     Count-=length;
  765.     left_length+=length;
  766.     info->read_end=info->rc_pos+read_length;
  767.     info->read_pos+=length;
  768.   }
  769.   else
  770.     next_pos_in_file=(info->pos_in_file+ (uint)
  771.       (info->read_end - info->request_pos));
  772. /* If reading large blocks, or first read or read with skip */
  773.   if (Count)
  774.   {
  775.     if (next_pos_in_file == info->end_of_file)
  776.     {
  777.       info->error=(int) (read_length+left_length);
  778.       return 1;
  779.     }
  780.     VOID(my_seek(info->file,next_pos_in_file,MY_SEEK_SET,MYF(0)));
  781.     read_length=IO_SIZE*2- (uint) (next_pos_in_file & (IO_SIZE-1));
  782.     if (Count < read_length)
  783.     { /* Small block, read to cache */
  784.       if ((read_length=my_read(info->file,info->request_pos,
  785.        read_length, info->myflags)) == (uint) -1)
  786. return info->error= -1;
  787.       use_length=min(Count,read_length);
  788.       memcpy(Buffer,info->request_pos,(size_t) use_length);
  789.       info->read_pos=info->request_pos+Count;
  790.       info->read_end=info->request_pos+read_length;
  791.       info->pos_in_file=next_pos_in_file; /* Start of block in cache */
  792.       next_pos_in_file+=read_length;
  793.       if (Count != use_length)
  794.       { /* Didn't find hole block */
  795. if (info->myflags & (MY_WME | MY_FAE | MY_FNABP) && Count != org_Count)
  796.   my_error(EE_EOFERR, MYF(ME_BELL+ME_WAITTANG),
  797.    my_filename(info->file),my_errno);
  798. info->error=(int) (read_length+left_length);
  799. return 1;
  800.       }
  801.     }
  802.     else
  803.     { /* Big block, don't cache it */
  804.       if ((read_length=my_read(info->file,Buffer,(uint) Count,info->myflags))
  805.   != Count)
  806.       {
  807. info->error= read_length == (uint)  -1 ? -1 : read_length+left_length;
  808. return 1;
  809.       }
  810.       info->read_pos=info->read_end=info->request_pos;
  811.       info->pos_in_file=(next_pos_in_file+=Count);
  812.     }
  813.   }
  814. /* Read next block with asyncronic io */
  815.   max_length=info->end_of_file - next_pos_in_file;
  816.   diff_length=(next_pos_in_file & (IO_SIZE-1));
  817.   if (max_length > (my_off_t) info->read_length - diff_length)
  818.     max_length= (my_off_t) info->read_length - diff_length;
  819.   if (info->request_pos != info->buffer)
  820.     read_buffer=info->buffer;
  821.   else
  822.     read_buffer=info->buffer+info->read_length;
  823.   info->aio_read_pos=next_pos_in_file;
  824.   if (max_length)
  825.   {
  826.     info->aio_result.result.aio_errno=AIO_INPROGRESS; /* Marker for test */
  827.     DBUG_PRINT("aioread",("filepos: %ld  length: %ld",
  828.   (ulong) next_pos_in_file,(ulong) max_length));
  829.     if (aioread(info->file,read_buffer,(int) max_length,
  830. (my_off_t) next_pos_in_file,MY_SEEK_SET,
  831. &info->aio_result.result))
  832.     { /* Skip async io */
  833.       my_errno=errno;
  834.       DBUG_PRINT("error",("got error: %d, aio_result: %d from aioread, async skipped",
  835.   errno, info->aio_result.result.aio_errno));
  836.       if (info->request_pos != info->buffer)
  837.       {
  838. bmove(info->buffer,info->request_pos,
  839.       (uint) (info->read_end - info->read_pos));
  840. info->request_pos=info->buffer;
  841. info->read_pos-=info->read_length;
  842. info->read_end-=info->read_length;
  843.       }
  844.       info->read_length=info->buffer_length; /* Use hole buffer */
  845.       info->read_function=_my_b_read; /* Use normal IO_READ next */
  846.     }
  847.     else
  848.       info->inited=info->aio_result.pending=1;
  849.   }
  850.   return 0; /* Block read, async in use */
  851. } /* _my_b_async_read */
  852. #endif
  853. /* Read one byte when buffer is empty */
  854. int _my_b_get(IO_CACHE *info)
  855. {
  856.   byte buff;
  857.   IO_CACHE_CALLBACK pre_read,post_read;
  858.   if ((pre_read = info->pre_read))
  859.     (*pre_read)(info);
  860.   if ((*(info)->read_function)(info,&buff,1))
  861.     return my_b_EOF;
  862.   if ((post_read = info->post_read))
  863.     (*post_read)(info);
  864.   return (int) (uchar) buff;
  865. }
  866. /* Returns != 0 if error on write */
  867. int _my_b_write(register IO_CACHE *info, const byte *Buffer, uint Count)
  868. {
  869.   uint rest_length,length;
  870.   if (info->pos_in_file+info->buffer_length > info->end_of_file)
  871.   {
  872.     my_errno=errno=EFBIG;
  873.     return info->error = -1;
  874.   }
  875.   rest_length=(uint) (info->write_end - info->write_pos);
  876.   memcpy(info->write_pos,Buffer,(size_t) rest_length);
  877.   Buffer+=rest_length;
  878.   Count-=rest_length;
  879.   info->write_pos+=rest_length;
  880.   if (flush_io_cache(info))
  881.     return 1;
  882.   if (Count >= IO_SIZE)
  883.   { /* Fill first intern buffer */
  884.     length=Count & (uint) ~(IO_SIZE-1);
  885.     if (info->seek_not_done)
  886.     { /* File touched, do seek */
  887.       VOID(my_seek(info->file,info->pos_in_file,MY_SEEK_SET,MYF(0)));
  888.       info->seek_not_done=0;
  889.     }
  890.     if (my_write(info->file,Buffer,(uint) length,info->myflags | MY_NABP))
  891.       return info->error= -1;
  892.     Count-=length;
  893.     Buffer+=length;
  894.     info->pos_in_file+=length;
  895.   }
  896.   memcpy(info->write_pos,Buffer,(size_t) Count);
  897.   info->write_pos+=Count;
  898.   return 0;
  899. }
  900. /*
  901.   Append a block to the write buffer.
  902.   This is done with the buffer locked to ensure that we don't read from
  903.   the write buffer before we are ready with it.
  904. */
  905. int my_b_append(register IO_CACHE *info, const byte *Buffer, uint Count)
  906. {
  907.   uint rest_length,length;
  908.   lock_append_buffer(info);
  909.   rest_length=(uint) (info->write_end - info->write_pos);
  910.   if (Count <= rest_length)
  911.     goto end;
  912.   memcpy(info->write_pos,Buffer,(size_t) rest_length);
  913.   Buffer+=rest_length;
  914.   Count-=rest_length;
  915.   info->write_pos+=rest_length;
  916.   if (my_b_flush_io_cache(info,0))
  917.   {
  918.     unlock_append_buffer(info);
  919.     return 1;
  920.   }
  921.   if (Count >= IO_SIZE)
  922.   { /* Fill first intern buffer */
  923.     length=Count & (uint) ~(IO_SIZE-1);
  924.     if (my_write(info->file,Buffer,(uint) length,info->myflags | MY_NABP))
  925.     {
  926.       unlock_append_buffer(info);
  927.       return info->error= -1;
  928.     }
  929.     Count-=length;
  930.     Buffer+=length;
  931.     info->end_of_file+=length;
  932.   }
  933. end:
  934.   memcpy(info->write_pos,Buffer,(size_t) Count);
  935.   info->write_pos+=Count;
  936.   unlock_append_buffer(info);
  937.   return 0;
  938. }
  939. int my_b_safe_write(IO_CACHE *info, const byte *Buffer, uint Count)
  940. {
  941.   /*
  942.     Sasha: We are not writing this with the ? operator to avoid hitting
  943.     a possible compiler bug. At least gcc 2.95 cannot deal with 
  944.     several layers of ternary operators that evaluated comma(,) operator
  945.     expressions inside - I do have a test case if somebody wants it
  946.   */
  947.   if (info->type == SEQ_READ_APPEND)
  948.     return my_b_append(info, Buffer, Count);
  949.   return my_b_write(info, Buffer, Count);
  950. }
  951. /*
  952.   Write a block to disk where part of the data may be inside the record
  953.   buffer.  As all write calls to the data goes through the cache,
  954.   we will never get a seek over the end of the buffer
  955. */
  956. int my_block_write(register IO_CACHE *info, const byte *Buffer, uint Count,
  957.    my_off_t pos)
  958. {
  959.   uint length;
  960.   int error=0;
  961.   if (pos < info->pos_in_file)
  962.   {
  963.     /* Of no overlap, write everything without buffering */
  964.     if (pos + Count <= info->pos_in_file)
  965.       return my_pwrite(info->file, Buffer, Count, pos,
  966.        info->myflags | MY_NABP);
  967.     /* Write the part of the block that is before buffer */
  968.     length= (uint) (info->pos_in_file - pos);
  969.     if (my_pwrite(info->file, Buffer, length, pos, info->myflags | MY_NABP))
  970.       info->error=error=-1;
  971.     Buffer+=length;
  972.     pos+=  length;
  973.     Count-= length;
  974. #ifndef HAVE_PREAD
  975.     info->seek_not_done=1;
  976. #endif
  977.   }
  978.   /* Check if we want to write inside the used part of the buffer.*/
  979.   length= (uint) (info->write_end - info->buffer);
  980.   if (pos < info->pos_in_file + length)
  981.   {
  982.     uint offset= (uint) (pos - info->pos_in_file);
  983.     length-=offset;
  984.     if (length > Count)
  985.       length=Count;
  986.     memcpy(info->buffer+offset, Buffer, length);
  987.     Buffer+=length;
  988.     Count-= length;
  989.     /* Fix length of buffer if the new data was larger */
  990.     if (info->buffer+length > info->write_pos)
  991.       info->write_pos=info->buffer+length;
  992.     if (!Count)
  993.       return (error);
  994.   }
  995.   /* Write at the end of the current buffer; This is the normal case */
  996.   if (_my_b_write(info, Buffer, Count))
  997.     error= -1;
  998.   return error;
  999. }
  1000. /* Flush write cache */
  1001. #ifdef THREAD
  1002. #define LOCK_APPEND_BUFFER if (need_append_buffer_lock) 
  1003.   lock_append_buffer(info);
  1004. #define UNLOCK_APPEND_BUFFER if (need_append_buffer_lock) 
  1005.   unlock_append_buffer(info);
  1006. #else
  1007. #define LOCK_APPEND_BUFFER
  1008. #define UNLOCK_APPEND_BUFFER
  1009. #endif
  1010. int my_b_flush_io_cache(IO_CACHE *info, int need_append_buffer_lock)
  1011. {
  1012.   uint length;
  1013.   my_bool append_cache;
  1014.   my_off_t pos_in_file;
  1015.   DBUG_ENTER("my_b_flush_io_cache");
  1016.   if (!(append_cache = (info->type == SEQ_READ_APPEND)))
  1017.     need_append_buffer_lock=0;
  1018.   if (info->type == WRITE_CACHE || append_cache)
  1019.   {
  1020.     if (info->file == -1)
  1021.     {
  1022.       if (real_open_cached_file(info))
  1023. DBUG_RETURN((info->error= -1));
  1024.     }
  1025.     LOCK_APPEND_BUFFER;
  1026.     if ((length=(uint) (info->write_pos - info->write_buffer)))
  1027.     {
  1028.       pos_in_file=info->pos_in_file;
  1029.       /*
  1030. If we have append cache, we always open the file with
  1031. O_APPEND which moves the pos to EOF automatically on every write
  1032.       */
  1033.       if (!append_cache && info->seek_not_done)
  1034.       { /* File touched, do seek */
  1035. if (my_seek(info->file,pos_in_file,MY_SEEK_SET,MYF(0)) ==
  1036.     MY_FILEPOS_ERROR)
  1037. {
  1038.   UNLOCK_APPEND_BUFFER;
  1039.   DBUG_RETURN((info->error= -1));
  1040. }
  1041. if (!append_cache)
  1042.   info->seek_not_done=0;
  1043.       }
  1044.       if (!append_cache)
  1045. info->pos_in_file+=length;
  1046.       info->write_end= (info->write_buffer+info->buffer_length-
  1047. ((pos_in_file+length) & (IO_SIZE-1)));
  1048.       if (my_write(info->file,info->write_buffer,length,
  1049.    info->myflags | MY_NABP))
  1050. info->error= -1;
  1051.       else
  1052. info->error= 0;
  1053.       if (!append_cache)
  1054.       {
  1055.         set_if_bigger(info->end_of_file,(pos_in_file+length));
  1056.       }
  1057.       else
  1058.       {
  1059. info->end_of_file+=(info->write_pos-info->append_read_pos);
  1060. DBUG_ASSERT(info->end_of_file == my_tell(info->file,MYF(0)));
  1061.       }
  1062.       info->append_read_pos=info->write_pos=info->write_buffer;
  1063.       ++info->disk_writes;
  1064.       UNLOCK_APPEND_BUFFER;
  1065.       DBUG_RETURN(info->error);
  1066.     }
  1067.   }
  1068. #ifdef HAVE_AIOWAIT
  1069.   else if (info->type != READ_NET)
  1070.   {
  1071.     my_aiowait(&info->aio_result); /* Wait for outstanding req */
  1072.     info->inited=0;
  1073.   }
  1074. #endif
  1075.   UNLOCK_APPEND_BUFFER;
  1076.   DBUG_RETURN(0);
  1077. }
  1078. /*
  1079.   Free an IO_CACHE object
  1080.   SYNOPSOS
  1081.     end_io_cache()
  1082.     info IO_CACHE Handle to free
  1083.   NOTES
  1084.     It's currently safe to call this if one has called init_io_cache()
  1085.     on the 'info' object, even if init_io_cache() failed.
  1086.     This function is also safe to call twice with the same handle.
  1087.   RETURN
  1088.    0  ok
  1089.    #  Error
  1090. */
  1091. int end_io_cache(IO_CACHE *info)
  1092. {
  1093.   int error=0;
  1094.   IO_CACHE_CALLBACK pre_close;
  1095.   DBUG_ENTER("end_io_cache");
  1096. #ifdef THREAD
  1097.   /*
  1098.     if IO_CACHE is shared between several threads, only one
  1099.     thread needs to call end_io_cache() - just as init_io_cache()
  1100.     should be called only once and then memcopy'ed
  1101.   */
  1102.   if (info->share)
  1103.   {
  1104.     pthread_cond_destroy (&info->share->cond);
  1105.     pthread_mutex_destroy(&info->share->mutex);
  1106.     info->share=0;
  1107.   }
  1108. #endif
  1109.   if ((pre_close=info->pre_close))
  1110.   {
  1111.     (*pre_close)(info);
  1112.     info->pre_close= 0;
  1113.   }
  1114.   if (info->alloced_buffer)
  1115.   {
  1116.     info->alloced_buffer=0;
  1117.     if (info->file != -1) /* File doesn't exist */
  1118.       error=flush_io_cache(info);
  1119.     my_free((gptr) info->buffer,MYF(MY_WME));
  1120.     info->buffer=info->read_pos=(byte*) 0;
  1121.   }
  1122.   if (info->type == SEQ_READ_APPEND)
  1123.   {
  1124.     /* Destroy allocated mutex */
  1125.     info->type=0;
  1126. #ifdef THREAD
  1127.     pthread_mutex_destroy(&info->append_buffer_lock);
  1128. #endif
  1129.   }
  1130.   DBUG_RETURN(error);
  1131. } /* end_io_cache */
  1132. /**********************************************************************
  1133.  Testing of MF_IOCACHE
  1134. **********************************************************************/
  1135. #ifdef MAIN
  1136. #include <my_dir.h>
  1137. void die(const char* fmt, ...)
  1138. {
  1139.   va_list va_args;
  1140.   va_start(va_args,fmt);
  1141.   fprintf(stderr,"Error:");
  1142.   vfprintf(stderr, fmt,va_args);
  1143.   fprintf(stderr,", errno=%dn", errno);
  1144.   exit(1);
  1145. }
  1146. int open_file(const char* fname, IO_CACHE* info, int cache_size)
  1147. {
  1148.   int fd;
  1149.   if ((fd=my_open(fname,O_CREAT | O_RDWR,MYF(MY_WME))) < 0)
  1150.     die("Could not open %s", fname);
  1151.   if (init_io_cache(info, fd, cache_size, SEQ_READ_APPEND, 0,0,MYF(MY_WME)))
  1152.     die("failed in init_io_cache()");
  1153.   return fd;
  1154. }
  1155. void close_file(IO_CACHE* info)
  1156. {
  1157.   end_io_cache(info);
  1158.   my_close(info->file, MYF(MY_WME));
  1159. }
  1160. int main(int argc, char** argv)
  1161. {
  1162.   IO_CACHE sra_cache; /* SEQ_READ_APPEND */
  1163.   MY_STAT status;
  1164.   const char* fname="/tmp/iocache.test";
  1165.   int cache_size=16384;
  1166.   char llstr_buf[22];
  1167.   int max_block,total_bytes=0;
  1168.   int i,num_loops=100,error=0;
  1169.   char *p;
  1170.   char* block, *block_end;
  1171.   MY_INIT(argv[0]);
  1172.   max_block = cache_size*3;
  1173.   if (!(block=(char*)my_malloc(max_block,MYF(MY_WME))))
  1174.     die("Not enough memory to allocate test block");
  1175.   block_end = block + max_block;
  1176.   for (p = block,i=0; p < block_end;i++)
  1177.   {
  1178.     *p++ = (char)i;
  1179.   }
  1180.   if (my_stat(fname,&status, MYF(0)) &&
  1181.       my_delete(fname,MYF(MY_WME)))
  1182.     {
  1183.       die("Delete of %s failed, aborting", fname);
  1184.     }
  1185.   open_file(fname,&sra_cache, cache_size);
  1186.   for (i = 0; i < num_loops; i++)
  1187.   {
  1188.     char buf[4];
  1189.     int block_size = abs(rand() % max_block);
  1190.     int4store(buf, block_size);
  1191.     if (my_b_append(&sra_cache,buf,4) ||
  1192. my_b_append(&sra_cache, block, block_size))
  1193.       die("write failed");
  1194.     total_bytes += 4+block_size;
  1195.   }
  1196.   close_file(&sra_cache);
  1197.   my_free(block,MYF(MY_WME));
  1198.   if (!my_stat(fname,&status,MYF(MY_WME)))
  1199.     die("%s failed to stat, but I had just closed it,
  1200.  wonder how that happened");
  1201.   printf("Final size of %s is %s, wrote %d bytesn",fname,
  1202.  llstr(status.st_size,llstr_buf),
  1203.  total_bytes);
  1204.   my_delete(fname, MYF(MY_WME));
  1205.   /* check correctness of tests */
  1206.   if (total_bytes != status.st_size)
  1207.   {
  1208.     fprintf(stderr,"Not the same number of bytes acutally  in file as bytes 
  1209. supposedly writtenn");
  1210.     error=1;
  1211.   }
  1212.   exit(error);
  1213.   return 0;
  1214. }
  1215. #endif