mf_keycache.c
上传用户:tsgydb
上传日期:2007-04-14
资源大小:10674k
文件大小:21k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. /* Copyright (C) 2000 MySQL AB & MySQL Finland AB & TCX DataKonsult AB
  2.    
  3.    This library is free software; you can redistribute it and/or
  4.    modify it under the terms of the GNU Library General Public
  5.    License as published by the Free Software Foundation; either
  6.    version 2 of the License, or (at your option) any later version.
  7.    
  8.    This library is distributed in the hope that it will be useful,
  9.    but WITHOUT ANY WARRANTY; without even the implied warranty of
  10.    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
  11.    Library General Public License for more details.
  12.    
  13.    You should have received a copy of the GNU Library General Public
  14.    License along with this library; if not, write to the Free
  15.    Software Foundation, Inc., 59 Temple Place - Suite 330, Boston,
  16.    MA 02111-1307, USA */
  17. /*
  18.   This functions is handle keyblock cacheing for NISAM, MISAM and PISAM
  19.   databases.
  20.   One cache can handle many files. Every different blocksize has it owns
  21.   set of buffers that are allocated from block_mem.
  22.   init_key_cache() should be used to init cache handler.
  23.  */
  24. #include "mysys_priv.h"
  25. #include "my_static.h"
  26. #include <m_string.h>
  27. #include <errno.h>
  28. #if defined(MSDOS) && !defined(M_IC80386)
  29. /* We nead much memory */
  30. #undef my_malloc_lock
  31. #undef my_free_lock
  32. #define my_malloc_lock(A,B) halloc((long) (A/IO_SIZE),IO_SIZE)
  33. #define my_free_lock(A,B) hfree(A)
  34. #endif
  35. /* size of map to be used to find changed files */
  36. #define CHANGED_BLOCKS_HASH 128 /* Must be power of 2 */
  37. #define CHANGED_BLOCKS_MASK (CHANGED_BLOCKS_HASH-1)
  38. #define FLUSH_CACHE  2000 /* Sort this many blocks at once */
  39. typedef struct sec_link {
  40.   struct sec_link *next_hash,**prev_hash;/* Blocks linked acc. to hash-value */
  41.   struct sec_link *next_used,*prev_used;
  42.   struct sec_link *next_changed,**prev_changed;
  43.   File file;
  44.   my_off_t diskpos;
  45.   byte *buffer;
  46.   my_bool changed;
  47. } SEC_LINK;
  48. static uint find_next_bigger_power(uint value);
  49. static SEC_LINK *find_key_block(int file,my_off_t filepos,int *error);
  50. /* static variables in this file */
  51. static SEC_LINK *_my_block_root,**_my_hash_root,
  52. *_my_used_first,*_my_used_last;
  53. static int _my_disk_blocks;
  54. static uint _my_disk_blocks_used, _my_hash_blocks;
  55. ulong _my_blocks_used,_my_blocks_changed;
  56. ulong _my_cache_w_requests,_my_cache_write,_my_cache_r_requests,
  57. _my_cache_read;
  58. static byte HUGE_PTR *_my_block_mem;
  59. static SEC_LINK *changed_blocks[CHANGED_BLOCKS_HASH];
  60. static SEC_LINK *file_blocks[CHANGED_BLOCKS_HASH];
  61. #ifndef DBUG_OFF
  62. static my_bool _my_printed;
  63. #endif
  64. /* Init of disk_buffert */
  65. /* Returns blocks in use */
  66. /* ARGSUSED */
  67. int init_key_cache(ulong use_mem,
  68.    ulong leave_this_much_mem __attribute__((unused)))
  69. {
  70.   uint blocks,length;
  71.   byte *extra_mem=0;
  72.   DBUG_ENTER("init_key_cache");
  73.   if (key_cache_inited && _my_disk_blocks > 0)
  74.   {
  75.     DBUG_PRINT("warning",("key cache already in use")); /* purecov: inspected */
  76.     DBUG_RETURN(0); /* purecov: inspected */
  77.   }
  78.   if (! key_cache_inited)
  79.   {
  80.     key_cache_inited=TRUE;
  81.     _my_disk_blocks= -1;
  82. #ifndef DBUG_OFF
  83.     _my_printed=0;
  84. #endif
  85.   }
  86.   blocks= (uint) (use_mem/(sizeof(SEC_LINK)+sizeof(SEC_LINK*)*5/4+KEYCACHE_BLOCK_SIZE));
  87.   /* No use to have very few blocks */
  88.   if (blocks >= 8 && _my_disk_blocks < 0)
  89.   {
  90. #if !defined(HAVE_ALLOCA) && !defined(THREAD)
  91.     if ((extra_mem=my_malloc((uint) leave_this_much_mem,MYF(0))) == 0)
  92.       goto err;
  93. #endif
  94.     for (;;)
  95.     {
  96.       if ((_my_hash_blocks=find_next_bigger_power((uint) blocks)) < blocks*5/4)
  97. _my_hash_blocks<<=1;
  98.       while ((length=(uint) blocks*sizeof(SEC_LINK)+
  99.       sizeof(SEC_LINK*)*_my_hash_blocks)+(ulong) blocks*KEYCACHE_BLOCK_SIZE >
  100.      use_mem)
  101. blocks--;
  102.       if ((_my_block_mem=my_malloc_lock((ulong) blocks * KEYCACHE_BLOCK_SIZE,MYF(0))))
  103.       {
  104. if ((_my_block_root=(SEC_LINK*) my_malloc((uint) length,MYF(0))) != 0)
  105.   break;
  106. my_free_lock(_my_block_mem,MYF(0));
  107.       }
  108.       if (blocks < 8)
  109. goto err;
  110.       blocks=blocks/4*3;
  111.     }
  112.     _my_disk_blocks=(int) blocks;
  113.     _my_hash_root= (SEC_LINK**) (_my_block_root+blocks);
  114.     bzero((byte*) _my_hash_root,_my_hash_blocks*sizeof(SEC_LINK*));
  115.     _my_used_first=_my_used_last=0;
  116.     _my_blocks_used=_my_disk_blocks_used=_my_blocks_changed=0;
  117.     _my_cache_w_requests=_my_cache_r_requests=_my_cache_read=_my_cache_write=0;
  118.     DBUG_PRINT("exit",("disk_blocks: %d  block_root: %lx  _my_hash_blocks: %d  hash_root: %lx",
  119.        _my_disk_blocks,_my_block_root,_my_hash_blocks,
  120.        _my_hash_root));
  121. #if !defined(HAVE_ALLOCA) && !defined(THREAD)
  122.     my_free(extra_mem,MYF(0));
  123. #endif
  124.   }
  125.   bzero((gptr) changed_blocks,sizeof(changed_blocks[0])*CHANGED_BLOCKS_HASH);
  126.   bzero((gptr) file_blocks,sizeof(file_blocks[0])*CHANGED_BLOCKS_HASH);
  127.   DBUG_RETURN((int) blocks);
  128. err:
  129.   if (extra_mem) /* purecov: inspected */
  130.     my_free(extra_mem,MYF(0));
  131.   my_errno=ENOMEM;
  132.   DBUG_RETURN(0);
  133. } /* init_key_cache */
  134. /* Remove key_cache from memory */
  135. void end_key_cache(void)
  136. {
  137.   DBUG_ENTER("end_key_cache");
  138.   if (! _my_blocks_changed)
  139.   {
  140.     if (_my_disk_blocks > 0)
  141.     {
  142.       my_free_lock((gptr) _my_block_mem,MYF(0));
  143.       my_free((gptr) _my_block_root,MYF(0));
  144.       _my_disk_blocks= -1;
  145.     }
  146.   }
  147.   key_cache_inited=0;
  148.   DBUG_PRINT("status",
  149.      ("used: %d  changed: %d  w_requests: %ld  writes: %ld  r_requests: %ld  reads: %ld",
  150.       _my_blocks_used,_my_blocks_changed,_my_cache_w_requests,
  151.       _my_cache_write,_my_cache_r_requests,_my_cache_read));
  152.   DBUG_VOID_RETURN;
  153. } /* end_key_cache */
  154. static uint find_next_bigger_power(uint value)
  155. {
  156.   uint old_value=1;
  157.   while (value)
  158.   {
  159.     old_value=value;
  160.     value&= value-1;
  161.   }
  162.   return (old_value << 1);
  163. }
  164. static inline void link_into_file_blocks(SEC_LINK *next, int file)
  165. {
  166.   reg1 SEC_LINK **ptr= &file_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  167.   next->prev_changed= ptr;
  168.   if ((next->next_changed= *ptr))
  169.     (*ptr)->prev_changed= &next->next_changed;
  170.   *ptr=next;
  171. }
  172. static inline void relink_into_file_blocks(SEC_LINK *next, int file)
  173. {
  174.   reg1 SEC_LINK **ptr= &file_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  175.   if (next->next_changed)
  176.     next->next_changed->prev_changed=next->prev_changed;
  177.   *next->prev_changed=next->next_changed;
  178.   next->prev_changed= ptr;
  179.   if ((next->next_changed= *ptr))
  180.     (*ptr)->prev_changed= &next->next_changed;
  181.   *ptr=next;
  182. }
  183. static inline void link_changed_to_file(SEC_LINK *next,int file)
  184. {
  185.   reg1 SEC_LINK **ptr= &file_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  186.   if (next->next_changed)
  187.     next->next_changed->prev_changed=next->prev_changed;
  188.   *next->prev_changed=next->next_changed;
  189.   next->prev_changed= ptr;
  190.   if ((next->next_changed= *ptr))
  191.     (*ptr)->prev_changed= &next->next_changed;
  192.   *ptr=next;
  193.   next->changed=0;
  194.   _my_blocks_changed--;
  195. }
  196. static inline void link_file_to_changed(SEC_LINK *next)
  197. {
  198.   reg1 SEC_LINK **ptr= &changed_blocks[(uint) next->file & CHANGED_BLOCKS_MASK];
  199.   if (next->next_changed)
  200.     next->next_changed->prev_changed=next->prev_changed;
  201.   *next->prev_changed=next->next_changed;
  202.   next->prev_changed= ptr;
  203.   if ((next->next_changed= *ptr))
  204.     (*ptr)->prev_changed= &next->next_changed;
  205.   *ptr=next;
  206.   next->changed=1;
  207.   _my_blocks_changed++;
  208. }
  209. #ifndef DBUG_OFF
  210. #define DBUG_OFF /* This should work */
  211. #endif
  212. #ifndef DBUG_OFF
  213. static void test_key_cache(char *where, my_bool lock);
  214. #endif
  215. /*
  216. ** read a key_buffer
  217. ** filepos must point at a even KEYCACHE_BLOCK_SIZE block
  218. ** if return_buffer is set then the intern buffer is returned if
  219. ** it can be used
  220. ** Returns adress to where data is read
  221. */
  222. byte *key_cache_read(File file, my_off_t filepos, byte *buff, uint length,
  223.      uint block_length __attribute__((unused)),
  224.      int return_buffer __attribute__((unused)))
  225. {
  226.   reg1 SEC_LINK *next;
  227.   int error=0;
  228. #ifndef THREAD
  229.   if (block_length > KEYCACHE_BLOCK_SIZE)
  230.     return_buffer=0;
  231. #endif
  232.   if (_my_disk_blocks > 0)
  233.   { /* We have key_cacheing */
  234.     byte *start=buff;
  235.     uint read_length;
  236.     pthread_mutex_lock(&THR_LOCK_keycache);
  237.     do
  238.     {
  239.       _my_cache_r_requests++;
  240.       read_length= length > KEYCACHE_BLOCK_SIZE ? KEYCACHE_BLOCK_SIZE : length;
  241.       if (!(next=find_key_block(file,filepos,&error)))
  242.       {
  243. pthread_mutex_unlock(&THR_LOCK_keycache);
  244. return (byte*) 0; /* Got a fatal error */
  245.       }
  246.       if (error)
  247.       { /* Didn't find it in cache */
  248. if (my_pread(file,next->buffer,read_length,filepos,MYF(MY_NABP)))
  249. {
  250.   pthread_mutex_unlock(&THR_LOCK_keycache);
  251.   return((byte*) 0);
  252. }
  253. _my_cache_read++;
  254.       }
  255. #ifndef THREAD /* buffer may be used a long time */
  256.       if (return_buffer)
  257.       {
  258. pthread_mutex_unlock(&THR_LOCK_keycache);
  259. return (next->buffer);
  260.       }
  261. #endif
  262.       if (! (read_length & 511))
  263. bmove512(buff,next->buffer,read_length);
  264.       else
  265. memcpy(buff,next->buffer,(size_t) read_length);
  266.       buff+=read_length;
  267.       filepos+=read_length;
  268.     } while ((length-= read_length));
  269.     pthread_mutex_unlock(&THR_LOCK_keycache);
  270.     return(start);
  271.   }
  272.   _my_cache_r_requests++;
  273.   _my_cache_read++;
  274.   if (my_pread(file,(byte*) buff,length,filepos,MYF(MY_NABP)))
  275.     error=1;
  276.   return (error ? (byte*) 0 : buff);
  277. } /* key_cache_read */
  278. /* write a key_buffer */
  279. /* We don't have to use pwrite because of write locking */
  280. /* buff must point at a even KEYCACHE_BLOCK_SIZE block */
  281. int key_cache_write(File file, my_off_t filepos, byte *buff, uint length,
  282.     uint block_length  __attribute__((unused)),
  283.     int dont_write)
  284. {
  285.   reg1 SEC_LINK *next;
  286.   int error=0;
  287.   if (!dont_write)
  288.   { /* Forced write of buffer */
  289.     _my_cache_write++;
  290.     if (my_pwrite(file,buff,length,filepos,MYF(MY_NABP | MY_WAIT_IF_FULL)))
  291.       return(1);
  292.   }
  293. #if !defined(DBUG_OFF) && defined(EXTRA_DEBUG)
  294.   DBUG_EXECUTE("exec",test_key_cache("start of key_cache_write",1););
  295. #endif
  296.   if (_my_disk_blocks > 0)
  297.   { /* We have key_cacheing */
  298.     uint read_length;
  299.     pthread_mutex_lock(&THR_LOCK_keycache);
  300.     _my_cache_w_requests++;
  301.     do
  302.     {
  303.       read_length= length > KEYCACHE_BLOCK_SIZE ? KEYCACHE_BLOCK_SIZE : length;
  304.       if (!(next=find_key_block(file,filepos,&error)))
  305. goto end; /* Fatal error */
  306.       if (!dont_write) /* If we wrote buff at start */
  307.       {
  308. if (next->changed) /* Unlink from changed list */
  309.   link_changed_to_file(next,next->file);
  310.       }
  311.       else if (!next->changed)
  312. link_file_to_changed(next); /* Add to changed list */
  313.       if (!(read_length & 511))
  314. bmove512(next->buffer,buff,read_length);
  315.       else
  316. memcpy(next->buffer,buff,(size_t) read_length);
  317.       buff+=read_length;
  318.       filepos+=read_length;
  319.     } while ((length-= read_length));
  320.     error=0;
  321.     pthread_mutex_unlock(&THR_LOCK_keycache);
  322.   }
  323.   else if (dont_write)
  324.   { /* We must write, no cache */
  325.     _my_cache_w_requests++;
  326.     _my_cache_write++;
  327.     if (my_pwrite(file,(byte*) buff,length,filepos,
  328.   MYF(MY_NABP | MY_WAIT_IF_FULL)))
  329.       error=1;
  330.   }
  331. end:
  332. #if !defined(DBUG_OFF) && defined(EXTRA_DEBUG)
  333.   DBUG_EXECUTE("exec",test_key_cache("end of key_cache_write",1););
  334. #endif
  335.   return(error);
  336. } /* key_cache_write */
  337. /* Find block in cache */
  338. /* IF found sector and error is set then next->changed is cleared */
  339. static SEC_LINK *find_key_block(int file, my_off_t filepos, int *error)
  340. {
  341.   reg1 SEC_LINK *next,**start;
  342. #if !defined(DBUG_OFF) && defined(EXTRA_DEBUG)
  343.   DBUG_EXECUTE("exec",test_key_cache("start of find_key_block",0););
  344. #endif
  345.   *error=0;
  346.   next= *(start= &_my_hash_root[((ulong) (filepos/KEYCACHE_BLOCK_SIZE)+(ulong) file) &
  347. (_my_hash_blocks-1)]);
  348.   while (next && (next->diskpos != filepos || next->file != file))
  349.     next= next->next_hash;
  350.   if (next)
  351.   { /* Found block */
  352.     if (next != _my_used_last)
  353.     { /* Relink used-chain */
  354.       if (next == _my_used_first)
  355. _my_used_first=next->next_used;
  356.       else
  357.       {
  358. next->prev_used->next_used = next->next_used;
  359. next->next_used->prev_used = next->prev_used;
  360.       }
  361.       next->prev_used=_my_used_last;
  362.       _my_used_last->next_used=next;
  363.     }
  364.   }
  365.   else
  366.   { /* New block */
  367.     if (_my_disk_blocks_used+1 <= (uint) _my_disk_blocks)
  368.     { /* There are unused blocks */
  369.       next= &_my_block_root[_my_blocks_used++]; /* Link in hash-chain */
  370.       next->buffer=ADD_TO_PTR(_my_block_mem,
  371.       (ulong) _my_disk_blocks_used*KEYCACHE_BLOCK_SIZE,byte*);
  372.       /* link first in file_blocks */
  373.       next->changed=0;
  374.       link_into_file_blocks(next,file);
  375.       _my_disk_blocks_used++;
  376.       if (!_my_used_first)
  377. _my_used_first=next;
  378.       if (_my_used_last)
  379. _my_used_last->next_used=next; /* Last in used-chain */
  380.     }
  381.     else
  382.     { /* Reuse old block */
  383.       next= _my_used_first;
  384.       if (next->changed)
  385.       {
  386. if (my_pwrite(next->file,next->buffer,KEYCACHE_BLOCK_SIZE,next->diskpos,
  387.       MYF(MY_NABP | MY_WAIT_IF_FULL)))
  388. {
  389.   *error=1;
  390.   return((SEC_LINK*) 0);
  391. }
  392. _my_cache_write++;
  393. link_changed_to_file(next,file);
  394.       }
  395.       else
  396.       {
  397. if (next->file == -1)
  398.   link_into_file_blocks(next,file);
  399. else
  400.   relink_into_file_blocks(next,file);
  401.       }
  402.       if (next->prev_hash) /* If in hash-link */
  403. if ((*next->prev_hash=next->next_hash) != 0) /* Remove from link */
  404.   next->next_hash->prev_hash= next->prev_hash;
  405.       _my_used_last->next_used=next;
  406.       _my_used_first=next->next_used;
  407.     }
  408.     if (*start) /* Link in first in h.-chain */
  409.       (*start)->prev_hash= &next->next_hash;
  410.     next->next_hash= *start; next->prev_hash=start; *start=next;
  411.     next->prev_used=_my_used_last;
  412.     next->file=file;
  413.     next->diskpos=filepos;
  414.     *error=1; /* Block wasn't in memory */
  415.   }
  416.   _my_used_last=next;
  417. #if !defined(DBUG_OFF) && defined(EXTRA_DEBUG)
  418.   DBUG_EXECUTE("exec",test_key_cache("end of find_key_block",0););
  419. #endif
  420.   return next;
  421. } /* find_key_block */
  422. static void free_block(SEC_LINK *used)
  423. {
  424.   used->file= -1;
  425.   used->changed=0;
  426.   if (used != _my_used_first) /* Relink used-chain */
  427.   {
  428.     if (used == _my_used_last)
  429.       _my_used_last=used->prev_used;
  430.     else
  431.     {
  432.       used->prev_used->next_used = used->next_used;
  433.       used->next_used->prev_used = used->prev_used;
  434.     }
  435.     used->next_used=_my_used_first;
  436.     used->next_used->prev_used=used;
  437.     _my_used_first=used;
  438.   }
  439.   if ((*used->prev_hash=used->next_hash)) /* Relink hash-chain */
  440.     used->next_hash->prev_hash= used->prev_hash;
  441.   if (used->next_changed) /* Relink changed/file list */
  442.     used->next_changed->prev_changed=used->prev_changed;
  443.   *used->prev_changed=used->next_changed;
  444.   used->prev_hash=0; used->next_hash=0; /* Safety */
  445. }
  446. /* Flush all changed blocks to disk. Free used blocks if requested */
  447. static int cmp_sec_link(SEC_LINK **a, SEC_LINK **b)
  448. {
  449.   return (((*a)->diskpos < (*b)->diskpos) ? -1 :
  450.   ((*a)->diskpos > (*b)->diskpos) ? 1 : 0);
  451. }
  452. static int flush_cached_blocks(File file, SEC_LINK **cache, uint count)
  453. {
  454.   uint last_errno=0;
  455.   qsort((byte*) cache, count, sizeof(*cache), (qsort_cmp) cmp_sec_link);
  456.   for ( ; count-- ; cache++)
  457.   {
  458.     if (my_pwrite(file,(*cache)->buffer,KEYCACHE_BLOCK_SIZE,(*cache)->diskpos,
  459.   MYF(MY_NABP | MY_WAIT_IF_FULL)))
  460.     {
  461.       if (!last_errno)
  462. last_errno=errno ? errno : -1;
  463.     }
  464.   }
  465.   return last_errno;
  466. }
  467. int flush_key_blocks(File file, enum flush_type type)
  468. {
  469.   int error=0,last_errno=0;
  470.   uint count=0;
  471.   SEC_LINK *cache_buff[FLUSH_CACHE],**cache,**pos,**end;
  472.   SEC_LINK *used,*next;
  473.   DBUG_ENTER("flush_key_blocks");
  474.   DBUG_PRINT("enter",("file: %d  blocks_used: %d  blocks_changed: %d",
  475.       file,_my_blocks_used,_my_blocks_changed));
  476.   pthread_mutex_lock(&THR_LOCK_keycache);
  477. #if !defined(DBUG_OFF) && defined(EXTRA_DEBUG)
  478.   DBUG_EXECUTE("exec",test_key_cache("start of flush_key_blocks",0););
  479. #endif
  480.   cache=cache_buff; /* If no key cache */
  481.   if (_my_disk_blocks > 0 &&
  482.       (!my_disable_flush_key_blocks || type != FLUSH_KEEP))
  483.   {
  484.     if (type != FLUSH_IGNORE_CHANGED)
  485.     {
  486.       /* Count how many key blocks we have to cache to be able to
  487.  write everything with so few seeks as possible */
  488.       for (used=changed_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  489.    used ;
  490.    used=used->next_changed)
  491.       {
  492. if (used->file == file)
  493.   count++;
  494.       }
  495.       /* Only allocate a new buffer if its bigger than the one we have */
  496.       if (count <= FLUSH_CACHE ||
  497.   !(cache=(SEC_LINK**) my_malloc(sizeof(SEC_LINK*)*count,MYF(0))))
  498.       {
  499. cache=cache_buff; /* Fall back to safe buffer */
  500. count=FLUSH_CACHE;
  501.       }
  502.       end=cache+count;
  503.     }
  504.     /* Go through the keys and write them to buffer to be flushed */
  505.     end=(pos=cache)+count;
  506.     for (used=changed_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  507.  used ;
  508.  used=next)
  509.     {
  510.       next=used->next_changed;
  511.       if (used->file == file)
  512.       {
  513. if (type != FLUSH_IGNORE_CHANGED)
  514. {
  515.   if (pos == end)
  516.   {
  517.     if ((error=flush_cached_blocks(file, cache, count)))
  518.       last_errno=error;
  519.     pos=cache;
  520.   }
  521.   *pos++=used;
  522.   _my_cache_write++;
  523. }
  524. if (type != FLUSH_KEEP && type != FLUSH_FORCE_WRITE)
  525. {
  526.   /* This will not destroy position or data */
  527.   _my_blocks_changed--;
  528.   free_block(used);
  529. }
  530. else
  531.   link_changed_to_file(used,file);
  532.       }
  533.     }
  534.     if (pos != cache)
  535.     {
  536.       if ((error=flush_cached_blocks(file, cache, (uint) (pos-cache))))
  537. last_errno=error;
  538.     }
  539.     /* The following happens very seldom */
  540.     if (type != FLUSH_KEEP && type != FLUSH_FORCE_WRITE)
  541.     {
  542.       for (used=file_blocks[(uint) file & CHANGED_BLOCKS_MASK];
  543.    used ;
  544.    used=next)
  545.       {
  546. next=used->next_changed;
  547. if (used->file == file && (!used->changed ||
  548.    type == FLUSH_IGNORE_CHANGED))
  549.   free_block(used);
  550.       }
  551.     }
  552.   }
  553. #ifndef DBUG_OFF
  554.   DBUG_EXECUTE("exec",test_key_cache("end of flush_key_blocks",0););
  555. #endif
  556.   pthread_mutex_unlock(&THR_LOCK_keycache);
  557.   if (cache != cache_buff)
  558.     my_free((gptr) cache,MYF(0));
  559.   if (last_errno)
  560.     errno=last_errno; /* Return first error */
  561.   DBUG_RETURN(last_errno != 0);
  562. } /* flush_key_blocks */
  563. #ifndef DBUG_OFF
  564. /* Test if disk-cachee is ok */
  565. static void test_key_cache(char *where, my_bool lock)
  566. {
  567.   reg1 uint i,found,error,changed;
  568.   SEC_LINK *pos,**prev;
  569.   if (lock)
  570.     pthread_mutex_lock(&THR_LOCK_keycache);
  571.   found=error=0;
  572.   for (i= 0 ; i < _my_hash_blocks ; i++)
  573.   {
  574.     for (pos= *(prev= &_my_hash_root[i]) ;
  575.  pos && found < _my_blocks_used+2 ;
  576.  found++, pos= *(prev= &pos->next_hash))
  577.     {
  578.       if (prev != pos->prev_hash)
  579.       {
  580. error=1;
  581. DBUG_PRINT("error",
  582.    ("hash: %d  pos: %lx  : prev: %lx  !=  pos->prev: %lx",
  583.     i,pos,prev,pos->prev_hash));
  584.       }
  585.       if (((pos->diskpos/KEYCACHE_BLOCK_SIZE)+pos->file) % _my_hash_blocks != i)
  586.       {
  587. DBUG_PRINT("error",("hash: %d  pos: %lx  : Wrong disk_buffer %ld",
  588.     i,pos,pos->diskpos));
  589. error=1;
  590.       }
  591.     }
  592.   }
  593.   if (found > _my_blocks_used)
  594.   {
  595.     DBUG_PRINT("error",("Found too many hash_pointers"));
  596.     error=1;
  597.   }
  598.   if (error && !_my_printed)
  599.   { /* Write all hash-pointers */
  600.     _my_printed=1;
  601.     for (i=0 ; i < _my_hash_blocks ; i++)
  602.     {
  603.       DBUG_PRINT("loop",("hash: %d  _my_hash_root: %lx",i,&_my_hash_root[i]));
  604.       pos= _my_hash_root[i]; found=0;
  605.       while (pos && found < 10)
  606.       {
  607. DBUG_PRINT("loop",("pos: %lx  prev: %lx  next: %lx  file: %d  disk_buffer: %ld", pos,pos->prev_hash,pos->next_hash,pos->file,pos->diskpos));
  608. found++; pos= pos->next_hash;
  609.       }
  610.     }
  611.   }
  612.   found=changed=0;
  613.   if ((pos=_my_used_first))
  614.   {
  615.     while (pos != _my_used_last && found < _my_blocks_used+2)
  616.     {
  617.       found++;
  618.       if (pos->changed)
  619. changed++;
  620.       if (pos->next_used->prev_used != pos)
  621.       {
  622. DBUG_PRINT("error",("pos: %lx  next_used: %lx  next_used->prev: %lx",
  623.     pos,pos->next_used,pos->next_used->prev_hash));
  624. error=1;
  625.       }
  626.       pos=pos->next_used;
  627.     }
  628.     found++;
  629.     if (pos->changed)
  630.       changed++;
  631.   }
  632.   if (found != _my_blocks_used)
  633.   {
  634.     DBUG_PRINT("error",("Found %d of %d keyblocks",found,_my_blocks_used));
  635.     error=1;
  636.   }
  637.   for (i= 0 ; i < CHANGED_BLOCKS_HASH ; i++)
  638.   {
  639.     found=0;
  640.     prev= &changed_blocks[i];
  641.     for (pos= *prev ;  pos && found < _my_blocks_used+2; pos=pos->next_changed)
  642.     {
  643.       found++;
  644.       if (pos->prev_changed != prev)
  645.       {
  646. DBUG_PRINT("error",("changed_block list %d doesn't point backwards properly",i));
  647. error=1;
  648.       }
  649.       prev= &pos->next_changed;
  650.       if (((uint) pos->file & CHANGED_BLOCKS_MASK) != i)
  651.       {
  652. DBUG_PRINT("error",("Wrong file %d in changed blocks: %d",pos->file,i));
  653. error=1;
  654.       }
  655.       changed--;
  656.     }
  657.     if (pos)
  658.     {
  659.       DBUG_PRINT("error",("changed_blocks %d has recursive link",i));
  660.       error=1;
  661.     }
  662.     found=0;
  663.     prev= &file_blocks[i];
  664.     for (pos= *prev ;  pos && found < _my_blocks_used+2; pos=pos->next_changed)
  665.     {
  666.       found++;
  667.       if (pos->prev_changed != prev)
  668.       {
  669. DBUG_PRINT("error",("file_block list %d doesn't point backwards properly",i));
  670. error=1;
  671.       }
  672.       prev= &pos->next_changed;
  673.       if (((uint) pos->file & CHANGED_BLOCKS_MASK) != i)
  674.       {
  675. DBUG_PRINT("error",("Wrong file %d in file_blocks: %d",pos->file,i));
  676. error=1;
  677.       }
  678.     }
  679.     if (pos)
  680.     {
  681.       DBUG_PRINT("error",("File_blocks %d has recursive link",i));
  682.       error=1;
  683.     }
  684.   }
  685.   if (changed != 0)
  686.   {
  687.     DBUG_PRINT("error",("Found %d blocks that wasn't in changed blocks",
  688. changed));
  689.     error=1;
  690.   }
  691.   if (error)
  692.     DBUG_PRINT("error",("Found error at %s",where));
  693.   if (lock)
  694.     pthread_mutex_unlock(&THR_LOCK_keycache);
  695.   return;
  696. } /* test_key_cache */
  697. #endif