md_k.h
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:10k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.    md_k.h : kernel internal structure of the Linux MD driver
  3.           Copyright (C) 1996-98 Ingo Molnar, Gadi Oxman
  4.   
  5.    This program is free software; you can redistribute it and/or modify
  6.    it under the terms of the GNU General Public License as published by
  7.    the Free Software Foundation; either version 2, or (at your option)
  8.    any later version.
  9.    
  10.    You should have received a copy of the GNU General Public License
  11.    (for example /usr/src/linux/COPYING); if not, write to the Free
  12.    Software Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.  
  13. */
  14. #ifndef _MD_K_H
  15. #define _MD_K_H
  16. #define MD_RESERVED       0UL
  17. #define LINEAR            1UL
  18. #define RAID0             2UL
  19. #define RAID1             3UL
  20. #define RAID5             4UL
  21. #define TRANSLUCENT       5UL
  22. #define HSM               6UL
  23. #define MULTIPATH         7UL
  24. #define MAX_PERSONALITY   8UL
  25. static inline int pers_to_level (int pers)
  26. {
  27. switch (pers) {
  28. case MULTIPATH: return -4;
  29. case HSM: return -3;
  30. case TRANSLUCENT: return -2;
  31. case LINEAR: return -1;
  32. case RAID0: return 0;
  33. case RAID1: return 1;
  34. case RAID5: return 5;
  35. }
  36. BUG();
  37. return MD_RESERVED;
  38. }
  39. static inline int level_to_pers (int level)
  40. {
  41. switch (level) {
  42. case -4: return MULTIPATH;
  43. case -3: return HSM;
  44. case -2: return TRANSLUCENT;
  45. case -1: return LINEAR;
  46. case 0: return RAID0;
  47. case 1: return RAID1;
  48. case 4:
  49. case 5: return RAID5;
  50. }
  51. return MD_RESERVED;
  52. }
  53. typedef struct mddev_s mddev_t;
  54. typedef struct mdk_rdev_s mdk_rdev_t;
  55. #if (MINORBITS != 8)
  56. #error MD does not handle bigger kdev yet
  57. #endif
  58. #define MAX_MD_DEVS  (1<<MINORBITS) /* Max number of md dev */
  59. /*
  60.  * Maps a kdev to an mddev/subdev. How 'data' is handled is up to
  61.  * the personality. (eg. HSM uses this to identify individual LVs)
  62.  */
  63. typedef struct dev_mapping_s {
  64. mddev_t *mddev;
  65. void *data;
  66. } dev_mapping_t;
  67. extern dev_mapping_t mddev_map [MAX_MD_DEVS];
  68. static inline mddev_t * kdev_to_mddev (kdev_t dev)
  69. {
  70. if (MAJOR(dev) != MD_MAJOR)
  71. BUG();
  72.         return mddev_map[MINOR(dev)].mddev;
  73. }
  74. /*
  75.  * options passed in raidrun:
  76.  */
  77. #define MAX_CHUNK_SIZE (4096*1024)
  78. /*
  79.  * default readahead
  80.  */
  81. #define MD_READAHEAD vm_max_readahead
  82. static inline int disk_faulty(mdp_disk_t * d)
  83. {
  84. return d->state & (1 << MD_DISK_FAULTY);
  85. }
  86. static inline int disk_active(mdp_disk_t * d)
  87. {
  88. return d->state & (1 << MD_DISK_ACTIVE);
  89. }
  90. static inline int disk_sync(mdp_disk_t * d)
  91. {
  92. return d->state & (1 << MD_DISK_SYNC);
  93. }
  94. static inline int disk_spare(mdp_disk_t * d)
  95. {
  96. return !disk_sync(d) && !disk_active(d) && !disk_faulty(d);
  97. }
  98. static inline int disk_removed(mdp_disk_t * d)
  99. {
  100. return d->state & (1 << MD_DISK_REMOVED);
  101. }
  102. static inline void mark_disk_faulty(mdp_disk_t * d)
  103. {
  104. d->state |= (1 << MD_DISK_FAULTY);
  105. }
  106. static inline void mark_disk_active(mdp_disk_t * d)
  107. {
  108. d->state |= (1 << MD_DISK_ACTIVE);
  109. }
  110. static inline void mark_disk_sync(mdp_disk_t * d)
  111. {
  112. d->state |= (1 << MD_DISK_SYNC);
  113. }
  114. static inline void mark_disk_spare(mdp_disk_t * d)
  115. {
  116. d->state = 0;
  117. }
  118. static inline void mark_disk_removed(mdp_disk_t * d)
  119. {
  120. d->state = (1 << MD_DISK_FAULTY) | (1 << MD_DISK_REMOVED);
  121. }
  122. static inline void mark_disk_inactive(mdp_disk_t * d)
  123. {
  124. d->state &= ~(1 << MD_DISK_ACTIVE);
  125. }
  126. static inline void mark_disk_nonsync(mdp_disk_t * d)
  127. {
  128. d->state &= ~(1 << MD_DISK_SYNC);
  129. }
  130. /*
  131.  * MD's 'extended' device
  132.  */
  133. struct mdk_rdev_s
  134. {
  135. struct md_list_head same_set; /* RAID devices within the same set */
  136. struct md_list_head all; /* all RAID devices */
  137. struct md_list_head pending; /* undetected RAID devices */
  138. kdev_t dev; /* Device number */
  139. kdev_t old_dev; /*  "" when it was last imported */
  140. unsigned long size; /* Device size (in blocks) */
  141. mddev_t *mddev; /* RAID array if running */
  142. unsigned long last_events; /* IO event timestamp */
  143. struct block_device *bdev; /* block device handle */
  144. mdp_super_t *sb;
  145. unsigned long sb_offset;
  146. int alias_device; /* device alias to the same disk */
  147. int faulty; /* if faulty do not issue IO requests */
  148. int desc_nr; /* descriptor index in the superblock */
  149. };
  150. /*
  151.  * disk operations in a working array:
  152.  */
  153. #define DISKOP_SPARE_INACTIVE 0
  154. #define DISKOP_SPARE_WRITE 1
  155. #define DISKOP_SPARE_ACTIVE 2
  156. #define DISKOP_HOT_REMOVE_DISK 3
  157. #define DISKOP_HOT_ADD_DISK 4
  158. typedef struct mdk_personality_s mdk_personality_t;
  159. struct mddev_s
  160. {
  161. void *private;
  162. mdk_personality_t *pers;
  163. int __minor;
  164. mdp_super_t *sb;
  165. int nb_dev;
  166. struct md_list_head  disks;
  167. int sb_dirty;
  168. mdu_param_t param;
  169. int ro;
  170. unsigned long curr_resync; /* blocks scheduled */
  171. unsigned long resync_mark; /* a recent timestamp */
  172. unsigned long resync_mark_cnt;/* blocks written at resync_mark */
  173. char *name;
  174. int recovery_running;
  175. struct semaphore reconfig_sem;
  176. struct semaphore recovery_sem;
  177. struct semaphore resync_sem;
  178. atomic_t active;
  179. atomic_t recovery_active; /* blocks scheduled, but not written */
  180. md_wait_queue_head_t recovery_wait;
  181. struct md_list_head all_mddevs;
  182. };
  183. struct mdk_personality_s
  184. {
  185. char *name;
  186. int (*make_request)(mddev_t *mddev, int rw, struct buffer_head * bh);
  187. int (*run)(mddev_t *mddev);
  188. int (*stop)(mddev_t *mddev);
  189. int (*status)(char *page, mddev_t *mddev);
  190. int (*error_handler)(mddev_t *mddev, kdev_t dev);
  191. /*
  192.  * Some personalities (RAID-1, RAID-5) can have disks hot-added and
  193.  * hot-removed. Hot removal is different from failure. (failure marks
  194.  * a disk inactive, but the disk is still part of the array) The interface
  195.  * to such operations is the 'pers->diskop()' function, can be NULL.
  196.  *
  197.  * the diskop function can change the pointer pointing to the incoming
  198.  * descriptor, but must do so very carefully. (currently only
  199.  * SPARE_ACTIVE expects such a change)
  200.  */
  201. int (*diskop) (mddev_t *mddev, mdp_disk_t **descriptor, int state);
  202. int (*stop_resync)(mddev_t *mddev);
  203. int (*restart_resync)(mddev_t *mddev);
  204. int (*sync_request)(mddev_t *mddev, unsigned long block_nr);
  205. };
  206. /*
  207.  * Currently we index md_array directly, based on the minor
  208.  * number. This will have to change to dynamic allocation
  209.  * once we start supporting partitioning of md devices.
  210.  */
  211. static inline int mdidx (mddev_t * mddev)
  212. {
  213. return mddev->__minor;
  214. }
  215. static inline kdev_t mddev_to_kdev(mddev_t * mddev)
  216. {
  217. return MKDEV(MD_MAJOR, mdidx(mddev));
  218. }
  219. extern mdk_rdev_t * find_rdev(mddev_t * mddev, kdev_t dev);
  220. extern mdk_rdev_t * find_rdev_nr(mddev_t *mddev, int nr);
  221. extern mdp_disk_t *get_spare(mddev_t *mddev);
  222. /*
  223.  * iterates through some rdev ringlist. It's safe to remove the
  224.  * current 'rdev'. Dont touch 'tmp' though.
  225.  */
  226. #define ITERATE_RDEV_GENERIC(head,field,rdev,tmp)
  227. for (tmp = head.next;
  228. rdev = md_list_entry(tmp, mdk_rdev_t, field),
  229. tmp = tmp->next, tmp->prev != &head
  230. ; )
  231. /*
  232.  * iterates through the 'same array disks' ringlist
  233.  */
  234. #define ITERATE_RDEV(mddev,rdev,tmp)
  235. ITERATE_RDEV_GENERIC((mddev)->disks,same_set,rdev,tmp)
  236. /*
  237.  * Same as above, but assumes that the device has rdev->desc_nr numbered
  238.  * from 0 to mddev->nb_dev, and iterates through rdevs in ascending order.
  239.  */
  240. #define ITERATE_RDEV_ORDERED(mddev,rdev,i)
  241. for (i = 0; rdev = find_rdev_nr(mddev, i), i < mddev->nb_dev; i++)
  242. /*
  243.  * Iterates through all 'RAID managed disks'
  244.  */
  245. #define ITERATE_RDEV_ALL(rdev,tmp)
  246. ITERATE_RDEV_GENERIC(all_raid_disks,all,rdev,tmp)
  247. /*
  248.  * Iterates through 'pending RAID disks'
  249.  */
  250. #define ITERATE_RDEV_PENDING(rdev,tmp)
  251. ITERATE_RDEV_GENERIC(pending_raid_disks,pending,rdev,tmp)
  252. /*
  253.  * iterates through all used mddevs in the system.
  254.  */
  255. #define ITERATE_MDDEV(mddev,tmp)
  256. for (tmp = all_mddevs.next;
  257. mddev = md_list_entry(tmp, mddev_t, all_mddevs),
  258. tmp = tmp->next, tmp->prev != &all_mddevs
  259. ; )
  260. static inline int lock_mddev (mddev_t * mddev)
  261. {
  262. return down_interruptible(&mddev->reconfig_sem);
  263. }
  264. static inline void unlock_mddev (mddev_t * mddev)
  265. {
  266. up(&mddev->reconfig_sem);
  267. }
  268. #define xchg_values(x,y) do { __typeof__(x) __tmp = x; 
  269. x = y; y = __tmp; } while (0)
  270. typedef struct mdk_thread_s {
  271. void (*run) (void *data);
  272. void *data;
  273. md_wait_queue_head_t wqueue;
  274. unsigned long           flags;
  275. struct completion *event;
  276. struct task_struct *tsk;
  277. const char *name;
  278. } mdk_thread_t;
  279. #define THREAD_WAKEUP  0
  280. #define MAX_DISKNAME_LEN 64
  281. typedef struct dev_name_s {
  282. struct md_list_head list;
  283. kdev_t dev;
  284. char namebuf [MAX_DISKNAME_LEN];
  285. char *name;
  286. } dev_name_t;
  287. #define __wait_event_lock_irq(wq, condition, lock) 
  288. do {
  289. wait_queue_t __wait;
  290. init_waitqueue_entry(&__wait, current);
  291. add_wait_queue(&wq, &__wait);
  292. for (;;) {
  293. set_current_state(TASK_UNINTERRUPTIBLE);
  294. if (condition)
  295. break;
  296. spin_unlock_irq(&lock);
  297. run_task_queue(&tq_disk);
  298. schedule();
  299. spin_lock_irq(&lock);
  300. }
  301. current->state = TASK_RUNNING;
  302. remove_wait_queue(&wq, &__wait);
  303. } while (0)
  304. #define wait_event_lock_irq(wq, condition, lock) 
  305. do {
  306. if (condition)  
  307. break;
  308. __wait_event_lock_irq(wq, condition, lock);
  309. } while (0)
  310. #define __wait_disk_event(wq, condition) 
  311. do {
  312. wait_queue_t __wait;
  313. init_waitqueue_entry(&__wait, current);
  314. add_wait_queue(&wq, &__wait);
  315. for (;;) {
  316. set_current_state(TASK_UNINTERRUPTIBLE);
  317. if (condition)
  318. break;
  319. run_task_queue(&tq_disk);
  320. schedule();
  321. }
  322. current->state = TASK_RUNNING;
  323. remove_wait_queue(&wq, &__wait);
  324. } while (0)
  325. #define wait_disk_event(wq, condition) 
  326. do {
  327. if (condition)  
  328. break;
  329. __wait_disk_event(wq, condition);
  330. } while (0)
  331. #endif