ftl.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:40k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* This version ported to the Linux-MTD system by dwmw2@infradead.org
  2.  * $Id: ftl.c,v 1.43 2002/02/13 15:31:37 dwmw2 Exp $
  3.  *
  4.  * Fixes: Arnaldo Carvalho de Melo <acme@conectiva.com.br>
  5.  * - fixes some leaks on failure in build_maps and ftl_notify_add, cleanups
  6.  *
  7.  * Based on:
  8.  */
  9. /*======================================================================
  10.     A Flash Translation Layer memory card driver
  11.     This driver implements a disk-like block device driver with an
  12.     apparent block size of 512 bytes for flash memory cards.
  13.     ftl_cs.c 1.62 2000/02/01 00:59:04
  14.     The contents of this file are subject to the Mozilla Public
  15.     License Version 1.1 (the "License"); you may not use this file
  16.     except in compliance with the License. You may obtain a copy of
  17.     the License at http://www.mozilla.org/MPL/
  18.     Software distributed under the License is distributed on an "AS
  19.     IS" basis, WITHOUT WARRANTY OF ANY KIND, either express or
  20.     implied. See the License for the specific language governing
  21.     rights and limitations under the License.
  22.     The initial developer of the original code is David A. Hinds
  23.     <dhinds@pcmcia.sourceforge.org>.  Portions created by David A. Hinds
  24.     are Copyright (C) 1999 David A. Hinds.  All Rights Reserved.
  25.     Alternatively, the contents of this file may be used under the
  26.     terms of the GNU General Public License version 2 (the "GPL"), in
  27.     which case the provisions of the GPL are applicable instead of the
  28.     above.  If you wish to allow the use of your version of this file
  29.     only under the terms of the GPL and not to allow others to use
  30.     your version of this file under the MPL, indicate your decision
  31.     by deleting the provisions above and replace them with the notice
  32.     and other provisions required by the GPL.  If you do not delete
  33.     the provisions above, a recipient may use your version of this
  34.     file under either the MPL or the GPL.
  35.     LEGAL NOTE: The FTL format is patented by M-Systems.  They have
  36.     granted a license for its use with PCMCIA devices:
  37.      "M-Systems grants a royalty-free, non-exclusive license under
  38.       any presently existing M-Systems intellectual property rights
  39.       necessary for the design and development of FTL-compatible
  40.       drivers, file systems and utilities using the data formats with
  41.       PCMCIA PC Cards as described in the PCMCIA Flash Translation
  42.       Layer (FTL) Specification."
  43.     Use of the FTL format for non-PCMCIA applications may be an
  44.     infringement of these patents.  For additional information,
  45.     contact M-Systems (http://www.m-sys.com) directly.
  46.       
  47. ======================================================================*/
  48. #include <linux/module.h>
  49. #include <linux/mtd/compatmac.h>
  50. #include <linux/mtd/mtd.h>
  51. /*#define PSYCHO_DEBUG */
  52. #include <linux/kernel.h>
  53. #include <linux/sched.h>
  54. #include <linux/ptrace.h>
  55. #include <linux/slab.h>
  56. #include <linux/string.h>
  57. #include <linux/timer.h>
  58. #include <linux/major.h>
  59. #include <linux/fs.h>
  60. #include <linux/ioctl.h>
  61. #include <linux/hdreg.h>
  62. #include <stdarg.h>
  63. #if (LINUX_VERSION_CODE >= 0x20100)
  64. #include <linux/vmalloc.h>
  65. #endif
  66. #if (LINUX_VERSION_CODE >= 0x20303)
  67. #include <linux/blkpg.h>
  68. #endif
  69. #include <linux/mtd/ftl.h>
  70. /*====================================================================*/
  71. /* Stuff which really ought to be in compatmac.h */
  72. #if (LINUX_VERSION_CODE < 0x20328)
  73. #define register_disk(dev, drive, minors, ops, size) 
  74.     do { (dev)->part[(drive)*(minors)].nr_sects = size; 
  75.         if (size == 0) (dev)->part[(drive)*(minors)].start_sect = -1; 
  76.         resetup_one_dev(dev, drive); } while (0)
  77. #endif
  78. #if (LINUX_VERSION_CODE < 0x20320)
  79. #define BLK_DEFAULT_QUEUE(n)    blk_dev[n].request_fn
  80. #define blk_init_queue(q, req)  q = (req)
  81. #define blk_cleanup_queue(q)    q = NULL
  82. #define request_arg_t           void
  83. #else
  84. #define request_arg_t           request_queue_t *q
  85. #endif
  86. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,4,14)
  87. #define BLK_INC_USE_COUNT MOD_INC_USE_COUNT
  88. #define BLK_DEC_USE_COUNT MOD_DEC_USE_COUNT
  89. #else
  90. #define BLK_INC_USE_COUNT do {} while(0)
  91. #define BLK_DEC_USE_COUNT do {} while(0)
  92. #endif
  93. /*====================================================================*/
  94. /* Parameters that can be set with 'insmod' */
  95. static int shuffle_freq = 50;
  96. MODULE_PARM(shuffle_freq, "i");
  97. /*====================================================================*/
  98. /* Major device # for FTL device */
  99. #ifndef FTL_MAJOR
  100. #define FTL_MAJOR 44
  101. #endif
  102. /* Funky stuff for setting up a block device */
  103. #define MAJOR_NR FTL_MAJOR
  104. #define DEVICE_NAME "ftl"
  105. #define DEVICE_REQUEST do_ftl_request
  106. #define DEVICE_ON(device)
  107. #define DEVICE_OFF(device)
  108. #define DEVICE_NR(minor) ((minor)>>5)
  109. #define REGION_NR(minor) (((minor)>>3)&3)
  110. #define PART_NR(minor) ((minor)&7)
  111. #define MINOR_NR(dev,reg,part) (((dev)<<5)+((reg)<<3)+(part))
  112. #include <linux/blk.h>
  113. /*====================================================================*/
  114. /* Maximum number of separate memory devices we'll allow */
  115. #define MAX_DEV 4
  116. /* Maximum number of regions per device */
  117. #define MAX_REGION 4
  118. /* Maximum number of partitions in an FTL region */
  119. #define PART_BITS 3
  120. #define MAX_PART 8
  121. /* Maximum number of outstanding erase requests per socket */
  122. #define MAX_ERASE 8
  123. /* Sector size -- shouldn't need to change */
  124. #define SECTOR_SIZE 512
  125. /* Each memory region corresponds to a minor device */
  126. typedef struct partition_t {
  127.     struct mtd_info *mtd;
  128.     u_int32_t state;
  129.     u_int32_t *VirtualBlockMap;
  130.     u_int32_t *VirtualPageMap;
  131.     u_int32_t FreeTotal;
  132.     struct eun_info_t {
  133. u_int32_t Offset;
  134. u_int32_t EraseCount;
  135. u_int32_t Free;
  136. u_int32_t Deleted;
  137.     } *EUNInfo;
  138.     struct xfer_info_t {
  139. u_int32_t Offset;
  140. u_int32_t EraseCount;
  141. u_int16_t state;
  142.     } *XferInfo;
  143.     u_int16_t bam_index;
  144.     u_int32_t *bam_cache;
  145.     u_int16_t DataUnits;
  146.     u_int32_t BlocksPerUnit;
  147.     erase_unit_header_t header;
  148. #if 0
  149.     region_info_t region;
  150.     memory_handle_t handle;
  151. #endif
  152.     atomic_t open;
  153. } partition_t;
  154. partition_t *myparts[MAX_MTD_DEVICES];
  155. static void ftl_notify_add(struct mtd_info *mtd);
  156. static void ftl_notify_remove(struct mtd_info *mtd);
  157. void ftl_freepart(partition_t *part);
  158. static struct mtd_notifier ftl_notifier = {
  159. add: ftl_notify_add,
  160. remove: ftl_notify_remove,
  161. };
  162. /* Partition state flags */
  163. #define FTL_FORMATTED 0x01
  164. /* Transfer unit states */
  165. #define XFER_UNKNOWN 0x00
  166. #define XFER_ERASING 0x01
  167. #define XFER_ERASED 0x02
  168. #define XFER_PREPARED 0x03
  169. #define XFER_FAILED 0x04
  170. static struct hd_struct ftl_hd[MINOR_NR(MAX_DEV, 0, 0)];
  171. static int ftl_sizes[MINOR_NR(MAX_DEV, 0, 0)];
  172. static int ftl_blocksizes[MINOR_NR(MAX_DEV, 0, 0)];
  173. static struct gendisk ftl_gendisk = {
  174.     major: FTL_MAJOR,
  175.     major_name: "ftl",
  176.     minor_shift: PART_BITS,
  177.     max_p: MAX_PART,
  178. #if (LINUX_VERSION_CODE < 0x20328)
  179.     max_nr: MAX_DEV*MAX_PART,
  180. #endif
  181.     part: ftl_hd,
  182.     sizes: ftl_sizes,
  183. };
  184. /*====================================================================*/
  185. static int ftl_ioctl(struct inode *inode, struct file *file,
  186.      u_int cmd, u_long arg);
  187. static int ftl_open(struct inode *inode, struct file *file);
  188. static release_t ftl_close(struct inode *inode, struct file *file);
  189. static int ftl_reread_partitions(int minor);
  190. static void ftl_erase_callback(struct erase_info *done);
  191. #if LINUX_VERSION_CODE < 0x20326
  192. static struct file_operations ftl_blk_fops = {
  193.     open: ftl_open,
  194.     release: ftl_close,
  195.     ioctl: ftl_ioctl,
  196.     read: block_read,
  197.     write: block_write,
  198.     fsync: block_fsync
  199. };
  200. #else
  201. static struct block_device_operations ftl_blk_fops = {
  202. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,14)
  203.     owner: THIS_MODULE,
  204. #endif
  205.     open: ftl_open,
  206.     release: ftl_close,
  207.     ioctl: ftl_ioctl,
  208. };
  209. #endif
  210. /*======================================================================
  211.     Scan_header() checks to see if a memory region contains an FTL
  212.     partition.  build_maps() reads all the erase unit headers, builds
  213.     the erase unit map, and then builds the virtual page map.
  214.     
  215. ======================================================================*/
  216. static int scan_header(partition_t *part)
  217. {
  218.     erase_unit_header_t header;
  219.     loff_t offset, max_offset;
  220.     int ret;
  221.     part->header.FormattedSize = 0;
  222.     max_offset = (0x100000<part->mtd->size)?0x100000:part->mtd->size;
  223.     /* Search first megabyte for a valid FTL header */
  224.     for (offset = 0;
  225.  (offset + sizeof(header)) < max_offset;
  226.  offset += part->mtd->erasesize ? : 0x2000) {
  227. ret = part->mtd->read(part->mtd, offset, sizeof(header), &ret, 
  228.       (unsigned char *)&header);
  229. if (ret) 
  230.     return ret;
  231. if (strcmp(header.DataOrgTuple+3, "FTL100") == 0) break;
  232.     }
  233.     if (offset == max_offset) {
  234. printk(KERN_NOTICE "ftl_cs: FTL header not found.n");
  235. return -ENOENT;
  236.     }
  237.     if ((le16_to_cpu(header.NumEraseUnits) > 65536) || header.BlockSize != 9 ||
  238. (header.EraseUnitSize < 10) || (header.EraseUnitSize > 31) ||
  239. (header.NumTransferUnits >= le16_to_cpu(header.NumEraseUnits))) {
  240. printk(KERN_NOTICE "ftl_cs: FTL header corrupt!n");
  241. return -1;
  242.     }
  243.     if ((1 << header.EraseUnitSize) != part->mtd->erasesize) {
  244. printk(KERN_NOTICE "ftl: FTL EraseUnitSize %x != MTD erasesize %xn",
  245.        1 << header.EraseUnitSize,part->mtd->erasesize);
  246. return -1;
  247.     }
  248.     part->header = header;
  249.     return 0;
  250. }
  251. static int build_maps(partition_t *part)
  252. {
  253.     erase_unit_header_t header;
  254.     u_int16_t xvalid, xtrans, i;
  255.     u_int blocks, j;
  256.     int hdr_ok, ret = -1;
  257.     ssize_t retval;
  258.     loff_t offset;
  259.     /* Set up erase unit maps */
  260.     part->DataUnits = le16_to_cpu(part->header.NumEraseUnits) -
  261. part->header.NumTransferUnits;
  262.     part->EUNInfo = kmalloc(part->DataUnits * sizeof(struct eun_info_t),
  263.     GFP_KERNEL);
  264.     if (!part->EUNInfo)
  265.     goto out;
  266.     for (i = 0; i < part->DataUnits; i++)
  267. part->EUNInfo[i].Offset = 0xffffffff;
  268.     part->XferInfo =
  269. kmalloc(part->header.NumTransferUnits * sizeof(struct xfer_info_t),
  270. GFP_KERNEL);
  271.     if (!part->XferInfo)
  272.     goto out_EUNInfo;
  273.     xvalid = xtrans = 0;
  274.     for (i = 0; i < le16_to_cpu(part->header.NumEraseUnits); i++) {
  275. offset = ((i + le16_to_cpu(part->header.FirstPhysicalEUN))
  276.       << part->header.EraseUnitSize);
  277. ret = part->mtd->read(part->mtd, offset, sizeof(header), &retval, 
  278.       (unsigned char *)&header);
  279. if (ret) 
  280.     goto out_XferInfo;
  281. ret = -1;
  282. /* Is this a transfer partition? */
  283. hdr_ok = (strcmp(header.DataOrgTuple+3, "FTL100") == 0);
  284. if (hdr_ok && (le16_to_cpu(header.LogicalEUN) < part->DataUnits) &&
  285.     (part->EUNInfo[le16_to_cpu(header.LogicalEUN)].Offset == 0xffffffff)) {
  286.     part->EUNInfo[le16_to_cpu(header.LogicalEUN)].Offset = offset;
  287.     part->EUNInfo[le16_to_cpu(header.LogicalEUN)].EraseCount =
  288. le32_to_cpu(header.EraseCount);
  289.     xvalid++;
  290. } else {
  291.     if (xtrans == part->header.NumTransferUnits) {
  292. printk(KERN_NOTICE "ftl_cs: format error: too many "
  293.        "transfer units!n");
  294. goto out_XferInfo;
  295.     }
  296.     if (hdr_ok && (le16_to_cpu(header.LogicalEUN) == 0xffff)) {
  297. part->XferInfo[xtrans].state = XFER_PREPARED;
  298. part->XferInfo[xtrans].EraseCount = le32_to_cpu(header.EraseCount);
  299.     } else {
  300. part->XferInfo[xtrans].state = XFER_UNKNOWN;
  301. /* Pick anything reasonable for the erase count */
  302. part->XferInfo[xtrans].EraseCount =
  303.     le32_to_cpu(part->header.EraseCount);
  304.     }
  305.     part->XferInfo[xtrans].Offset = offset;
  306.     xtrans++;
  307. }
  308.     }
  309.     /* Check for format trouble */
  310.     header = part->header;
  311.     if ((xtrans != header.NumTransferUnits) ||
  312. (xvalid+xtrans != le16_to_cpu(header.NumEraseUnits))) {
  313. printk(KERN_NOTICE "ftl_cs: format error: erase units "
  314.        "don't add up!n");
  315. goto out_XferInfo;
  316.     }
  317.     
  318.     /* Set up virtual page map */
  319.     blocks = le32_to_cpu(header.FormattedSize) >> header.BlockSize;
  320.     part->VirtualBlockMap = vmalloc(blocks * sizeof(u_int32_t));
  321.     if (!part->VirtualBlockMap)
  322.     goto out_XferInfo;
  323.     memset(part->VirtualBlockMap, 0xff, blocks * sizeof(u_int32_t));
  324.     part->BlocksPerUnit = (1 << header.EraseUnitSize) >> header.BlockSize;
  325.     part->bam_cache = kmalloc(part->BlocksPerUnit * sizeof(u_int32_t),
  326.       GFP_KERNEL);
  327.     if (!part->bam_cache)
  328.     goto out_VirtualBlockMap;
  329.     part->bam_index = 0xffff;
  330.     part->FreeTotal = 0;
  331.     for (i = 0; i < part->DataUnits; i++) {
  332. part->EUNInfo[i].Free = 0;
  333. part->EUNInfo[i].Deleted = 0;
  334. offset = part->EUNInfo[i].Offset + le32_to_cpu(header.BAMOffset);
  335. ret = part->mtd->read(part->mtd, offset,  
  336.       part->BlocksPerUnit * sizeof(u_int32_t), &retval, 
  337.       (unsigned char *)part->bam_cache);
  338. if (ret) 
  339. goto out_bam_cache;
  340. for (j = 0; j < part->BlocksPerUnit; j++) {
  341.     if (BLOCK_FREE(le32_to_cpu(part->bam_cache[j]))) {
  342. part->EUNInfo[i].Free++;
  343. part->FreeTotal++;
  344.     } else if ((BLOCK_TYPE(le32_to_cpu(part->bam_cache[j])) == BLOCK_DATA) &&
  345.      (BLOCK_NUMBER(le32_to_cpu(part->bam_cache[j])) < blocks))
  346. part->VirtualBlockMap[BLOCK_NUMBER(le32_to_cpu(part->bam_cache[j]))] =
  347.     (i << header.EraseUnitSize) + (j << header.BlockSize);
  348.     else if (BLOCK_DELETED(le32_to_cpu(part->bam_cache[j])))
  349. part->EUNInfo[i].Deleted++;
  350. }
  351.     }
  352.     
  353.     ret = 0;
  354.     goto out;
  355. out_bam_cache:
  356.     kfree(part->bam_cache);
  357. out_VirtualBlockMap:
  358.     vfree(part->VirtualBlockMap);
  359. out_XferInfo:
  360.     kfree(part->XferInfo);
  361. out_EUNInfo:
  362.     kfree(part->EUNInfo);
  363. out:
  364.     return ret;
  365. } /* build_maps */
  366. /*======================================================================
  367.     Erase_xfer() schedules an asynchronous erase operation for a
  368.     transfer unit.
  369.     
  370. ======================================================================*/
  371. static int erase_xfer(partition_t *part,
  372.       u_int16_t xfernum)
  373. {
  374.     int ret;
  375.     struct xfer_info_t *xfer;
  376.     struct erase_info *erase;
  377.     xfer = &part->XferInfo[xfernum];
  378.     DEBUG(1, "ftl_cs: erasing xfer unit at 0x%xn", xfer->Offset);
  379.     xfer->state = XFER_ERASING;
  380.     /* Is there a free erase slot? Always in MTD. */
  381.     
  382.     
  383.     erase=kmalloc(sizeof(struct erase_info), GFP_KERNEL);
  384.     if (!erase) 
  385.             return -ENOMEM;
  386.     erase->callback = ftl_erase_callback;
  387.     erase->addr = xfer->Offset;
  388.     erase->len = 1 << part->header.EraseUnitSize;
  389.     erase->priv = (u_long)part;
  390.     
  391.     ret = part->mtd->erase(part->mtd, erase);
  392.     if (!ret)
  393.     xfer->EraseCount++;
  394.     else
  395.     kfree(erase);
  396.     return ret;
  397. } /* erase_xfer */
  398. /*======================================================================
  399.     Prepare_xfer() takes a freshly erased transfer unit and gives
  400.     it an appropriate header.
  401.     
  402. ======================================================================*/
  403. static void ftl_erase_callback(struct erase_info *erase)
  404. {
  405.     partition_t *part;
  406.     struct xfer_info_t *xfer;
  407.     int i;
  408.     
  409.     /* Look up the transfer unit */
  410.     part = (partition_t *)(erase->priv);
  411.     for (i = 0; i < part->header.NumTransferUnits; i++)
  412. if (part->XferInfo[i].Offset == erase->addr) break;
  413.     if (i == part->header.NumTransferUnits) {
  414. printk(KERN_NOTICE "ftl_cs: internal error: "
  415.        "erase lookup failed!n");
  416. return;
  417.     }
  418.     xfer = &part->XferInfo[i];
  419.     if (erase->state == MTD_ERASE_DONE)
  420. xfer->state = XFER_ERASED;
  421.     else {
  422. xfer->state = XFER_FAILED;
  423. printk(KERN_NOTICE "ftl_cs: erase failed: state = %dn",
  424.        erase->state);
  425.     }
  426.     kfree(erase);
  427. } /* ftl_erase_callback */
  428. static int prepare_xfer(partition_t *part, int i)
  429. {
  430.     erase_unit_header_t header;
  431.     struct xfer_info_t *xfer;
  432.     int nbam, ret;
  433.     u_int32_t ctl;
  434.     ssize_t retlen;
  435.     loff_t offset;
  436.     xfer = &part->XferInfo[i];
  437.     xfer->state = XFER_FAILED;
  438.     
  439.     DEBUG(1, "ftl_cs: preparing xfer unit at 0x%xn", xfer->Offset);
  440.     /* Write the transfer unit header */
  441.     header = part->header;
  442.     header.LogicalEUN = cpu_to_le16(0xffff);
  443.     header.EraseCount = cpu_to_le32(xfer->EraseCount);
  444.     ret = part->mtd->write(part->mtd, xfer->Offset, sizeof(header),
  445.    &retlen, (u_char *)&header);
  446.     if (ret) {
  447. return ret;
  448.     }
  449.     /* Write the BAM stub */
  450.     nbam = (part->BlocksPerUnit * sizeof(u_int32_t) +
  451.     le32_to_cpu(part->header.BAMOffset) + SECTOR_SIZE - 1) / SECTOR_SIZE;
  452.     offset = xfer->Offset + le32_to_cpu(part->header.BAMOffset);
  453.     ctl = cpu_to_le32(BLOCK_CONTROL);
  454.     for (i = 0; i < nbam; i++, offset += sizeof(u_int32_t)) {
  455. ret = part->mtd->write(part->mtd, offset, sizeof(u_int32_t), 
  456.        &retlen, (u_char *)&ctl);
  457. if (ret)
  458.     return ret;
  459.     }
  460.     xfer->state = XFER_PREPARED;
  461.     return 0;
  462.     
  463. } /* prepare_xfer */
  464. /*======================================================================
  465.     Copy_erase_unit() takes a full erase block and a transfer unit,
  466.     copies everything to the transfer unit, then swaps the block
  467.     pointers.
  468.     All data blocks are copied to the corresponding blocks in the
  469.     target unit, so the virtual block map does not need to be
  470.     updated.
  471.     
  472. ======================================================================*/
  473. static int copy_erase_unit(partition_t *part, u_int16_t srcunit,
  474.    u_int16_t xferunit)
  475. {
  476.     u_char buf[SECTOR_SIZE];
  477.     struct eun_info_t *eun;
  478.     struct xfer_info_t *xfer;
  479.     u_int32_t src, dest, free, i;
  480.     u_int16_t unit;
  481.     int ret;
  482.     ssize_t retlen;
  483.     loff_t offset;
  484.     u_int16_t srcunitswap = cpu_to_le16(srcunit);
  485.     eun = &part->EUNInfo[srcunit];
  486.     xfer = &part->XferInfo[xferunit];
  487.     DEBUG(2, "ftl_cs: copying block 0x%x to 0x%xn",
  488.   eun->Offset, xfer->Offset);
  489.     
  490.     /* Read current BAM */
  491.     if (part->bam_index != srcunit) {
  492. offset = eun->Offset + le32_to_cpu(part->header.BAMOffset);
  493. ret = part->mtd->read(part->mtd, offset, 
  494.       part->BlocksPerUnit * sizeof(u_int32_t),
  495.       &retlen, (u_char *) (part->bam_cache));
  496. /* mark the cache bad, in case we get an error later */
  497. part->bam_index = 0xffff;
  498. if (ret) {
  499.     printk( KERN_WARNING "ftl: Failed to read BAM cache in copy_erase_unit()!n");                
  500.     return ret;
  501. }
  502.     }
  503.     
  504.     /* Write the LogicalEUN for the transfer unit */
  505.     xfer->state = XFER_UNKNOWN;
  506.     offset = xfer->Offset + 20; /* Bad! */
  507.     unit = cpu_to_le16(0x7fff);
  508.     ret = part->mtd->write(part->mtd, offset, sizeof(u_int16_t),
  509.    &retlen, (u_char *) &unit);
  510.     
  511.     if (ret) {
  512. printk( KERN_WARNING "ftl: Failed to write back to BAM cache in copy_erase_unit()!n");
  513. return ret;
  514.     }
  515.     
  516.     /* Copy all data blocks from source unit to transfer unit */
  517.     src = eun->Offset; dest = xfer->Offset;
  518.     free = 0;
  519.     ret = 0;
  520.     for (i = 0; i < part->BlocksPerUnit; i++) {
  521. switch (BLOCK_TYPE(le32_to_cpu(part->bam_cache[i]))) {
  522. case BLOCK_CONTROL:
  523.     /* This gets updated later */
  524.     break;
  525. case BLOCK_DATA:
  526. case BLOCK_REPLACEMENT:
  527.     ret = part->mtd->read(part->mtd, src, SECTOR_SIZE,
  528.                         &retlen, (u_char *) buf);
  529.     if (ret) {
  530. printk(KERN_WARNING "ftl: Error reading old xfer unit in copy_erase_unitn");
  531. return ret;
  532.             }
  533.     ret = part->mtd->write(part->mtd, dest, SECTOR_SIZE,
  534.                         &retlen, (u_char *) buf);
  535.     if (ret)  {
  536. printk(KERN_WARNING "ftl: Error writing new xfer unit in copy_erase_unitn");
  537. return ret;
  538.             }
  539.     break;
  540. default:
  541.     /* All other blocks must be free */
  542.     part->bam_cache[i] = cpu_to_le32(0xffffffff);
  543.     free++;
  544.     break;
  545. }
  546. src += SECTOR_SIZE;
  547. dest += SECTOR_SIZE;
  548.     }
  549.     /* Write the BAM to the transfer unit */
  550.     ret = part->mtd->write(part->mtd, xfer->Offset + le32_to_cpu(part->header.BAMOffset), 
  551.                     part->BlocksPerUnit * sizeof(int32_t), &retlen, 
  552.     (u_char *)part->bam_cache);
  553.     if (ret) {
  554. printk( KERN_WARNING "ftl: Error writing BAM in copy_erase_unitn");
  555. return ret;
  556.     }
  557.     
  558.     /* All clear? Then update the LogicalEUN again */
  559.     ret = part->mtd->write(part->mtd, xfer->Offset + 20, sizeof(u_int16_t),
  560.    &retlen, (u_char *)&srcunitswap);
  561.     if (ret) {
  562. printk(KERN_WARNING "ftl: Error writing new LogicalEUN in copy_erase_unitn");
  563. return ret;
  564.     }    
  565.     
  566.     
  567.     /* Update the maps and usage stats*/
  568.     i = xfer->EraseCount;
  569.     xfer->EraseCount = eun->EraseCount;
  570.     eun->EraseCount = i;
  571.     i = xfer->Offset;
  572.     xfer->Offset = eun->Offset;
  573.     eun->Offset = i;
  574.     part->FreeTotal -= eun->Free;
  575.     part->FreeTotal += free;
  576.     eun->Free = free;
  577.     eun->Deleted = 0;
  578.     
  579.     /* Now, the cache should be valid for the new block */
  580.     part->bam_index = srcunit;
  581.     
  582.     return 0;
  583. } /* copy_erase_unit */
  584. /*======================================================================
  585.     reclaim_block() picks a full erase unit and a transfer unit and
  586.     then calls copy_erase_unit() to copy one to the other.  Then, it
  587.     schedules an erase on the expired block.
  588.     What's a good way to decide which transfer unit and which erase
  589.     unit to use?  Beats me.  My way is to always pick the transfer
  590.     unit with the fewest erases, and usually pick the data unit with
  591.     the most deleted blocks.  But with a small probability, pick the
  592.     oldest data unit instead.  This means that we generally postpone
  593.     the next reclaimation as long as possible, but shuffle static
  594.     stuff around a bit for wear leveling.
  595.     
  596. ======================================================================*/
  597. static int reclaim_block(partition_t *part)
  598. {
  599.     u_int16_t i, eun, xfer;
  600.     u_int32_t best;
  601.     int queued, ret;
  602.     DEBUG(0, "ftl_cs: reclaiming space...n");
  603.     DEBUG(3, "NumTransferUnits == %xn", part->header.NumTransferUnits);
  604.     /* Pick the least erased transfer unit */
  605.     best = 0xffffffff; xfer = 0xffff;
  606.     do {
  607. queued = 0;
  608. for (i = 0; i < part->header.NumTransferUnits; i++) {
  609.     int n=0;
  610.     if (part->XferInfo[i].state == XFER_UNKNOWN) {
  611. DEBUG(3,"XferInfo[%d].state == XFER_UNKNOWNn",i);
  612. n=1;
  613. erase_xfer(part, i);
  614.     }
  615.     if (part->XferInfo[i].state == XFER_ERASING) {
  616. DEBUG(3,"XferInfo[%d].state == XFER_ERASINGn",i);
  617. n=1;
  618. queued = 1;
  619.     }
  620.     else if (part->XferInfo[i].state == XFER_ERASED) {
  621. DEBUG(3,"XferInfo[%d].state == XFER_ERASEDn",i);
  622. n=1;
  623. prepare_xfer(part, i);
  624.     }
  625.     if (part->XferInfo[i].state == XFER_PREPARED) {
  626. DEBUG(3,"XferInfo[%d].state == XFER_PREPAREDn",i);
  627. n=1;
  628. if (part->XferInfo[i].EraseCount <= best) {
  629.     best = part->XferInfo[i].EraseCount;
  630.     xfer = i;
  631. }
  632.     }
  633. if (!n)
  634.     DEBUG(3,"XferInfo[%d].state == %xn",i, part->XferInfo[i].state);
  635. }
  636. if (xfer == 0xffff) {
  637.     if (queued) {
  638. DEBUG(1, "ftl_cs: waiting for transfer "
  639.       "unit to be prepared...n");
  640. if (part->mtd->sync)
  641. part->mtd->sync(part->mtd);
  642.     } else {
  643. static int ne = 0;
  644. if (++ne < 5)
  645.     printk(KERN_NOTICE "ftl_cs: reclaim failed: no "
  646.    "suitable transfer units!n");
  647. else
  648.     DEBUG(1, "ftl_cs: reclaim failed: no "
  649.   "suitable transfer units!n");
  650. return -EIO;
  651.     }
  652. }
  653.     } while (xfer == 0xffff);
  654.     eun = 0;
  655.     if ((jiffies % shuffle_freq) == 0) {
  656. DEBUG(1, "ftl_cs: recycling freshest block...n");
  657. best = 0xffffffff;
  658. for (i = 0; i < part->DataUnits; i++)
  659.     if (part->EUNInfo[i].EraseCount <= best) {
  660. best = part->EUNInfo[i].EraseCount;
  661. eun = i;
  662.     }
  663.     } else {
  664. best = 0;
  665. for (i = 0; i < part->DataUnits; i++)
  666.     if (part->EUNInfo[i].Deleted >= best) {
  667. best = part->EUNInfo[i].Deleted;
  668. eun = i;
  669.     }
  670. if (best == 0) {
  671.     static int ne = 0;
  672.     if (++ne < 5)
  673. printk(KERN_NOTICE "ftl_cs: reclaim failed: "
  674.        "no free blocks!n");
  675.     else
  676. DEBUG(1,"ftl_cs: reclaim failed: "
  677.        "no free blocks!n");
  678.     return -EIO;
  679. }
  680.     }
  681.     ret = copy_erase_unit(part, eun, xfer);
  682.     if (!ret)
  683. erase_xfer(part, xfer);
  684.     else
  685. printk(KERN_NOTICE "ftl_cs: copy_erase_unit failed!n");
  686.     return ret;
  687. } /* reclaim_block */
  688. /*======================================================================
  689.     Find_free() searches for a free block.  If necessary, it updates
  690.     the BAM cache for the erase unit containing the free block.  It
  691.     returns the block index -- the erase unit is just the currently
  692.     cached unit.  If there are no free blocks, it returns 0 -- this
  693.     is never a valid data block because it contains the header.
  694.     
  695. ======================================================================*/
  696. #ifdef PSYCHO_DEBUG
  697. static void dump_lists(partition_t *part)
  698. {
  699.     int i;
  700.     printk(KERN_DEBUG "ftl_cs: Free total = %dn", part->FreeTotal);
  701.     for (i = 0; i < part->DataUnits; i++)
  702. printk(KERN_DEBUG "ftl_cs:   unit %d: %d phys, %d free, "
  703.        "%d deletedn", i,
  704.        part->EUNInfo[i].Offset >> part->header.EraseUnitSize,
  705.        part->EUNInfo[i].Free, part->EUNInfo[i].Deleted);
  706. }
  707. #endif
  708. static u_int32_t find_free(partition_t *part)
  709. {
  710.     u_int16_t stop, eun;
  711.     u_int32_t blk;
  712.     size_t retlen;
  713.     int ret;
  714.     
  715.     /* Find an erase unit with some free space */
  716.     stop = (part->bam_index == 0xffff) ? 0 : part->bam_index;
  717.     eun = stop;
  718.     do {
  719. if (part->EUNInfo[eun].Free != 0) break;
  720. /* Wrap around at end of table */
  721. if (++eun == part->DataUnits) eun = 0;
  722.     } while (eun != stop);
  723.     if (part->EUNInfo[eun].Free == 0)
  724. return 0;
  725.     
  726.     /* Is this unit's BAM cached? */
  727.     if (eun != part->bam_index) {
  728. /* Invalidate cache */
  729. part->bam_index = 0xffff;
  730. ret = part->mtd->read(part->mtd, 
  731.        part->EUNInfo[eun].Offset + le32_to_cpu(part->header.BAMOffset),
  732.        part->BlocksPerUnit * sizeof(u_int32_t),
  733.        &retlen, (u_char *) (part->bam_cache));
  734. if (ret) {
  735.     printk(KERN_WARNING"ftl: Error reading BAM in find_freen");
  736.     return 0;
  737. }
  738. part->bam_index = eun;
  739.     }
  740.     /* Find a free block */
  741.     for (blk = 0; blk < part->BlocksPerUnit; blk++)
  742. if (BLOCK_FREE(le32_to_cpu(part->bam_cache[blk]))) break;
  743.     if (blk == part->BlocksPerUnit) {
  744. #ifdef PSYCHO_DEBUG
  745. static int ne = 0;
  746. if (++ne == 1)
  747.     dump_lists(part);
  748. #endif
  749. printk(KERN_NOTICE "ftl_cs: bad free list!n");
  750. return 0;
  751.     }
  752.     DEBUG(2, "ftl_cs: found free block at %d in %dn", blk, eun);
  753.     return blk;
  754.     
  755. } /* find_free */
  756. /*======================================================================
  757.     This gets a memory handle for the region corresponding to the
  758.     minor device number.
  759.     
  760. ======================================================================*/
  761. static int ftl_open(struct inode *inode, struct file *file)
  762. {
  763.     int minor = MINOR(inode->i_rdev);
  764.     partition_t *partition;
  765.     if (minor>>4 >= MAX_MTD_DEVICES)
  766. return -ENODEV;
  767.     partition = myparts[minor>>4];
  768.     if (!partition)
  769. return -ENODEV;
  770.     if (partition->state != FTL_FORMATTED)
  771. return -ENXIO;
  772.     
  773.     if (ftl_gendisk.part[minor].nr_sects == 0)
  774. return -ENXIO;
  775.     BLK_INC_USE_COUNT;
  776.     if (!get_mtd_device(partition->mtd, -1)) {
  777.     BLK_DEC_USE_COUNT;
  778.     return -ENXIO;
  779.     }
  780.     
  781.     if ((file->f_mode & 2) && !(partition->mtd->flags & MTD_CLEAR_BITS) ) {
  782.     put_mtd_device(partition->mtd);
  783.     BLK_DEC_USE_COUNT;
  784.             return -EROFS;
  785.     }
  786.     
  787.     DEBUG(0, "ftl_cs: ftl_open(%d)n", minor);
  788.     atomic_inc(&partition->open);
  789.     return 0;
  790. }
  791. /*====================================================================*/
  792. static release_t ftl_close(struct inode *inode, struct file *file)
  793. {
  794.     int minor = MINOR(inode->i_rdev);
  795.     partition_t *part = myparts[minor >> 4];
  796.     int i;
  797.     
  798.     DEBUG(0, "ftl_cs: ftl_close(%d)n", minor);
  799.     /* Wait for any pending erase operations to complete */
  800.     if (part->mtd->sync)
  801.     part->mtd->sync(part->mtd);
  802.     
  803.     for (i = 0; i < part->header.NumTransferUnits; i++) {
  804. if (part->XferInfo[i].state == XFER_ERASED)
  805.     prepare_xfer(part, i);
  806.     }
  807.     atomic_dec(&part->open);
  808.     put_mtd_device(part->mtd);
  809.     BLK_DEC_USE_COUNT;
  810.     release_return(0);
  811. } /* ftl_close */
  812. /*======================================================================
  813.     Read a series of sectors from an FTL partition.
  814.     
  815. ======================================================================*/
  816. static int ftl_read(partition_t *part, caddr_t buffer,
  817.     u_long sector, u_long nblocks)
  818. {
  819.     u_int32_t log_addr, bsize;
  820.     u_long i;
  821.     int ret;
  822.     size_t offset, retlen;
  823.     
  824.     DEBUG(2, "ftl_cs: ftl_read(0x%p, 0x%lx, %ld)n",
  825.   part, sector, nblocks);
  826.     if (!(part->state & FTL_FORMATTED)) {
  827. printk(KERN_NOTICE "ftl_cs: bad partitionn");
  828. return -EIO;
  829.     }
  830.     bsize = 1 << part->header.EraseUnitSize;
  831.     for (i = 0; i < nblocks; i++) {
  832. if (((sector+i) * SECTOR_SIZE) >= le32_to_cpu(part->header.FormattedSize)) {
  833.     printk(KERN_NOTICE "ftl_cs: bad read offsetn");
  834.     return -EIO;
  835. }
  836. log_addr = part->VirtualBlockMap[sector+i];
  837. if (log_addr == 0xffffffff)
  838.     memset(buffer, 0, SECTOR_SIZE);
  839. else {
  840.     offset = (part->EUNInfo[log_addr / bsize].Offset
  841.   + (log_addr % bsize));
  842.     ret = part->mtd->read(part->mtd, offset, SECTOR_SIZE,
  843.    &retlen, (u_char *) buffer);
  844.     if (ret) {
  845. printk(KERN_WARNING "Error reading MTD device in ftl_read()n");
  846. return ret;
  847.     }
  848. }
  849. buffer += SECTOR_SIZE;
  850.     }
  851.     return 0;
  852. } /* ftl_read */
  853. /*======================================================================
  854.     Write a series of sectors to an FTL partition
  855.     
  856. ======================================================================*/
  857. static int set_bam_entry(partition_t *part, u_int32_t log_addr,
  858.  u_int32_t virt_addr)
  859. {
  860.     u_int32_t bsize, blk, le_virt_addr;
  861. #ifdef PSYCHO_DEBUG
  862.     u_int32_t old_addr;
  863. #endif
  864.     u_int16_t eun;
  865.     int ret;
  866.     size_t retlen, offset;
  867.     DEBUG(2, "ftl_cs: set_bam_entry(0x%p, 0x%x, 0x%x)n",
  868.   part, log_addr, virt_addr);
  869.     bsize = 1 << part->header.EraseUnitSize;
  870.     eun = log_addr / bsize;
  871.     blk = (log_addr % bsize) / SECTOR_SIZE;
  872.     offset = (part->EUNInfo[eun].Offset + blk * sizeof(u_int32_t) +
  873.   le32_to_cpu(part->header.BAMOffset));
  874.     
  875. #ifdef PSYCHO_DEBUG
  876.     ret = part->mtd->read(part->mtd, offset, sizeof(u_int32_t),
  877.                         &retlen, (u_char *)&old_addr);
  878.     if (ret) {
  879. printk(KERN_WARNING"ftl: Error reading old_addr in set_bam_entry: %dn",ret);
  880. return ret;
  881.     }
  882.     old_addr = le32_to_cpu(old_addr);
  883.     if (((virt_addr == 0xfffffffe) && !BLOCK_FREE(old_addr)) ||
  884. ((virt_addr == 0) && (BLOCK_TYPE(old_addr) != BLOCK_DATA)) ||
  885. (!BLOCK_DELETED(virt_addr) && (old_addr != 0xfffffffe))) {
  886. static int ne = 0;
  887. if (++ne < 5) {
  888.     printk(KERN_NOTICE "ftl_cs: set_bam_entry() inconsistency!n");
  889.     printk(KERN_NOTICE "ftl_cs:   log_addr = 0x%x, old = 0x%x"
  890.    ", new = 0x%xn", log_addr, old_addr, virt_addr);
  891. }
  892. return -EIO;
  893.     }
  894. #endif
  895.     le_virt_addr = cpu_to_le32(virt_addr);
  896.     if (part->bam_index == eun) {
  897. #ifdef PSYCHO_DEBUG
  898. if (le32_to_cpu(part->bam_cache[blk]) != old_addr) {
  899.     static int ne = 0;
  900.     if (++ne < 5) {
  901. printk(KERN_NOTICE "ftl_cs: set_bam_entry() "
  902.        "inconsistency!n");
  903. printk(KERN_NOTICE "ftl_cs:   log_addr = 0x%x, cache"
  904.        " = 0x%xn",
  905.        le32_to_cpu(part->bam_cache[blk]), old_addr);
  906.     }
  907.     return -EIO;
  908. }
  909. #endif
  910. part->bam_cache[blk] = le_virt_addr;
  911.     }
  912.     ret = part->mtd->write(part->mtd, offset, sizeof(u_int32_t),
  913.                             &retlen, (u_char *)&le_virt_addr);
  914.     if (ret) {
  915. printk(KERN_NOTICE "ftl_cs: set_bam_entry() failed!n");
  916. printk(KERN_NOTICE "ftl_cs:   log_addr = 0x%x, new = 0x%xn",
  917.        log_addr, virt_addr);
  918.     }
  919.     return ret;
  920. } /* set_bam_entry */
  921. static int ftl_write(partition_t *part, caddr_t buffer,
  922.      u_long sector, u_long nblocks)
  923. {
  924.     u_int32_t bsize, log_addr, virt_addr, old_addr, blk;
  925.     u_long i;
  926.     int ret;
  927.     size_t retlen, offset;
  928.     DEBUG(2, "ftl_cs: ftl_write(0x%p, %ld, %ld)n",
  929.   part, sector, nblocks);
  930.     if (!(part->state & FTL_FORMATTED)) {
  931. printk(KERN_NOTICE "ftl_cs: bad partitionn");
  932. return -EIO;
  933.     }
  934.     /* See if we need to reclaim space, before we start */
  935.     while (part->FreeTotal < nblocks) {
  936. ret = reclaim_block(part);
  937. if (ret)
  938.     return ret;
  939.     }
  940.     
  941.     bsize = 1 << part->header.EraseUnitSize;
  942.     virt_addr = sector * SECTOR_SIZE | BLOCK_DATA;
  943.     for (i = 0; i < nblocks; i++) {
  944. if (virt_addr >= le32_to_cpu(part->header.FormattedSize)) {
  945.     printk(KERN_NOTICE "ftl_cs: bad write offsetn");
  946.     return -EIO;
  947. }
  948. /* Grab a free block */
  949. blk = find_free(part);
  950. if (blk == 0) {
  951.     static int ne = 0;
  952.     if (++ne < 5)
  953. printk(KERN_NOTICE "ftl_cs: internal error: "
  954.        "no free blocks!n");
  955.     return -ENOSPC;
  956. }
  957. /* Tag the BAM entry, and write the new block */
  958. log_addr = part->bam_index * bsize + blk * SECTOR_SIZE;
  959. part->EUNInfo[part->bam_index].Free--;
  960. part->FreeTotal--;
  961. if (set_bam_entry(part, log_addr, 0xfffffffe)) 
  962.     return -EIO;
  963. part->EUNInfo[part->bam_index].Deleted++;
  964. offset = (part->EUNInfo[part->bam_index].Offset +
  965.       blk * SECTOR_SIZE);
  966. ret = part->mtd->write(part->mtd, offset, SECTOR_SIZE, &retlen, 
  967.                                      buffer);
  968. if (ret) {
  969.     printk(KERN_NOTICE "ftl_cs: block write failed!n");
  970.     printk(KERN_NOTICE "ftl_cs:   log_addr = 0x%x, virt_addr"
  971.    " = 0x%x, Offset = 0x%xn", log_addr, virt_addr,
  972.    offset);
  973.     return -EIO;
  974. }
  975. /* Only delete the old entry when the new entry is ready */
  976. old_addr = part->VirtualBlockMap[sector+i];
  977. if (old_addr != 0xffffffff) {
  978.     part->VirtualBlockMap[sector+i] = 0xffffffff;
  979.     part->EUNInfo[old_addr/bsize].Deleted++;
  980.     if (set_bam_entry(part, old_addr, 0))
  981. return -EIO;
  982. }
  983. /* Finally, set up the new pointers */
  984. if (set_bam_entry(part, log_addr, virt_addr))
  985.     return -EIO;
  986. part->VirtualBlockMap[sector+i] = log_addr;
  987. part->EUNInfo[part->bam_index].Deleted--;
  988. buffer += SECTOR_SIZE;
  989. virt_addr += SECTOR_SIZE;
  990.     }
  991.     return 0;
  992. } /* ftl_write */
  993. /*======================================================================
  994.     IOCTL calls for getting device parameters.
  995. ======================================================================*/
  996. static int ftl_ioctl(struct inode *inode, struct file *file,
  997.      u_int cmd, u_long arg)
  998. {
  999.     struct hd_geometry *geo = (struct hd_geometry *)arg;
  1000.     int ret = 0, minor = MINOR(inode->i_rdev);
  1001.     partition_t *part= myparts[minor >> 4];
  1002.     u_long sect;
  1003.     if (!part)
  1004. return -ENODEV; /* How? */
  1005.     switch (cmd) {
  1006.     case HDIO_GETGEO:
  1007. ret = verify_area(VERIFY_WRITE, (long *)arg, sizeof(*geo));
  1008. if (ret) return ret;
  1009. /* Sort of arbitrary: round size down to 4K boundary */
  1010. sect = le32_to_cpu(part->header.FormattedSize)/SECTOR_SIZE;
  1011. put_user(1, (char *)&geo->heads);
  1012. put_user(8, (char *)&geo->sectors);
  1013. put_user((sect>>3), (short *)&geo->cylinders);
  1014. put_user(ftl_hd[minor].start_sect, (u_long *)&geo->start);
  1015. break;
  1016.     case BLKGETSIZE:
  1017. ret = put_user(ftl_hd[minor].nr_sects, (unsigned long *)arg);
  1018. break;
  1019. #ifdef BLKGETSIZE64
  1020.     case BLKGETSIZE64:
  1021. ret = put_user((u64)ftl_hd[minor].nr_sects << 9, (u64 *)arg);
  1022. break;
  1023. #endif
  1024.     case BLKRRPART:
  1025. ret = ftl_reread_partitions(minor);
  1026. break;
  1027. #if (LINUX_VERSION_CODE < 0x20303)
  1028.     case BLKFLSBUF:
  1029. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,2,0)
  1030. if (!capable(CAP_SYS_ADMIN)) return -EACCES;
  1031. #endif
  1032. fsync_dev(inode->i_rdev);
  1033. invalidate_buffers(inode->i_rdev);
  1034. break;
  1035.     RO_IOCTLS(inode->i_rdev, arg);
  1036. #else
  1037.     case BLKROSET:
  1038.     case BLKROGET:
  1039.     case BLKFLSBUF:
  1040. ret = blk_ioctl(inode->i_rdev, cmd, arg);
  1041. break;
  1042. #endif
  1043.     default:
  1044. ret = -EINVAL;
  1045.     }
  1046.     return ret;
  1047. } /* ftl_ioctl */
  1048. /*======================================================================
  1049.     Handler for block device requests
  1050. ======================================================================*/
  1051. static int ftl_reread_partitions(int minor)
  1052. {
  1053.     partition_t *part = myparts[minor >> 4];
  1054.     int i, whole;
  1055.     DEBUG(0, "ftl_cs: ftl_reread_partition(%d)n", minor);
  1056.     if ((atomic_read(&part->open) > 1)) {
  1057.     return -EBUSY;
  1058.     }
  1059.     whole = minor & ~(MAX_PART-1);
  1060.     i = MAX_PART - 1;
  1061.     while (i-- > 0) {
  1062. if (ftl_hd[whole+i].nr_sects > 0) {
  1063.     kdev_t rdev = MKDEV(FTL_MAJOR, whole+i);
  1064.     invalidate_device(rdev, 1);
  1065. }
  1066. ftl_hd[whole+i].start_sect = 0;
  1067. ftl_hd[whole+i].nr_sects = 0;
  1068.     }
  1069.     scan_header(part);
  1070.     register_disk(&ftl_gendisk, whole >> PART_BITS, MAX_PART,
  1071.   &ftl_blk_fops, le32_to_cpu(part->header.FormattedSize)/SECTOR_SIZE);
  1072. #ifdef PCMCIA_DEBUG
  1073.     for (i = 0; i < MAX_PART; i++) {
  1074. if (ftl_hd[whole+i].nr_sects > 0)
  1075.     printk(KERN_INFO "  %d: start %ld size %ldn", i,
  1076.    ftl_hd[whole+i].start_sect,
  1077.    ftl_hd[whole+i].nr_sects);
  1078.     }
  1079. #endif
  1080.     return 0;
  1081. }
  1082. /*======================================================================
  1083.     Handler for block device requests
  1084. ======================================================================*/
  1085. static void do_ftl_request(request_arg_t)
  1086. {
  1087.     int ret, minor;
  1088.     partition_t *part;
  1089.     do {
  1090.       //     sti();
  1091. INIT_REQUEST;
  1092. minor = MINOR(CURRENT->rq_dev);
  1093. part = myparts[minor >> 4];
  1094. if (part) {
  1095.   ret = 0;
  1096.   
  1097.   switch (CURRENT->cmd) {
  1098.   case READ:
  1099.     ret = ftl_read(part, CURRENT->buffer,
  1100.    CURRENT->sector+ftl_hd[minor].start_sect,
  1101.    CURRENT->current_nr_sectors);
  1102.     if (ret) printk("ftl_read returned %dn", ret);
  1103.     break;
  1104.     
  1105.   case WRITE:
  1106.     ret = ftl_write(part, CURRENT->buffer,
  1107.     CURRENT->sector+ftl_hd[minor].start_sect,
  1108.     CURRENT->current_nr_sectors);
  1109.     if (ret) printk("ftl_write returned %dn", ret);
  1110.     break;
  1111.     
  1112.   default:
  1113.     panic("ftl_cs: unknown block command!n");
  1114.     
  1115.   }
  1116. } else {
  1117.   ret = 1;
  1118.   printk("NULL part in ftl_requestn");
  1119. }
  1120.  
  1121. if (!ret) {
  1122.   CURRENT->sector += CURRENT->current_nr_sectors;
  1123. }
  1124. end_request((ret == 0) ? 1 : 0);
  1125.     } while (1);
  1126. } /* do_ftl_request */
  1127. /*====================================================================*/
  1128. void ftl_freepart(partition_t *part)
  1129. {
  1130.     if (part->VirtualBlockMap) {
  1131. vfree(part->VirtualBlockMap);
  1132. part->VirtualBlockMap = NULL;
  1133.     }
  1134.     if (part->VirtualPageMap) {
  1135. kfree(part->VirtualPageMap);
  1136. part->VirtualPageMap = NULL;
  1137.     }
  1138.     if (part->EUNInfo) {
  1139. kfree(part->EUNInfo);
  1140. part->EUNInfo = NULL;
  1141.     }
  1142.     if (part->XferInfo) {
  1143. kfree(part->XferInfo);
  1144. part->XferInfo = NULL;
  1145.     }
  1146.     if (part->bam_cache) {
  1147. kfree(part->bam_cache);
  1148. part->bam_cache = NULL;
  1149.     }
  1150.     
  1151. } /* ftl_freepart */
  1152. static void ftl_notify_add(struct mtd_info *mtd)
  1153. {
  1154. partition_t *partition;
  1155. int device;
  1156. for (device=0; device < MAX_MTD_DEVICES && myparts[device]; device++)
  1157. ;
  1158. if (device == MAX_MTD_DEVICES) {
  1159. printk(KERN_NOTICE "Maximum number of FTL partitions reachedn"
  1160.        "Not scanning <%s>n", mtd->name);
  1161. return;
  1162. }
  1163. partition = kmalloc(sizeof(partition_t), GFP_KERNEL);
  1164. if (!partition) {
  1165. printk(KERN_WARNING "No memory to scan for FTL on %sn",
  1166.        mtd->name);
  1167. return;
  1168. }    
  1169. memset(partition, 0, sizeof(partition_t));
  1170. partition->mtd = mtd;
  1171. if ((scan_header(partition) == 0) && 
  1172.     (build_maps(partition) == 0)) {
  1173. partition->state = FTL_FORMATTED;
  1174. atomic_set(&partition->open, 0);
  1175. myparts[device] = partition;
  1176. ftl_reread_partitions(device << 4);
  1177. #ifdef PCMCIA_DEBUG
  1178. printk(KERN_INFO "ftl_cs: opening %d kb FTL partitionn",
  1179.        le32_to_cpu(partition->header.FormattedSize) >> 10);
  1180. #endif
  1181. } else
  1182. kfree(partition);
  1183. }
  1184. static void ftl_notify_remove(struct mtd_info *mtd)
  1185. {
  1186.         int i,j;
  1187. /* Q: What happens if you try to remove a device which has
  1188.  *    a currently-open FTL partition on it?
  1189.  *
  1190.  * A: You don't. The ftl_open routine is responsible for
  1191.  *    increasing the use count of the driver module which
  1192.  *    it uses.
  1193.  */
  1194. /* That's the theory, anyway :) */
  1195. for (i=0; i< MAX_MTD_DEVICES; i++)
  1196. if (myparts[i] && myparts[i]->mtd == mtd) {
  1197. if (myparts[i]->state == FTL_FORMATTED)
  1198. ftl_freepart(myparts[i]);
  1199. myparts[i]->state = 0;
  1200. for (j=0; j<16; j++) {
  1201. ftl_gendisk.part[j].nr_sects=0;
  1202. ftl_gendisk.part[j].start_sect=0;
  1203. }
  1204. kfree(myparts[i]);
  1205. myparts[i] = NULL;
  1206. }
  1207. }
  1208. int init_ftl(void)
  1209. {
  1210.     int i;
  1211.     memset(myparts, 0, sizeof(myparts));
  1212.     
  1213.     DEBUG(0, "$Id: ftl.c,v 1.43 2002/02/13 15:31:37 dwmw2 Exp $n");
  1214.     
  1215.     if (register_blkdev(FTL_MAJOR, "ftl", &ftl_blk_fops)) {
  1216. printk(KERN_NOTICE "ftl_cs: unable to grab major "
  1217.        "device number!n");
  1218. return -EAGAIN;
  1219.     }
  1220.     
  1221.     for (i = 0; i < MINOR_NR(MAX_DEV, 0, 0); i++)
  1222. ftl_blocksizes[i] = 1024;
  1223.     for (i = 0; i < MAX_DEV*MAX_PART; i++) {
  1224. ftl_hd[i].nr_sects = 0;
  1225. ftl_hd[i].start_sect = 0;
  1226.     }
  1227.     blksize_size[FTL_MAJOR] = ftl_blocksizes;
  1228.     ftl_gendisk.major = FTL_MAJOR;
  1229.     blk_init_queue(BLK_DEFAULT_QUEUE(FTL_MAJOR), &do_ftl_request);
  1230.     add_gendisk(&ftl_gendisk);
  1231.     
  1232.     register_mtd_user(&ftl_notifier);
  1233.     
  1234.     return 0;
  1235. }
  1236. static void __exit cleanup_ftl(void)
  1237. {
  1238.     unregister_mtd_user(&ftl_notifier);
  1239.     unregister_blkdev(FTL_MAJOR, "ftl");
  1240.     blk_cleanup_queue(BLK_DEFAULT_QUEUE(FTL_MAJOR));
  1241.     blksize_size[FTL_MAJOR] = NULL;
  1242.     del_gendisk(&ftl_gendisk);
  1243. }
  1244. module_init(init_ftl);
  1245. module_exit(cleanup_ftl);
  1246. MODULE_LICENSE("Dual MPL/GPL");
  1247. MODULE_AUTHOR("David Hinds <dhinds@sonic.net>");
  1248. MODULE_DESCRIPTION("Support code for Flash Translation Layer, used on PCMCIA devices and M-Systems DiskOnChip 1000");