nftlcore.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:31k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* Linux driver for NAND Flash Translation Layer      */
  2. /* (c) 1999 Machine Vision Holdings, Inc.             */
  3. /* Author: David Woodhouse <dwmw2@infradead.org>      */
  4. /* $Id: nftlcore.c,v 1.86 2002/03/06 14:38:17 dwmw2 Exp $ */
  5. /*
  6.   The contents of this file are distributed under the GNU General
  7.   Public License version 2. The author places no additional
  8.   restrictions of any kind on it.
  9.  */
  10. #define PRERELEASE
  11. #include <linux/config.h>
  12. #include <linux/kernel.h>
  13. #include <linux/module.h>
  14. #include <asm/errno.h>
  15. #include <asm/io.h>
  16. #include <asm/uaccess.h>
  17. #include <linux/miscdevice.h>
  18. #include <linux/pci.h>
  19. #include <linux/delay.h>
  20. #include <linux/slab.h>
  21. #include <linux/sched.h>
  22. #include <linux/init.h>
  23. #include <linux/blkpg.h>
  24. #ifdef CONFIG_KMOD
  25. #include <linux/kmod.h>
  26. #endif
  27. #include <linux/mtd/mtd.h>
  28. #include <linux/mtd/nftl.h>
  29. #include <linux/mtd/compatmac.h>
  30. /* maximum number of loops while examining next block, to have a
  31.    chance to detect consistency problems (they should never happen
  32.    because of the checks done in the mounting */
  33. #define MAX_LOOPS 10000
  34. /* NFTL block device stuff */
  35. #define MAJOR_NR NFTL_MAJOR
  36. #define DEVICE_REQUEST nftl_request
  37. #define DEVICE_OFF(device)
  38. #include <linux/blk.h>
  39. #include <linux/hdreg.h>
  40. /* Linux-specific block device functions */
  41. /* I _HATE_ the Linux block device setup more than anything else I've ever
  42.  *  encountered, except ...
  43.  */
  44. static int nftl_sizes[256];
  45. static int nftl_blocksizes[256];
  46. /* .. for the Linux partition table handling. */
  47. struct hd_struct part_table[256];
  48. #if LINUX_VERSION_CODE < 0x20328
  49. static void dummy_init (struct gendisk *crap)
  50. {}
  51. #endif
  52. static struct gendisk nftl_gendisk = {
  53. major: MAJOR_NR,
  54. major_name: "nftl",
  55. minor_shift: NFTL_PARTN_BITS, /* Bits to shift to get real from partition */
  56. max_p: (1<<NFTL_PARTN_BITS)-1, /* Number of partitions per real */
  57. #if LINUX_VERSION_CODE < 0x20328
  58. max_nr: MAX_NFTLS,      /* maximum number of real */
  59. init: dummy_init,     /* init function */
  60. #endif
  61. part: part_table,     /* hd struct */
  62. sizes: nftl_sizes,     /* block sizes */
  63. };
  64. #if LINUX_VERSION_CODE < KERNEL_VERSION(2,4,14)
  65. #define BLK_INC_USE_COUNT MOD_INC_USE_COUNT
  66. #define BLK_DEC_USE_COUNT MOD_DEC_USE_COUNT
  67. #else
  68. #define BLK_INC_USE_COUNT do {} while(0)
  69. #define BLK_DEC_USE_COUNT do {} while(0)
  70. #endif
  71. struct NFTLrecord *NFTLs[MAX_NFTLS];
  72. static void NFTL_setup(struct mtd_info *mtd)
  73. {
  74. int i;
  75. struct NFTLrecord *nftl;
  76. unsigned long temp;
  77. int firstfree = -1;
  78. DEBUG(MTD_DEBUG_LEVEL1,"NFTL_setupn");
  79. for (i = 0; i < MAX_NFTLS; i++) {
  80. if (!NFTLs[i] && firstfree == -1)
  81. firstfree = i;
  82. else if (NFTLs[i] && NFTLs[i]->mtd == mtd) {
  83. /* This is a Spare Media Header for an NFTL we've already found */
  84. DEBUG(MTD_DEBUG_LEVEL1, "MTD already mounted as NFTLn");
  85. return;
  86. }
  87. }
  88.         if (firstfree == -1) {
  89. printk(KERN_WARNING "No more NFTL slot availablen");
  90. return;
  91.         }
  92. nftl = kmalloc(sizeof(struct NFTLrecord), GFP_KERNEL);
  93. if (!nftl) {
  94. printk(KERN_WARNING "Out of memory for NFTL data structuresn");
  95. return;
  96. }
  97. init_MUTEX(&nftl->mutex);
  98. nftl->mtd = mtd;
  99.         if (NFTL_mount(nftl) < 0) {
  100. printk(KERN_WARNING "Could not mount NFTL devicen");
  101. kfree(nftl);
  102. return;
  103.         }
  104. /* OK, it's a new one. Set up all the data structures. */
  105. #ifdef PSYCHO_DEBUG
  106. printk("Found new NFTL nftl%cn", firstfree + 'a');
  107. #endif
  108.         /* linux stuff */
  109. nftl->usecount = 0;
  110. nftl->cylinders = 1024;
  111. nftl->heads = 16;
  112. temp = nftl->cylinders * nftl->heads;
  113. nftl->sectors = nftl->nr_sects / temp;
  114. if (nftl->nr_sects % temp) {
  115. nftl->sectors++;
  116. temp = nftl->cylinders * nftl->sectors;
  117. nftl->heads = nftl->nr_sects / temp;
  118. if (nftl->nr_sects % temp) {
  119. nftl->heads++;
  120. temp = nftl->heads * nftl->sectors;
  121. nftl->cylinders = nftl->nr_sects / temp;
  122. }
  123. }
  124. if (nftl->nr_sects != nftl->heads * nftl->cylinders * nftl->sectors) {
  125. printk(KERN_WARNING "Cannot calculate an NFTL geometry to "
  126.        "match size of 0x%lx.n", nftl->nr_sects);
  127. printk(KERN_WARNING "Using C:%d H:%d S:%d (== 0x%lx sects)n", 
  128.        nftl->cylinders, nftl->heads , nftl->sectors, 
  129.        (long)nftl->cylinders * (long)nftl->heads * (long)nftl->sectors );
  130. /* Oh no we don't have nftl->nr_sects = nftl->heads * nftl->cylinders * nftl->sectors; */
  131. }
  132. NFTLs[firstfree] = nftl;
  133. /* Finally, set up the block device sizes */
  134. nftl_sizes[firstfree * 16] = nftl->nr_sects;
  135. //nftl_blocksizes[firstfree*16] = 512;
  136. part_table[firstfree * 16].nr_sects = nftl->nr_sects;
  137. nftl_gendisk.nr_real++;
  138. /* partition check ... */
  139. #if LINUX_VERSION_CODE < 0x20328
  140. resetup_one_dev(&nftl_gendisk, firstfree);
  141. #else
  142. grok_partitions(&nftl_gendisk, firstfree, 1<<NFTL_PARTN_BITS, nftl->nr_sects);
  143. #endif
  144. }
  145. static void NFTL_unsetup(int i)
  146. {
  147. struct NFTLrecord *nftl = NFTLs[i];
  148. DEBUG(MTD_DEBUG_LEVEL1, "NFTL_unsetup %dn", i);
  149. NFTLs[i] = NULL;
  150. if (nftl->ReplUnitTable)
  151. kfree(nftl->ReplUnitTable);
  152. if (nftl->EUNtable)
  153. kfree(nftl->EUNtable);
  154.       
  155. nftl_gendisk.nr_real--;
  156. kfree(nftl);
  157. }
  158. /* Search the MTD device for NFTL partitions */
  159. static void NFTL_notify_add(struct mtd_info *mtd)
  160. {
  161. DEBUG(MTD_DEBUG_LEVEL1, "NFTL_notify_add for %sn", mtd->name);
  162. if (mtd) {
  163. if (!mtd->read_oob) {
  164. /* If this MTD doesn't have out-of-band data,
  165.    then there's no point continuing */
  166. DEBUG(MTD_DEBUG_LEVEL1, "No OOB data, quittingn");
  167. return;
  168. }
  169. DEBUG(MTD_DEBUG_LEVEL3, "mtd->read = %p, size = %d, erasesize = %dn", 
  170.       mtd->read, mtd->size, mtd->erasesize);
  171.                 NFTL_setup(mtd);
  172. }
  173. }
  174. static void NFTL_notify_remove(struct mtd_info *mtd)
  175. {
  176. int i;
  177. for (i = 0; i < MAX_NFTLS; i++) {
  178. if (NFTLs[i] && NFTLs[i]->mtd == mtd)
  179. NFTL_unsetup(i);
  180. }
  181. }
  182. #ifdef CONFIG_NFTL_RW
  183. /* Actual NFTL access routines */
  184. /* NFTL_findfreeblock: Find a free Erase Unit on the NFTL partition. This function is used
  185.  * when the give Virtual Unit Chain
  186.  */
  187. static u16 NFTL_findfreeblock(struct NFTLrecord *nftl, int desperate )
  188. {
  189. /* For a given Virtual Unit Chain: find or create a free block and
  190.    add it to the chain */
  191. /* We're passed the number of the last EUN in the chain, to save us from
  192.    having to look it up again */
  193. u16 pot = nftl->LastFreeEUN;
  194. int silly = nftl->nb_blocks;
  195. /* Normally, we force a fold to happen before we run out of free blocks completely */
  196. if (!desperate && nftl->numfreeEUNs < 2) {
  197. DEBUG(MTD_DEBUG_LEVEL1, "NFTL_findfreeblock: there are too few free EUNsn");
  198. return 0xffff;
  199. }
  200. /* Scan for a free block */
  201. do {
  202. if (nftl->ReplUnitTable[pot] == BLOCK_FREE) {
  203. nftl->LastFreeEUN = pot;
  204. nftl->numfreeEUNs--;
  205. return pot;
  206. }
  207. /* This will probably point to the MediaHdr unit itself,
  208.    right at the beginning of the partition. But that unit
  209.    (and the backup unit too) should have the UCI set
  210.    up so that it's not selected for overwriting */
  211. if (++pot > nftl->lastEUN)
  212. pot = le16_to_cpu(nftl->MediaHdr.FirstPhysicalEUN);
  213. if (!silly--) {
  214. printk("Argh! No free blocks found! LastFreeEUN = %d, "
  215.        "FirstEUN = %dn", nftl->LastFreeEUN, 
  216.        le16_to_cpu(nftl->MediaHdr.FirstPhysicalEUN));
  217. return 0xffff;
  218. }
  219. } while (pot != nftl->LastFreeEUN);
  220. return 0xffff;
  221. }
  222. static u16 NFTL_foldchain (struct NFTLrecord *nftl, unsigned thisVUC, unsigned pendingblock )
  223. {
  224. u16 BlockMap[MAX_SECTORS_PER_UNIT];
  225. unsigned char BlockLastState[MAX_SECTORS_PER_UNIT];
  226. unsigned char BlockFreeFound[MAX_SECTORS_PER_UNIT];
  227. unsigned int thisEUN;
  228. int block;
  229. int silly;
  230. unsigned int targetEUN;
  231. struct nftl_oob oob;
  232. int inplace = 1;
  233.         size_t retlen;
  234. memset(BlockMap, 0xff, sizeof(BlockMap));
  235. memset(BlockFreeFound, 0, sizeof(BlockFreeFound));
  236. thisEUN = nftl->EUNtable[thisVUC];
  237. if (thisEUN == BLOCK_NIL) {
  238. printk(KERN_WARNING "Trying to fold non-existent "
  239.        "Virtual Unit Chain %d!n", thisVUC);
  240. return BLOCK_NIL;
  241. }
  242. /* Scan to find the Erase Unit which holds the actual data for each
  243.    512-byte block within the Chain.
  244. */
  245.         silly = MAX_LOOPS;
  246. targetEUN = BLOCK_NIL;
  247. while (thisEUN <= nftl->lastEUN ) {
  248.                 unsigned int status, foldmark;
  249. targetEUN = thisEUN;
  250. for (block = 0; block < nftl->EraseSize / 512; block ++) {
  251. MTD_READOOB(nftl->mtd,
  252.     (thisEUN * nftl->EraseSize) + (block * 512),
  253.     16 , &retlen, (char *)&oob);
  254. if (block == 2) {
  255.                                 foldmark = oob.u.c.FoldMark | oob.u.c.FoldMark1;
  256.                                 if (foldmark == FOLD_MARK_IN_PROGRESS) {
  257.                                         DEBUG(MTD_DEBUG_LEVEL1, 
  258.                                               "Write Inhibited on EUN %dn", thisEUN);
  259. inplace = 0;
  260. } else {
  261. /* There's no other reason not to do inplace,
  262.    except ones that come later. So we don't need
  263.    to preserve inplace */
  264. inplace = 1;
  265. }
  266. }
  267.                         status = oob.b.Status | oob.b.Status1;
  268. BlockLastState[block] = status;
  269. switch(status) {
  270. case SECTOR_FREE:
  271. BlockFreeFound[block] = 1;
  272. break;
  273. case SECTOR_USED:
  274. if (!BlockFreeFound[block])
  275. BlockMap[block] = thisEUN;
  276. else
  277. printk(KERN_WARNING 
  278.        "SECTOR_USED found after SECTOR_FREE "
  279.        "in Virtual Unit Chain %d for block %dn",
  280.        thisVUC, block);
  281. break;
  282. case SECTOR_DELETED:
  283. if (!BlockFreeFound[block])
  284. BlockMap[block] = BLOCK_NIL;
  285. else
  286. printk(KERN_WARNING 
  287.        "SECTOR_DELETED found after SECTOR_FREE "
  288.        "in Virtual Unit Chain %d for block %dn",
  289.        thisVUC, block);
  290. break;
  291. case SECTOR_IGNORE:
  292. break;
  293. default:
  294. printk("Unknown status for block %d in EUN %d: %xn",
  295.        block, thisEUN, status);
  296. }
  297. }
  298. if (!silly--) {
  299. printk(KERN_WARNING "Infinite loop in Virtual Unit Chain 0x%xn",
  300.        thisVUC);
  301. return BLOCK_NIL;
  302. }
  303. thisEUN = nftl->ReplUnitTable[thisEUN];
  304. }
  305. if (inplace) {
  306. /* We're being asked to be a fold-in-place. Check
  307.    that all blocks which actually have data associated
  308.    with them (i.e. BlockMap[block] != BLOCK_NIL) are 
  309.    either already present or SECTOR_FREE in the target
  310.    block. If not, we're going to have to fold out-of-place
  311.    anyway.
  312. */
  313. for (block = 0; block < nftl->EraseSize / 512 ; block++) {
  314. if (BlockLastState[block] != SECTOR_FREE &&
  315.     BlockMap[block] != BLOCK_NIL &&
  316.     BlockMap[block] != targetEUN) {
  317. DEBUG(MTD_DEBUG_LEVEL1, "Setting inplace to 0. VUC %d, "
  318.       "block %d was %x lastEUN, "
  319.       "and is in EUN %d (%s) %dn",
  320.       thisVUC, block, BlockLastState[block],
  321.       BlockMap[block], 
  322.       BlockMap[block]== targetEUN ? "==" : "!=",
  323.       targetEUN);
  324. inplace = 0;
  325. break;
  326. }
  327. }
  328. if (pendingblock >= (thisVUC * (nftl->EraseSize / 512)) &&
  329.     pendingblock < ((thisVUC + 1)* (nftl->EraseSize / 512)) &&
  330.     BlockLastState[pendingblock - (thisVUC * (nftl->EraseSize / 512))] !=
  331.     SECTOR_FREE) {
  332. DEBUG(MTD_DEBUG_LEVEL1, "Pending write not free in EUN %d. "
  333.       "Folding out of place.n", targetEUN);
  334. inplace = 0;
  335. }
  336. }
  337. if (!inplace) {
  338. DEBUG(MTD_DEBUG_LEVEL1, "Cannot fold Virtual Unit Chain %d in place. "
  339.       "Trying out-of-placen", thisVUC);
  340. /* We need to find a targetEUN to fold into. */
  341. targetEUN = NFTL_findfreeblock(nftl, 1);
  342. if (targetEUN == BLOCK_NIL) {
  343. /* Ouch. Now we're screwed. We need to do a 
  344.    fold-in-place of another chain to make room
  345.    for this one. We need a better way of selecting
  346.    which chain to fold, because makefreeblock will 
  347.    only ask us to fold the same one again.
  348. */
  349. printk(KERN_WARNING
  350.        "NFTL_findfreeblock(desperate) returns 0xffff.n");
  351. return BLOCK_NIL;
  352. }
  353. } else {
  354.             /* We put a fold mark in the chain we are folding only if
  355.                we fold in place to help the mount check code. If we do
  356.                not fold in place, it is possible to find the valid
  357.                chain by selecting the longer one */
  358.             oob.u.c.FoldMark = oob.u.c.FoldMark1 = cpu_to_le16(FOLD_MARK_IN_PROGRESS);
  359.             oob.u.c.unused = 0xffffffff;
  360.             MTD_WRITEOOB(nftl->mtd, (nftl->EraseSize * targetEUN) + 2 * 512 + 8, 
  361.                          8, &retlen, (char *)&oob.u);
  362.         }
  363. /* OK. We now know the location of every block in the Virtual Unit Chain,
  364.    and the Erase Unit into which we are supposed to be copying.
  365.    Go for it.
  366. */
  367. DEBUG(MTD_DEBUG_LEVEL1,"Folding chain %d into unit %dn", thisVUC, targetEUN);
  368. for (block = 0; block < nftl->EraseSize / 512 ; block++) {
  369. unsigned char movebuf[512];
  370. int ret;
  371. /* If it's in the target EUN already, or if it's pending write, do nothing */
  372. if (BlockMap[block] == targetEUN ||
  373.     (pendingblock == (thisVUC * (nftl->EraseSize / 512) + block))) {
  374. continue;
  375. }
  376.                 /* copy only in non free block (free blocks can only
  377.                    happen in case of media errors or deleted blocks) */
  378.                 if (BlockMap[block] == BLOCK_NIL)
  379.                         continue;
  380.                 
  381.                 ret = MTD_READECC(nftl->mtd, (nftl->EraseSize * BlockMap[block])
  382.                                   + (block * 512), 512, &retlen, movebuf, (char *)&oob); 
  383.                 if (ret < 0) {
  384.                     ret = MTD_READECC(nftl->mtd, (nftl->EraseSize * BlockMap[block])
  385.                                       + (block * 512), 512, &retlen,
  386.                                       movebuf, (char *)&oob); 
  387.                     if (ret != -EIO) 
  388.                         printk("Error went away on retry.n");
  389.                 }
  390.                 MTD_WRITEECC(nftl->mtd, (nftl->EraseSize * targetEUN) + (block * 512),
  391.                              512, &retlen, movebuf, (char *)&oob);
  392. }
  393.         
  394.         /* add the header so that it is now a valid chain */
  395.         oob.u.a.VirtUnitNum = oob.u.a.SpareVirtUnitNum
  396.                 = cpu_to_le16(thisVUC);
  397.         oob.u.a.ReplUnitNum = oob.u.a.SpareReplUnitNum = 0xffff;
  398.         
  399.         MTD_WRITEOOB(nftl->mtd, (nftl->EraseSize * targetEUN) + 8, 
  400.                      8, &retlen, (char *)&oob.u);
  401. /* OK. We've moved the whole lot into the new block. Now we have to free the original blocks. */
  402. /* At this point, we have two different chains for this Virtual Unit, and no way to tell 
  403.    them apart. If we crash now, we get confused. However, both contain the same data, so we
  404.    shouldn't actually lose data in this case. It's just that when we load up on a medium which
  405.    has duplicate chains, we need to free one of the chains because it's not necessary any more.
  406. */
  407. thisEUN = nftl->EUNtable[thisVUC];
  408. DEBUG(MTD_DEBUG_LEVEL1,"Want to erasen");
  409. /* For each block in the old chain (except the targetEUN of course), 
  410.    free it and make it available for future use */
  411. while (thisEUN <= nftl->lastEUN && thisEUN != targetEUN) {
  412. unsigned int EUNtmp;
  413.                 EUNtmp = nftl->ReplUnitTable[thisEUN];
  414.                 if (NFTL_formatblock(nftl, thisEUN) < 0) {
  415. /* could not erase : mark block as reserved
  416.  * FixMe: Update Bad Unit Table on disk
  417.  */
  418. nftl->ReplUnitTable[thisEUN] = BLOCK_RESERVED;
  419.                 } else {
  420. /* correctly erased : mark it as free */
  421. nftl->ReplUnitTable[thisEUN] = BLOCK_FREE;
  422. nftl->numfreeEUNs++;
  423.                 }
  424.                 thisEUN = EUNtmp;
  425. }
  426. /* Make this the new start of chain for thisVUC */
  427. nftl->ReplUnitTable[targetEUN] = BLOCK_NIL;
  428. nftl->EUNtable[thisVUC] = targetEUN;
  429. return targetEUN;
  430. }
  431. u16 NFTL_makefreeblock( struct NFTLrecord *nftl , unsigned pendingblock)
  432. {
  433. /* This is the part that needs some cleverness applied. 
  434.    For now, I'm doing the minimum applicable to actually
  435.    get the thing to work.
  436.    Wear-levelling and other clever stuff needs to be implemented
  437.    and we also need to do some assessment of the results when
  438.    the system loses power half-way through the routine.
  439. */
  440. u16 LongestChain = 0;
  441. u16 ChainLength = 0, thislen;
  442. u16 chain, EUN;
  443. for (chain = 0; chain < le32_to_cpu(nftl->MediaHdr.FormattedSize) / nftl->EraseSize; chain++) {
  444. EUN = nftl->EUNtable[chain];
  445. thislen = 0;
  446. while (EUN <= nftl->lastEUN) {
  447. thislen++;
  448. //printk("VUC %d reaches len %d with EUN %dn", chain, thislen, EUN);
  449. EUN = nftl->ReplUnitTable[EUN] & 0x7fff;
  450. if (thislen > 0xff00) {
  451. printk("Endless loop in Virtual Chain %d: Unit %xn",
  452.        chain, EUN);
  453. }
  454. if (thislen > 0xff10) {
  455. /* Actually, don't return failure. Just ignore this chain and
  456.    get on with it. */
  457. thislen = 0;
  458. break;
  459. }
  460. }
  461. if (thislen > ChainLength) {
  462. //printk("New longest chain is %d with length %dn", chain, thislen);
  463. ChainLength = thislen;
  464. LongestChain = chain;
  465. }
  466. }
  467. if (ChainLength < 2) {
  468. printk(KERN_WARNING "No Virtual Unit Chains available for folding. "
  469.        "Failing requestn");
  470. return 0xffff;
  471. }
  472. return NFTL_foldchain (nftl, LongestChain, pendingblock);
  473. }
  474. /* NFTL_findwriteunit: Return the unit number into which we can write 
  475.                        for this block. Make it available if it isn't already
  476. */
  477. static inline u16 NFTL_findwriteunit(struct NFTLrecord *nftl, unsigned block)
  478. {
  479. u16 lastEUN;
  480. u16 thisVUC = block / (nftl->EraseSize / 512);
  481. unsigned int writeEUN;
  482. unsigned long blockofs = (block * 512) & (nftl->EraseSize -1);
  483. size_t retlen;
  484. int silly, silly2 = 3;
  485. struct nftl_oob oob;
  486. do {
  487. /* Scan the media to find a unit in the VUC which has
  488.    a free space for the block in question.
  489. */
  490. /* This condition catches the 0x[7f]fff cases, as well as 
  491.    being a sanity check for past-end-of-media access
  492. */
  493. lastEUN = BLOCK_NIL;
  494. writeEUN = nftl->EUNtable[thisVUC];
  495.                 silly = MAX_LOOPS;
  496. while (writeEUN <= nftl->lastEUN) {
  497. struct nftl_bci bci;
  498. size_t retlen;
  499.                         unsigned int status;
  500. lastEUN = writeEUN;
  501. MTD_READOOB(nftl->mtd, (writeEUN * nftl->EraseSize) + blockofs,
  502.     8, &retlen, (char *)&bci);
  503. DEBUG(MTD_DEBUG_LEVEL2, "Status of block %d in EUN %d is %xn",
  504.       block , writeEUN, le16_to_cpu(bci.Status));
  505.                         status = bci.Status | bci.Status1;
  506. switch(status) {
  507. case SECTOR_FREE:
  508. return writeEUN;
  509. case SECTOR_DELETED:
  510. case SECTOR_USED:
  511. case SECTOR_IGNORE:
  512. break;
  513. default:
  514. // Invalid block. Don't use it any more. Must implement.
  515. break;
  516. }
  517. if (!silly--) { 
  518. printk(KERN_WARNING
  519.        "Infinite loop in Virtual Unit Chain 0x%xn",
  520.        thisVUC);
  521. return 0xffff;
  522. }
  523. /* Skip to next block in chain */
  524. writeEUN = nftl->ReplUnitTable[writeEUN];
  525. }
  526. /* OK. We didn't find one in the existing chain, or there 
  527.    is no existing chain. */
  528. /* Try to find an already-free block */
  529. writeEUN = NFTL_findfreeblock(nftl, 0);
  530. if (writeEUN == BLOCK_NIL) {
  531. /* That didn't work - there were no free blocks just
  532.    waiting to be picked up. We're going to have to fold
  533.    a chain to make room.
  534. */
  535. /* First remember the start of this chain */
  536. //u16 startEUN = nftl->EUNtable[thisVUC];
  537. //printk("Write to VirtualUnitChain %d, calling makefreeblock()n", thisVUC);
  538. writeEUN = NFTL_makefreeblock(nftl, 0xffff);
  539. if (writeEUN == BLOCK_NIL) {
  540. /* OK, we accept that the above comment is 
  541.    lying - there may have been free blocks
  542.    last time we called NFTL_findfreeblock(),
  543.    but they are reserved for when we're
  544.    desperate. Well, now we're desperate.
  545. */
  546. DEBUG(MTD_DEBUG_LEVEL1, "Using desperate==1 to find free EUN to accommodate write to VUC %dn", thisVUC);
  547. writeEUN = NFTL_findfreeblock(nftl, 1);
  548. }
  549. if (writeEUN == BLOCK_NIL) {
  550. /* Ouch. This should never happen - we should
  551.    always be able to make some room somehow. 
  552.    If we get here, we've allocated more storage 
  553.    space than actual media, or our makefreeblock
  554.    routine is missing something.
  555. */
  556. printk(KERN_WARNING "Cannot make free space.n");
  557. return BLOCK_NIL;
  558. }
  559. //printk("Restarting scann");
  560. lastEUN = BLOCK_NIL;
  561. continue;
  562. }
  563. /* We've found a free block. Insert it into the chain. */
  564. if (lastEUN != BLOCK_NIL) {
  565.                     thisVUC |= 0x8000; /* It's a replacement block */
  566. } else {
  567.                     /* The first block in a new chain */
  568.                     nftl->EUNtable[thisVUC] = writeEUN;
  569. }
  570. /* set up the actual EUN we're writing into */
  571. /* Both in our cache... */
  572. nftl->ReplUnitTable[writeEUN] = BLOCK_NIL;
  573. /* ... and on the flash itself */
  574. MTD_READOOB(nftl->mtd, writeEUN * nftl->EraseSize + 8, 8,
  575.     &retlen, (char *)&oob.u);
  576. oob.u.a.VirtUnitNum = oob.u.a.SpareVirtUnitNum = cpu_to_le16(thisVUC);
  577. MTD_WRITEOOB(nftl->mtd, writeEUN * nftl->EraseSize + 8, 8,
  578.                              &retlen, (char *)&oob.u);
  579.                 /* we link the new block to the chain only after the
  580.                    block is ready. It avoids the case where the chain
  581.                    could point to a free block */
  582.                 if (lastEUN != BLOCK_NIL) {
  583. /* Both in our cache... */
  584. nftl->ReplUnitTable[lastEUN] = writeEUN;
  585. /* ... and on the flash itself */
  586. MTD_READOOB(nftl->mtd, (lastEUN * nftl->EraseSize) + 8,
  587.     8, &retlen, (char *)&oob.u);
  588. oob.u.a.ReplUnitNum = oob.u.a.SpareReplUnitNum
  589. = cpu_to_le16(writeEUN);
  590. MTD_WRITEOOB(nftl->mtd, (lastEUN * nftl->EraseSize) + 8,
  591.      8, &retlen, (char *)&oob.u);
  592. }
  593. return writeEUN;
  594. } while (silly2--);
  595. printk(KERN_WARNING "Error folding to make room for Virtual Unit Chain 0x%xn",
  596.        thisVUC);
  597. return 0xffff;
  598. }
  599. static int NFTL_writeblock(struct NFTLrecord *nftl, unsigned block, char *buffer)
  600. {
  601. u16 writeEUN;
  602. unsigned long blockofs = (block * 512) & (nftl->EraseSize - 1);
  603. size_t retlen;
  604. u8 eccbuf[6];
  605. writeEUN = NFTL_findwriteunit(nftl, block);
  606. if (writeEUN == BLOCK_NIL) {
  607. printk(KERN_WARNING
  608.        "NFTL_writeblock(): Cannot find block to write ton");
  609. /* If we _still_ haven't got a block to use, we're screwed */
  610. return 1;
  611. }
  612. MTD_WRITEECC(nftl->mtd, (writeEUN * nftl->EraseSize) + blockofs,
  613.      512, &retlen, (char *)buffer, (char *)eccbuf);
  614.         /* no need to write SECTOR_USED flags since they are written in mtd_writeecc */
  615. return 0;
  616. }
  617. #endif /* CONFIG_NFTL_RW */
  618. static int NFTL_readblock(struct NFTLrecord *nftl, unsigned block, char *buffer)
  619. {
  620. u16 lastgoodEUN;
  621. u16 thisEUN = nftl->EUNtable[block / (nftl->EraseSize / 512)];
  622. unsigned long blockofs = (block * 512) & (nftl->EraseSize - 1);
  623.         unsigned int status;
  624. int silly = MAX_LOOPS;
  625.         size_t retlen;
  626.         struct nftl_bci bci;
  627. lastgoodEUN = BLOCK_NIL;
  628.         if (thisEUN != BLOCK_NIL) {
  629. while (thisEUN < nftl->nb_blocks) {
  630. if (MTD_READOOB(nftl->mtd, (thisEUN * nftl->EraseSize) + blockofs,
  631. 8, &retlen, (char *)&bci) < 0)
  632. status = SECTOR_IGNORE;
  633. else
  634. status = bci.Status | bci.Status1;
  635. switch (status) {
  636. case SECTOR_FREE:
  637. /* no modification of a sector should follow a free sector */
  638. goto the_end;
  639. case SECTOR_DELETED:
  640. lastgoodEUN = BLOCK_NIL;
  641. break;
  642. case SECTOR_USED:
  643. lastgoodEUN = thisEUN;
  644. break;
  645. case SECTOR_IGNORE:
  646. break;
  647. default:
  648. printk("Unknown status for block %d in EUN %d: %xn",
  649.        block, thisEUN, status);
  650. break;
  651. }
  652. if (!silly--) {
  653. printk(KERN_WARNING "Infinite loop in Virtual Unit Chain 0x%xn",
  654.        block / (nftl->EraseSize / 512));
  655. return 1;
  656. }
  657. thisEUN = nftl->ReplUnitTable[thisEUN];
  658. }
  659.         }
  660.  the_end:
  661. if (lastgoodEUN == BLOCK_NIL) {
  662. /* the requested block is not on the media, return all 0x00 */
  663. memset(buffer, 0, 512);
  664. } else {
  665. loff_t ptr = (lastgoodEUN * nftl->EraseSize) + blockofs;
  666. size_t retlen;
  667. u_char eccbuf[6];
  668. if (MTD_READECC(nftl->mtd, ptr, 512, &retlen, buffer, eccbuf))
  669. return -EIO;
  670. }
  671. return 0;
  672. }
  673. static int nftl_ioctl(struct inode * inode, struct file * file, unsigned int cmd, unsigned long arg)
  674. {
  675. struct NFTLrecord *nftl;
  676. int p;
  677. nftl = NFTLs[MINOR(inode->i_rdev) >> NFTL_PARTN_BITS];
  678. if (!nftl) return -EINVAL;
  679. switch (cmd) {
  680. case HDIO_GETGEO: {
  681. struct hd_geometry g;
  682. g.heads = nftl->heads;
  683. g.sectors = nftl->sectors;
  684. g.cylinders = nftl->cylinders;
  685. g.start = part_table[MINOR(inode->i_rdev)].start_sect;
  686. return copy_to_user((void *)arg, &g, sizeof g) ? -EFAULT : 0;
  687. }
  688. case BLKGETSIZE:   /* Return device size */
  689. return put_user(part_table[MINOR(inode->i_rdev)].nr_sects,
  690.                                 (unsigned long *) arg);
  691. #ifdef BLKGETSIZE64
  692. case BLKGETSIZE64:
  693. return put_user((u64)part_table[MINOR(inode->i_rdev)].nr_sects << 9,
  694.                                 (u64 *)arg);
  695. #endif
  696. case BLKFLSBUF:
  697. if (!capable(CAP_SYS_ADMIN)) return -EACCES;
  698. fsync_dev(inode->i_rdev);
  699. invalidate_buffers(inode->i_rdev);
  700. if (nftl->mtd->sync)
  701. nftl->mtd->sync(nftl->mtd);
  702. return 0;
  703. case BLKRRPART:
  704. if (!capable(CAP_SYS_ADMIN)) return -EACCES;
  705. if (nftl->usecount > 1) return -EBUSY;
  706. /* 
  707.  * We have to flush all buffers and invalidate caches,
  708.  * or we won't be able to re-use the partitions,
  709.  * if there was a change and we don't want to reboot
  710.  */
  711. p = (1<<NFTL_PARTN_BITS) - 1;
  712. while (p-- > 0) {
  713. kdev_t devp = MKDEV(MAJOR(inode->i_dev), MINOR(inode->i_dev)+p);
  714. if (part_table[p].nr_sects > 0)
  715. invalidate_device (devp, 1);
  716. part_table[MINOR(inode->i_dev)+p].start_sect = 0;
  717. part_table[MINOR(inode->i_dev)+p].nr_sects = 0;
  718. }
  719. #if LINUX_VERSION_CODE < 0x20328
  720. resetup_one_dev(&nftl_gendisk, MINOR(inode->i_rdev) >> NFTL_PARTN_BITS);
  721. #else
  722. grok_partitions(&nftl_gendisk, MINOR(inode->i_rdev) >> NFTL_PARTN_BITS,
  723. 1<<NFTL_PARTN_BITS, nftl->nr_sects);
  724. #endif
  725. return 0;
  726. #if (LINUX_VERSION_CODE < 0x20303)
  727. RO_IOCTLS(inode->i_rdev, arg);  /* ref. linux/blk.h */
  728. #else
  729. case BLKROSET:
  730. case BLKROGET:
  731. case BLKSSZGET:
  732. return blk_ioctl(inode->i_rdev, cmd, arg);
  733. #endif
  734. default:
  735. return -EINVAL;
  736. }
  737. }
  738. void nftl_request(RQFUNC_ARG)
  739. {
  740. unsigned int dev, block, nsect;
  741. struct NFTLrecord *nftl;
  742. char *buffer;
  743. struct request *req;
  744. int res;
  745. while (1) {
  746. INIT_REQUEST; /* blk.h */
  747. req = CURRENT;
  748. /* We can do this because the generic code knows not to
  749.    touch the request at the head of the queue */
  750. spin_unlock_irq(&io_request_lock);
  751. DEBUG(MTD_DEBUG_LEVEL2, "NFTL_requestn");
  752. DEBUG(MTD_DEBUG_LEVEL3, "NFTL %s request, from sector 0x%04lx for 0x%04lx sectorsn",
  753.       (req->cmd == READ) ? "Read " : "Write",
  754.       req->sector, req->current_nr_sectors);
  755. dev = MINOR(req->rq_dev);
  756. block = req->sector;
  757. nsect = req->current_nr_sectors;
  758. buffer = req->buffer;
  759. res = 1; /* succeed */
  760. if (dev >= MAX_NFTLS * (1<<NFTL_PARTN_BITS)) {
  761. /* there is no such partition */
  762. printk("nftl: bad minor number: device = %sn",
  763.        kdevname(req->rq_dev));
  764. res = 0; /* fail */
  765. goto repeat;
  766. }
  767. nftl = NFTLs[dev / (1<<NFTL_PARTN_BITS)];
  768. DEBUG(MTD_DEBUG_LEVEL3, "Waiting for mutexn");
  769. down(&nftl->mutex);
  770. DEBUG(MTD_DEBUG_LEVEL3, "Got mutexn");
  771. if (block + nsect > part_table[dev].nr_sects) {
  772. /* access past the end of device */
  773. printk("nftl%c%d: bad access: block = %d, count = %dn",
  774.        (MINOR(req->rq_dev)>>6)+'a', dev & 0xf, block, nsect);
  775. up(&nftl->mutex);
  776. res = 0; /* fail */
  777. goto repeat;
  778. }
  779. block += part_table[dev].start_sect;
  780. if (req->cmd == READ) {
  781. DEBUG(MTD_DEBUG_LEVEL2, "NFTL read request of 0x%x sectors @ %x "
  782.       "(req->nr_sectors == %lx)n", nsect, block, req->nr_sectors);
  783. for ( ; nsect > 0; nsect-- , block++, buffer += 512) {
  784. /* Read a single sector to req->buffer + (512 * i) */
  785. if (NFTL_readblock(nftl, block, buffer)) {
  786. DEBUG(MTD_DEBUG_LEVEL2, "NFTL read request failedn");
  787. up(&nftl->mutex);
  788. res = 0;
  789. goto repeat;
  790. }
  791. }
  792. DEBUG(MTD_DEBUG_LEVEL2,"NFTL read request completed OKn");
  793. up(&nftl->mutex);
  794. goto repeat;
  795. } else if (req->cmd == WRITE) {
  796. DEBUG(MTD_DEBUG_LEVEL2, "NFTL write request of 0x%x sectors @ %x "
  797.       "(req->nr_sectors == %lx)n", nsect, block,
  798.       req->nr_sectors);
  799. #ifdef CONFIG_NFTL_RW
  800. for ( ; nsect > 0; nsect-- , block++, buffer += 512) {
  801. /* Read a single sector to req->buffer + (512 * i) */
  802. if (NFTL_writeblock(nftl, block, buffer)) {
  803. DEBUG(MTD_DEBUG_LEVEL1,"NFTL write request failedn");
  804. up(&nftl->mutex);
  805. res = 0;
  806. goto repeat;
  807. }
  808. }
  809. DEBUG(MTD_DEBUG_LEVEL2,"NFTL write request completed OKn");
  810. #else
  811. res = 0; /* Writes always fail */
  812. #endif /* CONFIG_NFTL_RW */
  813. up(&nftl->mutex);
  814. goto repeat;
  815. } else {
  816. DEBUG(MTD_DEBUG_LEVEL0, "NFTL unknown requestn");
  817. up(&nftl->mutex);
  818. res = 0;
  819. goto repeat;
  820. }
  821. repeat: 
  822. DEBUG(MTD_DEBUG_LEVEL3, "end_request(%d)n", res);
  823. spin_lock_irq(&io_request_lock);
  824. end_request(res);
  825. }
  826. }
  827. static int nftl_open(struct inode *ip, struct file *fp)
  828. {
  829. int nftlnum = MINOR(ip->i_rdev) >> NFTL_PARTN_BITS;
  830. struct NFTLrecord *thisNFTL;
  831. thisNFTL = NFTLs[nftlnum];
  832. DEBUG(MTD_DEBUG_LEVEL2,"NFTL_openn");
  833. #ifdef CONFIG_KMOD
  834. if (!thisNFTL && nftlnum == 0) {
  835. request_module("docprobe");
  836. thisNFTL = NFTLs[nftlnum];
  837. }
  838. #endif
  839. if (!thisNFTL) {
  840. DEBUG(MTD_DEBUG_LEVEL2,"ENODEV: thisNFTL = %d, minor = %d, ip = %p, fp = %pn", 
  841.       nftlnum, ip->i_rdev, ip, fp);
  842. return -ENODEV;
  843. }
  844. #ifndef CONFIG_NFTL_RW
  845. if (fp->f_mode & FMODE_WRITE)
  846. return -EROFS;
  847. #endif /* !CONFIG_NFTL_RW */
  848. thisNFTL->usecount++;
  849. BLK_INC_USE_COUNT;
  850. if (!get_mtd_device(thisNFTL->mtd, -1)) {
  851. BLK_DEC_USE_COUNT;
  852. return -ENXIO;
  853. }
  854. return 0;
  855. }
  856. static int nftl_release(struct inode *inode, struct file *fp)
  857. {
  858. struct NFTLrecord *thisNFTL;
  859. thisNFTL = NFTLs[MINOR(inode->i_rdev) / 16];
  860. DEBUG(MTD_DEBUG_LEVEL2, "NFTL_releasen");
  861. if (thisNFTL->mtd->sync)
  862. thisNFTL->mtd->sync(thisNFTL->mtd);
  863. thisNFTL->usecount--;
  864. BLK_DEC_USE_COUNT;
  865. put_mtd_device(thisNFTL->mtd);
  866. return 0;
  867. }
  868. #if LINUX_VERSION_CODE < 0x20326
  869. static struct file_operations nftl_fops = {
  870. read: block_read,
  871. write: block_write,
  872. ioctl: nftl_ioctl,
  873. open: nftl_open,
  874. release: nftl_release,
  875. fsync: block_fsync,
  876. };
  877. #else
  878. static struct block_device_operations nftl_fops = 
  879. {
  880. #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,4,14)
  881. owner: THIS_MODULE,
  882. #endif
  883. open: nftl_open,
  884. release: nftl_release,
  885. ioctl:  nftl_ioctl
  886. };
  887. #endif
  888. /****************************************************************************
  889.  *
  890.  * Module stuff
  891.  *
  892.  ****************************************************************************/
  893. static struct mtd_notifier nftl_notifier = {
  894. add: NFTL_notify_add,
  895. remove: NFTL_notify_remove
  896. };
  897. extern char nftlmountrev[];
  898. int __init init_nftl(void)
  899. {
  900. int i;
  901. #ifdef PRERELEASE 
  902. printk(KERN_INFO "NFTL driver: nftlcore.c $Revision: 1.86 $, nftlmount.c %sn", nftlmountrev);
  903. #endif
  904. if (register_blkdev(MAJOR_NR, "nftl", &nftl_fops)){
  905. printk("unable to register NFTL block device on major %dn", MAJOR_NR);
  906. return -EBUSY;
  907. } else {
  908. blk_init_queue(BLK_DEFAULT_QUEUE(MAJOR_NR), &nftl_request);
  909. /* set block size to 1kB each */
  910. for (i = 0; i < 256; i++) {
  911. nftl_blocksizes[i] = 1024;
  912. }
  913. blksize_size[MAJOR_NR] = nftl_blocksizes;
  914. add_gendisk(&nftl_gendisk);
  915. }
  916. register_mtd_user(&nftl_notifier);
  917. return 0;
  918. }
  919. static void __exit cleanup_nftl(void)
  920. {
  921.    unregister_mtd_user(&nftl_notifier);
  922.    unregister_blkdev(MAJOR_NR, "nftl");
  923.   
  924.    blk_cleanup_queue(BLK_DEFAULT_QUEUE(MAJOR_NR));
  925. del_gendisk(&nftl_gendisk);
  926. }
  927. module_init(init_nftl);
  928. module_exit(cleanup_nftl);
  929. MODULE_LICENSE("GPL");
  930. MODULE_AUTHOR("David Woodhouse <dwmw2@infradead.org>, Fabrice Bellard <fabrice.bellard@netgem.com> et al.");
  931. MODULE_DESCRIPTION("Support code for NAND Flash Translation Layer, used on M-Systems DiskOnChip 2000 and Millennium");