inode.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:57k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * inode.c
  3.  *
  4.  * PURPOSE
  5.  *  Inode handling routines for the OSTA-UDF(tm) filesystem.
  6.  *
  7.  * CONTACTS
  8.  *  E-mail regarding any portion of the Linux UDF file system should be
  9.  *  directed to the development team mailing list (run by majordomo):
  10.  *    linux_udf@hpesjro.fc.hp.com
  11.  *
  12.  * COPYRIGHT
  13.  *  This file is distributed under the terms of the GNU General Public
  14.  *  License (GPL). Copies of the GPL can be obtained from:
  15.  *    ftp://prep.ai.mit.edu/pub/gnu/GPL
  16.  *  Each contributing author retains all rights to their own work.
  17.  *
  18.  *  (C) 1998 Dave Boynton
  19.  *  (C) 1998-2000 Ben Fennema
  20.  *  (C) 1999-2000 Stelias Computing Inc
  21.  *
  22.  * HISTORY
  23.  *
  24.  *  10/04/98 dgb  Added rudimentary directory functions
  25.  *  10/07/98      Fully working udf_block_map! It works!
  26.  *  11/25/98      bmap altered to better support extents
  27.  *  12/06/98 blf  partition support in udf_iget, udf_block_map and udf_read_inode
  28.  *  12/12/98      rewrote udf_block_map to handle next extents and descs across
  29.  *                block boundaries (which is not actually allowed)
  30.  *  12/20/98      added support for strategy 4096
  31.  *  03/07/99      rewrote udf_block_map (again)
  32.  *                New funcs, inode_bmap, udf_next_aext
  33.  *  04/19/99      Support for writing device EA's for major/minor #
  34.  */
  35. #include "udfdecl.h"
  36. #include <linux/locks.h>
  37. #include <linux/mm.h>
  38. #include <linux/smp_lock.h>
  39. #include <linux/module.h>
  40. #include "udf_i.h"
  41. #include "udf_sb.h"
  42. MODULE_AUTHOR("Ben Fennema");
  43. MODULE_DESCRIPTION("Universal Disk Format Filesystem");
  44. MODULE_LICENSE("GPL");
  45. #define EXTENT_MERGE_SIZE 5
  46. static mode_t udf_convert_permissions(struct FileEntry *);
  47. static int udf_update_inode(struct inode *, int);
  48. static void udf_fill_inode(struct inode *, struct buffer_head *);
  49. static struct buffer_head *inode_getblk(struct inode *, long, int *, long *, int *);
  50. static void udf_split_extents(struct inode *, int *, int, int,
  51. long_ad [EXTENT_MERGE_SIZE], int *);
  52. static void udf_prealloc_extents(struct inode *, int, int,
  53.  long_ad [EXTENT_MERGE_SIZE], int *);
  54. static void udf_merge_extents(struct inode *,
  55.  long_ad [EXTENT_MERGE_SIZE], int *);
  56. static void udf_update_extents(struct inode *,
  57. long_ad [EXTENT_MERGE_SIZE], int, int,
  58. lb_addr, Uint32, struct buffer_head **);
  59. static int udf_get_block(struct inode *, long, struct buffer_head *, int);
  60. /*
  61.  * udf_put_inode
  62.  *
  63.  * PURPOSE
  64.  *
  65.  * DESCRIPTION
  66.  * This routine is called whenever the kernel no longer needs the inode.
  67.  *
  68.  * HISTORY
  69.  * July 1, 1997 - Andrew E. Mileski
  70.  * Written, tested, and released.
  71.  *
  72.  *  Called at each iput()
  73.  */
  74. void udf_put_inode(struct inode * inode)
  75. {
  76. if (!(inode->i_sb->s_flags & MS_RDONLY))
  77. {
  78. lock_kernel();
  79. udf_discard_prealloc(inode);
  80. /* write the root inode on put, if dirty */
  81. if (!inode->i_sb->s_root && inode->i_state & I_DIRTY)
  82. udf_update_inode(inode, IS_SYNC(inode));
  83. unlock_kernel();
  84. }
  85. }
  86. /*
  87.  * udf_delete_inode
  88.  *
  89.  * PURPOSE
  90.  * Clean-up before the specified inode is destroyed.
  91.  *
  92.  * DESCRIPTION
  93.  * This routine is called when the kernel destroys an inode structure
  94.  * ie. when iput() finds i_count == 0.
  95.  *
  96.  * HISTORY
  97.  * July 1, 1997 - Andrew E. Mileski
  98.  * Written, tested, and released.
  99.  *
  100.  *  Called at the last iput() if i_nlink is zero.
  101.  */
  102. void udf_delete_inode(struct inode * inode)
  103. {
  104. lock_kernel();
  105. if (is_bad_inode(inode))
  106. goto no_delete;
  107. inode->i_size = 0;
  108. udf_truncate(inode);
  109. udf_update_inode(inode, IS_SYNC(inode));
  110. udf_free_inode(inode);
  111. unlock_kernel();
  112. return;
  113. no_delete:
  114. unlock_kernel();
  115. clear_inode(inode);
  116. }
  117. void udf_discard_prealloc(struct inode * inode)
  118. {
  119. if (inode->i_size && inode->i_size != UDF_I_LENEXTENTS(inode) &&
  120. UDF_I_ALLOCTYPE(inode) != ICB_FLAG_AD_IN_ICB)
  121. {
  122. udf_truncate_extents(inode);
  123. }
  124. }
  125. static int udf_writepage(struct page *page)
  126. {
  127. return block_write_full_page(page, udf_get_block);
  128. }
  129. static int udf_readpage(struct file *file, struct page *page)
  130. {
  131. return block_read_full_page(page, udf_get_block);
  132. }
  133. static int udf_prepare_write(struct file *file, struct page *page, unsigned from, unsigned to)
  134. {
  135. return block_prepare_write(page, from, to, udf_get_block);
  136. }
  137. static int udf_bmap(struct address_space *mapping, long block)
  138. {
  139. return generic_block_bmap(mapping,block,udf_get_block);
  140. }
  141. struct address_space_operations udf_aops = {
  142. readpage: udf_readpage,
  143. writepage: udf_writepage,
  144. sync_page: block_sync_page,
  145. prepare_write: udf_prepare_write,
  146. commit_write: generic_commit_write,
  147. bmap: udf_bmap,
  148. };
  149. void udf_expand_file_adinicb(struct inode * inode, int newsize, int * err)
  150. {
  151. struct buffer_head *bh = NULL;
  152. struct page *page;
  153. char *kaddr;
  154. int block;
  155. /* from now on we have normal address_space methods */
  156. inode->i_data.a_ops = &udf_aops;
  157. if (!UDF_I_LENALLOC(inode))
  158. {
  159. if (UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_USE_SHORT_AD))
  160. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_SHORT;
  161. else
  162. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_LONG;
  163. mark_inode_dirty(inode);
  164. return;
  165. }
  166. block = udf_get_lb_pblock(inode->i_sb, UDF_I_LOCATION(inode), 0);
  167. bh = udf_tread(inode->i_sb, block);
  168. if (!bh)
  169. return;
  170. page = grab_cache_page(inode->i_mapping, 0);
  171. if (!PageLocked(page))
  172. PAGE_BUG(page);
  173. if (!Page_Uptodate(page))
  174. {
  175. kaddr = kmap(page);
  176. memset(kaddr + UDF_I_LENALLOC(inode), 0x00,
  177. PAGE_CACHE_SIZE - UDF_I_LENALLOC(inode));
  178. memcpy(kaddr, bh->b_data + udf_file_entry_alloc_offset(inode),
  179. UDF_I_LENALLOC(inode));
  180. flush_dcache_page(page);
  181. SetPageUptodate(page);
  182. kunmap(page);
  183. }
  184. memset(bh->b_data + udf_file_entry_alloc_offset(inode),
  185. 0, UDF_I_LENALLOC(inode));
  186. UDF_I_LENALLOC(inode) = 0;
  187. if (UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_USE_SHORT_AD))
  188. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_SHORT;
  189. else
  190. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_LONG;
  191. mark_buffer_dirty_inode(bh, inode);
  192. udf_release_data(bh);
  193. inode->i_data.a_ops->writepage(page);
  194. page_cache_release(page);
  195. mark_inode_dirty(inode);
  196. inode->i_version ++;
  197. }
  198. struct buffer_head * udf_expand_dir_adinicb(struct inode *inode, int *block, int *err)
  199. {
  200. int newblock;
  201. struct buffer_head *sbh = NULL, *dbh = NULL;
  202. lb_addr bloc, eloc;
  203. Uint32 elen, extoffset;
  204. struct udf_fileident_bh sfibh, dfibh;
  205. loff_t f_pos = udf_ext0_offset(inode) >> 2;
  206. int size = (udf_ext0_offset(inode) + inode->i_size) >> 2;
  207. struct FileIdentDesc cfi, *sfi, *dfi;
  208. if (!inode->i_size)
  209. {
  210. if (UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_USE_SHORT_AD))
  211. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_SHORT;
  212. else
  213. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_LONG;
  214. mark_inode_dirty(inode);
  215. return NULL;
  216. }
  217. /* alloc block, and copy data to it */
  218. *block = udf_new_block(inode->i_sb, inode,
  219. UDF_I_LOCATION(inode).partitionReferenceNum,
  220. UDF_I_LOCATION(inode).logicalBlockNum, err);
  221. if (!(*block))
  222. return NULL;
  223. newblock = udf_get_pblock(inode->i_sb, *block,
  224. UDF_I_LOCATION(inode).partitionReferenceNum, 0);
  225. if (!newblock)
  226. return NULL;
  227. sbh = udf_tread(inode->i_sb, inode->i_ino);
  228. if (!sbh)
  229. return NULL;
  230. dbh = udf_tgetblk(inode->i_sb, newblock);
  231. if (!dbh)
  232. return NULL;
  233. lock_buffer(dbh);
  234. memset(dbh->b_data, 0x00, inode->i_sb->s_blocksize);
  235. mark_buffer_uptodate(dbh, 1);
  236. unlock_buffer(dbh);
  237. mark_buffer_dirty_inode(dbh, inode);
  238. sfibh.soffset = sfibh.eoffset = (f_pos & ((inode->i_sb->s_blocksize - 1) >> 2)) << 2;
  239. sfibh.sbh = sfibh.ebh = sbh;
  240. dfibh.soffset = dfibh.eoffset = 0;
  241. dfibh.sbh = dfibh.ebh = dbh;
  242. while ( (f_pos < size) )
  243. {
  244. sfi = udf_fileident_read(inode, &f_pos, &sfibh, &cfi, NULL, NULL, NULL, NULL, NULL, NULL);
  245. if (!sfi)
  246. {
  247. udf_release_data(sbh);
  248. udf_release_data(dbh);
  249. return NULL;
  250. }
  251. sfi->descTag.tagLocation = *block;
  252. dfibh.soffset = dfibh.eoffset;
  253. dfibh.eoffset += (sfibh.eoffset - sfibh.soffset);
  254. dfi = (struct FileIdentDesc *)(dbh->b_data + dfibh.soffset);
  255. if (udf_write_fi(inode, sfi, dfi, &dfibh, sfi->impUse,
  256. sfi->fileIdent + sfi->lengthOfImpUse))
  257. {
  258. udf_release_data(sbh);
  259. udf_release_data(dbh);
  260. return NULL;
  261. }
  262. }
  263. mark_buffer_dirty_inode(dbh, inode);
  264. memset(sbh->b_data + udf_file_entry_alloc_offset(inode),
  265. 0, UDF_I_LENALLOC(inode));
  266. UDF_I_LENALLOC(inode) = 0;
  267. if (UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_USE_SHORT_AD))
  268. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_SHORT;
  269. else
  270. UDF_I_ALLOCTYPE(inode) = ICB_FLAG_AD_LONG;
  271. bloc = UDF_I_LOCATION(inode);
  272. eloc.logicalBlockNum = *block;
  273. eloc.partitionReferenceNum = UDF_I_LOCATION(inode).partitionReferenceNum;
  274. elen = inode->i_size;
  275. UDF_I_LENEXTENTS(inode) = elen;
  276. extoffset = udf_file_entry_alloc_offset(inode);
  277. udf_add_aext(inode, &bloc, &extoffset, eloc, elen, &sbh, 0);
  278. /* UniqueID stuff */
  279. mark_buffer_dirty(sbh);
  280. udf_release_data(sbh);
  281. mark_inode_dirty(inode);
  282. inode->i_version ++;
  283. return dbh;
  284. }
  285. static int udf_get_block(struct inode *inode, long block, struct buffer_head *bh_result, int create)
  286. {
  287. int err, new;
  288. struct buffer_head *bh;
  289. unsigned long phys;
  290. if (!create)
  291. {
  292. phys = udf_block_map(inode, block);
  293. if (phys)
  294. {
  295. bh_result->b_dev = inode->i_dev;
  296. bh_result->b_blocknr = phys;
  297. bh_result->b_state |= (1UL << BH_Mapped);
  298. }
  299. return 0;
  300. }
  301. err = -EIO;
  302. new = 0;
  303. bh = NULL;
  304. lock_kernel();
  305. if (block < 0)
  306. goto abort_negative;
  307. if (block == UDF_I_NEXT_ALLOC_BLOCK(inode) + 1)
  308. {
  309. UDF_I_NEXT_ALLOC_BLOCK(inode) ++;
  310. UDF_I_NEXT_ALLOC_GOAL(inode) ++;
  311. }
  312. err = 0;
  313. bh = inode_getblk(inode, block, &err, &phys, &new);
  314. if (bh)
  315. BUG();
  316. if (err)
  317. goto abort;
  318. if (!phys)
  319. BUG();
  320. bh_result->b_dev = inode->i_dev;
  321. bh_result->b_blocknr = phys;
  322. bh_result->b_state |= (1UL << BH_Mapped);
  323. if (new)
  324. bh_result->b_state |= (1UL << BH_New);
  325. abort:
  326. unlock_kernel();
  327. return err;
  328. abort_negative:
  329. udf_warning(inode->i_sb, "udf_get_block", "block < 0");
  330. goto abort;
  331. }
  332. struct buffer_head * udf_getblk(struct inode * inode, long block,
  333. int create, int * err)
  334. {
  335. struct buffer_head dummy;
  336. dummy.b_state = 0;
  337. dummy.b_blocknr = -1000;
  338. *err = udf_get_block(inode, block, &dummy, create);
  339. if (!*err && buffer_mapped(&dummy))
  340. {
  341. struct buffer_head *bh;
  342. bh = sb_getblk(inode->i_sb, dummy.b_blocknr);
  343. if (buffer_new(&dummy))
  344. {
  345. lock_buffer(bh);
  346. memset(bh->b_data, 0x00, inode->i_sb->s_blocksize);
  347. mark_buffer_uptodate(bh, 1);
  348. unlock_buffer(bh);
  349. mark_buffer_dirty_inode(bh, inode);
  350. }
  351. return bh;
  352. }
  353. return NULL;
  354. }
  355. static struct buffer_head * inode_getblk(struct inode * inode, long block,
  356. int *err, long *phys, int *new)
  357. {
  358. struct buffer_head *pbh = NULL, *cbh = NULL, *nbh = NULL, *result = NULL;
  359. long_ad laarr[EXTENT_MERGE_SIZE];
  360. Uint32 pextoffset = 0, cextoffset = 0, nextoffset = 0;
  361. int count = 0, startnum = 0, endnum = 0;
  362. Uint32 elen = 0;
  363. lb_addr eloc, pbloc, cbloc, nbloc;
  364. int c = 1;
  365. Uint64 lbcount = 0, b_off = 0;
  366. Uint32 newblocknum, newblock, offset = 0;
  367. Sint8 etype;
  368. int goal = 0, pgoal = UDF_I_LOCATION(inode).logicalBlockNum;
  369. char lastblock = 0;
  370. pextoffset = cextoffset = nextoffset = udf_file_entry_alloc_offset(inode);
  371. b_off = (Uint64)block << inode->i_sb->s_blocksize_bits;
  372. pbloc = cbloc = nbloc = UDF_I_LOCATION(inode);
  373. /* find the extent which contains the block we are looking for.
  374.        alternate between laarr[0] and laarr[1] for locations of the
  375.        current extent, and the previous extent */
  376. do
  377. {
  378. if (pbh != cbh)
  379. {
  380. udf_release_data(pbh);
  381. atomic_inc(&cbh->b_count);
  382. pbh = cbh;
  383. }
  384. if (cbh != nbh)
  385. {
  386. udf_release_data(cbh);
  387. atomic_inc(&nbh->b_count);
  388. cbh = nbh;
  389. }
  390. lbcount += elen;
  391. pbloc = cbloc;
  392. cbloc = nbloc;
  393. pextoffset = cextoffset;
  394. cextoffset = nextoffset;
  395. if ((etype = udf_next_aext(inode, &nbloc, &nextoffset, &eloc, &elen, &nbh, 1)) == -1)
  396. break;
  397. c = !c;
  398. laarr[c].extLength = (etype << 30) | elen;
  399. laarr[c].extLocation = eloc;
  400. if (etype != EXTENT_NOT_RECORDED_NOT_ALLOCATED)
  401. pgoal = eloc.logicalBlockNum +
  402. ((elen + inode->i_sb->s_blocksize - 1) >>
  403. inode->i_sb->s_blocksize_bits);
  404. count ++;
  405. } while (lbcount + elen <= b_off);
  406. b_off -= lbcount;
  407. offset = b_off >> inode->i_sb->s_blocksize_bits;
  408. /* if the extent is allocated and recorded, return the block
  409.        if the extent is not a multiple of the blocksize, round up */
  410. if (etype == EXTENT_RECORDED_ALLOCATED)
  411. {
  412. if (elen & (inode->i_sb->s_blocksize - 1))
  413. {
  414. elen = (EXTENT_RECORDED_ALLOCATED << 30) |
  415. ((elen + inode->i_sb->s_blocksize - 1) &
  416. ~(inode->i_sb->s_blocksize - 1));
  417. etype = udf_write_aext(inode, nbloc, &cextoffset, eloc, elen, nbh, 1);
  418. }
  419. udf_release_data(pbh);
  420. udf_release_data(cbh);
  421. udf_release_data(nbh);
  422. newblock = udf_get_lb_pblock(inode->i_sb, eloc, offset);
  423. *phys = newblock;
  424. return NULL;
  425. }
  426. if (etype == -1)
  427. {
  428. endnum = startnum = ((count > 1) ? 1 : count);
  429. if (laarr[c].extLength & (inode->i_sb->s_blocksize - 1))
  430. {
  431. laarr[c].extLength =
  432. (laarr[c].extLength & UDF_EXTENT_FLAG_MASK) |
  433. (((laarr[c].extLength & UDF_EXTENT_LENGTH_MASK) +
  434. inode->i_sb->s_blocksize - 1) &
  435. ~(inode->i_sb->s_blocksize - 1));
  436. UDF_I_LENEXTENTS(inode) =
  437. (UDF_I_LENEXTENTS(inode) + inode->i_sb->s_blocksize - 1) &
  438. ~(inode->i_sb->s_blocksize - 1);
  439. }
  440. c = !c;
  441. laarr[c].extLength = (EXTENT_NOT_RECORDED_NOT_ALLOCATED << 30) |
  442. ((offset + 1) << inode->i_sb->s_blocksize_bits);
  443. memset(&laarr[c].extLocation, 0x00, sizeof(lb_addr));
  444. count ++;
  445. endnum ++;
  446. lastblock = 1;
  447. }
  448. else
  449. endnum = startnum = ((count > 2) ? 2 : count);
  450. /* if the current extent is in position 0, swap it with the previous */
  451. if (!c && count != 1)
  452. {
  453. laarr[2] = laarr[0];
  454. laarr[0] = laarr[1];
  455. laarr[1] = laarr[2];
  456. c = 1;
  457. }
  458. /* if the current block is located in a extent, read the next extent */
  459. if (etype != -1)
  460. {
  461. if ((etype = udf_next_aext(inode, &nbloc, &nextoffset, &eloc, &elen, &nbh, 0)) != -1)
  462. {
  463. laarr[c+1].extLength = (etype << 30) | elen;
  464. laarr[c+1].extLocation = eloc;
  465. count ++;
  466. startnum ++;
  467. endnum ++;
  468. }
  469. else
  470. lastblock = 1;
  471. }
  472. udf_release_data(nbh);
  473. if (!pbh)
  474. pbh = cbh;
  475. else
  476. udf_release_data(cbh);
  477. /* if the current extent is not recorded but allocated, get the
  478. block in the extent corresponding to the requested block */
  479. if ((laarr[c].extLength >> 30) == EXTENT_NOT_RECORDED_ALLOCATED)
  480. newblocknum = laarr[c].extLocation.logicalBlockNum + offset;
  481. else /* otherwise, allocate a new block */
  482. {
  483. if (UDF_I_NEXT_ALLOC_BLOCK(inode) == block)
  484. goal = UDF_I_NEXT_ALLOC_GOAL(inode);
  485. if (!goal)
  486. {
  487. if (!(goal = pgoal))
  488. goal = UDF_I_LOCATION(inode).logicalBlockNum + 1;
  489. }
  490. if (!(newblocknum = udf_new_block(inode->i_sb, inode,
  491. UDF_I_LOCATION(inode).partitionReferenceNum, goal, err)))
  492. {
  493. udf_release_data(pbh);
  494. *err = -ENOSPC;
  495. return NULL;
  496. }
  497. UDF_I_LENEXTENTS(inode) += inode->i_sb->s_blocksize;
  498. }
  499. /* if the extent the requsted block is located in contains multiple blocks,
  500.        split the extent into at most three extents. blocks prior to requested
  501.        block, requested block, and blocks after requested block */
  502. udf_split_extents(inode, &c, offset, newblocknum, laarr, &endnum);
  503. #ifdef UDF_PREALLOCATE
  504. /* preallocate blocks */
  505. udf_prealloc_extents(inode, c, lastblock, laarr, &endnum);
  506. #endif
  507. /* merge any continuous blocks in laarr */
  508. udf_merge_extents(inode, laarr, &endnum);
  509. /* write back the new extents, inserting new extents if the new number
  510.        of extents is greater than the old number, and deleting extents if
  511.        the new number of extents is less than the old number */
  512. udf_update_extents(inode, laarr, startnum, endnum, pbloc, pextoffset, &pbh);
  513. udf_release_data(pbh);
  514. if (!(newblock = udf_get_pblock(inode->i_sb, newblocknum,
  515. UDF_I_LOCATION(inode).partitionReferenceNum, 0)))
  516. {
  517. return NULL;
  518. }
  519. *phys = newblock;
  520. *err = 0;
  521. *new = 1;
  522. UDF_I_NEXT_ALLOC_BLOCK(inode) = block;
  523. UDF_I_NEXT_ALLOC_GOAL(inode) = newblocknum;
  524. inode->i_ctime = CURRENT_TIME;
  525. UDF_I_UCTIME(inode) = CURRENT_UTIME;
  526. if (IS_SYNC(inode))
  527. udf_sync_inode(inode);
  528. else
  529. mark_inode_dirty(inode);
  530. return result;
  531. }
  532. static void udf_split_extents(struct inode *inode, int *c, int offset, int newblocknum,
  533. long_ad laarr[EXTENT_MERGE_SIZE], int *endnum)
  534. {
  535. if ((laarr[*c].extLength >> 30) == EXTENT_NOT_RECORDED_ALLOCATED ||
  536. (laarr[*c].extLength >> 30) == EXTENT_NOT_RECORDED_NOT_ALLOCATED)
  537. {
  538. int curr = *c;
  539. int blen = ((laarr[curr].extLength & UDF_EXTENT_LENGTH_MASK) +
  540. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits;
  541. int type = laarr[curr].extLength & ~UDF_EXTENT_LENGTH_MASK;
  542. if (blen == 1)
  543. ;
  544. else if (!offset || blen == offset + 1)
  545. {
  546. laarr[curr+2] = laarr[curr+1];
  547. laarr[curr+1] = laarr[curr];
  548. }
  549. else
  550. {
  551. laarr[curr+3] = laarr[curr+1];
  552. laarr[curr+2] = laarr[curr+1] = laarr[curr];
  553. }
  554. if (offset)
  555. {
  556. if ((type >> 30) == EXTENT_NOT_RECORDED_ALLOCATED)
  557. {
  558. udf_free_blocks(inode->i_sb, inode, laarr[curr].extLocation, 0, offset);
  559. laarr[curr].extLength = (EXTENT_NOT_RECORDED_NOT_ALLOCATED << 30) |
  560. (offset << inode->i_sb->s_blocksize_bits);
  561. laarr[curr].extLocation.logicalBlockNum = 0;
  562. laarr[curr].extLocation.partitionReferenceNum = 0;
  563. }
  564. else
  565. laarr[curr].extLength = type |
  566. (offset << inode->i_sb->s_blocksize_bits);
  567. curr ++;
  568. (*c) ++;
  569. (*endnum) ++;
  570. }
  571. laarr[curr].extLocation.logicalBlockNum = newblocknum;
  572. if ((type >> 30) == EXTENT_NOT_RECORDED_NOT_ALLOCATED)
  573. laarr[curr].extLocation.partitionReferenceNum =
  574. UDF_I_LOCATION(inode).partitionReferenceNum;
  575. laarr[curr].extLength = (EXTENT_RECORDED_ALLOCATED << 30) |
  576. inode->i_sb->s_blocksize;
  577. curr ++;
  578. if (blen != offset + 1)
  579. {
  580. if ((type >> 30) == EXTENT_NOT_RECORDED_ALLOCATED)
  581. laarr[curr].extLocation.logicalBlockNum += (offset + 1);
  582. laarr[curr].extLength = type |
  583. ((blen - (offset + 1)) << inode->i_sb->s_blocksize_bits);
  584. curr ++;
  585. (*endnum) ++;
  586. }
  587. }
  588. }
  589. static void udf_prealloc_extents(struct inode *inode, int c, int lastblock,
  590.  long_ad laarr[EXTENT_MERGE_SIZE], int *endnum)
  591. {
  592. int start, length = 0, currlength = 0, i;
  593. if (*endnum >= (c+1))
  594. {
  595. if (!lastblock)
  596. return;
  597. else
  598. start = c;
  599. }
  600. else
  601. {
  602. if ((laarr[c+1].extLength >> 30) == EXTENT_NOT_RECORDED_ALLOCATED)
  603. {
  604. start = c+1;
  605. length = currlength = (((laarr[c+1].extLength & UDF_EXTENT_LENGTH_MASK) +
  606. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits);
  607. }
  608. else
  609. start = c;
  610. }
  611. for (i=start+1; i<=*endnum; i++)
  612. {
  613. if (i == *endnum)
  614. {
  615. if (lastblock)
  616. length += UDF_DEFAULT_PREALLOC_BLOCKS;
  617. }
  618. else if ((laarr[i].extLength >> 30) == EXTENT_NOT_RECORDED_NOT_ALLOCATED)
  619. length += (((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  620. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits);
  621. else
  622. break;
  623. }
  624. if (length)
  625. {
  626. int next = laarr[start].extLocation.logicalBlockNum +
  627. (((laarr[start].extLength & UDF_EXTENT_LENGTH_MASK) +
  628. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits);
  629. int numalloc = udf_prealloc_blocks(inode->i_sb, inode,
  630. laarr[start].extLocation.partitionReferenceNum,
  631. next, (UDF_DEFAULT_PREALLOC_BLOCKS > length ? length :
  632. UDF_DEFAULT_PREALLOC_BLOCKS) - currlength);
  633. if (numalloc)
  634. {
  635. UDF_I_LENEXTENTS(inode) += numalloc << inode->i_sb->s_blocksize_bits;
  636. if (start == (c+1))
  637. laarr[start].extLength +=
  638. (numalloc << inode->i_sb->s_blocksize_bits);
  639. else
  640. {
  641. memmove(&laarr[c+2], &laarr[c+1],
  642. sizeof(long_ad) * (*endnum - (c+1)));
  643. (*endnum) ++;
  644. laarr[c+1].extLocation.logicalBlockNum = next;
  645. laarr[c+1].extLocation.partitionReferenceNum =
  646. laarr[c].extLocation.partitionReferenceNum;
  647. laarr[c+1].extLength = (EXTENT_NOT_RECORDED_ALLOCATED << 30) |
  648. (numalloc << inode->i_sb->s_blocksize_bits);
  649. start = c+1;
  650. }
  651. for (i=start+1; numalloc && i<*endnum; i++)
  652. {
  653. int elen = ((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  654. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits;
  655. if (elen > numalloc)
  656. {
  657. laarr[c+1].extLength -=
  658. (numalloc << inode->i_sb->s_blocksize_bits);
  659. numalloc = 0;
  660. }
  661. else
  662. {
  663. numalloc -= elen;
  664. if (*endnum > (i+1))
  665. memmove(&laarr[i], &laarr[i+1], 
  666. sizeof(long_ad) * (*endnum - (i+1)));
  667. i --;
  668. (*endnum) --;
  669. }
  670. }
  671. }
  672. }
  673. }
  674. static void udf_merge_extents(struct inode *inode,
  675.  long_ad laarr[EXTENT_MERGE_SIZE], int *endnum)
  676. {
  677. int i;
  678. for (i=0; i<(*endnum-1); i++)
  679. {
  680. if ((laarr[i].extLength >> 30) == (laarr[i+1].extLength >> 30))
  681. {
  682. if (((laarr[i].extLength >> 30) == EXTENT_NOT_RECORDED_NOT_ALLOCATED) ||
  683. ((laarr[i+1].extLocation.logicalBlockNum - laarr[i].extLocation.logicalBlockNum) ==
  684. (((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  685. inode->i_sb->s_blocksize - 1) >> inode->i_sb->s_blocksize_bits)))
  686. {
  687. if (((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  688. (laarr[i+1].extLength & UDF_EXTENT_LENGTH_MASK) +
  689. inode->i_sb->s_blocksize - 1) & ~UDF_EXTENT_LENGTH_MASK)
  690. {
  691. laarr[i+1].extLength = (laarr[i+1].extLength -
  692. (laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  693. UDF_EXTENT_LENGTH_MASK) & ~(inode->i_sb->s_blocksize-1);
  694. laarr[i].extLength = (UDF_EXTENT_LENGTH_MASK + 1) -
  695. inode->i_sb->s_blocksize;
  696. laarr[i+1].extLocation.logicalBlockNum =
  697. laarr[i].extLocation.logicalBlockNum +
  698. ((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) >>
  699. inode->i_sb->s_blocksize_bits);
  700. }
  701. else
  702. {
  703. laarr[i].extLength = laarr[i+1].extLength +
  704. (((laarr[i].extLength & UDF_EXTENT_LENGTH_MASK) +
  705. inode->i_sb->s_blocksize - 1) & ~(inode->i_sb->s_blocksize-1));
  706. if (*endnum > (i+2))
  707. memmove(&laarr[i+1], &laarr[i+2],
  708. sizeof(long_ad) * (*endnum - (i+2)));
  709. i --;
  710. (*endnum) --;
  711. }
  712. }
  713. }
  714. }
  715. }
  716. static void udf_update_extents(struct inode *inode,
  717. long_ad laarr[EXTENT_MERGE_SIZE], int startnum, int endnum,
  718. lb_addr pbloc, Uint32 pextoffset, struct buffer_head **pbh)
  719. {
  720. int start = 0, i;
  721. lb_addr tmploc;
  722. Uint32 tmplen;
  723. if (startnum > endnum)
  724. {
  725. for (i=0; i<(startnum-endnum); i++)
  726. {
  727. udf_delete_aext(inode, pbloc, pextoffset, laarr[i].extLocation,
  728. laarr[i].extLength, *pbh);
  729. }
  730. }
  731. else if (startnum < endnum)
  732. {
  733. for (i=0; i<(endnum-startnum); i++)
  734. {
  735. udf_insert_aext(inode, pbloc, pextoffset, laarr[i].extLocation,
  736. laarr[i].extLength, *pbh);
  737. udf_next_aext(inode, &pbloc, &pextoffset, &laarr[i].extLocation,
  738. &laarr[i].extLength, pbh, 1);
  739. start ++;
  740. }
  741. }
  742. for (i=start; i<endnum; i++)
  743. {
  744. udf_next_aext(inode, &pbloc, &pextoffset, &tmploc, &tmplen, pbh, 0);
  745. udf_write_aext(inode, pbloc, &pextoffset, laarr[i].extLocation,
  746. laarr[i].extLength, *pbh, 1);
  747. }
  748. }
  749. struct buffer_head * udf_bread(struct inode * inode, int block,
  750. int create, int * err)
  751. {
  752. struct buffer_head * bh = NULL;
  753. bh = udf_getblk(inode, block, create, err);
  754. if (!bh)
  755. return NULL;
  756. if (buffer_uptodate(bh))
  757. return bh;
  758. ll_rw_block(READ, 1, &bh);
  759. wait_on_buffer(bh);
  760. if (buffer_uptodate(bh))
  761. return bh;
  762. brelse(bh);
  763. *err = -EIO;
  764. return NULL;
  765. }
  766. void udf_truncate(struct inode * inode)
  767. {
  768. int offset;
  769. struct buffer_head *bh;
  770. int err;
  771. if (!(S_ISREG(inode->i_mode) || S_ISDIR(inode->i_mode) ||
  772. S_ISLNK(inode->i_mode)))
  773. return;
  774. if (IS_APPEND(inode) || IS_IMMUTABLE(inode))
  775. return;
  776. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_IN_ICB)
  777. {
  778. if (inode->i_sb->s_blocksize < (udf_file_entry_alloc_offset(inode) +
  779. inode->i_size))
  780. {
  781. udf_expand_file_adinicb(inode, inode->i_size, &err);
  782. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_IN_ICB)
  783. {
  784. inode->i_size = UDF_I_LENALLOC(inode);
  785. return;
  786. }
  787. else
  788. udf_truncate_extents(inode);
  789. }
  790. else
  791. {
  792. offset = (inode->i_size & (inode->i_sb->s_blocksize - 1)) +
  793. udf_file_entry_alloc_offset(inode);
  794. if ((bh = udf_tread(inode->i_sb,
  795. udf_get_lb_pblock(inode->i_sb, UDF_I_LOCATION(inode), 0))))
  796. {
  797. memset(bh->b_data + offset, 0x00, inode->i_sb->s_blocksize - offset);
  798. mark_buffer_dirty(bh);
  799. udf_release_data(bh);
  800. }
  801. UDF_I_LENALLOC(inode) = inode->i_size;
  802. }
  803. }
  804. else
  805. {
  806. block_truncate_page(inode->i_mapping, inode->i_size, udf_get_block);
  807. udf_truncate_extents(inode);
  808. }
  809. inode->i_mtime = inode->i_ctime = CURRENT_TIME;
  810. UDF_I_UMTIME(inode) = UDF_I_UCTIME(inode) = CURRENT_UTIME;
  811. if (IS_SYNC(inode))
  812. udf_sync_inode (inode);
  813. else
  814. mark_inode_dirty(inode);
  815. }
  816. /*
  817.  * udf_read_inode
  818.  *
  819.  * PURPOSE
  820.  * Read an inode.
  821.  *
  822.  * DESCRIPTION
  823.  * This routine is called by iget() [which is called by udf_iget()]
  824.  *      (clean_inode() will have been called first)
  825.  * when an inode is first read into memory.
  826.  *
  827.  * HISTORY
  828.  * July 1, 1997 - Andrew E. Mileski
  829.  * Written, tested, and released.
  830.  *
  831.  * 12/19/98 dgb  Updated to fix size problems.
  832.  */
  833. void
  834. udf_read_inode(struct inode *inode)
  835. {
  836. memset(&UDF_I_LOCATION(inode), 0xFF, sizeof(lb_addr));
  837. }
  838. void
  839. __udf_read_inode(struct inode *inode)
  840. {
  841. struct buffer_head *bh = NULL;
  842. struct FileEntry *fe;
  843. Uint16 ident;
  844. /*
  845.  * Set defaults, but the inode is still incomplete!
  846.  * Note: get_new_inode() sets the following on a new inode:
  847.  *      i_sb = sb
  848.  *      i_dev = sb->s_dev;
  849.  *      i_no = ino
  850.  *      i_flags = sb->s_flags
  851.  *      i_state = 0
  852.  * clean_inode(): zero fills and sets
  853.  *      i_count = 1
  854.  *      i_nlink = 1
  855.  *      i_op = NULL;
  856.  */
  857. inode->i_blksize = PAGE_SIZE;
  858. bh = udf_read_ptagged(inode->i_sb, UDF_I_LOCATION(inode), 0, &ident);
  859. if (!bh)
  860. {
  861. printk(KERN_ERR "udf: udf_read_inode(ino %ld) failed !bhn",
  862. inode->i_ino);
  863. make_bad_inode(inode);
  864. return;
  865. }
  866. if (ident != TID_FILE_ENTRY && ident != TID_EXTENDED_FILE_ENTRY &&
  867. ident != TID_UNALLOCATED_SPACE_ENTRY)
  868. {
  869. printk(KERN_ERR "udf: udf_read_inode(ino %ld) failed ident=%dn",
  870. inode->i_ino, ident);
  871. udf_release_data(bh);
  872. make_bad_inode(inode);
  873. return;
  874. }
  875. fe = (struct FileEntry *)bh->b_data;
  876. if (le16_to_cpu(fe->icbTag.strategyType) == 4096)
  877. {
  878. struct buffer_head *ibh = NULL, *nbh = NULL;
  879. struct IndirectEntry *ie;
  880. ibh = udf_read_ptagged(inode->i_sb, UDF_I_LOCATION(inode), 1, &ident);
  881. if (ident == TID_INDIRECT_ENTRY)
  882. {
  883. if (ibh)
  884. {
  885. lb_addr loc;
  886. ie = (struct IndirectEntry *)ibh->b_data;
  887. loc = lelb_to_cpu(ie->indirectICB.extLocation);
  888. if (ie->indirectICB.extLength && 
  889. (nbh = udf_read_ptagged(inode->i_sb, loc, 0, &ident)))
  890. {
  891. if (ident == TID_FILE_ENTRY ||
  892. ident == TID_EXTENDED_FILE_ENTRY)
  893. {
  894. memcpy(&UDF_I_LOCATION(inode), &loc, sizeof(lb_addr));
  895. udf_release_data(bh);
  896. udf_release_data(ibh);
  897. udf_release_data(nbh);
  898. __udf_read_inode(inode);
  899. return;
  900. }
  901. else
  902. {
  903. udf_release_data(nbh);
  904. udf_release_data(ibh);
  905. }
  906. }
  907. else
  908. udf_release_data(ibh);
  909. }
  910. }
  911. else
  912. udf_release_data(ibh);
  913. }
  914. else if (le16_to_cpu(fe->icbTag.strategyType) != 4)
  915. {
  916. printk(KERN_ERR "udf: unsupported strategy type: %dn",
  917. le16_to_cpu(fe->icbTag.strategyType));
  918. udf_release_data(bh);
  919. make_bad_inode(inode);
  920. return;
  921. }
  922. udf_fill_inode(inode, bh);
  923. udf_release_data(bh);
  924. }
  925. static void udf_fill_inode(struct inode *inode, struct buffer_head *bh)
  926. {
  927. struct FileEntry *fe;
  928. struct ExtendedFileEntry *efe;
  929. time_t convtime;
  930. long convtime_usec;
  931. int offset, alen;
  932. inode->i_version = ++event;
  933. UDF_I_NEW_INODE(inode) = 0;
  934. fe = (struct FileEntry *)bh->b_data;
  935. efe = (struct ExtendedFileEntry *)bh->b_data;
  936. if (le16_to_cpu(fe->icbTag.strategyType) == 4)
  937. UDF_I_STRAT4096(inode) = 0;
  938. else /* if (le16_to_cpu(fe->icbTag.strategyType) == 4096) */
  939. UDF_I_STRAT4096(inode) = 1;
  940. UDF_I_ALLOCTYPE(inode) = le16_to_cpu(fe->icbTag.flags) & ICB_FLAG_ALLOC_MASK;
  941. if (fe->descTag.tagIdent == TID_EXTENDED_FILE_ENTRY)
  942. UDF_I_EXTENDED_FE(inode) = 1;
  943. else if (fe->descTag.tagIdent == TID_FILE_ENTRY)
  944. UDF_I_EXTENDED_FE(inode) = 0;
  945. else if (fe->descTag.tagIdent == TID_UNALLOCATED_SPACE_ENTRY)
  946. {
  947. UDF_I_LENALLOC(inode) =
  948. le32_to_cpu(
  949. ((struct UnallocatedSpaceEntry *)bh->b_data)->lengthAllocDescs);
  950. return;
  951. }
  952. inode->i_uid = le32_to_cpu(fe->uid);
  953. if ( inode->i_uid == -1 ) inode->i_uid = UDF_SB(inode->i_sb)->s_uid;
  954. inode->i_gid = le32_to_cpu(fe->gid);
  955. if ( inode->i_gid == -1 ) inode->i_gid = UDF_SB(inode->i_sb)->s_gid;
  956. inode->i_nlink = le16_to_cpu(fe->fileLinkCount);
  957. if (!inode->i_nlink)
  958. inode->i_nlink = 1;
  959. inode->i_size = le64_to_cpu(fe->informationLength);
  960. UDF_I_LENEXTENTS(inode) = inode->i_size;
  961. inode->i_mode = udf_convert_permissions(fe);
  962. inode->i_mode &= ~UDF_SB(inode->i_sb)->s_umask;
  963. UDF_I_NEXT_ALLOC_BLOCK(inode) = 0;
  964. UDF_I_NEXT_ALLOC_GOAL(inode) = 0;
  965. if (UDF_I_EXTENDED_FE(inode) == 0)
  966. {
  967. inode->i_blocks = le64_to_cpu(fe->logicalBlocksRecorded) <<
  968. (inode->i_sb->s_blocksize_bits - 9);
  969. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  970. lets_to_cpu(fe->accessTime)) )
  971. {
  972. inode->i_atime = convtime;
  973. }
  974. else
  975. {
  976. inode->i_atime = UDF_SB_RECORDTIME(inode->i_sb);
  977. }
  978. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  979. lets_to_cpu(fe->modificationTime)) )
  980. {
  981. inode->i_mtime = convtime;
  982. UDF_I_UMTIME(inode) = convtime_usec;
  983. }
  984. else
  985. {
  986. inode->i_mtime = UDF_SB_RECORDTIME(inode->i_sb);
  987. UDF_I_UMTIME(inode) = 0;
  988. }
  989. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  990. lets_to_cpu(fe->attrTime)) )
  991. {
  992. inode->i_ctime = convtime;
  993. UDF_I_UCTIME(inode) = convtime_usec;
  994. }
  995. else
  996. {
  997. inode->i_ctime = UDF_SB_RECORDTIME(inode->i_sb);
  998. UDF_I_UCTIME(inode) = 0;
  999. }
  1000. UDF_I_UNIQUE(inode) = le64_to_cpu(fe->uniqueID);
  1001. UDF_I_LENEATTR(inode) = le32_to_cpu(fe->lengthExtendedAttr);
  1002. UDF_I_LENALLOC(inode) = le32_to_cpu(fe->lengthAllocDescs);
  1003. offset = sizeof(struct FileEntry) + UDF_I_LENEATTR(inode);
  1004. alen = offset + UDF_I_LENALLOC(inode);
  1005. }
  1006. else
  1007. {
  1008. inode->i_blocks = le64_to_cpu(efe->logicalBlocksRecorded) << 
  1009. (inode->i_sb->s_blocksize_bits - 9);
  1010. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  1011. lets_to_cpu(efe->accessTime)) )
  1012. {
  1013. inode->i_atime = convtime;
  1014. }
  1015. else
  1016. {
  1017. inode->i_atime = UDF_SB_RECORDTIME(inode->i_sb);
  1018. }
  1019. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  1020. lets_to_cpu(efe->modificationTime)) )
  1021. {
  1022. inode->i_mtime = convtime;
  1023. UDF_I_UMTIME(inode) = convtime_usec;
  1024. }
  1025. else
  1026. {
  1027. inode->i_mtime = UDF_SB_RECORDTIME(inode->i_sb);
  1028. UDF_I_UMTIME(inode) = 0;
  1029. }
  1030. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  1031. lets_to_cpu(efe->createTime)) )
  1032. {
  1033. UDF_I_CRTIME(inode) = convtime;
  1034. UDF_I_UCRTIME(inode) = convtime_usec;
  1035. }
  1036. else
  1037. {
  1038. UDF_I_CRTIME(inode) = UDF_SB_RECORDTIME(inode->i_sb);
  1039. UDF_I_UCRTIME(inode) = 0;
  1040. }
  1041. if ( udf_stamp_to_time(&convtime, &convtime_usec,
  1042. lets_to_cpu(efe->attrTime)) )
  1043. {
  1044. inode->i_ctime = convtime;
  1045. UDF_I_UCTIME(inode) = convtime_usec;
  1046. }
  1047. else
  1048. {
  1049. inode->i_ctime = UDF_SB_RECORDTIME(inode->i_sb);
  1050. UDF_I_UCTIME(inode) = 0;
  1051. }
  1052. UDF_I_UNIQUE(inode) = le64_to_cpu(efe->uniqueID);
  1053. UDF_I_LENEATTR(inode) = le32_to_cpu(efe->lengthExtendedAttr);
  1054. UDF_I_LENALLOC(inode) = le32_to_cpu(efe->lengthAllocDescs);
  1055. offset = sizeof(struct ExtendedFileEntry) + UDF_I_LENEATTR(inode);
  1056. alen = offset + UDF_I_LENALLOC(inode);
  1057. }
  1058. switch (fe->icbTag.fileType)
  1059. {
  1060. case FILE_TYPE_DIRECTORY:
  1061. {
  1062. inode->i_op = &udf_dir_inode_operations;
  1063. inode->i_fop = &udf_dir_operations;
  1064. inode->i_mode |= S_IFDIR;
  1065. inode->i_nlink ++;
  1066. break;
  1067. }
  1068. case FILE_TYPE_REALTIME:
  1069. case FILE_TYPE_REGULAR:
  1070. case FILE_TYPE_NONE:
  1071. {
  1072. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_IN_ICB)
  1073. inode->i_data.a_ops = &udf_adinicb_aops;
  1074. else
  1075. inode->i_data.a_ops = &udf_aops;
  1076. inode->i_op = &udf_file_inode_operations;
  1077. inode->i_fop = &udf_file_operations;
  1078. inode->i_mode |= S_IFREG;
  1079. break;
  1080. }
  1081. case FILE_TYPE_BLOCK:
  1082. {
  1083. inode->i_mode |= S_IFBLK;
  1084. break;
  1085. }
  1086. case FILE_TYPE_CHAR:
  1087. {
  1088. inode->i_mode |= S_IFCHR;
  1089. break;
  1090. }
  1091. case FILE_TYPE_FIFO:
  1092. {
  1093. init_special_inode(inode, inode->i_mode | S_IFIFO, 0);
  1094. break;
  1095. }
  1096. case FILE_TYPE_SYMLINK:
  1097. {
  1098. inode->i_data.a_ops = &udf_symlink_aops;
  1099. inode->i_op = &page_symlink_inode_operations;
  1100. inode->i_mode = S_IFLNK|S_IRWXUGO;
  1101. break;
  1102. }
  1103. default:
  1104. {
  1105. printk(KERN_ERR "udf: udf_fill_inode(ino %ld) failed unknown file type=%dn",
  1106. inode->i_ino, fe->icbTag.fileType);
  1107. make_bad_inode(inode);
  1108. return;
  1109. }
  1110. }
  1111. if (S_ISCHR(inode->i_mode) || S_ISBLK(inode->i_mode))
  1112. {
  1113. struct buffer_head *tbh = NULL;
  1114. struct DeviceSpecificationExtendedAttr *dsea =
  1115. (struct DeviceSpecificationExtendedAttr *)
  1116. udf_get_extendedattr(inode, 12, 1, &tbh);
  1117. if (dsea)
  1118. {
  1119. init_special_inode(inode, inode->i_mode,
  1120. ((le32_to_cpu(dsea->majorDeviceIdent)) << 8) |
  1121. (le32_to_cpu(dsea->minorDeviceIdent) & 0xFF));
  1122. /* Developer ID ??? */
  1123. udf_release_data(tbh);
  1124. }
  1125. else
  1126. {
  1127. make_bad_inode(inode);
  1128. }
  1129. }
  1130. }
  1131. static mode_t
  1132. udf_convert_permissions(struct FileEntry *fe)
  1133. {
  1134. mode_t mode;
  1135. Uint32 permissions;
  1136. Uint32 flags;
  1137. permissions = le32_to_cpu(fe->permissions);
  1138. flags = le16_to_cpu(fe->icbTag.flags);
  1139. mode = (( permissions      ) & S_IRWXO) |
  1140. (( permissions >> 2 ) & S_IRWXG) |
  1141. (( permissions >> 4 ) & S_IRWXU) |
  1142. (( flags & ICB_FLAG_SETUID) ? S_ISUID : 0) |
  1143. (( flags & ICB_FLAG_SETGID) ? S_ISGID : 0) |
  1144. (( flags & ICB_FLAG_STICKY) ? S_ISVTX : 0);
  1145. return mode;
  1146. }
  1147. /*
  1148.  * udf_write_inode
  1149.  *
  1150.  * PURPOSE
  1151.  * Write out the specified inode.
  1152.  *
  1153.  * DESCRIPTION
  1154.  * This routine is called whenever an inode is synced.
  1155.  * Currently this routine is just a placeholder.
  1156.  *
  1157.  * HISTORY
  1158.  * July 1, 1997 - Andrew E. Mileski
  1159.  * Written, tested, and released.
  1160.  */
  1161. void udf_write_inode(struct inode * inode, int sync)
  1162. {
  1163. lock_kernel();
  1164. udf_update_inode(inode, sync);
  1165. unlock_kernel();
  1166. }
  1167. int udf_sync_inode(struct inode * inode)
  1168. {
  1169. return udf_update_inode(inode, 1);
  1170. }
  1171. static int
  1172. udf_update_inode(struct inode *inode, int do_sync)
  1173. {
  1174. struct buffer_head *bh = NULL;
  1175. struct FileEntry *fe;
  1176. struct ExtendedFileEntry *efe;
  1177. Uint32 udfperms;
  1178. Uint16 icbflags;
  1179. Uint16 crclen;
  1180. int i;
  1181. timestamp cpu_time;
  1182. int err = 0;
  1183. bh = udf_tread(inode->i_sb,
  1184. udf_get_lb_pblock(inode->i_sb, UDF_I_LOCATION(inode), 0));
  1185. if (!bh)
  1186. {
  1187. udf_debug("bread failuren");
  1188. return -EIO;
  1189. }
  1190. fe = (struct FileEntry *)bh->b_data;
  1191. efe = (struct ExtendedFileEntry *)bh->b_data;
  1192. if (UDF_I_NEW_INODE(inode) == 1)
  1193. {
  1194. if (UDF_I_EXTENDED_FE(inode) == 0)
  1195. memset(bh->b_data, 0x00, sizeof(struct FileEntry));
  1196. else
  1197. memset(bh->b_data, 0x00, sizeof(struct ExtendedFileEntry));
  1198. memset(bh->b_data + udf_file_entry_alloc_offset(inode) +
  1199. UDF_I_LENALLOC(inode), 0x0, inode->i_sb->s_blocksize -
  1200. udf_file_entry_alloc_offset(inode) - UDF_I_LENALLOC(inode));
  1201. UDF_I_NEW_INODE(inode) = 0;
  1202. }
  1203. if (fe->descTag.tagIdent == TID_UNALLOCATED_SPACE_ENTRY)
  1204. {
  1205. struct UnallocatedSpaceEntry *use =
  1206. (struct UnallocatedSpaceEntry *)bh->b_data;
  1207. use->lengthAllocDescs = cpu_to_le32(UDF_I_LENALLOC(inode));
  1208. crclen = sizeof(struct UnallocatedSpaceEntry) + UDF_I_LENALLOC(inode) -
  1209. sizeof(tag);
  1210. use->descTag.descCRCLength = cpu_to_le16(crclen);
  1211. use->descTag.descCRC = cpu_to_le16(udf_crc((char *)use + sizeof(tag), crclen, 0));
  1212. use->descTag.tagChecksum = 0;
  1213. for (i=0; i<16; i++)
  1214. if (i != 4)
  1215. use->descTag.tagChecksum += ((Uint8 *)&(use->descTag))[i];
  1216. mark_buffer_dirty(bh);
  1217. udf_release_data(bh);
  1218. return err;
  1219. }
  1220. if (inode->i_uid != UDF_SB(inode->i_sb)->s_uid)
  1221. fe->uid = cpu_to_le32(inode->i_uid);
  1222. if (inode->i_gid != UDF_SB(inode->i_sb)->s_gid)
  1223. fe->gid = cpu_to_le32(inode->i_gid);
  1224. udfperms = ((inode->i_mode & S_IRWXO)     ) |
  1225. ((inode->i_mode & S_IRWXG) << 2) |
  1226. ((inode->i_mode & S_IRWXU) << 4);
  1227. udfperms |= (le32_to_cpu(fe->permissions) &
  1228. (PERM_O_DELETE | PERM_O_CHATTR |
  1229.  PERM_G_DELETE | PERM_G_CHATTR |
  1230.  PERM_U_DELETE | PERM_U_CHATTR));
  1231. fe->permissions = cpu_to_le32(udfperms);
  1232. if (S_ISDIR(inode->i_mode))
  1233. fe->fileLinkCount = cpu_to_le16(inode->i_nlink - 1);
  1234. else
  1235. fe->fileLinkCount = cpu_to_le16(inode->i_nlink);
  1236. fe->informationLength = cpu_to_le64(inode->i_size);
  1237. if (S_ISCHR(inode->i_mode) || S_ISBLK(inode->i_mode))
  1238. {
  1239. EntityID *eid;
  1240. struct buffer_head *tbh = NULL;
  1241. struct DeviceSpecificationExtendedAttr *dsea =
  1242. (struct DeviceSpecificationExtendedAttr *)
  1243. udf_get_extendedattr(inode, 12, 1, &tbh);
  1244. if (!dsea)
  1245. {
  1246. dsea = (struct DeviceSpecificationExtendedAttr *)
  1247. udf_add_extendedattr(inode,
  1248. sizeof(struct DeviceSpecificationExtendedAttr) +
  1249. sizeof(EntityID), 12, 0x3, &tbh);
  1250. dsea->attrType = 12;
  1251. dsea->attrSubtype = 1;
  1252. dsea->attrLength = sizeof(struct DeviceSpecificationExtendedAttr) +
  1253. sizeof(EntityID);
  1254. dsea->impUseLength = sizeof(EntityID);
  1255. }
  1256. eid = (EntityID *)dsea->impUse;
  1257. memset(eid, 0, sizeof(EntityID));
  1258. strcpy(eid->ident, UDF_ID_DEVELOPER);
  1259. eid->identSuffix[0] = UDF_OS_CLASS_UNIX;
  1260. eid->identSuffix[1] = UDF_OS_ID_LINUX;
  1261. dsea->majorDeviceIdent = kdev_t_to_nr(inode->i_rdev) >> 8;
  1262. dsea->minorDeviceIdent = kdev_t_to_nr(inode->i_rdev) & 0xFF;
  1263. mark_buffer_dirty_inode(tbh, inode);
  1264. udf_release_data(tbh);
  1265. }
  1266. if (UDF_I_EXTENDED_FE(inode) == 0)
  1267. {
  1268. fe->logicalBlocksRecorded = cpu_to_le64(
  1269. (inode->i_blocks + (1 << (inode->i_sb->s_blocksize_bits - 9)) - 1) >>
  1270. (inode->i_sb->s_blocksize_bits - 9));
  1271. if (udf_time_to_stamp(&cpu_time, inode->i_atime, 0))
  1272. fe->accessTime = cpu_to_lets(cpu_time);
  1273. if (udf_time_to_stamp(&cpu_time, inode->i_mtime, UDF_I_UMTIME(inode)))
  1274. fe->modificationTime = cpu_to_lets(cpu_time);
  1275. if (udf_time_to_stamp(&cpu_time, inode->i_ctime, UDF_I_UCTIME(inode)))
  1276. fe->attrTime = cpu_to_lets(cpu_time);
  1277. memset(&(fe->impIdent), 0, sizeof(EntityID));
  1278. strcpy(fe->impIdent.ident, UDF_ID_DEVELOPER);
  1279. fe->impIdent.identSuffix[0] = UDF_OS_CLASS_UNIX;
  1280. fe->impIdent.identSuffix[1] = UDF_OS_ID_LINUX;
  1281. fe->uniqueID = cpu_to_le64(UDF_I_UNIQUE(inode));
  1282. fe->lengthExtendedAttr = cpu_to_le32(UDF_I_LENEATTR(inode));
  1283. fe->lengthAllocDescs = cpu_to_le32(UDF_I_LENALLOC(inode));
  1284. fe->descTag.tagIdent = le16_to_cpu(TID_FILE_ENTRY);
  1285. crclen = sizeof(struct FileEntry);
  1286. }
  1287. else
  1288. {
  1289. efe->objectSize = cpu_to_le64(inode->i_size);
  1290. efe->logicalBlocksRecorded = cpu_to_le64(
  1291. (inode->i_blocks + (1 << (inode->i_sb->s_blocksize_bits - 9)) - 1) >>
  1292. (inode->i_sb->s_blocksize_bits - 9));
  1293. if (UDF_I_CRTIME(inode) >= inode->i_atime)
  1294. {
  1295. UDF_I_CRTIME(inode) = inode->i_atime;
  1296. UDF_I_UCRTIME(inode) = 0;
  1297. }
  1298. if (UDF_I_CRTIME(inode) > inode->i_mtime ||
  1299. (UDF_I_CRTIME(inode) == inode->i_mtime &&
  1300.  UDF_I_UCRTIME(inode) > UDF_I_UMTIME(inode)))
  1301. {
  1302. UDF_I_CRTIME(inode) = inode->i_mtime;
  1303. UDF_I_UCRTIME(inode) = UDF_I_UMTIME(inode);
  1304. }
  1305. if (UDF_I_CRTIME(inode) > inode->i_ctime ||
  1306. (UDF_I_CRTIME(inode) == inode->i_ctime &&
  1307.  UDF_I_UCRTIME(inode) > UDF_I_UCTIME(inode)))
  1308. {
  1309. UDF_I_CRTIME(inode) = inode->i_ctime;
  1310. UDF_I_UCRTIME(inode) = UDF_I_UCTIME(inode);
  1311. }
  1312. if (udf_time_to_stamp(&cpu_time, inode->i_atime, 0))
  1313. efe->accessTime = cpu_to_lets(cpu_time);
  1314. if (udf_time_to_stamp(&cpu_time, inode->i_mtime, UDF_I_UMTIME(inode)))
  1315. efe->modificationTime = cpu_to_lets(cpu_time);
  1316. if (udf_time_to_stamp(&cpu_time, UDF_I_CRTIME(inode), UDF_I_UCRTIME(inode)))
  1317. efe->createTime = cpu_to_lets(cpu_time);
  1318. if (udf_time_to_stamp(&cpu_time, inode->i_ctime, UDF_I_UCTIME(inode)))
  1319. efe->attrTime = cpu_to_lets(cpu_time);
  1320. memset(&(efe->impIdent), 0, sizeof(EntityID));
  1321. strcpy(efe->impIdent.ident, UDF_ID_DEVELOPER);
  1322. efe->impIdent.identSuffix[0] = UDF_OS_CLASS_UNIX;
  1323. efe->impIdent.identSuffix[1] = UDF_OS_ID_LINUX;
  1324. efe->uniqueID = cpu_to_le64(UDF_I_UNIQUE(inode));
  1325. efe->lengthExtendedAttr = cpu_to_le32(UDF_I_LENEATTR(inode));
  1326. efe->lengthAllocDescs = cpu_to_le32(UDF_I_LENALLOC(inode));
  1327. efe->descTag.tagIdent = le16_to_cpu(TID_EXTENDED_FILE_ENTRY);
  1328. crclen = sizeof(struct ExtendedFileEntry);
  1329. }
  1330. if (UDF_I_STRAT4096(inode))
  1331. {
  1332. fe->icbTag.strategyType = cpu_to_le16(4096);
  1333. fe->icbTag.strategyParameter = cpu_to_le16(1);
  1334. fe->icbTag.numEntries = cpu_to_le16(2);
  1335. }
  1336. else
  1337. {
  1338. fe->icbTag.strategyType = cpu_to_le16(4);
  1339. fe->icbTag.numEntries = cpu_to_le16(1);
  1340. }
  1341. if (S_ISDIR(inode->i_mode))
  1342. fe->icbTag.fileType = FILE_TYPE_DIRECTORY;
  1343. else if (S_ISREG(inode->i_mode))
  1344. fe->icbTag.fileType = FILE_TYPE_REGULAR;
  1345. else if (S_ISLNK(inode->i_mode))
  1346. fe->icbTag.fileType = FILE_TYPE_SYMLINK;
  1347. else if (S_ISBLK(inode->i_mode))
  1348. fe->icbTag.fileType = FILE_TYPE_BLOCK;
  1349. else if (S_ISCHR(inode->i_mode))
  1350. fe->icbTag.fileType = FILE_TYPE_CHAR;
  1351. else if (S_ISFIFO(inode->i_mode))
  1352. fe->icbTag.fileType = FILE_TYPE_FIFO;
  1353. icbflags = UDF_I_ALLOCTYPE(inode) |
  1354. ((inode->i_mode & S_ISUID) ? ICB_FLAG_SETUID : 0) |
  1355. ((inode->i_mode & S_ISGID) ? ICB_FLAG_SETGID : 0) |
  1356. ((inode->i_mode & S_ISVTX) ? ICB_FLAG_STICKY : 0) |
  1357. (le16_to_cpu(fe->icbTag.flags) &
  1358. ~(ICB_FLAG_ALLOC_MASK | ICB_FLAG_SETUID |
  1359. ICB_FLAG_SETGID | ICB_FLAG_STICKY));
  1360. fe->icbTag.flags = cpu_to_le16(icbflags);
  1361. fe->descTag.descVersion = cpu_to_le16(2);
  1362. fe->descTag.tagSerialNum = cpu_to_le16(UDF_SB_SERIALNUM(inode->i_sb));
  1363. fe->descTag.tagLocation = cpu_to_le32(UDF_I_LOCATION(inode).logicalBlockNum);
  1364. crclen += UDF_I_LENEATTR(inode) + UDF_I_LENALLOC(inode) - sizeof(tag);
  1365. fe->descTag.descCRCLength = cpu_to_le16(crclen);
  1366. fe->descTag.descCRC = cpu_to_le16(udf_crc((char *)fe + sizeof(tag), crclen, 0));
  1367. fe->descTag.tagChecksum = 0;
  1368. for (i=0; i<16; i++)
  1369. if (i != 4)
  1370. fe->descTag.tagChecksum += ((Uint8 *)&(fe->descTag))[i];
  1371. /* write the data blocks */
  1372. mark_buffer_dirty(bh);
  1373. if (do_sync)
  1374. {
  1375. ll_rw_block(WRITE, 1, &bh);
  1376. wait_on_buffer(bh);
  1377. if (buffer_req(bh) && !buffer_uptodate(bh))
  1378. {
  1379. printk("IO error syncing udf inode [%s:%08lx]n",
  1380. bdevname(inode->i_dev), inode->i_ino);
  1381. err = -EIO;
  1382. }
  1383. }
  1384. udf_release_data(bh);
  1385. return err;
  1386. }
  1387. /*
  1388.  * udf_iget
  1389.  *
  1390.  * PURPOSE
  1391.  * Get an inode.
  1392.  *
  1393.  * DESCRIPTION
  1394.  * This routine replaces iget() and read_inode().
  1395.  *
  1396.  * HISTORY
  1397.  * October 3, 1997 - Andrew E. Mileski
  1398.  * Written, tested, and released.
  1399.  *
  1400.  * 12/19/98 dgb  Added semaphore and changed to be a wrapper of iget
  1401.  */
  1402. struct inode *
  1403. udf_iget(struct super_block *sb, lb_addr ino)
  1404. {
  1405. struct inode *inode;
  1406. unsigned long block;
  1407. block = udf_get_lb_pblock(sb, ino, 0);
  1408. /* Get the inode */
  1409. inode = iget(sb, block);
  1410. /* calls udf_read_inode() ! */
  1411. if (!inode)
  1412. {
  1413. printk(KERN_ERR "udf: iget() failedn");
  1414. return NULL;
  1415. }
  1416. else if (is_bad_inode(inode))
  1417. {
  1418. iput(inode);
  1419. return NULL;
  1420. }
  1421. else if (UDF_I_LOCATION(inode).logicalBlockNum == 0xFFFFFFFF &&
  1422. UDF_I_LOCATION(inode).partitionReferenceNum == 0xFFFF)
  1423. {
  1424. memcpy(&UDF_I_LOCATION(inode), &ino, sizeof(lb_addr));
  1425. __udf_read_inode(inode);
  1426. if (is_bad_inode(inode))
  1427. {
  1428. iput(inode);
  1429. return NULL;
  1430. }
  1431. }
  1432. if ( ino.logicalBlockNum >= UDF_SB_PARTLEN(sb, ino.partitionReferenceNum) )
  1433. {
  1434. udf_debug("block=%d, partition=%d out of rangen",
  1435. ino.logicalBlockNum, ino.partitionReferenceNum);
  1436. make_bad_inode(inode);
  1437. iput(inode);
  1438. return NULL;
  1439.   }
  1440. return inode;
  1441. }
  1442. Sint8 udf_add_aext(struct inode *inode, lb_addr *bloc, int *extoffset,
  1443. lb_addr eloc, Uint32 elen, struct buffer_head **bh, int inc)
  1444. {
  1445. int adsize;
  1446. short_ad *sad = NULL;
  1447. long_ad *lad = NULL;
  1448. struct AllocExtDesc *aed;
  1449. int ret;
  1450. if (!(*bh))
  1451. {
  1452. if (!(*bh = udf_tread(inode->i_sb,
  1453. udf_get_lb_pblock(inode->i_sb, *bloc, 0))))
  1454. {
  1455. udf_debug("reading block %d failed!n",
  1456. udf_get_lb_pblock(inode->i_sb, *bloc, 0));
  1457. return -1;
  1458. }
  1459. }
  1460. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_SHORT)
  1461. adsize = sizeof(short_ad);
  1462. else if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_LONG)
  1463. adsize = sizeof(long_ad);
  1464. else
  1465. return -1;
  1466. if (*extoffset + (2 * adsize) > inode->i_sb->s_blocksize)
  1467. {
  1468. char *sptr, *dptr;
  1469. struct buffer_head *nbh;
  1470. int err, loffset;
  1471. lb_addr obloc = *bloc;
  1472. if (!(bloc->logicalBlockNum = udf_new_block(inode->i_sb, inode,
  1473. obloc.partitionReferenceNum, obloc.logicalBlockNum, &err)))
  1474. {
  1475. return -1;
  1476. }
  1477. if (!(nbh = udf_tgetblk(inode->i_sb, udf_get_lb_pblock(inode->i_sb,
  1478. *bloc, 0))))
  1479. {
  1480. return -1;
  1481. }
  1482. lock_buffer(nbh);
  1483. memset(nbh->b_data, 0x00, inode->i_sb->s_blocksize);
  1484. mark_buffer_uptodate(nbh, 1);
  1485. unlock_buffer(nbh);
  1486. mark_buffer_dirty_inode(nbh, inode);
  1487. aed = (struct AllocExtDesc *)(nbh->b_data);
  1488. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT))
  1489. aed->previousAllocExtLocation = cpu_to_le32(obloc.logicalBlockNum);
  1490. if (*extoffset + adsize > inode->i_sb->s_blocksize)
  1491. {
  1492. loffset = *extoffset;
  1493. aed->lengthAllocDescs = cpu_to_le32(adsize);
  1494. sptr = (*bh)->b_data + *extoffset - adsize;
  1495. dptr = nbh->b_data + sizeof(struct AllocExtDesc);
  1496. memcpy(dptr, sptr, adsize);
  1497. *extoffset = sizeof(struct AllocExtDesc) + adsize;
  1498. }
  1499. else
  1500. {
  1501. loffset = *extoffset + adsize;
  1502. aed->lengthAllocDescs = cpu_to_le32(0);
  1503. sptr = (*bh)->b_data + *extoffset;
  1504. *extoffset = sizeof(struct AllocExtDesc);
  1505. if (memcmp(&UDF_I_LOCATION(inode), &obloc, sizeof(lb_addr)))
  1506. {
  1507. aed = (struct AllocExtDesc *)(*bh)->b_data;
  1508. aed->lengthAllocDescs =
  1509. cpu_to_le32(le32_to_cpu(aed->lengthAllocDescs) + adsize);
  1510. }
  1511. else
  1512. {
  1513. UDF_I_LENALLOC(inode) += adsize;
  1514. mark_inode_dirty(inode);
  1515. }
  1516. }
  1517. udf_new_tag(nbh->b_data, TID_ALLOC_EXTENT_DESC, 2, 1,
  1518. bloc->logicalBlockNum, sizeof(tag));
  1519. switch (UDF_I_ALLOCTYPE(inode))
  1520. {
  1521. case ICB_FLAG_AD_SHORT:
  1522. {
  1523. sad = (short_ad *)sptr;
  1524. sad->extLength = cpu_to_le32(
  1525. EXTENT_NEXT_EXTENT_ALLOCDECS << 30 |
  1526. inode->i_sb->s_blocksize);
  1527. sad->extPosition = cpu_to_le32(bloc->logicalBlockNum);
  1528. break;
  1529. }
  1530. case ICB_FLAG_AD_LONG:
  1531. {
  1532. lad = (long_ad *)sptr;
  1533. lad->extLength = cpu_to_le32(
  1534. EXTENT_NEXT_EXTENT_ALLOCDECS << 30 |
  1535. inode->i_sb->s_blocksize);
  1536. lad->extLocation = cpu_to_lelb(*bloc);
  1537. memset(lad->impUse, 0x00, sizeof(lad->impUse));
  1538. break;
  1539. }
  1540. }
  1541. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT) || UDF_SB_UDFREV(inode->i_sb) >= 0x0201)
  1542. udf_update_tag((*bh)->b_data, loffset);
  1543. else
  1544. udf_update_tag((*bh)->b_data, sizeof(struct AllocExtDesc));
  1545. mark_buffer_dirty_inode(*bh, inode);
  1546. udf_release_data(*bh);
  1547. *bh = nbh;
  1548. }
  1549. ret = udf_write_aext(inode, *bloc, extoffset, eloc, elen, *bh, inc);
  1550. if (!memcmp(&UDF_I_LOCATION(inode), bloc, sizeof(lb_addr)))
  1551. {
  1552. UDF_I_LENALLOC(inode) += adsize;
  1553. mark_inode_dirty(inode);
  1554. }
  1555. else
  1556. {
  1557. aed = (struct AllocExtDesc *)(*bh)->b_data;
  1558. aed->lengthAllocDescs =
  1559. cpu_to_le32(le32_to_cpu(aed->lengthAllocDescs) + adsize);
  1560. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT) || UDF_SB_UDFREV(inode->i_sb) >= 0x0201)
  1561. udf_update_tag((*bh)->b_data, *extoffset + (inc ? 0 : adsize));
  1562. else
  1563. udf_update_tag((*bh)->b_data, sizeof(struct AllocExtDesc));
  1564. mark_buffer_dirty_inode(*bh, inode);
  1565. }
  1566. return ret;
  1567. }
  1568. Sint8 udf_write_aext(struct inode *inode, lb_addr bloc, int *extoffset,
  1569.     lb_addr eloc, Uint32 elen, struct buffer_head *bh, int inc)
  1570. {
  1571. int adsize;
  1572. short_ad *sad = NULL;
  1573. long_ad *lad = NULL;
  1574. if (!(bh))
  1575. {
  1576. if (!(bh = udf_tread(inode->i_sb,
  1577. udf_get_lb_pblock(inode->i_sb, bloc, 0))))
  1578. {
  1579. udf_debug("reading block %d failed!n",
  1580. udf_get_lb_pblock(inode->i_sb, bloc, 0));
  1581. return -1;
  1582. }
  1583. }
  1584. else
  1585. atomic_inc(&bh->b_count);
  1586. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_SHORT)
  1587. adsize = sizeof(short_ad);
  1588. else if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_LONG)
  1589. adsize = sizeof(long_ad);
  1590. else
  1591. return -1;
  1592. switch (UDF_I_ALLOCTYPE(inode))
  1593. {
  1594. case ICB_FLAG_AD_SHORT:
  1595. {
  1596. sad = (short_ad *)((bh)->b_data + *extoffset);
  1597. sad->extLength = cpu_to_le32(elen);
  1598. sad->extPosition = cpu_to_le32(eloc.logicalBlockNum);
  1599. break;
  1600. }
  1601. case ICB_FLAG_AD_LONG:
  1602. {
  1603. lad = (long_ad *)((bh)->b_data + *extoffset);
  1604. lad->extLength = cpu_to_le32(elen);
  1605. lad->extLocation = cpu_to_lelb(eloc);
  1606. memset(lad->impUse, 0x00, sizeof(lad->impUse));
  1607. break;
  1608. }
  1609. }
  1610. if (memcmp(&UDF_I_LOCATION(inode), &bloc, sizeof(lb_addr)))
  1611. {
  1612. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT) || UDF_SB_UDFREV(inode->i_sb) >= 0x0201)
  1613. {
  1614. struct AllocExtDesc *aed = (struct AllocExtDesc *)(bh)->b_data;
  1615. udf_update_tag((bh)->b_data,
  1616. le32_to_cpu(aed->lengthAllocDescs) + sizeof(struct AllocExtDesc));
  1617. }
  1618. mark_buffer_dirty_inode(bh, inode);
  1619. }
  1620. else
  1621. {
  1622. mark_inode_dirty(inode);
  1623. mark_buffer_dirty(bh);
  1624. }
  1625. if (inc)
  1626. *extoffset += adsize;
  1627. udf_release_data(bh);
  1628. return (elen >> 30);
  1629. }
  1630. Sint8 udf_next_aext(struct inode *inode, lb_addr *bloc, int *extoffset,
  1631. lb_addr *eloc, Uint32 *elen, struct buffer_head **bh, int inc)
  1632. {
  1633. Uint16 tagIdent;
  1634. int pos, alen;
  1635. Sint8 etype;
  1636. if (!(*bh))
  1637. {
  1638. if (!(*bh = udf_tread(inode->i_sb,
  1639. udf_get_lb_pblock(inode->i_sb, *bloc, 0))))
  1640. {
  1641. udf_debug("reading block %d failed!n",
  1642. udf_get_lb_pblock(inode->i_sb, *bloc, 0));
  1643. return -1;
  1644. }
  1645. }
  1646. tagIdent = ((tag *)(*bh)->b_data)->tagIdent;
  1647. if (!memcmp(&UDF_I_LOCATION(inode), bloc, sizeof(lb_addr)))
  1648. {
  1649. if (tagIdent == TID_FILE_ENTRY || tagIdent == TID_EXTENDED_FILE_ENTRY ||
  1650. UDF_I_NEW_INODE(inode))
  1651. {
  1652. pos = udf_file_entry_alloc_offset(inode);
  1653. alen = UDF_I_LENALLOC(inode) + pos;
  1654. }
  1655. else if (tagIdent == TID_UNALLOCATED_SPACE_ENTRY)
  1656. {
  1657. pos = sizeof(struct UnallocatedSpaceEntry);
  1658. alen = UDF_I_LENALLOC(inode) + pos;
  1659. }
  1660. else
  1661. return -1;
  1662. }
  1663. else if (tagIdent == TID_ALLOC_EXTENT_DESC)
  1664. {
  1665. struct AllocExtDesc *aed = (struct AllocExtDesc *)(*bh)->b_data;
  1666. pos = sizeof(struct AllocExtDesc);
  1667. alen = le32_to_cpu(aed->lengthAllocDescs) + pos;
  1668. }
  1669. else
  1670. return -1;
  1671. if (!(*extoffset))
  1672. *extoffset = pos;
  1673. switch (UDF_I_ALLOCTYPE(inode))
  1674. {
  1675. case ICB_FLAG_AD_SHORT:
  1676. {
  1677. short_ad *sad;
  1678. if (!(sad = udf_get_fileshortad((*bh)->b_data, alen, extoffset, inc)))
  1679. return -1;
  1680. if ((etype = le32_to_cpu(sad->extLength) >> 30) == EXTENT_NEXT_EXTENT_ALLOCDECS)
  1681. {
  1682. bloc->logicalBlockNum = le32_to_cpu(sad->extPosition);
  1683. *extoffset = 0;
  1684. udf_release_data(*bh);
  1685. *bh = NULL;
  1686. return udf_next_aext(inode, bloc, extoffset, eloc, elen, bh, inc);
  1687. }
  1688. else
  1689. {
  1690. eloc->logicalBlockNum = le32_to_cpu(sad->extPosition);
  1691. eloc->partitionReferenceNum = UDF_I_LOCATION(inode).partitionReferenceNum;
  1692. *elen = le32_to_cpu(sad->extLength) & UDF_EXTENT_LENGTH_MASK;
  1693. }
  1694. break;
  1695. }
  1696. case ICB_FLAG_AD_LONG:
  1697. {
  1698. long_ad *lad;
  1699. if (!(lad = udf_get_filelongad((*bh)->b_data, alen, extoffset, inc)))
  1700. return -1;
  1701. if ((etype = le32_to_cpu(lad->extLength) >> 30) == EXTENT_NEXT_EXTENT_ALLOCDECS)
  1702. {
  1703. *bloc = lelb_to_cpu(lad->extLocation);
  1704. *extoffset = 0;
  1705. udf_release_data(*bh);
  1706. *bh = NULL;
  1707. return udf_next_aext(inode, bloc, extoffset, eloc, elen, bh, inc);
  1708. }
  1709. else
  1710. {
  1711. *eloc = lelb_to_cpu(lad->extLocation);
  1712. *elen = le32_to_cpu(lad->extLength) & UDF_EXTENT_LENGTH_MASK;
  1713. }
  1714. break;
  1715. }
  1716. case ICB_FLAG_AD_IN_ICB:
  1717. {
  1718. if (UDF_I_LENALLOC(inode) == 0)
  1719. return -1;
  1720. etype = EXTENT_RECORDED_ALLOCATED;
  1721. *eloc = UDF_I_LOCATION(inode);
  1722. *elen = UDF_I_LENALLOC(inode);
  1723. break;
  1724. }
  1725. default:
  1726. {
  1727. udf_debug("alloc_type = %d unsupportedn", UDF_I_ALLOCTYPE(inode));
  1728. return -1;
  1729. }
  1730. }
  1731. if (*elen)
  1732. return etype;
  1733. udf_debug("Empty Extent, inode=%ld, alloctype=%d, eloc=%d, elen=%d, etype=%d, extoffset=%dn",
  1734. inode->i_ino, UDF_I_ALLOCTYPE(inode), eloc->logicalBlockNum, *elen, etype, *extoffset);
  1735. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_SHORT)
  1736. *extoffset -= sizeof(short_ad);
  1737. else if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_LONG)
  1738. *extoffset -= sizeof(long_ad);
  1739. return -1;
  1740. }
  1741. Sint8 udf_current_aext(struct inode *inode, lb_addr *bloc, int *extoffset,
  1742. lb_addr *eloc, Uint32 *elen, struct buffer_head **bh, int inc)
  1743. {
  1744. int pos, alen;
  1745. Sint8 etype;
  1746. if (!(*bh))
  1747. {
  1748. if (!(*bh = udf_tread(inode->i_sb,
  1749. udf_get_lb_pblock(inode->i_sb, *bloc, 0))))
  1750. {
  1751. udf_debug("reading block %d failed!n",
  1752. udf_get_lb_pblock(inode->i_sb, *bloc, 0));
  1753. return -1;
  1754. }
  1755. }
  1756. if (!memcmp(&UDF_I_LOCATION(inode), bloc, sizeof(lb_addr)))
  1757. {
  1758. if (!(UDF_I_EXTENDED_FE(inode)))
  1759. pos = sizeof(struct FileEntry) + UDF_I_LENEATTR(inode);
  1760. else
  1761. pos = sizeof(struct ExtendedFileEntry) + UDF_I_LENEATTR(inode);
  1762. alen = UDF_I_LENALLOC(inode) + pos;
  1763. }
  1764. else
  1765. {
  1766. struct AllocExtDesc *aed = (struct AllocExtDesc *)(*bh)->b_data;
  1767. pos = sizeof(struct AllocExtDesc);
  1768. alen = le32_to_cpu(aed->lengthAllocDescs) + pos;
  1769. }
  1770. if (!(*extoffset))
  1771. *extoffset = pos;
  1772. switch (UDF_I_ALLOCTYPE(inode))
  1773. {
  1774. case ICB_FLAG_AD_SHORT:
  1775. {
  1776. short_ad *sad;
  1777. if (!(sad = udf_get_fileshortad((*bh)->b_data, alen, extoffset, inc)))
  1778. return -1;
  1779. etype = le32_to_cpu(sad->extLength) >> 30;
  1780. eloc->logicalBlockNum = le32_to_cpu(sad->extPosition);
  1781. eloc->partitionReferenceNum = UDF_I_LOCATION(inode).partitionReferenceNum;
  1782. *elen = le32_to_cpu(sad->extLength) & UDF_EXTENT_LENGTH_MASK;
  1783. break;
  1784. }
  1785. case ICB_FLAG_AD_LONG:
  1786. {
  1787. long_ad *lad;
  1788. if (!(lad = udf_get_filelongad((*bh)->b_data, alen, extoffset, inc)))
  1789. return -1;
  1790. etype = le32_to_cpu(lad->extLength) >> 30;
  1791. *eloc = lelb_to_cpu(lad->extLocation);
  1792. *elen = le32_to_cpu(lad->extLength) & UDF_EXTENT_LENGTH_MASK;
  1793. break;
  1794. }
  1795. default:
  1796. {
  1797. udf_debug("alloc_type = %d unsupportedn", UDF_I_ALLOCTYPE(inode));
  1798. return -1;
  1799. }
  1800. }
  1801. if (*elen)
  1802. return etype;
  1803. udf_debug("Empty Extent!n");
  1804. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_SHORT)
  1805. *extoffset -= sizeof(short_ad);
  1806. else if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_LONG)
  1807. *extoffset -= sizeof(long_ad);
  1808. return -1;
  1809. }
  1810. Sint8 udf_insert_aext(struct inode *inode, lb_addr bloc, int extoffset,
  1811. lb_addr neloc, Uint32 nelen, struct buffer_head *bh)
  1812. {
  1813. lb_addr oeloc;
  1814. Uint32 oelen;
  1815. Sint8 etype;
  1816. if (!bh)
  1817. {
  1818. if (!(bh = udf_tread(inode->i_sb,
  1819. udf_get_lb_pblock(inode->i_sb, bloc, 0))))
  1820. {
  1821. udf_debug("reading block %d failed!n",
  1822. udf_get_lb_pblock(inode->i_sb, bloc, 0));
  1823. return -1;
  1824. }
  1825. }
  1826. else
  1827. atomic_inc(&bh->b_count);
  1828. while ((etype = udf_next_aext(inode, &bloc, &extoffset, &oeloc, &oelen, &bh, 0)) != -1)
  1829. {
  1830. udf_write_aext(inode, bloc, &extoffset, neloc, nelen, bh, 1);
  1831. neloc = oeloc;
  1832. nelen = (etype << 30) | oelen;
  1833. }
  1834. udf_add_aext(inode, &bloc, &extoffset, neloc, nelen, &bh, 1);
  1835. udf_release_data(bh);
  1836. return (nelen >> 30);
  1837. }
  1838. Sint8 udf_delete_aext(struct inode *inode, lb_addr nbloc, int nextoffset,
  1839. lb_addr eloc, Uint32 elen, struct buffer_head *nbh)
  1840. {
  1841. struct buffer_head *obh;
  1842. lb_addr obloc;
  1843. int oextoffset, adsize;
  1844. Sint8 etype;
  1845. struct AllocExtDesc *aed;
  1846. if (!(nbh))
  1847. {
  1848. if (!(nbh = udf_tread(inode->i_sb,
  1849. udf_get_lb_pblock(inode->i_sb, nbloc, 0))))
  1850. {
  1851. udf_debug("reading block %d failed!n",
  1852. udf_get_lb_pblock(inode->i_sb, nbloc, 0));
  1853. return -1;
  1854. }
  1855. }
  1856. else
  1857. atomic_inc(&nbh->b_count);
  1858. atomic_inc(&nbh->b_count);
  1859. if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_SHORT)
  1860. adsize = sizeof(short_ad);
  1861. else if (UDF_I_ALLOCTYPE(inode) == ICB_FLAG_AD_LONG)
  1862. adsize = sizeof(long_ad);
  1863. else
  1864. adsize = 0;
  1865. obh = nbh;
  1866. obloc = nbloc;
  1867. oextoffset = nextoffset;
  1868. if (udf_next_aext(inode, &nbloc, &nextoffset, &eloc, &elen, &nbh, 1) == -1)
  1869. return -1;
  1870. while ((etype = udf_next_aext(inode, &nbloc, &nextoffset, &eloc, &elen, &nbh, 1)) != -1)
  1871. {
  1872. udf_write_aext(inode, obloc, &oextoffset, eloc, (etype << 30) | elen, obh, 1);
  1873. if (memcmp(&nbloc, &obloc, sizeof(lb_addr)))
  1874. {
  1875. obloc = nbloc;
  1876. udf_release_data(obh);
  1877. atomic_inc(&nbh->b_count);
  1878. obh = nbh;
  1879. oextoffset = nextoffset - adsize;
  1880. }
  1881. }
  1882. memset(&eloc, 0x00, sizeof(lb_addr));
  1883. elen = 0;
  1884. if (memcmp(&nbloc, &obloc, sizeof(lb_addr)))
  1885. {
  1886. udf_free_blocks(inode->i_sb, inode, nbloc, 0, 1);
  1887. udf_write_aext(inode, obloc, &oextoffset, eloc, elen, obh, 1);
  1888. udf_write_aext(inode, obloc, &oextoffset, eloc, elen, obh, 1);
  1889. if (!memcmp(&UDF_I_LOCATION(inode), &obloc, sizeof(lb_addr)))
  1890. {
  1891. UDF_I_LENALLOC(inode) -= (adsize * 2);
  1892. mark_inode_dirty(inode);
  1893. }
  1894. else
  1895. {
  1896. aed = (struct AllocExtDesc *)(obh)->b_data;
  1897. aed->lengthAllocDescs =
  1898. cpu_to_le32(le32_to_cpu(aed->lengthAllocDescs) - (2*adsize));
  1899. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT) || UDF_SB_UDFREV(inode->i_sb) >= 0x0201)
  1900. udf_update_tag((obh)->b_data, oextoffset - (2*adsize));
  1901. else
  1902. udf_update_tag((obh)->b_data, sizeof(struct AllocExtDesc));
  1903. mark_buffer_dirty_inode(obh, inode);
  1904. }
  1905. }
  1906. else
  1907. {
  1908. udf_write_aext(inode, obloc, &oextoffset, eloc, elen, obh, 1);
  1909. if (!memcmp(&UDF_I_LOCATION(inode), &obloc, sizeof(lb_addr)))
  1910. {
  1911. UDF_I_LENALLOC(inode) -= adsize;
  1912. mark_inode_dirty(inode);
  1913. }
  1914. else
  1915. {
  1916. aed = (struct AllocExtDesc *)(obh)->b_data;
  1917. aed->lengthAllocDescs =
  1918. cpu_to_le32(le32_to_cpu(aed->lengthAllocDescs) - adsize);
  1919. if (!UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_STRICT) || UDF_SB_UDFREV(inode->i_sb) >= 0x0201)
  1920. udf_update_tag((obh)->b_data, oextoffset - adsize);
  1921. else
  1922. udf_update_tag((obh)->b_data, sizeof(struct AllocExtDesc));
  1923. mark_buffer_dirty_inode(obh, inode);
  1924. }
  1925. }
  1926. udf_release_data(nbh);
  1927. udf_release_data(obh);
  1928. return (elen >> 30);
  1929. }
  1930. Sint8 inode_bmap(struct inode *inode, int block, lb_addr *bloc, Uint32 *extoffset,
  1931. lb_addr *eloc, Uint32 *elen, Uint32 *offset, struct buffer_head **bh)
  1932. {
  1933. Uint64 lbcount = 0, bcount = (Uint64)block << inode->i_sb->s_blocksize_bits;
  1934. Sint8 etype;
  1935. if (block < 0)
  1936. {
  1937. printk(KERN_ERR "udf: inode_bmap: block < 0n");
  1938. return -1;
  1939. }
  1940. if (!inode)
  1941. {
  1942. printk(KERN_ERR "udf: inode_bmap: NULL inoden");
  1943. return -1;
  1944. }
  1945. *extoffset = 0;
  1946. *elen = 0;
  1947. *bloc = UDF_I_LOCATION(inode);
  1948. do
  1949. {
  1950. if ((etype = udf_next_aext(inode, bloc, extoffset, eloc, elen, bh, 1)) == -1)
  1951. {
  1952. *offset = bcount - lbcount;
  1953. UDF_I_LENEXTENTS(inode) = lbcount;
  1954. return -1;
  1955. }
  1956. lbcount += *elen;
  1957. } while (lbcount <= bcount);
  1958. *offset = bcount + *elen - lbcount;
  1959. return etype;
  1960. }
  1961. long udf_block_map(struct inode *inode, long block)
  1962. {
  1963. lb_addr eloc, bloc;
  1964. Uint32 offset, extoffset, elen;
  1965. struct buffer_head *bh = NULL;
  1966. int ret;
  1967. lock_kernel();
  1968. if (inode_bmap(inode, block, &bloc, &extoffset, &eloc, &elen, &offset, &bh) == EXTENT_RECORDED_ALLOCATED)
  1969. ret = udf_get_lb_pblock(inode->i_sb, eloc, offset >> inode->i_sb->s_blocksize_bits);
  1970. else
  1971. ret = 0;
  1972. unlock_kernel();
  1973. if (bh)
  1974. udf_release_data(bh);
  1975. if (UDF_QUERY_FLAG(inode->i_sb, UDF_FLAG_VARCONV))
  1976. return udf_fixed_to_variable(ret);
  1977. else
  1978. return ret;
  1979. }