BOOK.TXT
上传用户:jnzhq888
上传日期:2007-01-18
资源大小:51694k
文件大小:1020k
源码类别:

操作系统开发

开发平台:

WINDOWS

  1. 21215   return(sp->s_firstdatazone - 1 + (zone_t) b);
  2. 21216 }
  3. 21219 /*===========================================================================*
  4. 21220  *                              free_zone                                    *
  5. 21221  *===========================================================================*/
  6. 21222 PUBLIC void free_zone(dev, numb)
  7. 21223 dev_t dev;                              /* device where zone located */
  8. 21224 zone_t numb;                            /* zone to be returned */
  9. 21225 {
  10. 21226 /* Return a zone. */
  11. 21227
  12. 21228   register struct super_block *sp;
  13. 21229   bit_t bit;
  14. 21230
  15. 21231   /* Locate the appropriate super_block and return bit. */
  16. 21232   sp = get_super(dev);
  17. 21233   if (numb < sp->s_firstdatazone || numb >= sp->s_zones) return;
  18. 21234   bit = (bit_t) (numb - (sp->s_firstdatazone - 1));
  19. 21235   free_bit(sp, ZMAP, bit);
  20. 21236   if (bit < sp->s_zsearch) sp->s_zsearch = bit;
  21. 21237 }
  22. 21240 /*===========================================================================*
  23. 21241  *                              rw_block                                     *
  24. 21242  *===========================================================================*/
  25. 21243 PUBLIC void rw_block(bp, rw_flag)
  26. 21244 register struct buf *bp;        /* buffer pointer */
  27. 21245 int rw_flag;                    /* READING or WRITING */
  28. 21246 {
  29. 21247 /* Read or write a disk block. This is the only routine in which actual disk
  30. 21248  * I/O is invoked. If an error occurs, a message is printed here, but the error
  31. 21249  * is not reported to the caller.  If the error occurred while purging a block
  32. 21250  * from the cache, it is not clear what the caller could do about it anyway.
  33. 21251  */
  34. 21252
  35. 21253   int r, op;
  36. 21254   off_t pos;
  37. 21255   dev_t dev;
  38. 21256
  39. 21257   if ( (dev = bp->b_dev) != NO_DEV) {
  40. 21258         pos = (off_t) bp->b_blocknr * BLOCK_SIZE;
  41. 21259         op = (rw_flag == READING ? DEV_READ : DEV_WRITE);
  42. 21260         r = dev_io(op, FALSE, dev, pos, BLOCK_SIZE, FS_PROC_NR, bp->b_data);
  43. 21261         if (r != BLOCK_SIZE) {
  44. 21262             if (r >= 0) r = END_OF_FILE;
  45. 21263             if (r != END_OF_FILE)
  46. 21264               printf("Unrecoverable disk error on device %d/%d, block %ldn",
  47. 21265                         (dev>>MAJOR)&BYTE, (dev>>MINOR)&BYTE, bp->b_blocknr);
  48. 21266                 bp->b_dev = NO_DEV;     /* invalidate block */
  49. 21267
  50. 21268                 /* Report read errors to interested parties. */
  51. 21269                 if (rw_flag == READING) rdwt_err = r;
  52. 21270         }
  53. 21271   }
  54. 21272
  55. 21273   bp->b_dirt = CLEAN;
  56. 21274 }
  57. 21277 /*===========================================================================*
  58. 21278  *                              invalidate                                   *
  59. 21279  *===========================================================================*/
  60. 21280 PUBLIC void invalidate(device)
  61. 21281 dev_t device;                   /* device whose blocks are to be purged */
  62. 21282 {
  63. 21283 /* Remove all the blocks belonging to some device from the cache. */
  64. 21284
  65. 21285   register struct buf *bp;
  66. 21286
  67. 21287   for (bp = &buf[0]; bp < &buf[NR_BUFS]; bp++)
  68. 21288         if (bp->b_dev == device) bp->b_dev = NO_DEV;
  69. 21289 }
  70. 21292 /*==========================================================================*
  71. 21293  *                              flushall                                    *
  72. 21294  *==========================================================================*/
  73. 21295 PUBLIC void flushall(dev)
  74. 21296 dev_t dev;                      /* device to flush */
  75. 21297 {
  76. 21298 /* Flush all dirty blocks for one device. */
  77. 21299
  78. 21300   register struct buf *bp;
  79. 21301   static struct buf *dirty[NR_BUFS];    /* static so it isn't on stack */
  80. 21302   int ndirty;
  81. 21303
  82. 21304   for (bp = &buf[0], ndirty = 0; bp < &buf[NR_BUFS]; bp++)
  83. 21305         if (bp->b_dirt == DIRTY && bp->b_dev == dev) dirty[ndirty++] = bp;
  84. 21306   rw_scattered(dev, dirty, ndirty, WRITING);
  85. 21307 }
  86. 21310 /*===========================================================================*
  87. 21311  *                              rw_scattered                                 *
  88. 21312  *===========================================================================*/
  89. 21313 PUBLIC void rw_scattered(dev, bufq, bufqsize, rw_flag)
  90. 21314 dev_t dev;                      /* major-minor device number */
  91. 21315 struct buf **bufq;              /* pointer to array of buffers */
  92. 21316 int bufqsize;                   /* number of buffers */
  93. 21317 int rw_flag;                    /* READING or WRITING */
  94. 21318 {
  95. 21319 /* Read or write scattered data from a device. */
  96. 21320
  97. 21321   register struct buf *bp;
  98. 21322   int gap;
  99. 21323   register int i;
  100. 21324   register struct iorequest_s *iop;
  101. 21325   static struct iorequest_s iovec[NR_IOREQS];  /* static so it isn't on stack */
  102. 21326   int j;
  103. 21327
  104. 21328   /* (Shell) sort buffers on b_blocknr. */
  105. 21329   gap = 1;
  106. 21330   do
  107. 21331         gap = 3 * gap + 1;
  108. 21332   while (gap <= bufqsize);
  109. 21333   while (gap != 1) {
  110. 21334         gap /= 3;
  111. 21335         for (j = gap; j < bufqsize; j++) {
  112. 21336                 for (i = j - gap;
  113. 21337                      i >= 0 && bufq[i]->b_blocknr > bufq[i + gap]->b_blocknr;
  114. 21338                      i -= gap) {
  115. 21339                         bp = bufq[i];
  116. 21340                         bufq[i] = bufq[i + gap];
  117. 21341                         bufq[i + gap] = bp;
  118. 21342                 }
  119. 21343         }
  120. 21344   }
  121. 21345
  122. 21346   /* Set up i/o vector and do i/o.  The result of dev_io is discarded because
  123. 21347    * all results are returned in the vector.  If dev_io fails completely, the
  124. 21348    * vector is unchanged and all results are taken as errors.
  125. 21349    */  
  126. 21350   while (bufqsize > 0) {
  127. 21351         for (j = 0, iop = iovec; j < NR_IOREQS && j < bufqsize; j++, iop++) {
  128. 21352                 bp = bufq[j];
  129. 21353                 iop->io_position = (off_t) bp->b_blocknr * BLOCK_SIZE;
  130. 21354                 iop->io_buf = bp->b_data;
  131. 21355                 iop->io_nbytes = BLOCK_SIZE;
  132. 21356                 iop->io_request = rw_flag == WRITING ?
  133. 21357                                   DEV_WRITE : DEV_READ | OPTIONAL_IO;
  134. 21358         }
  135. 21359         (void) dev_io(SCATTERED_IO, 0, dev, (off_t) 0, j, FS_PROC_NR,
  136. 21360                                                         (char *) iovec);
  137. 21361
  138. 21362         /* Harvest the results.  Leave read errors for rw_block() to complain. */
  139. 21363         for (i = 0, iop = iovec; i < j; i++, iop++) {
  140. 21364                 bp = bufq[i];
  141. 21365                 if (rw_flag == READING) {
  142. 21366                     if (iop->io_nbytes == 0)
  143. 21367                         bp->b_dev = dev;        /* validate block */
  144. 21368                     put_block(bp, PARTIAL_DATA_BLOCK);
  145. 21369                 } else {
  146. 21370                     if (iop->io_nbytes != 0) {
  147. 21371                      printf("Unrecoverable write error on device %d/%d, block %ldn",
  148. 21372                                 (dev>>MAJOR)&BYTE, (dev>>MINOR)&BYTE, bp->b_blocknr);
  149. 21373                         bp->b_dev = NO_DEV;     /* invalidate block */
  150. 21374                     }
  151. 21375                     bp->b_dirt = CLEAN;
  152. 21376                 }
  153. 21377         }
  154. 21378         bufq += j;
  155. 21379         bufqsize -= j;
  156. 21380   }
  157. 21381 }
  158. 21384 /*===========================================================================*
  159. 21385  *                              rm_lru                                       *
  160. 21386  *===========================================================================*/
  161. 21387 PRIVATE void rm_lru(bp)
  162. 21388 struct buf *bp;
  163. 21389 {
  164. 21390 /* Remove a block from its LRU chain. */
  165. 21391
  166. 21392   struct buf *next_ptr, *prev_ptr;
  167. 21393
  168. 21394   bufs_in_use++;
  169. 21395   next_ptr = bp->b_next;        /* successor on LRU chain */
  170. 21396   prev_ptr = bp->b_prev;        /* predecessor on LRU chain */
  171. 21397   if (prev_ptr != NIL_BUF)
  172. 21398         prev_ptr->b_next = next_ptr;
  173. 21399   else
  174. 21400         front = next_ptr;       /* this block was at front of chain */
  175. 21401
  176. 21402   if (next_ptr != NIL_BUF)
  177. 21403         next_ptr->b_prev = prev_ptr;
  178. 21404   else
  179. 21405         rear = prev_ptr;        /* this block was at rear of chain */
  180. 21406 }
  181. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  182. src/fs/inode.c    
  183. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  184. 21500 /* This file manages the inode table.  There are procedures to allocate and
  185. 21501  * deallocate inodes, acquire, erase, and release them, and read and write
  186. 21502  * them from the disk.
  187. 21503  *
  188. 21504  * The entry points into this file are
  189. 21505  *   get_inode:    search inode table for a given inode; if not there, read it
  190. 21506  *   put_inode:    indicate that an inode is no longer needed in memory
  191. 21507  *   alloc_inode:  allocate a new, unused inode
  192. 21508  *   wipe_inode:   erase some fields of a newly allocated inode
  193. 21509  *   free_inode:   mark an inode as available for a new file
  194. 21510  *   update_times: update atime, ctime, and mtime
  195. 21511  *   rw_inode:     read a disk block and extract an inode, or corresp. write
  196. 21512  *   old_icopy:    copy to/from in-core inode struct and disk inode (V1.x)
  197. 21513  *   new_icopy:    copy to/from in-core inode struct and disk inode (V2.x)
  198. 21514  *   dup_inode:    indicate that someone else is using an inode table entry
  199. 21515  */
  200. 21516
  201. 21517 #include "fs.h"
  202. 21518 #include <minix/boot.h>
  203. 21519 #include "buf.h"
  204. 21520 #include "file.h"
  205. 21521 #include "fproc.h"
  206. 21522 #include "inode.h"
  207. 21523 #include "super.h"
  208. 21524
  209. 21525 FORWARD _PROTOTYPE( void old_icopy, (struct inode *rip, d1_inode *dip,
  210. 21526                                                 int direction, int norm));
  211. 21527 FORWARD _PROTOTYPE( void new_icopy, (struct inode *rip, d2_inode *dip,
  212. 21528                                                 int direction, int norm));
  213. 21529
  214. 21530
  215. 21531 /*===========================================================================*
  216. 21532  *                              get_inode                                    *
  217. 21533  *===========================================================================*/
  218. 21534 PUBLIC struct inode *get_inode(dev, numb)
  219. 21535 dev_t dev;                      /* device on which inode resides */
  220. 21536 int numb;                       /* inode number (ANSI: may not be unshort) */
  221. 21537 {
  222. 21538 /* Find a slot in the inode table, load the specified inode into it, and
  223. 21539  * return a pointer to the slot.  If 'dev' == NO_DEV, just return a free slot.
  224. 21540  */
  225. 21541
  226. 21542   register struct inode *rip, *xp;
  227. 21543
  228. 21544   /* Search the inode table both for (dev, numb) and a free slot. */
  229. 21545   xp = NIL_INODE;
  230. 21546   for (rip = &inode[0]; rip < &inode[NR_INODES]; rip++) {
  231. 21547         if (rip->i_count > 0) { /* only check used slots for (dev, numb) */
  232. 21548                 if (rip->i_dev == dev && rip->i_num == numb) {
  233. 21549                         /* This is the inode that we are looking for. */
  234. 21550                         rip->i_count++;
  235. 21551                         return(rip);    /* (dev, numb) found */
  236. 21552                 }
  237. 21553         } else {
  238. 21554                 xp = rip;       /* remember this free slot for later */
  239. 21555         }
  240. 21556   }
  241. 21557
  242. 21558   /* Inode we want is not currently in use.  Did we find a free slot? */
  243. 21559   if (xp == NIL_INODE) {        /* inode table completely full */
  244. 21560         err_code = ENFILE;
  245. 21561         return(NIL_INODE);
  246. 21562   }
  247. 21563
  248. 21564   /* A free inode slot has been located.  Load the inode into it. */
  249. 21565   xp->i_dev = dev;
  250. 21566   xp->i_num = numb;
  251. 21567   xp->i_count = 1;
  252. 21568   if (dev != NO_DEV) rw_inode(xp, READING);     /* get inode from disk */
  253. 21569   xp->i_update = 0;             /* all the times are initially up-to-date */
  254. 21570
  255. 21571   return(xp);
  256. 21572 }
  257. 21575 /*===========================================================================*
  258. 21576  *                              put_inode                                    *
  259. 21577  *===========================================================================*/
  260. 21578 PUBLIC void put_inode(rip)
  261. 21579 register struct inode *rip;     /* pointer to inode to be released */
  262. 21580 {
  263. 21581 /* The caller is no longer using this inode.  If no one else is using it either
  264. 21582  * write it back to the disk immediately.  If it has no links, truncate it and
  265. 21583  * return it to the pool of available inodes.
  266. 21584  */
  267. 21585
  268. 21586   if (rip == NIL_INODE) return; /* checking here is easier than in caller */
  269. 21587   if (--rip->i_count == 0) {    /* i_count == 0 means no one is using it now */
  270. 21588         if ((rip->i_nlinks & BYTE) == 0) {
  271. 21589                 /* i_nlinks == 0 means free the inode. */
  272. 21590                 truncate(rip);  /* return all the disk blocks */
  273. 21591                 rip->i_mode = I_NOT_ALLOC;      /* clear I_TYPE field */
  274. 21592                 rip->i_dirt = DIRTY;
  275. 21593                 free_inode(rip->i_dev, rip->i_num);
  276. 21594         } else {
  277. 21595                 if (rip->i_pipe == I_PIPE) truncate(rip);
  278. 21596         }
  279. 21597         rip->i_pipe = NO_PIPE;  /* should always be cleared */
  280. 21598         if (rip->i_dirt == DIRTY) rw_inode(rip, WRITING);
  281. 21599   }
  282. 21600 }
  283. 21602 /*===========================================================================*
  284. 21603  *                              alloc_inode                                  *
  285. 21604  *===========================================================================*/
  286. 21605 PUBLIC struct inode *alloc_inode(dev, bits)
  287. 21606 dev_t dev;                      /* device on which to allocate the inode */
  288. 21607 mode_t bits;                    /* mode of the inode */
  289. 21608 {
  290. 21609 /* Allocate a free inode on 'dev', and return a pointer to it. */
  291. 21610
  292. 21611   register struct inode *rip;
  293. 21612   register struct super_block *sp;
  294. 21613   int major, minor, inumb;
  295. 21614   bit_t b;
  296. 21615
  297. 21616   sp = get_super(dev);  /* get pointer to super_block */
  298. 21617   if (sp->s_rd_only) {  /* can't allocate an inode on a read only device. */
  299. 21618         err_code = EROFS;
  300. 21619         return(NIL_INODE);
  301. 21620   }
  302. 21621
  303. 21622   /* Acquire an inode from the bit map. */
  304. 21623   b = alloc_bit(sp, IMAP, sp->s_isearch);
  305. 21624   if (b == NO_BIT) {
  306. 21625         err_code = ENFILE;
  307. 21626         major = (int) (sp->s_dev >> MAJOR) & BYTE;
  308. 21627         minor = (int) (sp->s_dev >> MINOR) & BYTE;
  309. 21628         printf("Out of i-nodes on %sdevice %d/%dn",
  310. 21629                 sp->s_dev == ROOT_DEV ? "root " : "", major, minor);
  311. 21630         return(NIL_INODE);
  312. 21631   }
  313. 21632   sp->s_isearch = b;            /* next time start here */
  314. 21633   inumb = (int) b;              /* be careful not to pass unshort as param */
  315. 21634
  316. 21635   /* Try to acquire a slot in the inode table. */
  317. 21636   if ((rip = get_inode(NO_DEV, inumb)) == NIL_INODE) {
  318. 21637         /* No inode table slots available.  Free the inode just allocated. */
  319. 21638         free_bit(sp, IMAP, b);
  320. 21639   } else {
  321. 21640         /* An inode slot is available. Put the inode just allocated into it. */
  322. 21641         rip->i_mode = bits;             /* set up RWX bits */
  323. 21642         rip->i_nlinks = (nlink_t) 0;    /* initial no links */
  324. 21643         rip->i_uid = fp->fp_effuid;     /* file's uid is owner's */
  325. 21644         rip->i_gid = fp->fp_effgid;     /* ditto group id */
  326. 21645         rip->i_dev = dev;               /* mark which device it is on */
  327. 21646         rip->i_ndzones = sp->s_ndzones; /* number of direct zones */
  328. 21647         rip->i_nindirs = sp->s_nindirs; /* number of indirect zones per blk*/
  329. 21648         rip->i_sp = sp;                 /* pointer to super block */
  330. 21649
  331. 21650         /* Fields not cleared already are cleared in wipe_inode().  They have
  332. 21651          * been put there because truncate() needs to clear the same fields if
  333. 21652          * the file happens to be open while being truncated.  It saves space
  334. 21653          * not to repeat the code twice.
  335. 21654          */
  336. 21655         wipe_inode(rip);
  337. 21656   }
  338. 21657
  339. 21658   return(rip);
  340. 21659 }
  341. 21661 /*===========================================================================*
  342. 21662  *                              wipe_inode                                   *
  343. 21663  *===========================================================================*/
  344. 21664 PUBLIC void wipe_inode(rip)
  345. 21665 register struct inode *rip;     /* the inode to be erased */
  346. 21666 {
  347. 21667 /* Erase some fields in the inode.  This function is called from alloc_inode()
  348. 21668  * when a new inode is to be allocated, and from truncate(), when an existing
  349. 21669  * inode is to be truncated.
  350. 21670  */
  351. 21671
  352. 21672   register int i;
  353. 21673
  354. 21674   rip->i_size = 0;
  355. 21675   rip->i_update = ATIME | CTIME | MTIME;        /* update all times later */
  356. 21676   rip->i_dirt = DIRTY;
  357. 21677   for (i = 0; i < V2_NR_TZONES; i++) rip->i_zone[i] = NO_ZONE;
  358. 21678 }
  359. 21681 /*===========================================================================*
  360. 21682  *                              free_inode                                   *
  361. 21683  *===========================================================================*/
  362. 21684 PUBLIC void free_inode(dev, inumb)
  363. 21685 dev_t dev;                      /* on which device is the inode */
  364. 21686 ino_t inumb;                    /* number of inode to be freed */
  365. 21687 {
  366. 21688 /* Return an inode to the pool of unallocated inodes. */
  367. 21689
  368. 21690   register struct super_block *sp;
  369. 21691   bit_t b;
  370. 21692
  371. 21693   /* Locate the appropriate super_block. */
  372. 21694   sp = get_super(dev);
  373. 21695   if (inumb <= 0 || inumb > sp->s_ninodes) return;
  374. 21696   b = inumb;
  375. 21697   free_bit(sp, IMAP, b);
  376. 21698   if (b < sp->s_isearch) sp->s_isearch = b;
  377. 21699 }
  378. 21701 /*===========================================================================*
  379. 21702  *                              update_times                                 *
  380. 21703  *===========================================================================*/
  381. 21704 PUBLIC void update_times(rip)
  382. 21705 register struct inode *rip;     /* pointer to inode to be read/written */
  383. 21706 {
  384. 21707 /* Various system calls are required by the standard to update atime, ctime,
  385. 21708  * or mtime.  Since updating a time requires sending a message to the clock
  386. 21709  * task--an expensive business--the times are marked for update by setting
  387. 21710  * bits in i_update.  When a stat, fstat, or sync is done, or an inode is 
  388. 21711  * released, update_times() may be called to actually fill in the times.
  389. 21712  */
  390. 21713
  391. 21714   time_t cur_time;
  392. 21715   struct super_block *sp;
  393. 21716
  394. 21717   sp = rip->i_sp;               /* get pointer to super block. */
  395. 21718   if (sp->s_rd_only) return;    /* no updates for read-only file systems */
  396. 21719
  397. 21720   cur_time = clock_time();
  398. 21721   if (rip->i_update & ATIME) rip->i_atime = cur_time;
  399. 21722   if (rip->i_update & CTIME) rip->i_ctime = cur_time;
  400. 21723   if (rip->i_update & MTIME) rip->i_mtime = cur_time;
  401. 21724   rip->i_update = 0;            /* they are all up-to-date now */
  402. 21725 }
  403. 21728 /*===========================================================================*
  404. 21729  *                              rw_inode                                     *
  405. 21730  *===========================================================================*/
  406. 21731 PUBLIC void rw_inode(rip, rw_flag)
  407. 21732 register struct inode *rip;     /* pointer to inode to be read/written */
  408. 21733 int rw_flag;                    /* READING or WRITING */
  409. 21734 {
  410. 21735 /* An entry in the inode table is to be copied to or from the disk. */
  411. 21736
  412. 21737   register struct buf *bp;
  413. 21738   register struct super_block *sp;
  414. 21739   d1_inode *dip;
  415. 21740   d2_inode *dip2;
  416. 21741   block_t b, offset;
  417. 21742
  418. 21743   /* Get the block where the inode resides. */
  419. 21744   sp = get_super(rip->i_dev);   /* get pointer to super block */
  420. 21745   rip->i_sp = sp;               /* inode must contain super block pointer */
  421. 21746   offset = sp->s_imap_blocks + sp->s_zmap_blocks + 2;
  422. 21747   b = (block_t) (rip->i_num - 1)/sp->s_inodes_per_block + offset;
  423. 21748   bp = get_block(rip->i_dev, b, NORMAL);
  424. 21749   dip  = bp->b_v1_ino + (rip->i_num - 1) % V1_INODES_PER_BLOCK;
  425. 21750   dip2 = bp->b_v2_ino + (rip->i_num - 1) % V2_INODES_PER_BLOCK;
  426. 21751
  427. 21752   /* Do the read or write. */
  428. 21753   if (rw_flag == WRITING) {
  429. 21754         if (rip->i_update) update_times(rip);   /* times need updating */
  430. 21755         if (sp->s_rd_only == FALSE) bp->b_dirt = DIRTY;
  431. 21756   }
  432. 21757
  433. 21758   /* Copy the inode from the disk block to the in-core table or vice versa.
  434. 21759    * If the fourth parameter below is FALSE, the bytes are swapped.
  435. 21760    */
  436. 21761   if (sp->s_version == V1)
  437. 21762         old_icopy(rip, dip,  rw_flag, sp->s_native);
  438. 21763   else
  439. 21764         new_icopy(rip, dip2, rw_flag, sp->s_native);
  440. 21765   
  441. 21766   put_block(bp, INODE_BLOCK);
  442. 21767   rip->i_dirt = CLEAN;
  443. 21768 }
  444. 21771 /*===========================================================================*
  445. 21772  *                              old_icopy                                    *
  446. 21773  *===========================================================================*/
  447. 21774 PRIVATE void old_icopy(rip, dip, direction, norm)
  448. 21775 register struct inode *rip;     /* pointer to the in-core inode struct */
  449. 21776 register d1_inode *dip;         /* pointer to the d1_inode inode struct */
  450. 21777 int direction;                  /* READING (from disk) or WRITING (to disk) */
  451. 21778 int norm;                       /* TRUE = do not swap bytes; FALSE = swap */
  452. 21779
  453. 21780 {
  454. 21781 /* The V1.x IBM disk, the V1.x 68000 disk, and the V2 disk (same for IBM and
  455. 21782  * 68000) all have different inode layouts.  When an inode is read or written
  456. 21783  * this routine handles the conversions so that the information in the inode
  457. 21784  * table is independent of the disk structure from which the inode came.
  458. 21785  * The old_icopy routine copies to and from V1 disks.
  459. 21786  */
  460. 21787
  461. 21788   int i;
  462. 21789
  463. 21790   if (direction == READING) {
  464. 21791         /* Copy V1.x inode to the in-core table, swapping bytes if need be. */
  465. 21792         rip->i_mode    = conv2(norm, (int) dip->d1_mode);
  466. 21793         rip->i_uid     = conv2(norm, (int) dip->d1_uid );
  467. 21794         rip->i_size    = conv4(norm,       dip->d1_size);
  468. 21795         rip->i_mtime   = conv4(norm,       dip->d1_mtime);
  469. 21796         rip->i_atime   = rip->i_mtime;
  470. 21797         rip->i_ctime   = rip->i_mtime;
  471. 21798         rip->i_nlinks  = (nlink_t) dip->d1_nlinks;      /* 1 char */
  472. 21799         rip->i_gid     = (gid_t) dip->d1_gid;           /* 1 char */
  473. 21800         rip->i_ndzones = V1_NR_DZONES;
  474. 21801         rip->i_nindirs = V1_INDIRECTS;
  475. 21802         for (i = 0; i < V1_NR_TZONES; i++)
  476. 21803                 rip->i_zone[i] = conv2(norm, (int) dip->d1_zone[i]);
  477. 21804   } else {
  478. 21805         /* Copying V1.x inode to disk from the in-core table. */
  479. 21806         dip->d1_mode   = conv2(norm, (int) rip->i_mode);
  480. 21807         dip->d1_uid    = conv2(norm, (int) rip->i_uid );
  481. 21808         dip->d1_size   = conv4(norm,       rip->i_size);
  482. 21809         dip->d1_mtime  = conv4(norm,       rip->i_mtime);
  483. 21810         dip->d1_nlinks = (nlink_t) rip->i_nlinks;       /* 1 char */
  484. 21811         dip->d1_gid    = (gid_t) rip->i_gid;            /* 1 char */
  485. 21812         for (i = 0; i < V1_NR_TZONES; i++)
  486. 21813                 dip->d1_zone[i] = conv2(norm, (int) rip->i_zone[i]);
  487. 21814   }
  488. 21815 }
  489. 21818 /*===========================================================================*
  490. 21819  *                              new_icopy                                    *
  491. 21820  *===========================================================================*/
  492. 21821 PRIVATE void new_icopy(rip, dip, direction, norm)
  493. 21822 register struct inode *rip;     /* pointer to the in-core inode struct */
  494. 21823 register d2_inode *dip; /* pointer to the d2_inode struct */
  495. 21824 int direction;                  /* READING (from disk) or WRITING (to disk) */
  496. 21825 int norm;                       /* TRUE = do not swap bytes; FALSE = swap */
  497. 21826
  498. 21827 {
  499. 21828 /* Same as old_icopy, but to/from V2 disk layout. */
  500. 21829
  501. 21830   int i;
  502. 21831
  503. 21832   if (direction == READING) {
  504. 21833         /* Copy V2.x inode to the in-core table, swapping bytes if need be. */
  505. 21834         rip->i_mode    = conv2(norm,dip->d2_mode);
  506. 21835         rip->i_uid     = conv2(norm,dip->d2_uid );
  507. 21836         rip->i_nlinks  = conv2(norm,(int) dip->d2_nlinks);
  508. 21837         rip->i_gid     = conv2(norm,(int) dip->d2_gid );
  509. 21838         rip->i_size    = conv4(norm,dip->d2_size);
  510. 21839         rip->i_atime   = conv4(norm,dip->d2_atime);
  511. 21840         rip->i_ctime   = conv4(norm,dip->d2_ctime);
  512. 21841         rip->i_mtime   = conv4(norm,dip->d2_mtime);
  513. 21842         rip->i_ndzones = V2_NR_DZONES;
  514. 21843         rip->i_nindirs = V2_INDIRECTS;
  515. 21844         for (i = 0; i < V2_NR_TZONES; i++)
  516. 21845                 rip->i_zone[i] = conv4(norm, (long) dip->d2_zone[i]);
  517. 21846   } else {
  518. 21847         /* Copying V2.x inode to disk from the in-core table. */
  519. 21848         dip->d2_mode   = conv2(norm,rip->i_mode);
  520. 21849         dip->d2_uid    = conv2(norm,rip->i_uid );
  521. 21850         dip->d2_nlinks = conv2(norm,rip->i_nlinks);
  522. 21851         dip->d2_gid    = conv2(norm,rip->i_gid );
  523. 21852         dip->d2_size   = conv4(norm,rip->i_size);
  524. 21853         dip->d2_atime  = conv4(norm,rip->i_atime);
  525. 21854         dip->d2_ctime  = conv4(norm,rip->i_ctime);
  526. 21855         dip->d2_mtime  = conv4(norm,rip->i_mtime);
  527. 21856         for (i = 0; i < V2_NR_TZONES; i++)
  528. 21857                 dip->d2_zone[i] = conv4(norm, (long) rip->i_zone[i]);
  529. 21858   }
  530. 21859 }
  531. 21862 /*===========================================================================*
  532. 21863  *                              dup_inode                                    *
  533. 21864  *===========================================================================*/
  534. 21865 PUBLIC void dup_inode(ip)
  535. 21866 struct inode *ip;               /* The inode to be duplicated. */
  536. 21867 {
  537. 21868 /* This routine is a simplified form of get_inode() for the case where
  538. 21869  * the inode pointer is already known.
  539. 21870  */
  540. 21871
  541. 21872   ip->i_count++;
  542. 21873 }
  543. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  544. src/fs/super.c    
  545. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  546. 21900 /* This file manages the super block table and the related data structures,
  547. 21901  * namely, the bit maps that keep track of which zones and which inodes are
  548. 21902  * allocated and which are free.  When a new inode or zone is needed, the
  549. 21903  * appropriate bit map is searched for a free entry.
  550. 21904  *
  551. 21905  * The entry points into this file are
  552. 21906  *   alloc_bit:       somebody wants to allocate a zone or inode; find one
  553. 21907  *   free_bit:        indicate that a zone or inode is available for allocation
  554. 21908  *   get_super:       search the 'superblock' table for a device
  555. 21909  *   mounted:         tells if file inode is on mounted (or ROOT) file system
  556. 21910  *   read_super:      read a superblock
  557. 21911  */
  558. 21912
  559. 21913 #include "fs.h"
  560. 21914 #include <string.h>
  561. 21915 #include <minix/boot.h>
  562. 21916 #include "buf.h"
  563. 21917 #include "inode.h"
  564. 21918 #include "super.h"
  565. 21919
  566. 21920 #define BITCHUNK_BITS   (usizeof(bitchunk_t) * CHAR_BIT)
  567. 21921 #define BITS_PER_BLOCK  (BITMAP_CHUNKS * BITCHUNK_BITS)
  568. 21922
  569. 21923 /*===========================================================================*
  570. 21924  *                              alloc_bit                                    *
  571. 21925  *===========================================================================*/
  572. 21926 PUBLIC bit_t alloc_bit(sp, map, origin)
  573. 21927 struct super_block *sp;         /* the filesystem to allocate from */
  574. 21928 int map;                        /* IMAP (inode map) or ZMAP (zone map) */
  575. 21929 bit_t origin;                   /* number of bit to start searching at */
  576. 21930 {
  577. 21931 /* Allocate a bit from a bit map and return its bit number. */
  578. 21932
  579. 21933   block_t start_block;          /* first bit block */
  580. 21934   bit_t map_bits;               /* how many bits are there in the bit map? */
  581. 21935   unsigned bit_blocks;          /* how many blocks are there in the bit map? */
  582. 21936   unsigned block, word, bcount, wcount;
  583. 21937   struct buf *bp;
  584. 21938   bitchunk_t *wptr, *wlim, k;
  585. 21939   bit_t i, b;
  586. 21940
  587. 21941   if (sp->s_rd_only)
  588. 21942         panic("can't allocate bit on read-only filesys.", NO_NUM);
  589. 21943
  590. 21944   if (map == IMAP) {
  591. 21945         start_block = SUPER_BLOCK + 1;
  592. 21946         map_bits = sp->s_ninodes + 1;
  593. 21947         bit_blocks = sp->s_imap_blocks;
  594. 21948   } else {
  595. 21949         start_block = SUPER_BLOCK + 1 + sp->s_imap_blocks;
  596. 21950         map_bits = sp->s_zones - (sp->s_firstdatazone - 1);
  597. 21951         bit_blocks = sp->s_zmap_blocks;
  598. 21952   }
  599. 21953
  600. 21954   /* Figure out where to start the bit search (depends on 'origin'). */
  601. 21955   if (origin >= map_bits) origin = 0;   /* for robustness */
  602. 21956
  603. 21957   /* Locate the starting place. */
  604. 21958   block = origin / BITS_PER_BLOCK;
  605. 21959   word = (origin % BITS_PER_BLOCK) / BITCHUNK_BITS;
  606. 21960
  607. 21961   /* Iterate over all blocks plus one, because we start in the middle. */
  608. 21962   bcount = bit_blocks + 1;
  609. 21963   do {
  610. 21964         bp = get_block(sp->s_dev, start_block + block, NORMAL);
  611. 21965         wlim = &bp->b_bitmap[BITMAP_CHUNKS];
  612. 21966
  613. 21967         /* Iterate over the words in block. */
  614. 21968         for (wptr = &bp->b_bitmap[word]; wptr < wlim; wptr++) {
  615. 21969
  616. 21970                 /* Does this word contain a free bit? */
  617. 21971                 if (*wptr == (bitchunk_t) ~0) continue;
  618. 21972
  619. 21973                 /* Find and allocate the free bit. */
  620. 21974                 k = conv2(sp->s_native, (int) *wptr);
  621. 21975                 for (i = 0; (k & (1 << i)) != 0; ++i) {}
  622. 21976
  623. 21977                 /* Bit number from the start of the bit map. */
  624. 21978                 b = ((bit_t) block * BITS_PER_BLOCK)
  625. 21979                     + (wptr - &bp->b_bitmap[0]) * BITCHUNK_BITS
  626. 21980                     + i;
  627. 21981
  628. 21982                 /* Don't allocate bits beyond the end of the map. */
  629. 21983                 if (b >= map_bits) break;
  630. 21984
  631. 21985                 /* Allocate and return bit number. */
  632. 21986                 k |= 1 << i;
  633. 21987                 *wptr = conv2(sp->s_native, (int) k);
  634. 21988                 bp->b_dirt = DIRTY;
  635. 21989                 put_block(bp, MAP_BLOCK);
  636. 21990                 return(b);
  637. 21991         }
  638. 21992         put_block(bp, MAP_BLOCK);
  639. 21993         if (++block >= bit_blocks) block = 0;   /* last block, wrap around */
  640. 21994         word = 0;
  641. 21995   } while (--bcount > 0);
  642. 21996   return(NO_BIT);               /* no bit could be allocated */
  643. 21997 }
  644. 22000 /*===========================================================================*
  645. 22001  *                              free_bit                                     *
  646. 22002  *===========================================================================*/
  647. 22003 PUBLIC void free_bit(sp, map, bit_returned)
  648. 22004 struct super_block *sp;         /* the filesystem to operate on */
  649. 22005 int map;                        /* IMAP (inode map) or ZMAP (zone map) */
  650. 22006 bit_t bit_returned;             /* number of bit to insert into the map */
  651. 22007 {
  652. 22008 /* Return a zone or inode by turning off its bitmap bit. */
  653. 22009
  654. 22010   unsigned block, word, bit;
  655. 22011   struct buf *bp;
  656. 22012   bitchunk_t k, mask;
  657. 22013   block_t start_block;
  658. 22014
  659. 22015   if (sp->s_rd_only)
  660. 22016         panic("can't free bit on read-only filesys.", NO_NUM);
  661. 22017
  662. 22018   if (map == IMAP) {
  663. 22019         start_block = SUPER_BLOCK + 1;
  664. 22020   } else {
  665. 22021         start_block = SUPER_BLOCK + 1 + sp->s_imap_blocks;
  666. 22022   }
  667. 22023   block = bit_returned / BITS_PER_BLOCK;
  668. 22024   word = (bit_returned % BITS_PER_BLOCK) / BITCHUNK_BITS;
  669. 22025   bit = bit_returned % BITCHUNK_BITS;
  670. 22026   mask = 1 << bit;
  671. 22027
  672. 22028   bp = get_block(sp->s_dev, start_block + block, NORMAL);
  673. 22029
  674. 22030   k = conv2(sp->s_native, (int) bp->b_bitmap[word]);
  675. 22031   if (!(k & mask)) {
  676. 22032         panic(map == IMAP ? "tried to free unused inode" :
  677. 22033               "tried to free unused block", NO_NUM);
  678. 22034   }
  679. 22035
  680. 22036   k &= ~mask;
  681. 22037   bp->b_bitmap[word] = conv2(sp->s_native, (int) k);
  682. 22038   bp->b_dirt = DIRTY;
  683. 22039
  684. 22040   put_block(bp, MAP_BLOCK);
  685. 22041 }
  686. 22044 /*===========================================================================*
  687. 22045  *                              get_super                                    *
  688. 22046  *===========================================================================*/
  689. 22047 PUBLIC struct super_block *get_super(dev)
  690. 22048 dev_t dev;                      /* device number whose super_block is sought */
  691. 22049 {
  692. 22050 /* Search the superblock table for this device.  It is supposed to be there. */
  693. 22051
  694. 22052   register struct super_block *sp;
  695. 22053
  696. 22054   for (sp = &super_block[0]; sp < &super_block[NR_SUPERS]; sp++)
  697. 22055         if (sp->s_dev == dev) return(sp);
  698. 22056
  699. 22057   /* Search failed.  Something wrong. */
  700. 22058   panic("can't find superblock for device (in decimal)", (int) dev);
  701. 22059
  702. 22060   return(NIL_SUPER);            /* to keep the compiler and lint quiet */
  703. 22061 }
  704. 22064 /*===========================================================================*
  705. 22065  *                              mounted                                      *
  706. 22066  *===========================================================================*/
  707. 22067 PUBLIC int mounted(rip)
  708. 22068 register struct inode *rip;     /* pointer to inode */
  709. 22069 {
  710. 22070 /* Report on whether the given inode is on a mounted (or ROOT) file system. */
  711. 22071
  712. 22072   register struct super_block *sp;
  713. 22073   register dev_t dev;
  714. 22074
  715. 22075   dev = (dev_t) rip->i_zone[0];
  716. 22076   if (dev == ROOT_DEV) return(TRUE);    /* inode is on root file system */
  717. 22077
  718. 22078   for (sp = &super_block[0]; sp < &super_block[NR_SUPERS]; sp++)
  719. 22079         if (sp->s_dev == dev) return(TRUE);
  720. 22080
  721. 22081   return(FALSE);
  722. 22082 }
  723. 22085 /*===========================================================================*
  724. 22086  *                              read_super                                   *
  725. 22087  *===========================================================================*/
  726. 22088 PUBLIC int read_super(sp)
  727. 22089 register struct super_block *sp; /* pointer to a superblock */
  728. 22090 {
  729. 22091 /* Read a superblock. */
  730. 22092
  731. 22093   register struct buf *bp;
  732. 22094   dev_t dev;
  733. 22095   int magic;
  734. 22096   int version, native;
  735. 22097
  736. 22098   dev = sp->s_dev;              /* save device (will be overwritten by copy) */
  737. 22099   bp = get_block(sp->s_dev, SUPER_BLOCK, NORMAL);
  738. 22100   memcpy( (char *) sp, bp->b_data, (size_t) SUPER_SIZE);
  739. 22101   put_block(bp, ZUPER_BLOCK);
  740. 22102   sp->s_dev = NO_DEV;           /* restore later */
  741. 22103   magic = sp->s_magic;          /* determines file system type */
  742. 22104
  743. 22105   /* Get file system version and type. */
  744. 22106   if (magic == SUPER_MAGIC || magic == conv2(BYTE_SWAP, SUPER_MAGIC)) {
  745. 22107         version = V1;
  746. 22108         native  = (magic == SUPER_MAGIC);
  747. 22109   } else if (magic == SUPER_V2 || magic == conv2(BYTE_SWAP, SUPER_V2)) {
  748. 22110         version = V2;
  749. 22111         native  = (magic == SUPER_V2);
  750. 22112   } else {
  751. 22113         return(EINVAL);
  752. 22114   }
  753. 22115
  754. 22116   /* If the super block has the wrong byte order, swap the fields; the magic
  755. 22117    * number doesn't need conversion. */
  756. 22118   sp->s_ninodes =       conv2(native, (int) sp->s_ninodes);
  757. 22119   sp->s_nzones =        conv2(native, (int) sp->s_nzones);
  758. 22120   sp->s_imap_blocks =   conv2(native, (int) sp->s_imap_blocks);
  759. 22121   sp->s_zmap_blocks =   conv2(native, (int) sp->s_zmap_blocks);
  760. 22122   sp->s_firstdatazone = conv2(native, (int) sp->s_firstdatazone);
  761. 22123   sp->s_log_zone_size = conv2(native, (int) sp->s_log_zone_size);
  762. 22124   sp->s_max_size =      conv4(native, sp->s_max_size);
  763. 22125   sp->s_zones =         conv4(native, sp->s_zones);
  764. 22126
  765. 22127   /* In V1, the device size was kept in a short, s_nzones, which limited
  766. 22128    * devices to 32K zones.  For V2, it was decided to keep the size as a
  767. 22129    * long.  However, just changing s_nzones to a long would not work, since
  768. 22130    * then the position of s_magic in the super block would not be the same
  769. 22131    * in V1 and V2 file systems, and there would be no way to tell whether
  770. 22132    * a newly mounted file system was V1 or V2.  The solution was to introduce
  771. 22133    * a new variable, s_zones, and copy the size there.
  772. 22134    *
  773. 22135    * Calculate some other numbers that depend on the version here too, to
  774. 22136    * hide some of the differences.
  775. 22137    */
  776. 22138   if (version == V1) {
  777. 22139         sp->s_zones = sp->s_nzones;     /* only V1 needs this copy */
  778. 22140         sp->s_inodes_per_block = V1_INODES_PER_BLOCK;
  779. 22141         sp->s_ndzones = V1_NR_DZONES;
  780. 22142         sp->s_nindirs = V1_INDIRECTS;
  781. 22143   } else {
  782. 22144         sp->s_inodes_per_block = V2_INODES_PER_BLOCK;
  783. 22145         sp->s_ndzones = V2_NR_DZONES;
  784. 22146         sp->s_nindirs = V2_INDIRECTS;
  785. 22147   }
  786. 22148
  787. 22149   sp->s_isearch = 0;            /* inode searches initially start at 0 */
  788. 22150   sp->s_zsearch = 0;            /* zone searches initially start at 0 */
  789. 22151   sp->s_version = version;
  790. 22152   sp->s_native  = native;
  791. 22153
  792. 22154   /* Make a few basic checks to see if super block looks reasonable. */
  793. 22155   if (sp->s_imap_blocks < 1 || sp->s_zmap_blocks < 1
  794. 22156                                 || sp->s_ninodes < 1 || sp->s_zones < 1
  795. 22157                                 || (unsigned) sp->s_log_zone_size > 4) {
  796. 22158         return(EINVAL);
  797. 22159   }
  798. 22160   sp->s_dev = dev;              /* restore device number */
  799. 22161   return(OK);
  800. 22162 }
  801. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  802. src/fs/filedes.c    
  803. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  804. 22200 /* This file contains the procedures that manipulate file descriptors.
  805. 22201  *
  806. 22202  * The entry points into this file are
  807. 22203  *   get_fd:    look for free file descriptor and free filp slots
  808. 22204  *   get_filp:  look up the filp entry for a given file descriptor
  809. 22205  *   find_filp: find a filp slot that points to a given inode
  810. 22206  */
  811. 22207
  812. 22208 #include "fs.h"
  813. 22209 #include "file.h"
  814. 22210 #include "fproc.h"
  815. 22211 #include "inode.h"
  816. 22212
  817. 22213 /*===========================================================================*
  818. 22214  *                              get_fd                                       *
  819. 22215  *===========================================================================*/
  820. 22216 PUBLIC int get_fd(start, bits, k, fpt)
  821. 22217 int start;                      /* start of search (used for F_DUPFD) */
  822. 22218 mode_t bits;                    /* mode of the file to be created (RWX bits) */
  823. 22219 int *k;                         /* place to return file descriptor */
  824. 22220 struct filp **fpt;              /* place to return filp slot */
  825. 22221 {
  826. 22222 /* Look for a free file descriptor and a free filp slot.  Fill in the mode word
  827. 22223  * in the latter, but don't claim either one yet, since the open() or creat()
  828. 22224  * may yet fail.
  829. 22225  */
  830. 22226
  831. 22227   register struct filp *f;
  832. 22228   register int i;
  833. 22229
  834. 22230   *k = -1;                      /* we need a way to tell if file desc found */
  835. 22231
  836. 22232   /* Search the fproc fp_filp table for a free file descriptor. */
  837. 22233   for (i = start; i < OPEN_MAX; i++) {
  838. 22234         if (fp->fp_filp[i] == NIL_FILP) {
  839. 22235                 /* A file descriptor has been located. */
  840. 22236                 *k = i;
  841. 22237                 break;
  842. 22238         }
  843. 22239   }
  844. 22240
  845. 22241   /* Check to see if a file descriptor has been found. */
  846. 22242   if (*k < 0) return(EMFILE);   /* this is why we initialized k to -1 */
  847. 22243
  848. 22244   /* Now that a file descriptor has been found, look for a free filp slot. */
  849. 22245   for (f = &filp[0]; f < &filp[NR_FILPS]; f++) {
  850. 22246         if (f->filp_count == 0) {
  851. 22247                 f->filp_mode = bits;
  852. 22248                 f->filp_pos = 0L;
  853. 22249                 f->filp_flags = 0;
  854. 22250                 *fpt = f;
  855. 22251                 return(OK);
  856. 22252         }
  857. 22253   }
  858. 22254
  859. 22255   /* If control passes here, the filp table must be full.  Report that back. */
  860. 22256   return(ENFILE);
  861. 22257 }
  862. 22260 /*===========================================================================*
  863. 22261  *                              get_filp                                     *
  864. 22262  *===========================================================================*/
  865. 22263 PUBLIC struct filp *get_filp(fild)
  866. 22264 int fild;                       /* file descriptor */
  867. 22265 {
  868. 22266 /* See if 'fild' refers to a valid file descr.  If so, return its filp ptr. */
  869. 22267
  870. 22268   err_code = EBADF;
  871. 22269   if (fild < 0 || fild >= OPEN_MAX ) return(NIL_FILP);
  872. 22270   return(fp->fp_filp[fild]);    /* may also be NIL_FILP */
  873. 22271 }
  874. 22274 /*===========================================================================*
  875. 22275  *                              find_filp                                    *
  876. 22276  *===========================================================================*/
  877. 22277 PUBLIC struct filp *find_filp(rip, bits)
  878. 22278 register struct inode *rip;     /* inode referred to by the filp to be found */
  879. 22279 Mode_t bits;                    /* mode of the filp to be found (RWX bits) */
  880. 22280 {
  881. 22281 /* Find a filp slot that refers to the inode 'rip' in a way as described
  882. 22282  * by the mode bit 'bits'. Used for determining whether somebody is still
  883. 22283  * interested in either end of a pipe.  Also used when opening a FIFO to
  884. 22284  * find partners to share a filp field with (to shared the file position).
  885. 22285  * Like 'get_fd' it performs its job by linear search through the filp table.
  886. 22286  */
  887. 22287
  888. 22288   register struct filp *f;
  889. 22289
  890. 22290   for (f = &filp[0]; f < &filp[NR_FILPS]; f++) {
  891. 22291         if (f->filp_count != 0 && f->filp_ino == rip && (f->filp_mode & bits)){
  892. 22292                 return(f);
  893. 22293         }
  894. 22294   }
  895. 22295
  896. 22296   /* If control passes here, the filp wasn't there.  Report that back. */
  897. 22297   return(NIL_FILP);
  898. 22298 }
  899. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  900. src/fs/lock.c    
  901. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  902. 22300 /* This file handles advisory file locking as required by POSIX.
  903. 22301  *
  904. 22302  * The entry points into this file are
  905. 22303  *   lock_op:   perform locking operations for FCNTL system call
  906. 22304  *   lock_revive: revive processes when a lock is released
  907. 22305  */
  908. 22306
  909. 22307 #include "fs.h"
  910. 22308 #include <fcntl.h>
  911. 22309 #include <unistd.h>     /* cc runs out of memory with unistd.h :-( */
  912. 22310 #include "file.h"
  913. 22311 #include "fproc.h"
  914. 22312 #include "inode.h"
  915. 22313 #include "lock.h"
  916. 22314 #include "param.h"
  917. 22315
  918. 22316 /*===========================================================================*
  919. 22317  *                              lock_op                                      *
  920. 22318  *===========================================================================*/
  921. 22319 PUBLIC int lock_op(f, req)
  922. 22320 struct filp *f;
  923. 22321 int req;                        /* either F_SETLK or F_SETLKW */
  924. 22322 {
  925. 22323 /* Perform the advisory locking required by POSIX. */
  926. 22324
  927. 22325   int r, ltype, i, conflict = 0, unlocking = 0;
  928. 22326   mode_t mo;
  929. 22327   off_t first, last;
  930. 22328   struct flock flock;
  931. 22329   vir_bytes user_flock;
  932. 22330   struct file_lock *flp, *flp2, *empty;
  933. 22331
  934. 22332   /* Fetch the flock structure from user space. */
  935. 22333   user_flock = (vir_bytes) name1;
  936. 22334   r = sys_copy(who, D, (phys_bytes) user_flock,
  937. 22335         FS_PROC_NR, D, (phys_bytes) &flock, (phys_bytes) sizeof(flock));
  938. 22336   if (r != OK) return(EINVAL);
  939. 22337
  940. 22338   /* Make some error checks. */
  941. 22339   ltype = flock.l_type;
  942. 22340   mo = f->filp_mode;
  943. 22341   if (ltype != F_UNLCK && ltype != F_RDLCK && ltype != F_WRLCK) return(EINVAL);
  944. 22342   if (req == F_GETLK && ltype == F_UNLCK) return(EINVAL);
  945. 22343   if ( (f->filp_ino->i_mode & I_TYPE) != I_REGULAR) return(EINVAL);
  946. 22344   if (req != F_GETLK && ltype == F_RDLCK && (mo & R_BIT) == 0) return(EBADF);
  947. 22345   if (req != F_GETLK && ltype == F_WRLCK && (mo & W_BIT) == 0) return(EBADF);
  948. 22346
  949. 22347   /* Compute the first and last bytes in the lock region. */
  950. 22348   switch (flock.l_whence) {
  951. 22349         case SEEK_SET:  first = 0; break;
  952. 22350         case SEEK_CUR:  first = f->filp_pos; break;
  953. 22351         case SEEK_END:  first = f->filp_ino->i_size; break;
  954. 22352         default:        return(EINVAL);
  955. 22353   }
  956. 22354   /* Check for overflow. */
  957. 22355   if (((long)flock.l_start > 0) && ((first + flock.l_start) < first))
  958. 22356         return(EINVAL);
  959. 22357   if (((long)flock.l_start < 0) && ((first + flock.l_start) > first))
  960. 22358         return(EINVAL);
  961. 22359   first = first + flock.l_start;
  962. 22360   last = first + flock.l_len - 1;
  963. 22361   if (flock.l_len == 0) last = MAX_FILE_POS;
  964. 22362   if (last < first) return(EINVAL);
  965. 22363
  966. 22364   /* Check if this region conflicts with any existing lock. */
  967. 22365   empty = (struct file_lock *) 0;
  968. 22366   for (flp = &file_lock[0]; flp < & file_lock[NR_LOCKS]; flp++) {
  969. 22367         if (flp->lock_type == 0) {
  970. 22368                 if (empty == (struct file_lock *) 0) empty = flp;
  971. 22369                 continue;       /* 0 means unused slot */
  972. 22370         }
  973. 22371         if (flp->lock_inode != f->filp_ino) continue;   /* different file */
  974. 22372         if (last < flp->lock_first) continue;   /* new one is in front */
  975. 22373         if (first > flp->lock_last) continue;   /* new one is afterwards */
  976. 22374         if (ltype == F_RDLCK && flp->lock_type == F_RDLCK) continue;
  977. 22375         if (ltype != F_UNLCK && flp->lock_pid == fp->fp_pid) continue;
  978. 22376   
  979. 22377         /* There might be a conflict.  Process it. */
  980. 22378         conflict = 1;
  981. 22379         if (req == F_GETLK) break;
  982. 22380
  983. 22381         /* If we are trying to set a lock, it just failed. */
  984. 22382         if (ltype == F_RDLCK || ltype == F_WRLCK) {
  985. 22383                 if (req == F_SETLK) {
  986. 22384                         /* For F_SETLK, just report back failure. */
  987. 22385                         return(EAGAIN);
  988. 22386                 } else {
  989. 22387                         /* For F_SETLKW, suspend the process. */
  990. 22388                         suspend(XLOCK);
  991. 22389                         return(0);
  992. 22390                 }
  993. 22391         }
  994. 22392
  995. 22393         /* We are clearing a lock and we found something that overlaps. */
  996. 22394         unlocking = 1;
  997. 22395         if (first <= flp->lock_first && last >= flp->lock_last) {
  998. 22396                 flp->lock_type = 0;     /* mark slot as unused */
  999. 22397                 nr_locks--;             /* number of locks is now 1 less */
  1000. 22398                 continue;
  1001. 22399         }
  1002. 22400
  1003. 22401         /* Part of a locked region has been unlocked. */
  1004. 22402         if (first <= flp->lock_first) {
  1005. 22403                 flp->lock_first = last + 1;
  1006. 22404                 continue;
  1007. 22405         }
  1008. 22406
  1009. 22407         if (last >= flp->lock_last) {
  1010. 22408                 flp->lock_last = first - 1;
  1011. 22409                 continue;
  1012. 22410         }
  1013. 22411         
  1014. 22412         /* Bad luck. A lock has been split in two by unlocking the middle. */
  1015. 22413         if (nr_locks == NR_LOCKS) return(ENOLCK);
  1016. 22414         for (i = 0; i < NR_LOCKS; i++)
  1017. 22415                 if (file_lock[i].lock_type == 0) break;
  1018. 22416         flp2 = &file_lock[i];
  1019. 22417         flp2->lock_type = flp->lock_type;
  1020. 22418         flp2->lock_pid = flp->lock_pid;
  1021. 22419         flp2->lock_inode = flp->lock_inode;
  1022. 22420         flp2->lock_first = last + 1;
  1023. 22421         flp2->lock_last = flp->lock_last;
  1024. 22422         flp->lock_last = first - 1;
  1025. 22423         nr_locks++;
  1026. 22424   }
  1027. 22425   if (unlocking) lock_revive();
  1028. 22426
  1029. 22427   if (req == F_GETLK) {
  1030. 22428         if (conflict) {
  1031. 22429                 /* GETLK and conflict. Report on the conflicting lock. */
  1032. 22430                 flock.l_type = flp->lock_type;
  1033. 22431                 flock.l_whence = SEEK_SET;
  1034. 22432                 flock.l_start = flp->lock_first;
  1035. 22433                 flock.l_len = flp->lock_last - flp->lock_first + 1;
  1036. 22434                 flock.l_pid = flp->lock_pid;
  1037. 22435
  1038. 22436         } else {
  1039. 22437                 /* It is GETLK and there is no conflict. */
  1040. 22438                 flock.l_type = F_UNLCK;
  1041. 22439         }
  1042. 22440
  1043. 22441         /* Copy the flock structure back to the caller. */
  1044. 22442         r = sys_copy(FS_PROC_NR, D, (phys_bytes) &flock,
  1045. 22443                 who, D, (phys_bytes) user_flock, (phys_bytes) sizeof(flock));
  1046. 22444         return(r);
  1047. 22445   }
  1048. 22446
  1049. 22447   if (ltype == F_UNLCK) return(OK);     /* unlocked a region with no locks */
  1050. 22448
  1051. 22449   /* There is no conflict.  If space exists, store new lock in the table. */
  1052. 22450   if (empty == (struct file_lock *) 0) return(ENOLCK);  /* table full */
  1053. 22451   empty->lock_type = ltype;
  1054. 22452   empty->lock_pid = fp->fp_pid;
  1055. 22453   empty->lock_inode = f->filp_ino;
  1056. 22454   empty->lock_first = first;
  1057. 22455   empty->lock_last = last;
  1058. 22456   nr_locks++;
  1059. 22457   return(OK);
  1060. 22458 }
  1061. 22460 /*===========================================================================*
  1062. 22461  *                              lock_revive                                  *
  1063. 22462  *===========================================================================*/
  1064. 22463 PUBLIC void lock_revive()
  1065. 22464 {
  1066. 22465 /* Go find all the processes that are waiting for any kind of lock and 
  1067. 22466  * revive them all.  The ones that are still blocked will block again when 
  1068. 22467  * they run.  The others will complete.  This strategy is a space-time 
  1069. 22468  * tradeoff.  Figuring out exactly which ones to unblock now would take 
  1070. 22469  * extra code, and the only thing it would win would be some performance in 
  1071. 22470  * extremely rare circumstances (namely, that somebody actually used 
  1072. 22471  * locking).
  1073. 22472  */
  1074. 22473
  1075. 22474   int task;
  1076. 22475   struct fproc *fptr;
  1077. 22476
  1078. 22477   for (fptr = &fproc[INIT_PROC_NR + 1]; fptr < &fproc[NR_PROCS]; fptr++){
  1079. 22478         task = -fptr->fp_task;
  1080. 22479         if (fptr->fp_suspended == SUSPENDED && task == XLOCK) {
  1081. 22480                 revive( (int) (fptr - fproc), 0);
  1082. 22481         }
  1083. 22482   }
  1084. 22483 }
  1085. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1086. src/fs/main.c    
  1087. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1088. 22500 /* This file contains the main program of the File System.  It consists of
  1089. 22501  * a loop that gets messages requesting work, carries out the work, and sends
  1090. 22502  * replies.
  1091. 22503  *
  1092. 22504  * The entry points into this file are
  1093. 22505  *   main:      main program of the File System
  1094. 22506  *   reply:     send a reply to a process after the requested work is done
  1095. 22507  */
  1096. 22508
  1097. 22509 struct super_block;             /* proto.h needs to know this */
  1098. 22510
  1099. 22511 #include "fs.h"
  1100. 22512 #include <fcntl.h>
  1101. 22513 #include <string.h>
  1102. 22514 #include <sys/ioctl.h>
  1103. 22515 #include <minix/callnr.h>
  1104. 22516 #include <minix/com.h>
  1105. 22517 #include <minix/boot.h>
  1106. 22518 #include "buf.h"
  1107. 22519 #include "dev.h"
  1108. 22520 #include "file.h"
  1109. 22521 #include "fproc.h"
  1110. 22522 #include "inode.h"
  1111. 22523 #include "param.h"
  1112. 22524 #include "super.h"
  1113. 22525
  1114. 22526 FORWARD _PROTOTYPE( void buf_pool, (void)                               );
  1115. 22527 FORWARD _PROTOTYPE( void fs_init, (void)                                );
  1116. 22528 FORWARD _PROTOTYPE( void get_boot_parameters, (void)                    );
  1117. 22529 FORWARD _PROTOTYPE( void get_work, (void)                               );
  1118. 22530 FORWARD _PROTOTYPE( void load_ram, (void)                               );
  1119. 22531 FORWARD _PROTOTYPE( void load_super, (Dev_t super_dev)                  );
  1120. 22532
  1121. 22533
  1122. 22534 /*===========================================================================*
  1123. 22535  *                              main                                         *
  1124. 22536  *===========================================================================*/
  1125. 22537 PUBLIC void main()
  1126. 22538 {
  1127. 22539 /* This is the main program of the file system.  The main loop consists of
  1128. 22540  * three major activities: getting new work, processing the work, and sending
  1129. 22541  * the reply.  This loop never terminates as long as the file system runs.
  1130. 22542  */
  1131. 22543   int error;
  1132. 22544
  1133. 22545   fs_init();
  1134. 22546
  1135. 22547   /* This is the main loop that gets work, processes it, and sends replies. */
  1136. 22548   while (TRUE) {
  1137. 22549         get_work();             /* sets who and fs_call */
  1138. 22550
  1139. 22551         fp = &fproc[who];       /* pointer to proc table struct */
  1140. 22552         super_user = (fp->fp_effuid == SU_UID ? TRUE : FALSE);   /* su? */
  1141. 22553         dont_reply = FALSE;     /* in other words, do reply is default */
  1142. 22554
  1143. 22555         /* Call the internal function that does the work. */
  1144. 22556         if (fs_call < 0 || fs_call >= NCALLS)
  1145. 22557                 error = EBADCALL;
  1146. 22558         else
  1147. 22559                 error = (*call_vector[fs_call])();
  1148. 22560
  1149. 22561         /* Copy the results back to the user and send reply. */
  1150. 22562         if (dont_reply) continue;
  1151. 22563         reply(who, error);
  1152. 22564         if (rdahed_inode != NIL_INODE) read_ahead(); /* do block read ahead */
  1153. 22565   }
  1154. 22566 }
  1155. 22569 /*===========================================================================*
  1156. 22570  *                              get_work                                     *
  1157. 22571  *===========================================================================*/
  1158. 22572 PRIVATE void get_work()
  1159. 22573 {  
  1160. 22574   /* Normally wait for new input.  However, if 'reviving' is
  1161. 22575    * nonzero, a suspended process must be awakened.
  1162. 22576    */
  1163. 22577
  1164. 22578   register struct fproc *rp;
  1165. 22579
  1166. 22580   if (reviving != 0) {
  1167. 22581         /* Revive a suspended process. */
  1168. 22582         for (rp = &fproc[0]; rp < &fproc[NR_PROCS]; rp++) 
  1169. 22583                 if (rp->fp_revived == REVIVING) {
  1170. 22584                         who = (int)(rp - fproc);
  1171. 22585                         fs_call = rp->fp_fd & BYTE;
  1172. 22586                         fd = (rp->fp_fd >>8) & BYTE;
  1173. 22587                         buffer = rp->fp_buffer;
  1174. 22588                         nbytes = rp->fp_nbytes;
  1175. 22589                         rp->fp_suspended = NOT_SUSPENDED; /*no longer hanging*/
  1176. 22590                         rp->fp_revived = NOT_REVIVING;
  1177. 22591                         reviving--;
  1178. 22592                         return;
  1179. 22593                 }
  1180. 22594         panic("get_work couldn't revive anyone", NO_NUM);
  1181. 22595   }
  1182. 22596
  1183. 22597   /* Normal case.  No one to revive. */
  1184. 22598   if (receive(ANY, &m) != OK) panic("fs receive error", NO_NUM);
  1185. 22599
  1186. 22600   who = m.m_source;
  1187. 22601   fs_call = m.m_type;
  1188. 22602 }
  1189. 22605 /*===========================================================================*
  1190. 22606  *                              reply                                        *
  1191. 22607  *===========================================================================*/
  1192. 22608 PUBLIC void reply(whom, result)
  1193. 22609 int whom;                       /* process to reply to */
  1194. 22610 int result;                     /* result of the call (usually OK or error #) */
  1195. 22611 {
  1196. 22612 /* Send a reply to a user process. It may fail (if the process has just
  1197. 22613  * been killed by a signal), so don't check the return code.  If the send
  1198. 22614  * fails, just ignore it.
  1199. 22615  */
  1200. 22616
  1201. 22617   reply_type = result;
  1202. 22618   send(whom, &m1);
  1203. 22619 }
  1204. 22622 /*===========================================================================*
  1205. 22623  *                              fs_init                                      *
  1206. 22624  *===========================================================================*/
  1207. 22625 PRIVATE void fs_init()
  1208. 22626 {
  1209. 22627 /* Initialize global variables, tables, etc. */
  1210. 22628
  1211. 22629   register struct inode *rip;
  1212. 22630   int i;
  1213. 22631   message mess;
  1214. 22632   
  1215. 22633   /* The following initializations are needed to let dev_opcl succeed .*/
  1216. 22634   fp = (struct fproc *) NULL;
  1217. 22635   who = FS_PROC_NR;
  1218. 22636
  1219. 22637   buf_pool();                   /* initialize buffer pool */
  1220. 22638   get_boot_parameters();        /* get the parameters from the menu */
  1221. 22639   load_ram();                   /* init RAM disk, load if it is root */
  1222. 22640   load_super(ROOT_DEV);         /* load super block for root device */
  1223. 22641
  1224. 22642   /* Initialize the 'fproc' fields for process 0 .. INIT. */
  1225. 22643   for (i = 0; i <= LOW_USER; i+= 1) {
  1226. 22644         if (i == FS_PROC_NR) continue;  /* do not initialize FS */
  1227. 22645         fp = &fproc[i];
  1228. 22646         rip = get_inode(ROOT_DEV, ROOT_INODE);
  1229. 22647         fp->fp_rootdir = rip;
  1230. 22648         dup_inode(rip);
  1231. 22649         fp->fp_workdir = rip;
  1232. 22650         fp->fp_realuid = (uid_t) SYS_UID;
  1233. 22651         fp->fp_effuid = (uid_t) SYS_UID;
  1234. 22652         fp->fp_realgid = (gid_t) SYS_GID;
  1235. 22653         fp->fp_effgid = (gid_t) SYS_GID;
  1236. 22654         fp->fp_umask = ~0;
  1237. 22655   }
  1238. 22656
  1239. 22657   /* Certain relations must hold for the file system to work at all. */
  1240. 22658   if (SUPER_SIZE > BLOCK_SIZE) panic("SUPER_SIZE > BLOCK_SIZE", NO_NUM);
  1241. 22659   if (BLOCK_SIZE % V2_INODE_SIZE != 0)  /* this checks V1_INODE_SIZE too */
  1242. 22660         panic("BLOCK_SIZE % V2_INODE_SIZE != 0", NO_NUM);
  1243. 22661   if (OPEN_MAX > 127) panic("OPEN_MAX > 127", NO_NUM);
  1244. 22662   if (NR_BUFS < 6) panic("NR_BUFS < 6", NO_NUM);
  1245. 22663   if (V1_INODE_SIZE != 32) panic("V1 inode size != 32", NO_NUM);
  1246. 22664   if (V2_INODE_SIZE != 64) panic("V2 inode size != 64", NO_NUM);
  1247. 22665   if (OPEN_MAX > 8 * sizeof(long)) panic("Too few bits in fp_cloexec", NO_NUM);
  1248. 22666
  1249. 22667   /* Tell the memory task where my process table is for the sake of ps(1). */
  1250. 22668   mess.m_type = DEV_IOCTL;
  1251. 22669   mess.PROC_NR = FS_PROC_NR;
  1252. 22670   mess.REQUEST = MIOCSPSINFO;
  1253. 22671   mess.ADDRESS = (void *) fproc;
  1254. 22672   (void) sendrec(MEM, &mess);
  1255. 22673 }
  1256. 22676 /*===========================================================================*
  1257. 22677  *                              buf_pool                                     *
  1258. 22678  *===========================================================================*/
  1259. 22679 PRIVATE void buf_pool()
  1260. 22680 {
  1261. 22681 /* Initialize the buffer pool. */
  1262. 22682
  1263. 22683   register struct buf *bp;
  1264. 22684
  1265. 22685   bufs_in_use = 0;
  1266. 22686   front = &buf[0];
  1267. 22687   rear = &buf[NR_BUFS - 1];
  1268. 22688
  1269. 22689   for (bp = &buf[0]; bp < &buf[NR_BUFS]; bp++) {
  1270. 22690         bp->b_blocknr = NO_BLOCK;
  1271. 22691         bp->b_dev = NO_DEV;
  1272. 22692         bp->b_next = bp + 1;
  1273. 22693         bp->b_prev = bp - 1;
  1274. 22694   }
  1275. 22695   buf[0].b_prev = NIL_BUF;
  1276. 22696   buf[NR_BUFS - 1].b_next = NIL_BUF;
  1277. 22697
  1278. 22698   for (bp = &buf[0]; bp < &buf[NR_BUFS]; bp++) bp->b_hash = bp->b_next;
  1279. 22699   buf_hash[0] = front;
  1280. 22700 }
  1281. 22703 /*===========================================================================*
  1282. 22704  *                              get_boot_parameters                          *
  1283. 22705  *===========================================================================*/
  1284. 22706 PUBLIC struct bparam_s boot_parameters;
  1285. 22707
  1286. 22708 PRIVATE void get_boot_parameters()
  1287. 22709 {
  1288. 22710 /* Ask kernel for boot parameters. */
  1289. 22711
  1290. 22712   m1.m_type = SYS_GBOOT;
  1291. 22713   m1.PROC1 = FS_PROC_NR;
  1292. 22714   m1.MEM_PTR = (char *) &boot_parameters;
  1293. 22715   (void) sendrec(SYSTASK, &m1);
  1294. 22716 }
  1295. 22719 /*===========================================================================*
  1296. 22720  *                              load_ram                                     *
  1297. 22721  *===========================================================================*/
  1298. 22722 PRIVATE void load_ram()
  1299. 22723 {
  1300. 22724 /* If the root device is the RAM disk, copy the entire root image device
  1301. 22725  * block-by-block to a RAM disk with the same size as the image.
  1302. 22726  * Otherwise, just allocate a RAM disk with size given in the boot parameters.
  1303. 22727  */
  1304. 22728
  1305. 22729   register struct buf *bp, *bp1;
  1306. 22730   long k_loaded, lcount;
  1307. 22731   u32_t ram_size, fsmax;
  1308. 22732   zone_t zones;
  1309. 22733   struct super_block *sp, *dsp;
  1310. 22734   block_t b;
  1311. 22735   int major, task;
  1312. 22736   message dev_mess;
  1313. 22737
  1314. 22738   ram_size = boot_parameters.bp_ramsize;
  1315. 22739
  1316. 22740   /* Open the root device. */
  1317. 22741   major = (ROOT_DEV >> MAJOR) & BYTE;   /* major device nr */
  1318. 22742   task = dmap[major].dmap_task;         /* device task nr */
  1319. 22743   dev_mess.m_type = DEV_OPEN;           /* distinguish from close */
  1320. 22744   dev_mess.DEVICE = ROOT_DEV;
  1321. 22745   dev_mess.COUNT = R_BIT|W_BIT;
  1322. 22746   (*dmap[major].dmap_open)(task, &dev_mess);
  1323. 22747   if (dev_mess.REP_STATUS != OK) panic("Cannot open root device",NO_NUM);
  1324. 22748
  1325. 22749   /* If the root device is the ram disk then fill it from the image device. */
  1326. 22750   if (ROOT_DEV == DEV_RAM) {
  1327. 22751         major = (IMAGE_DEV >> MAJOR) & BYTE;    /* major device nr */
  1328. 22752         task = dmap[major].dmap_task;           /* device task nr */
  1329. 22753         dev_mess.m_type = DEV_OPEN;             /* distinguish from close */
  1330. 22754         dev_mess.DEVICE = IMAGE_DEV;
  1331. 22755         dev_mess.COUNT = R_BIT;
  1332. 22756         (*dmap[major].dmap_open)(task, &dev_mess);
  1333. 22757         if (dev_mess.REP_STATUS != OK) panic("Cannot open root device", NO_NUM);
  1334. 22758
  1335. 22759         /* Get size of RAM disk by reading root file system's super block. */
  1336. 22760         sp = &super_block[0];
  1337. 22761         sp->s_dev = IMAGE_DEV;
  1338. 22762         if (read_super(sp) != OK) panic("Bad root file system", NO_NUM);
  1339. 22763
  1340. 22764         lcount = sp->s_zones << sp->s_log_zone_size;    /* # blks on root dev*/
  1341. 22765
  1342. 22766         /* Stretch the RAM disk file system to the boot parameters size, but
  1343. 22767          * no further than the last zone bit map block allows.
  1344. 22768          */
  1345. 22769         if (ram_size < lcount) ram_size = lcount;
  1346. 22770         fsmax = (u32_t) sp->s_zmap_blocks * CHAR_BIT * BLOCK_SIZE;
  1347. 22771         fsmax = (fsmax + (sp->s_firstdatazone-1)) << sp->s_log_zone_size;
  1348. 22772         if (ram_size > fsmax) ram_size = fsmax;
  1349. 22773   }
  1350. 22774
  1351. 22775   /* Tell RAM driver how big the RAM disk must be. */
  1352. 22776   m1.m_type = DEV_IOCTL;
  1353. 22777   m1.PROC_NR = FS_PROC_NR;
  1354. 22778   m1.REQUEST = MIOCRAMSIZE;
  1355. 22779   m1.POSITION = ram_size;
  1356. 22780   if (sendrec(MEM, &m1) != OK || m1.REP_STATUS != OK)
  1357. 22781         panic("Can't set RAM disk size", NO_NUM);
  1358. 22782
  1359. 22783   /* Tell MM the RAM disk size, and wait for it to come "on-line". */
  1360. 22784   m1.m1_i1 = ((long) ram_size * BLOCK_SIZE) >> CLICK_SHIFT;
  1361. 22785   if (sendrec(MM_PROC_NR, &m1) != OK)
  1362. 22786         panic("FS can't sync up with MM", NO_NUM);
  1363. 22787
  1364. 22788   /* If the root device is not the RAM disk, it doesn't need loading. */
  1365. 22789   if (ROOT_DEV != DEV_RAM) return;
  1366. 22790
  1367. 22791   /* Copy the blocks one at a time from the image to the RAM disk. */
  1368. 22792   printf("Loading RAM disk.33[23CLoaded:    0K ");
  1369. 22793
  1370. 22794   inode[0].i_mode = I_BLOCK_SPECIAL;    /* temp inode for rahead() */
  1371. 22795   inode[0].i_size = LONG_MAX;
  1372. 22796   inode[0].i_dev = IMAGE_DEV;
  1373. 22797   inode[0].i_zone[0] = IMAGE_DEV;
  1374. 22798
  1375. 22799   for (b = 0; b < (block_t) lcount; b++) {
  1376. 22800         bp = rahead(&inode[0], b, (off_t)BLOCK_SIZE * b, BLOCK_SIZE);
  1377. 22801         bp1 = get_block(ROOT_DEV, b, NO_READ);
  1378. 22802         memcpy(bp1->b_data, bp->b_data, (size_t) BLOCK_SIZE);
  1379. 22803         bp1->b_dirt = DIRTY;
  1380. 22804         put_block(bp, FULL_DATA_BLOCK);
  1381. 22805         put_block(bp1, FULL_DATA_BLOCK);
  1382. 22806         k_loaded = ( (long) b * BLOCK_SIZE)/1024L;      /* K loaded so far */
  1383. 22807         if (k_loaded % 5 == 0) printf("bbbbbbb%5ldK ", k_loaded);
  1384. 22808   }
  1385. 22809
  1386. 22810   printf("rRAM disk loaded.33[Knn");
  1387. 22811
  1388. 22812   /* Close and invalidate image device. */
  1389. 22813   dev_mess.m_type = DEV_CLOSE;
  1390. 22814   dev_mess.DEVICE = IMAGE_DEV;
  1391. 22815   (*dmap[major].dmap_close)(task, &dev_mess);
  1392. 22816   invalidate(IMAGE_DEV);
  1393. 22817
  1394. 22818   /* Resize the RAM disk root file system. */
  1395. 22819   bp = get_block(ROOT_DEV, SUPER_BLOCK, NORMAL);
  1396. 22820   dsp = (struct super_block *) bp->b_data;
  1397. 22821   zones = ram_size >> sp->s_log_zone_size;
  1398. 22822   dsp->s_nzones = conv2(sp->s_native, (u16_t) zones);
  1399. 22823   dsp->s_zones = conv4(sp->s_native, zones);
  1400. 22824   bp->b_dirt = DIRTY;
  1401. 22825   put_block(bp, ZUPER_BLOCK);
  1402. 22826 }
  1403. 22829 /*===========================================================================*
  1404. 22830  *                              load_super                                   *
  1405. 22831  *===========================================================================*/
  1406. 22832 PRIVATE void load_super(super_dev)
  1407. 22833 dev_t super_dev;                        /* place to get superblock from */
  1408. 22834 {
  1409. 22835   int bad;
  1410. 22836   register struct super_block *sp;
  1411. 22837   register struct inode *rip;
  1412. 22838
  1413. 22839   /* Initialize the super_block table. */
  1414. 22840   for (sp = &super_block[0]; sp < &super_block[NR_SUPERS]; sp++)
  1415. 22841         sp->s_dev = NO_DEV;
  1416. 22842
  1417. 22843   /* Read in super_block for the root file system. */
  1418. 22844   sp = &super_block[0];
  1419. 22845   sp->s_dev = super_dev;
  1420. 22846
  1421. 22847   /* Check super_block for consistency (is it the right diskette?). */
  1422. 22848   bad = (read_super(sp) != OK);
  1423. 22849   if (!bad) {
  1424. 22850         rip = get_inode(super_dev, ROOT_INODE); /* inode for root dir */
  1425. 22851         if ( (rip->i_mode & I_TYPE) != I_DIRECTORY || rip->i_nlinks < 3) bad++;
  1426. 22852   }
  1427. 22853   if (bad)panic("Invalid root file system.  Possibly wrong diskette.",NO_NUM);
  1428. 22854
  1429. 22855   sp->s_imount = rip;
  1430. 22856   dup_inode(rip);
  1431. 22857   sp->s_isup = rip;
  1432. 22858   sp->s_rd_only = 0;
  1433. 22859   return;
  1434. 22860 }
  1435. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1436. src/fs/open.c    
  1437. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1438. 22900 /* This file contains the procedures for creating, opening, closing, and
  1439. 22901  * seeking on files.
  1440. 22902  *
  1441. 22903  * The entry points into this file are
  1442. 22904  *   do_creat:  perform the CREAT system call
  1443. 22905  *   do_open:   perform the OPEN system call
  1444. 22906  *   do_mknod:  perform the MKNOD system call
  1445. 22907  *   do_mkdir:  perform the MKDIR system call
  1446. 22908  *   do_close:  perform the CLOSE system call
  1447. 22909  *   do_lseek:  perform the LSEEK system call
  1448. 22910  */
  1449. 22911
  1450. 22912 #include "fs.h"
  1451. 22913 #include <sys/stat.h>
  1452. 22914 #include <fcntl.h>
  1453. 22915 #include <minix/callnr.h>
  1454. 22916 #include <minix/com.h>
  1455. 22917 #include "buf.h"
  1456. 22918 #include "dev.h"
  1457. 22919 #include "file.h"
  1458. 22920 #include "fproc.h"
  1459. 22921 #include "inode.h"
  1460. 22922 #include "lock.h"
  1461. 22923 #include "param.h"
  1462. 22924
  1463. 22925 PRIVATE message dev_mess;
  1464. 22926 PRIVATE char mode_map[] = {R_BIT, W_BIT, R_BIT|W_BIT, 0};
  1465. 22927
  1466. 22928 FORWARD _PROTOTYPE( int common_open, (int oflags, Mode_t omode)         );
  1467. 22929 FORWARD _PROTOTYPE( int pipe_open, (struct inode *rip,Mode_t bits,int oflags));
  1468. 22930 FORWARD _PROTOTYPE( struct inode *new_node, (char *path, Mode_t bits,
  1469. 22931                                                         zone_t z0)      );
  1470. 22932
  1471. 22933
  1472. 22934 /*===========================================================================*
  1473. 22935  *                              do_creat                                     *
  1474. 22936  *===========================================================================*/
  1475. 22937 PUBLIC int do_creat()
  1476. 22938 {
  1477. 22939 /* Perform the creat(name, mode) system call. */
  1478. 22940   int r;
  1479. 22941
  1480. 22942   if (fetch_name(name, name_length, M3) != OK) return(err_code);
  1481. 22943   r = common_open(O_WRONLY | O_CREAT | O_TRUNC, (mode_t) mode);
  1482. 22944   return(r);
  1483. 22945 }
  1484. 22948 /*===========================================================================*
  1485. 22949  *                              do_open                                      *
  1486. 22950  *===========================================================================*/
  1487. 22951 PUBLIC int do_open()
  1488. 22952 {
  1489. 22953 /* Perform the open(name, flags,...) system call. */
  1490. 22954
  1491. 22955   int create_mode = 0;          /* is really mode_t but this gives problems */
  1492. 22956   int r;
  1493. 22957
  1494. 22958   /* If O_CREAT is set, open has three parameters, otherwise two. */
  1495. 22959   if (mode & O_CREAT) {
  1496. 22960         create_mode = c_mode;   
  1497. 22961         r = fetch_name(c_name, name1_length, M1);
  1498. 22962   } else {
  1499. 22963         r = fetch_name(name, name_length, M3);
  1500. 22964   }
  1501. 22965
  1502. 22966   if (r != OK) return(err_code); /* name was bad */
  1503. 22967   r = common_open(mode, create_mode);
  1504. 22968   return(r);
  1505. 22969 }
  1506. 22972 /*===========================================================================*
  1507. 22973  *                              common_open                                  *
  1508. 22974  *===========================================================================*/
  1509. 22975 PRIVATE int common_open(oflags, omode)
  1510. 22976 register int oflags;
  1511. 22977 mode_t omode;
  1512. 22978 {
  1513. 22979 /* Common code from do_creat and do_open. */
  1514. 22980
  1515. 22981   register struct inode *rip;
  1516. 22982   int r, b, major, task, exist = TRUE;
  1517. 22983   dev_t dev;
  1518. 22984   mode_t bits;
  1519. 22985   off_t pos;
  1520. 22986   struct filp *fil_ptr, *filp2;
  1521. 22987
  1522. 22988   /* Remap the bottom two bits of oflags. */
  1523. 22989   bits = (mode_t) mode_map[oflags & O_ACCMODE];
  1524. 22990
  1525. 22991   /* See if file descriptor and filp slots are available. */
  1526. 22992   if ( (r = get_fd(0, bits, &fd, &fil_ptr)) != OK) return(r);
  1527. 22993
  1528. 22994   /* If O_CREATE is set, try to make the file. */ 
  1529. 22995   if (oflags & O_CREAT) {
  1530. 22996         /* Create a new inode by calling new_node(). */
  1531. 22997         omode = I_REGULAR | (omode & ALL_MODES & fp->fp_umask);
  1532. 22998         rip = new_node(user_path, omode, NO_ZONE);
  1533. 22999         r = err_code;
  1534. 23000         if (r == OK) exist = FALSE;      /* we just created the file */
  1535. 23001         else if (r != EEXIST) return(r); /* other error */
  1536. 23002         else exist = !(oflags & O_EXCL); /* file exists, if the O_EXCL 
  1537. 23003                                             flag is set this is an error */
  1538. 23004   } else {
  1539. 23005          /* Scan path name. */
  1540. 23006         if ( (rip = eat_path(user_path)) == NIL_INODE) return(err_code);
  1541. 23007   }
  1542. 23008
  1543. 23009   /* Claim the file descriptor and filp slot and fill them in. */
  1544. 23010   fp->fp_filp[fd] = fil_ptr;
  1545. 23011   fil_ptr->filp_count = 1;
  1546. 23012   fil_ptr->filp_ino = rip;
  1547. 23013   fil_ptr->filp_flags = oflags;
  1548. 23014
  1549. 23015   /* Only do the normal open code if we didn't just create the file. */
  1550. 23016   if (exist) {
  1551. 23017         /* Check protections. */
  1552. 23018         if ((r = forbidden(rip, bits)) == OK) {
  1553. 23019                 /* Opening reg. files directories and special files differ. */
  1554. 23020                 switch (rip->i_mode & I_TYPE) {
  1555. 23021                    case I_REGULAR: 
  1556. 23022                         /* Truncate regular file if O_TRUNC. */
  1557. 23023                         if (oflags & O_TRUNC) {
  1558. 23024                                 if ((r = forbidden(rip, W_BIT)) !=OK) break;
  1559. 23025                                 truncate(rip);
  1560. 23026                                 wipe_inode(rip);
  1561. 23027                                 /* Send the inode from the inode cache to the
  1562. 23028                                  * block cache, so it gets written on the next
  1563. 23029                                  * cache flush.
  1564. 23030                                  */
  1565. 23031                                 rw_inode(rip, WRITING);
  1566. 23032                         }
  1567. 23033                         break;
  1568. 23034  
  1569. 23035                    case I_DIRECTORY: 
  1570. 23036                         /* Directories may be read but not written. */
  1571. 23037                         r = (bits & W_BIT ? EISDIR : OK);
  1572. 23038                         break;
  1573. 23039
  1574. 23040                    case I_CHAR_SPECIAL:
  1575. 23041                    case I_BLOCK_SPECIAL:
  1576. 23042                         /* Invoke the driver for special processing. */
  1577. 23043                         dev_mess.m_type = DEV_OPEN;
  1578. 23044                         dev = (dev_t) rip->i_zone[0];
  1579. 23045                         dev_mess.DEVICE = dev;
  1580. 23046                         dev_mess.COUNT = bits | (oflags & ~O_ACCMODE);
  1581. 23047                         major = (dev >> MAJOR) & BYTE;  /* major device nr */
  1582. 23048                         if (major <= 0 || major >= max_major) {
  1583. 23049                                 r = ENODEV;
  1584. 23050                                 break;
  1585. 23051                         }
  1586. 23052                         task = dmap[major].dmap_task;   /* device task nr */
  1587. 23053                         (*dmap[major].dmap_open)(task, &dev_mess);
  1588. 23054                         r = dev_mess.REP_STATUS;
  1589. 23055                         break;
  1590. 23056
  1591. 23057                    case I_NAMED_PIPE:
  1592. 23058                         oflags |= O_APPEND;     /* force append mode */
  1593. 23059                         fil_ptr->filp_flags = oflags;
  1594. 23060                         r = pipe_open(rip, bits, oflags);
  1595. 23061                         if (r == OK) {
  1596. 23062                                 /* See if someone else is doing a rd or wt on
  1597. 23063                                  * the FIFO.  If so, use its filp entry so the
  1598. 23064                                  * file position will be automatically shared.
  1599. 23065                                  */
  1600. 23066                                 b = (bits & R_BIT ? R_BIT : W_BIT);
  1601. 23067                                 fil_ptr->filp_count = 0; /* don't find self */
  1602. 23068                                 if ((filp2 = find_filp(rip, b)) != NIL_FILP) {
  1603. 23069                                         /* Co-reader or writer found. Use it.*/
  1604. 23070                                         fp->fp_filp[fd] = filp2;
  1605. 23071                                         filp2->filp_count++;
  1606. 23072                                         filp2->filp_ino = rip;
  1607. 23073                                         filp2->filp_flags = oflags;
  1608. 23074
  1609. 23075                                         /* i_count was incremented incorrectly
  1610. 23076                                          * by eatpath above, not knowing that
  1611. 23077                                          * we were going to use an existing
  1612. 23078                                          * filp entry.  Correct this error.
  1613. 23079                                          */
  1614. 23080                                         rip->i_count--;
  1615. 23081                                 } else {
  1616. 23082                                         /* Nobody else found.  Restore filp. */
  1617. 23083                                         fil_ptr->filp_count = 1;
  1618. 23084                                         if (b == R_BIT)
  1619. 23085                                              pos = rip->i_zone[V2_NR_DZONES+1];
  1620. 23086                                         else
  1621. 23087                                              pos = rip->i_zone[V2_NR_DZONES+2];
  1622. 23088                                         fil_ptr->filp_pos = pos;
  1623. 23089                                 }
  1624. 23090                         }
  1625. 23091                         break;
  1626. 23092                 }
  1627. 23093         }
  1628. 23094   }
  1629. 23095
  1630. 23096   /* If error, release inode. */
  1631. 23097   if (r != OK) {
  1632. 23098         fp->fp_filp[fd] = NIL_FILP;
  1633. 23099         fil_ptr->filp_count= 0;
  1634. 23100         put_inode(rip);
  1635. 23101         return(r);
  1636. 23102   }
  1637. 23103   
  1638. 23104   return(fd);
  1639. 23105 }
  1640. 23108 /*===========================================================================*
  1641. 23109  *                              new_node                                     *
  1642. 23110  *===========================================================================*/
  1643. 23111 PRIVATE struct inode *new_node(path, bits, z0)
  1644. 23112 char *path;                     /* pointer to path name */
  1645. 23113 mode_t bits;                    /* mode of the new inode */
  1646. 23114 zone_t z0;                      /* zone number 0 for new inode */
  1647. 23115 {
  1648. 23116 /* New_node() is called by common_open(), do_mknod(), and do_mkdir().  
  1649. 23117  * In all cases it allocates a new inode, makes a directory entry for it on 
  1650. 23118  * the path 'path', and initializes it.  It returns a pointer to the inode if 
  1651. 23119  * it can do this; otherwise it returns NIL_INODE.  It always sets 'err_code'
  1652. 23120  * to an appropriate value (OK or an error code).
  1653. 23121  */
  1654. 23122
  1655. 23123   register struct inode *rlast_dir_ptr, *rip;
  1656. 23124   register int r;
  1657. 23125   char string[NAME_MAX];
  1658. 23126
  1659. 23127   /* See if the path can be opened down to the last directory. */
  1660. 23128   if ((rlast_dir_ptr = last_dir(path, string)) == NIL_INODE) return(NIL_INODE);
  1661. 23129
  1662. 23130   /* The final directory is accessible. Get final component of the path. */
  1663. 23131   rip = advance(rlast_dir_ptr, string);
  1664. 23132   if ( rip == NIL_INODE && err_code == ENOENT) {
  1665. 23133         /* Last path component does not exist.  Make new directory entry. */
  1666. 23134         if ( (rip = alloc_inode(rlast_dir_ptr->i_dev, bits)) == NIL_INODE) {
  1667. 23135                 /* Can't creat new inode: out of inodes. */
  1668. 23136                 put_inode(rlast_dir_ptr);
  1669. 23137                 return(NIL_INODE);
  1670. 23138         }
  1671. 23139
  1672. 23140         /* Force inode to the disk before making directory entry to make
  1673. 23141          * the system more robust in the face of a crash: an inode with
  1674. 23142          * no directory entry is much better than the opposite.
  1675. 23143          */
  1676. 23144         rip->i_nlinks++;
  1677. 23145         rip->i_zone[0] = z0;            /* major/minor device numbers */
  1678. 23146         rw_inode(rip, WRITING);         /* force inode to disk now */
  1679. 23147
  1680. 23148         /* New inode acquired.  Try to make directory entry. */
  1681. 23149         if ((r = search_dir(rlast_dir_ptr, string, &rip->i_num,ENTER)) != OK) {
  1682. 23150                 put_inode(rlast_dir_ptr);
  1683. 23151                 rip->i_nlinks--;        /* pity, have to free disk inode */
  1684. 23152                 rip->i_dirt = DIRTY;    /* dirty inodes are written out */
  1685. 23153                 put_inode(rip); /* this call frees the inode */
  1686. 23154                 err_code = r;
  1687. 23155                 return(NIL_INODE);
  1688. 23156         }
  1689. 23157
  1690. 23158   } else {
  1691. 23159         /* Either last component exists, or there is some problem. */
  1692. 23160         if (rip != NIL_INODE)
  1693. 23161                 r = EEXIST;
  1694. 23162         else
  1695. 23163                 r = err_code;
  1696. 23164   }
  1697. 23165
  1698. 23166   /* Return the directory inode and exit. */
  1699. 23167   put_inode(rlast_dir_ptr);
  1700. 23168   err_code = r;
  1701. 23169   return(rip);
  1702. 23170 }
  1703. 23173 /*===========================================================================*
  1704. 23174  *                              pipe_open                                    *
  1705. 23175  *===========================================================================*/
  1706. 23176 PRIVATE int pipe_open(rip, bits, oflags)
  1707. 23177 register struct inode *rip;
  1708. 23178 register mode_t bits;
  1709. 23179 register int oflags;
  1710. 23180 {
  1711. 23181 /*  This function is called from common_open. It checks if
  1712. 23182  *  there is at least one reader/writer pair for the pipe, if not
  1713. 23183  *  it suspends the caller, otherwise it revives all other blocked
  1714. 23184  *  processes hanging on the pipe.
  1715. 23185  */
  1716. 23186
  1717. 23187   if (find_filp(rip, bits & W_BIT ? R_BIT : W_BIT) == NIL_FILP) { 
  1718. 23188         if (oflags & O_NONBLOCK) {
  1719. 23189                 if (bits & W_BIT) return(ENXIO);
  1720. 23190         } else
  1721. 23191                 suspend(XPOPEN);        /* suspend caller */
  1722. 23192   } else if (susp_count > 0) {/* revive blocked processes */
  1723. 23193         release(rip, OPEN, susp_count);
  1724. 23194         release(rip, CREAT, susp_count);
  1725. 23195   }
  1726. 23196   rip->i_pipe = I_PIPE; 
  1727. 23197
  1728. 23198   return(OK);
  1729. 23199 }
  1730. 23202 /*===========================================================================*
  1731. 23203  *                              do_mknod                                     *
  1732. 23204  *===========================================================================*/
  1733. 23205 PUBLIC int do_mknod()
  1734. 23206 {
  1735. 23207 /* Perform the mknod(name, mode, addr) system call. */
  1736. 23208
  1737. 23209   register mode_t bits, mode_bits;
  1738. 23210   struct inode *ip;
  1739. 23211
  1740. 23212   /* Only the super_user may make nodes other than fifos. */
  1741. 23213   mode_bits = (mode_t) m.m1_i2; /* mode of the inode */
  1742. 23214   if (!super_user && ((mode_bits & I_TYPE) != I_NAMED_PIPE)) return(EPERM);
  1743. 23215   if (fetch_name(m.m1_p1, m.m1_i1, M1) != OK) return(err_code);
  1744. 23216   bits = (mode_bits & I_TYPE) | (mode_bits & ALL_MODES & fp->fp_umask);
  1745. 23217   ip = new_node(user_path, bits, (zone_t) m.m1_i3);
  1746. 23218   put_inode(ip);
  1747. 23219   return(err_code);
  1748. 23220 }
  1749. 23223 /*===========================================================================*
  1750. 23224  *                              do_mkdir                                     *
  1751. 23225  *===========================================================================*/
  1752. 23226 PUBLIC int do_mkdir()
  1753. 23227 {
  1754. 23228 /* Perform the mkdir(name, mode) system call. */
  1755. 23229
  1756. 23230   int r1, r2;                   /* status codes */
  1757. 23231   ino_t dot, dotdot;            /* inode numbers for . and .. */
  1758. 23232   mode_t bits;                  /* mode bits for the new inode */
  1759. 23233   char string[NAME_MAX];        /* last component of the new dir's path name */
  1760. 23234   register struct inode *rip, *ldirp;
  1761. 23235
  1762. 23236   /* Check to see if it is possible to make another link in the parent dir. */
  1763. 23237   if (fetch_name(name1, name1_length, M1) != OK) return(err_code);
  1764. 23238   ldirp = last_dir(user_path, string);  /* pointer to new dir's parent */
  1765. 23239   if (ldirp == NIL_INODE) return(err_code);
  1766. 23240   if ( (ldirp->i_nlinks & BYTE) >= LINK_MAX) {
  1767. 23241         put_inode(ldirp);       /* return parent */
  1768. 23242         return(EMLINK);
  1769. 23243   }
  1770. 23244
  1771. 23245   /* Next make the inode. If that fails, return error code. */
  1772. 23246   bits = I_DIRECTORY | (mode & RWX_MODES & fp->fp_umask);
  1773. 23247   rip = new_node(user_path, bits, (zone_t) 0);
  1774. 23248   if (rip == NIL_INODE || err_code == EEXIST) {
  1775. 23249         put_inode(rip);         /* can't make dir: it already exists */
  1776. 23250         put_inode(ldirp);       /* return parent too */
  1777. 23251         return(err_code);
  1778. 23252   }
  1779. 23253
  1780. 23254   /* Get the inode numbers for . and .. to enter in the directory. */
  1781. 23255   dotdot = ldirp->i_num;        /* parent's inode number */
  1782. 23256   dot = rip->i_num;             /* inode number of the new dir itself */
  1783. 23257
  1784. 23258   /* Now make dir entries for . and .. unless the disk is completely full. */
  1785. 23259   /* Use dot1 and dot2, so the mode of the directory isn't important. */
  1786. 23260   rip->i_mode = bits;   /* set mode */
  1787. 23261   r1 = search_dir(rip, dot1, &dot, ENTER);      /* enter . in the new dir */
  1788. 23262   r2 = search_dir(rip, dot2, &dotdot, ENTER);   /* enter .. in the new dir */
  1789. 23263
  1790. 23264   /* If both . and .. were successfully entered, increment the link counts. */
  1791. 23265   if (r1 == OK && r2 == OK) {
  1792. 23266         /* Normal case.  It was possible to enter . and .. in the new dir. */
  1793. 23267         rip->i_nlinks++;        /* this accounts for . */
  1794. 23268         ldirp->i_nlinks++;      /* this accounts for .. */
  1795. 23269         ldirp->i_dirt = DIRTY;  /* mark parent's inode as dirty */
  1796. 23270   } else {
  1797. 23271         /* It was not possible to enter . or .. probably disk was full. */
  1798. 23272         (void) search_dir(ldirp, string, (ino_t *) 0, DELETE);
  1799. 23273         rip->i_nlinks--;        /* undo the increment done in new_node() */
  1800. 23274   }
  1801. 23275   rip->i_dirt = DIRTY;          /* either way, i_nlinks has changed */
  1802. 23276
  1803. 23277   put_inode(ldirp);             /* return the inode of the parent dir */
  1804. 23278   put_inode(rip);               /* return the inode of the newly made dir */
  1805. 23279   return(err_code);             /* new_node() always sets 'err_code' */
  1806. 23280 }
  1807. 23283 /*===========================================================================*
  1808. 23284  *                              do_close                                     *
  1809. 23285  *===========================================================================*/
  1810. 23286 PUBLIC int do_close()
  1811. 23287 {
  1812. 23288 /* Perform the close(fd) system call. */
  1813. 23289
  1814. 23290   register struct filp *rfilp;
  1815. 23291   register struct inode *rip;
  1816. 23292   struct file_lock *flp;
  1817. 23293   int rw, mode_word, major, task, lock_count;
  1818. 23294   dev_t dev;
  1819. 23295
  1820. 23296   /* First locate the inode that belongs to the file descriptor. */
  1821. 23297   if ( (rfilp = get_filp(fd)) == NIL_FILP) return(err_code);
  1822. 23298   rip = rfilp->filp_ino;        /* 'rip' points to the inode */
  1823. 23299
  1824. 23300   if (rfilp->filp_count - 1 == 0 && rfilp->filp_mode != FILP_CLOSED) {
  1825. 23301         /* Check to see if the file is special. */
  1826. 23302         mode_word = rip->i_mode & I_TYPE;
  1827. 23303         if (mode_word == I_CHAR_SPECIAL || mode_word == I_BLOCK_SPECIAL) {
  1828. 23304                 dev = (dev_t) rip->i_zone[0];
  1829. 23305                 if (mode_word == I_BLOCK_SPECIAL)  {
  1830. 23306                         /* Invalidate cache entries unless special is mounted
  1831. 23307                          * or ROOT
  1832. 23308                          */
  1833. 23309                         if (!mounted(rip)) {
  1834. 23310                                 (void) do_sync();       /* purge cache */
  1835. 23311                                 invalidate(dev);
  1836. 23312                         }    
  1837. 23313                 }
  1838. 23314                 /* Use the dmap_close entry to do any special processing
  1839. 23315                  * required.
  1840. 23316                  */
  1841. 23317                 dev_mess.m_type = DEV_CLOSE;
  1842. 23318                 dev_mess.DEVICE = dev;
  1843. 23319                 major = (dev >> MAJOR) & BYTE;  /* major device nr */
  1844. 23320                 task = dmap[major].dmap_task;   /* device task nr */
  1845. 23321                 (*dmap[major].dmap_close)(task, &dev_mess);
  1846. 23322         }
  1847. 23323   }
  1848. 23324
  1849. 23325   /* If the inode being closed is a pipe, release everyone hanging on it. */
  1850. 23326   if (rip->i_pipe == I_PIPE) {
  1851. 23327         rw = (rfilp->filp_mode & R_BIT ? WRITE : READ);
  1852. 23328         release(rip, rw, NR_PROCS);
  1853. 23329   }
  1854. 23330
  1855. 23331   /* If a write has been done, the inode is already marked as DIRTY. */
  1856. 23332   if (--rfilp->filp_count == 0) {
  1857. 23333         if (rip->i_pipe == I_PIPE && rip->i_count > 1) {
  1858. 23334                 /* Save the file position in the i-node in case needed later.
  1859. 23335                  * The read and write positions are saved separately.  The
  1860. 23336                  * last 3 zones in the i-node are not used for (named) pipes.
  1861. 23337                  */
  1862. 23338                 if (rfilp->filp_mode == R_BIT)
  1863. 23339                         rip->i_zone[V2_NR_DZONES+1] = (zone_t) rfilp->filp_pos;
  1864. 23340                 else
  1865. 23341                         rip->i_zone[V2_NR_DZONES+2] = (zone_t) rfilp->filp_pos;
  1866. 23342         }
  1867. 23343         put_inode(rip);
  1868. 23344   }
  1869. 23345
  1870. 23346   fp->fp_cloexec &= ~(1L << fd);        /* turn off close-on-exec bit */
  1871. 23347   fp->fp_filp[fd] = NIL_FILP;
  1872. 23348
  1873. 23349   /* Check to see if the file is locked.  If so, release all locks. */
  1874. 23350   if (nr_locks == 0) return(OK);
  1875. 23351   lock_count = nr_locks;        /* save count of locks */
  1876. 23352   for (flp = &file_lock[0]; flp < &file_lock[NR_LOCKS]; flp++) {
  1877. 23353         if (flp->lock_type == 0) continue;      /* slot not in use */
  1878. 23354         if (flp->lock_inode == rip && flp->lock_pid == fp->fp_pid) {
  1879. 23355                 flp->lock_type = 0;
  1880. 23356                 nr_locks--;
  1881. 23357         }
  1882. 23358   }
  1883. 23359   if (nr_locks < lock_count) lock_revive();     /* lock released */
  1884. 23360   return(OK);
  1885. 23361 }
  1886. 23364 /*===========================================================================*
  1887. 23365  *                              do_lseek                                     *
  1888. 23366  *===========================================================================*/
  1889. 23367 PUBLIC int do_lseek()
  1890. 23368 {
  1891. 23369 /* Perform the lseek(ls_fd, offset, whence) system call. */
  1892. 23370
  1893. 23371   register struct filp *rfilp;
  1894. 23372   register off_t pos;
  1895. 23373
  1896. 23374   /* Check to see if the file descriptor is valid. */
  1897. 23375   if ( (rfilp = get_filp(ls_fd)) == NIL_FILP) return(err_code);
  1898. 23376
  1899. 23377   /* No lseek on pipes. */
  1900. 23378   if (rfilp->filp_ino->i_pipe == I_PIPE) return(ESPIPE);
  1901. 23379
  1902. 23380   /* The value of 'whence' determines the start position to use. */
  1903. 23381   switch(whence) {
  1904. 23382         case 0: pos = 0;        break;
  1905. 23383         case 1: pos = rfilp->filp_pos;  break;
  1906. 23384         case 2: pos = rfilp->filp_ino->i_size;  break;
  1907. 23385         default: return(EINVAL);
  1908. 23386   }
  1909. 23387
  1910. 23388   /* Check for overflow. */
  1911. 23389   if (((long)offset > 0) && ((long)(pos + offset) < (long)pos)) return(EINVAL);
  1912. 23390   if (((long)offset < 0) && ((long)(pos + offset) > (long)pos)) return(EINVAL);
  1913. 23391   pos = pos + offset;
  1914. 23392
  1915. 23393   if (pos != rfilp->filp_pos)
  1916. 23394         rfilp->filp_ino->i_seek = ISEEK;        /* inhibit read ahead */
  1917. 23395   rfilp->filp_pos = pos;
  1918. 23396   reply_l1 = pos;               /* insert the long into the output message */
  1919. 23397   return(OK);
  1920. 23398 }
  1921. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1922. src/fs/read.c    
  1923. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1924. 23400 /* This file contains the heart of the mechanism used to read (and write)
  1925. 23401  * files.  Read and write requests are split up into chunks that do not cross
  1926. 23402  * block boundaries.  Each chunk is then processed in turn.  Reads on special
  1927. 23403  * files are also detected and handled.
  1928. 23404  *
  1929. 23405  * The entry points into this file are
  1930. 23406  *   do_read:    perform the READ system call by calling read_write
  1931. 23407  *   read_write: actually do the work of READ and WRITE
  1932. 23408  *   read_map:   given an inode and file position, look up its zone number
  1933. 23409  *   rd_indir:   read an entry in an indirect block 
  1934. 23410  *   read_ahead: manage the block read ahead business
  1935. 23411  */
  1936. 23412
  1937. 23413 #include "fs.h"
  1938. 23414 #include <fcntl.h>
  1939. 23415 #include <minix/com.h>
  1940. 23416 #include "buf.h"
  1941. 23417 #include "file.h"
  1942. 23418 #include "fproc.h"
  1943. 23419 #include "inode.h"
  1944. 23420 #include "param.h"
  1945. 23421 #include "super.h"
  1946. 23422
  1947. 23423 #define FD_MASK          077    /* max file descriptor is 63 */
  1948. 23424
  1949. 23425 PRIVATE message umess;          /* message for asking SYSTASK for user copy */
  1950. 23426
  1951. 23427 FORWARD _PROTOTYPE( int rw_chunk, (struct inode *rip, off_t position,
  1952. 23428                         unsigned off, int chunk, unsigned left, int rw_flag,
  1953. 23429                         char *buff, int seg, int usr)                   );
  1954. 23430
  1955. 23431 /*===========================================================================*
  1956. 23432  *                              do_read                                      *
  1957. 23433  *===========================================================================*/
  1958. 23434 PUBLIC int do_read()
  1959. 23435 {
  1960. 23436   return(read_write(READING));
  1961. 23437 }
  1962. 23440 /*===========================================================================*
  1963. 23441  *                              read_write                                   *
  1964. 23442  *===========================================================================*/
  1965. 23443 PUBLIC int read_write(rw_flag)
  1966. 23444 int rw_flag;                    /* READING or WRITING */
  1967. 23445 {
  1968. 23446 /* Perform read(fd, buffer, nbytes) or write(fd, buffer, nbytes) call. */
  1969. 23447
  1970. 23448   register struct inode *rip;
  1971. 23449   register struct filp *f;
  1972. 23450   off_t bytes_left, f_size, position;
  1973. 23451   unsigned int off, cum_io;
  1974. 23452   int op, oflags, r, chunk, usr, seg, block_spec, char_spec;
  1975. 23453   int regular, partial_pipe = 0, partial_cnt = 0;
  1976. 23454   dev_t dev;
  1977. 23455   mode_t mode_word;
  1978. 23456   struct filp *wf;
  1979. 23457
  1980. 23458   /* MM loads segments by putting funny things in upper 10 bits of 'fd'. */
  1981. 23459   if (who == MM_PROC_NR && (fd & (~BYTE)) ) {
  1982. 23460         usr = (fd >> 8) & BYTE;
  1983. 23461         seg = (fd >> 6) & 03;
  1984. 23462         fd &= FD_MASK;          /* get rid of user and segment bits */
  1985. 23463   } else {
  1986. 23464         usr = who;              /* normal case */
  1987. 23465         seg = D;
  1988. 23466   }
  1989. 23467
  1990. 23468   /* If the file descriptor is valid, get the inode, size and mode. */
  1991. 23469   if (nbytes < 0) return(EINVAL);
  1992. 23470   if ((f = get_filp(fd)) == NIL_FILP) return(err_code);
  1993. 23471   if (((f->filp_mode) & (rw_flag == READING ? R_BIT : W_BIT)) == 0) {
  1994. 23472         return(f->filp_mode == FILP_CLOSED ? EIO : EBADF);
  1995. 23473   }
  1996. 23474   if (nbytes == 0) return(0);   /* so char special files need not check for 0*/
  1997. 23475   position = f->filp_pos;
  1998. 23476   if (position > MAX_FILE_POS) return(EINVAL);
  1999. 23477   if (position + nbytes < position) return(EINVAL); /* unsigned overflow */
  2000. 23478   oflags = f->filp_flags;
  2001. 23479   rip = f->filp_ino;
  2002. 23480   f_size = rip->i_size;
  2003. 23481   r = OK;
  2004. 23482   if (rip->i_pipe == I_PIPE) {
  2005. 23483         /* fp->fp_cum_io_partial is only nonzero when doing partial writes */
  2006. 23484         cum_io = fp->fp_cum_io_partial; 
  2007. 23485   } else {
  2008. 23486         cum_io = 0;
  2009. 23487   }
  2010. 23488   op = (rw_flag == READING ? DEV_READ : DEV_WRITE);
  2011. 23489   mode_word = rip->i_mode & I_TYPE;
  2012. 23490   regular = mode_word == I_REGULAR || mode_word == I_NAMED_PIPE;
  2013. 23491
  2014. 23492   char_spec = (mode_word == I_CHAR_SPECIAL ? 1 : 0);
  2015. 23493   block_spec = (mode_word == I_BLOCK_SPECIAL ? 1 : 0);
  2016. 23494   if (block_spec) f_size = LONG_MAX;
  2017. 23495   rdwt_err = OK;                /* set to EIO if disk error occurs */
  2018. 23496
  2019. 23497   /* Check for character special files. */
  2020. 23498   if (char_spec) {
  2021. 23499         dev = (dev_t) rip->i_zone[0];
  2022. 23500         r = dev_io(op, oflags & O_NONBLOCK, dev, position, nbytes, who,buffer);
  2023. 23501         if (r >= 0) {
  2024. 23502                 cum_io = r;
  2025. 23503                 position += r;
  2026. 23504                 r = OK;
  2027. 23505         }
  2028. 23506   } else {
  2029. 23507         if (rw_flag == WRITING && block_spec == 0) {
  2030. 23508                 /* Check in advance to see if file will grow too big. */
  2031. 23509                 if (position > rip->i_sp->s_max_size - nbytes) return(EFBIG);
  2032. 23510
  2033. 23511                 /* Check for O_APPEND flag. */
  2034. 23512                 if (oflags & O_APPEND) position = f_size;
  2035. 23513
  2036. 23514                 /* Clear the zone containing present EOF if hole about
  2037. 23515                  * to be created.  This is necessary because all unwritten
  2038. 23516                  * blocks prior to the EOF must read as zeros.
  2039. 23517                  */
  2040. 23518                 if (position > f_size) clear_zone(rip, f_size, 0);
  2041. 23519         }
  2042. 23520
  2043. 23521         /* Pipes are a little different.  Check. */
  2044. 23522         if (rip->i_pipe == I_PIPE) {
  2045. 23523                r = pipe_check(rip,rw_flag,oflags,nbytes,position,&partial_cnt);
  2046. 23524                if (r <= 0) return(r);
  2047. 23525         }
  2048. 23526
  2049. 23527         if (partial_cnt > 0) partial_pipe = 1;
  2050. 23528
  2051. 23529         /* Split the transfer into chunks that don't span two blocks. */
  2052. 23530         while (nbytes != 0) {
  2053. 23531                 off = (unsigned int) (position % BLOCK_SIZE);/* offset in blk*/
  2054. 23532                 if (partial_pipe) {  /* pipes only */
  2055. 23533                         chunk = MIN(partial_cnt, BLOCK_SIZE - off);
  2056. 23534                 } else
  2057. 23535                         chunk = MIN(nbytes, BLOCK_SIZE - off);
  2058. 23536                 if (chunk < 0) chunk = BLOCK_SIZE - off;
  2059. 23537
  2060. 23538                 if (rw_flag == READING) {
  2061. 23539                         bytes_left = f_size - position;
  2062. 23540                         if (position >= f_size) break;  /* we are beyond EOF */
  2063. 23541                         if (chunk > bytes_left) chunk = (int) bytes_left;
  2064. 23542                 }
  2065. 23543
  2066. 23544                 /* Read or write 'chunk' bytes. */
  2067. 23545                 r = rw_chunk(rip, position, off, chunk, (unsigned) nbytes,
  2068. 23546                              rw_flag, buffer, seg, usr);
  2069. 23547                 if (r != OK) break;     /* EOF reached */
  2070. 23548                 if (rdwt_err < 0) break;
  2071. 23549
  2072. 23550                 /* Update counters and pointers. */
  2073. 23551                 buffer += chunk;        /* user buffer address */
  2074. 23552                 nbytes -= chunk;        /* bytes yet to be read */
  2075. 23553                 cum_io += chunk;        /* bytes read so far */
  2076. 23554                 position += chunk;      /* position within the file */
  2077. 23555
  2078. 23556                 if (partial_pipe) {
  2079. 23557                         partial_cnt -= chunk;
  2080. 23558                         if (partial_cnt <= 0)  break;
  2081. 23559                 }
  2082. 23560         }
  2083. 23561   }
  2084. 23562
  2085. 23563   /* On write, update file size and access time. */
  2086. 23564   if (rw_flag == WRITING) {
  2087. 23565         if (regular || mode_word == I_DIRECTORY) {
  2088. 23566                 if (position > f_size) rip->i_size = position;
  2089. 23567         }
  2090. 23568   } else {
  2091. 23569         if (rip->i_pipe == I_PIPE && position >= rip->i_size) {
  2092. 23570                 /* Reset pipe pointers. */
  2093. 23571                 rip->i_size = 0;        /* no data left */
  2094. 23572                 position = 0;           /* reset reader(s) */
  2095. 23573                 if ( (wf = find_filp(rip, W_BIT)) != NIL_FILP) wf->filp_pos =0;
  2096. 23574         }
  2097. 23575   }
  2098. 23576   f->filp_pos = position;
  2099. 23577
  2100. 23578   /* Check to see if read-ahead is called for, and if so, set it up. */
  2101. 23579   if (rw_flag == READING && rip->i_seek == NO_SEEK && position % BLOCK_SIZE== 0
  2102. 23580                 && (regular || mode_word == I_DIRECTORY)) {
  2103. 23581         rdahed_inode = rip;
  2104. 23582         rdahedpos = position;
  2105. 23583   }
  2106. 23584   rip->i_seek = NO_SEEK;
  2107. 23585
  2108. 23586   if (rdwt_err != OK) r = rdwt_err;     /* check for disk error */
  2109. 23587   if (rdwt_err == END_OF_FILE) r = OK;
  2110. 23588   if (r == OK) {
  2111. 23589         if (rw_flag == READING) rip->i_update |= ATIME;
  2112. 23590         if (rw_flag == WRITING) rip->i_update |= CTIME | MTIME;
  2113. 23591         rip->i_dirt = DIRTY;            /* inode is thus now dirty */
  2114. 23592         if (partial_pipe) {
  2115. 23593                 partial_pipe = 0;
  2116. 23594                         /* partial write on pipe with */
  2117. 23595                         /* O_NONBLOCK, return write count */
  2118. 23596                 if (!(oflags & O_NONBLOCK)) {
  2119. 23597                         fp->fp_cum_io_partial = cum_io;
  2120. 23598                         suspend(XPIPE); /* partial write on pipe with */
  2121. 23599                         return(0);      /* nbyte > PIPE_SIZE - non-atomic */
  2122. 23600                 }
  2123. 23601         }
  2124. 23602         fp->fp_cum_io_partial = 0;
  2125. 23603         return(cum_io);
  2126. 23604   } else {
  2127. 23605         return(r);
  2128. 23606   }
  2129. 23607 }
  2130. 23610 /*===========================================================================*
  2131. 23611  *                              rw_chunk                                     *
  2132. 23612  *===========================================================================*/
  2133. 23613 PRIVATE int rw_chunk(rip, position, off, chunk, left, rw_flag, buff, seg, usr)
  2134. 23614 register struct inode *rip;     /* pointer to inode for file to be rd/wr */
  2135. 23615 off_t position;                 /* position within file to read or write */
  2136. 23616 unsigned off;                   /* off within the current block */
  2137. 23617 int chunk;                      /* number of bytes to read or write */
  2138. 23618 unsigned left;                  /* max number of bytes wanted after position */
  2139. 23619 int rw_flag;                    /* READING or WRITING */
  2140. 23620 char *buff;                     /* virtual address of the user buffer */
  2141. 23621 int seg;                        /* T or D segment in user space */
  2142. 23622 int usr;                        /* which user process */
  2143. 23623 {
  2144. 23624 /* Read or write (part of) a block. */
  2145. 23625
  2146. 23626   register struct buf *bp;
  2147. 23627   register int r;
  2148. 23628   int n, block_spec;
  2149. 23629   block_t b;
  2150. 23630   dev_t dev;
  2151. 23631
  2152. 23632   block_spec = (rip->i_mode & I_TYPE) == I_BLOCK_SPECIAL;
  2153. 23633   if (block_spec) {
  2154. 23634         b = position/BLOCK_SIZE;
  2155. 23635         dev = (dev_t) rip->i_zone[0];
  2156. 23636   } else {
  2157. 23637         b = read_map(rip, position);
  2158. 23638         dev = rip->i_dev;
  2159. 23639   }
  2160. 23640
  2161. 23641   if (!block_spec && b == NO_BLOCK) {
  2162. 23642         if (rw_flag == READING) {
  2163. 23643                 /* Reading from a nonexistent block.  Must read as all zeros.*/
  2164. 23644                 bp = get_block(NO_DEV, NO_BLOCK, NORMAL);    /* get a buffer */
  2165. 23645                 zero_block(bp);
  2166. 23646         } else {
  2167. 23647                 /* Writing to a nonexistent block. Create and enter in inode.*/
  2168. 23648                 if ((bp= new_block(rip, position)) == NIL_BUF)return(err_code);
  2169. 23649         }
  2170. 23650   } else if (rw_flag == READING) {
  2171. 23651         /* Read and read ahead if convenient. */
  2172. 23652         bp = rahead(rip, b, position, left);
  2173. 23653   } else {
  2174. 23654         /* Normally an existing block to be partially overwritten is first read
  2175. 23655          * in.  However, a full block need not be read in.  If it is already in
  2176. 23656          * the cache, acquire it, otherwise just acquire a free buffer.
  2177. 23657          */
  2178. 23658         n = (chunk == BLOCK_SIZE ? NO_READ : NORMAL);
  2179. 23659         if (!block_spec && off == 0 && position >= rip->i_size) n = NO_READ;
  2180. 23660         bp = get_block(dev, b, n);
  2181. 23661   }
  2182. 23662
  2183. 23663   /* In all cases, bp now points to a valid buffer. */
  2184. 23664   if (rw_flag == WRITING && chunk != BLOCK_SIZE && !block_spec &&
  2185. 23665                                         position >= rip->i_size && off == 0) {
  2186. 23666         zero_block(bp);
  2187. 23667   }
  2188. 23668   if (rw_flag == READING) {
  2189. 23669         /* Copy a chunk from the block buffer to user space. */
  2190. 23670         r = sys_copy(FS_PROC_NR, D, (phys_bytes) (bp->b_data+off),
  2191. 23671                         usr, seg, (phys_bytes) buff,
  2192. 23672                         (phys_bytes) chunk);
  2193. 23673   } else {
  2194. 23674         /* Copy a chunk from user space to the block buffer. */
  2195. 23675         r = sys_copy(usr, seg, (phys_bytes) buff,
  2196. 23676                         FS_PROC_NR, D, (phys_bytes) (bp->b_data+off),
  2197. 23677                         (phys_bytes) chunk);
  2198. 23678         bp->b_dirt = DIRTY;
  2199. 23679   }
  2200. 23680   n = (off + chunk == BLOCK_SIZE ? FULL_DATA_BLOCK : PARTIAL_DATA_BLOCK);
  2201. 23681   put_block(bp, n);
  2202. 23682   return(r);
  2203. 23683 }
  2204. 23686 /*===========================================================================*
  2205. 23687  *                              read_map                                     *
  2206. 23688  *===========================================================================*/
  2207. 23689 PUBLIC block_t read_map(rip, position)
  2208. 23690 register struct inode *rip;     /* ptr to inode to map from */
  2209. 23691 off_t position;                 /* position in file whose blk wanted */
  2210. 23692 {
  2211. 23693 /* Given an inode and a position within the corresponding file, locate the
  2212. 23694  * block (not zone) number in which that position is to be found and return it.
  2213. 23695  */
  2214. 23696
  2215. 23697   register struct buf *bp;
  2216. 23698   register zone_t z;
  2217. 23699   int scale, boff, dzones, nr_indirects, index, zind, ex;
  2218. 23700   block_t b;
  2219. 23701   long excess, zone, block_pos;
  2220. 23702   
  2221. 23703   scale = rip->i_sp->s_log_zone_size;   /* for block-zone conversion */
  2222. 23704   block_pos = position/BLOCK_SIZE;      /* relative blk # in file */
  2223. 23705   zone = block_pos >> scale;    /* position's zone */
  2224. 23706   boff = (int) (block_pos - (zone << scale) ); /* relative blk # within zone */
  2225. 23707   dzones = rip->i_ndzones;
  2226. 23708   nr_indirects = rip->i_nindirs;
  2227. 23709
  2228. 23710   /* Is 'position' to be found in the inode itself? */
  2229. 23711   if (zone < dzones) {
  2230. 23712         zind = (int) zone;      /* index should be an int */
  2231. 23713         z = rip->i_zone[zind];
  2232. 23714         if (z == NO_ZONE) return(NO_BLOCK);
  2233. 23715         b = ((block_t) z << scale) + boff;
  2234. 23716         return(b);
  2235. 23717   }
  2236. 23718
  2237. 23719   /* It is not in the inode, so it must be single or double indirect. */
  2238. 23720   excess = zone - dzones;       /* first Vx_NR_DZONES don't count */
  2239. 23721
  2240. 23722   if (excess < nr_indirects) {
  2241. 23723         /* 'position' can be located via the single indirect block. */
  2242. 23724         z = rip->i_zone[dzones];
  2243. 23725   } else {
  2244. 23726         /* 'position' can be located via the double indirect block. */
  2245. 23727         if ( (z = rip->i_zone[dzones+1]) == NO_ZONE) return(NO_BLOCK);
  2246. 23728         excess -= nr_indirects;                 /* single indir doesn't count*/
  2247. 23729         b = (block_t) z << scale;
  2248. 23730         bp = get_block(rip->i_dev, b, NORMAL);  /* get double indirect block */
  2249. 23731         index = (int) (excess/nr_indirects);
  2250. 23732         z = rd_indir(bp, index);                /* z= zone for single*/
  2251. 23733         put_block(bp, INDIRECT_BLOCK);          /* release double ind block */
  2252. 23734         excess = excess % nr_indirects;         /* index into single ind blk */
  2253. 23735   }
  2254. 23736
  2255. 23737   /* 'z' is zone num for single indirect block; 'excess' is index into it. */
  2256. 23738   if (z == NO_ZONE) return(NO_BLOCK);
  2257. 23739   b = (block_t) z << scale;                     /* b is blk # for single ind */
  2258. 23740   bp = get_block(rip->i_dev, b, NORMAL);        /* get single indirect block */
  2259. 23741   ex = (int) excess;                            /* need an integer */
  2260. 23742   z = rd_indir(bp, ex);                         /* get block pointed to */
  2261. 23743   put_block(bp, INDIRECT_BLOCK);                /* release single indir blk */
  2262. 23744   if (z == NO_ZONE) return(NO_BLOCK);
  2263. 23745   b = ((block_t) z << scale) + boff;
  2264. 23746   return(b);
  2265. 23747 }
  2266. 23750 /*===========================================================================*
  2267. 23751  *                              rd_indir                                     *
  2268. 23752  *===========================================================================*/
  2269. 23753 PUBLIC zone_t rd_indir(bp, index)
  2270. 23754 struct buf *bp;                 /* pointer to indirect block */
  2271. 23755 int index;                      /* index into *bp */
  2272. 23756 {
  2273. 23757 /* Given a pointer to an indirect block, read one entry.  The reason for
  2274. 23758  * making a separate routine out of this is that there are four cases:
  2275. 23759  * V1 (IBM and 68000), and V2 (IBM and 68000).
  2276. 23760  */
  2277. 23761
  2278. 23762   struct super_block *sp;
  2279. 23763   zone_t zone;                  /* V2 zones are longs (shorts in V1) */
  2280. 23764
  2281. 23765   sp = get_super(bp->b_dev);    /* need super block to find file sys type */
  2282. 23766
  2283. 23767   /* read a zone from an indirect block */
  2284. 23768   if (sp->s_version == V1)
  2285. 23769         zone = (zone_t) conv2(sp->s_native, (int)  bp->b_v1_ind[index]);
  2286. 23770   else
  2287. 23771         zone = (zone_t) conv4(sp->s_native, (long) bp->b_v2_ind[index]);
  2288. 23772
  2289. 23773   if (zone != NO_ZONE &&
  2290. 23774                 (zone < (zone_t) sp->s_firstdatazone || zone >= sp->s_zones)) {
  2291. 23775         printf("Illegal zone number %ld in indirect block, index %dn",
  2292. 23776                (long) zone, index);
  2293. 23777         panic("check file system", NO_NUM);
  2294. 23778   }
  2295. 23779   return(zone);
  2296. 23780 }
  2297. 23783 /*===========================================================================*
  2298. 23784  *                              read_ahead                                   *
  2299. 23785  *===========================================================================*/
  2300. 23786 PUBLIC void read_ahead()
  2301. 23787 {
  2302. 23788 /* Read a block into the cache before it is needed. */
  2303. 23789
  2304. 23790   register struct inode *rip;
  2305. 23791   struct buf *bp;
  2306. 23792   block_t b;
  2307. 23793
  2308. 23794   rip = rdahed_inode;           /* pointer to inode to read ahead from */
  2309. 23795   rdahed_inode = NIL_INODE;     /* turn off read ahead */
  2310. 23796   if ( (b = read_map(rip, rdahedpos)) == NO_BLOCK) return;      /* at EOF */
  2311. 23797   bp = rahead(rip, b, rdahedpos, BLOCK_SIZE);
  2312. 23798   put_block(bp, PARTIAL_DATA_BLOCK);
  2313. 23799 }
  2314. 23802 /*===========================================================================*
  2315. 23803  *                              rahead                                       *
  2316. 23804  *===========================================================================*/
  2317. 23805 PUBLIC struct buf *rahead(rip, baseblock, position, bytes_ahead)
  2318. 23806 register struct inode *rip;     /* pointer to inode for file to be read */
  2319. 23807 block_t baseblock;              /* block at current position */
  2320. 23808 off_t position;                 /* position within file */
  2321. 23809 unsigned bytes_ahead;           /* bytes beyond position for immediate use */
  2322. 23810 {
  2323. 23811 /* Fetch a block from the cache or the device.  If a physical read is
  2324. 23812  * required, prefetch as many more blocks as convenient into the cache.
  2325. 23813  * This usually covers bytes_ahead and is at least BLOCKS_MINIMUM.
  2326. 23814  * The device driver may decide it knows better and stop reading at a
  2327. 23815  * cylinder boundary (or after an error).  Rw_scattered() puts an optional
  2328. 23816  * flag on all reads to allow this.
  2329. 23817  */
  2330. 23818
  2331. 23819 /* Minimum number of blocks to prefetch. */
  2332. 23820 # define BLOCKS_MINIMUM         (NR_BUFS < 50 ? 18 : 32)
  2333. 23821
  2334. 23822   int block_spec, scale, read_q_size;
  2335. 23823   unsigned int blocks_ahead, fragment;
  2336. 23824   block_t block, blocks_left;
  2337. 23825   off_t ind1_pos;
  2338. 23826   dev_t dev;
  2339. 23827   struct buf *bp;
  2340. 23828   static struct buf *read_q[NR_BUFS];
  2341. 23829
  2342. 23830   block_spec = (rip->i_mode & I_TYPE) == I_BLOCK_SPECIAL;
  2343. 23831   if (block_spec) {
  2344. 23832         dev = (dev_t) rip->i_zone[0];
  2345. 23833   } else {
  2346. 23834         dev = rip->i_dev;
  2347. 23835   }
  2348. 23836
  2349. 23837   block = baseblock;
  2350. 23838   bp = get_block(dev, block, PREFETCH);
  2351. 23839   if (bp->b_dev != NO_DEV) return(bp);
  2352. 23840
  2353. 23841   /* The best guess for the number of blocks to prefetch:  A lot.
  2354. 23842    * It is impossible to tell what the device looks like, so we don't even
  2355. 23843    * try to guess the geometry, but leave it to the driver.
  2356. 23844    *
  2357. 23845    * The floppy driver can read a full track with no rotational delay, and it
  2358. 23846    * avoids reading partial tracks if it can, so handing it enough buffers to
  2359. 23847    * read two tracks is perfect.  (Two, because some diskette types have
  2360. 23848    * an odd number of sectors per track, so a block may span tracks.)
  2361. 23849    *
  2362. 23850    * The disk drivers don't try to be smart.  With todays disks it is
  2363. 23851    * impossible to tell what the real geometry looks like, so it is best to
  2364. 23852    * read as much as you can.  With luck the caching on the drive allows
  2365. 23853    * for a little time to start the next read.
  2366. 23854    *
  2367. 23855    * The current solution below is a bit of a hack, it just reads blocks from
  2368. 23856    * the current file position hoping that more of the file can be found.  A
  2369. 23857    * better solution must look at the already available zone pointers and
  2370. 23858    * indirect blocks (but don't call read_map!).
  2371. 23859    */
  2372. 23860
  2373. 23861   fragment = position % BLOCK_SIZE;
  2374. 23862   position -= fragment;
  2375. 23863   bytes_ahead += fragment;
  2376. 23864
  2377. 23865   blocks_ahead = (bytes_ahead + BLOCK_SIZE - 1) / BLOCK_SIZE;
  2378. 23866
  2379. 23867   if (block_spec && rip->i_size == 0) {
  2380. 23868         blocks_left = NR_IOREQS;
  2381. 23869   } else {
  2382. 23870         blocks_left = (rip->i_size - position + BLOCK_SIZE - 1) / BLOCK_SIZE;
  2383. 23871
  2384. 23872         /* Go for the first indirect block if we are in its neighborhood. */
  2385. 23873         if (!block_spec) {
  2386. 23874                 scale = rip->i_sp->s_log_zone_size;
  2387. 23875                 ind1_pos = (off_t) rip->i_ndzones * (BLOCK_SIZE << scale);
  2388. 23876                 if (position <= ind1_pos && rip->i_size > ind1_pos) {
  2389. 23877                         blocks_ahead++;
  2390. 23878                         blocks_left++;
  2391. 23879                 }
  2392. 23880         }
  2393. 23881   }
  2394. 23882
  2395. 23883   /* No more than the maximum request. */
  2396. 23884   if (blocks_ahead > NR_IOREQS) blocks_ahead = NR_IOREQS;
  2397. 23885
  2398. 23886   /* Read at least the minimum number of blocks, but not after a seek. */
  2399. 23887   if (blocks_ahead < BLOCKS_MINIMUM && rip->i_seek == NO_SEEK)
  2400. 23888         blocks_ahead = BLOCKS_MINIMUM;
  2401. 23889
  2402. 23890   /* Can't go past end of file. */
  2403. 23891   if (blocks_ahead > blocks_left) blocks_ahead = blocks_left;
  2404. 23892
  2405. 23893   read_q_size = 0;
  2406. 23894
  2407. 23895   /* Acquire block buffers. */
  2408. 23896   for (;;) {
  2409. 23897         read_q[read_q_size++] = bp;
  2410. 23898
  2411. 23899         if (--blocks_ahead == 0) break;
  2412. 23900
  2413. 23901         /* Don't trash the cache, leave 4 free. */
  2414. 23902         if (bufs_in_use >= NR_BUFS - 4) break;
  2415. 23903
  2416. 23904         block++;
  2417. 23905
  2418. 23906         bp = get_block(dev, block, PREFETCH);
  2419. 23907         if (bp->b_dev != NO_DEV) {
  2420. 23908                 /* Oops, block already in the cache, get out. */
  2421. 23909                 put_block(bp, FULL_DATA_BLOCK);
  2422. 23910                 break;
  2423. 23911         }
  2424. 23912   }
  2425. 23913   rw_scattered(dev, read_q, read_q_size, READING);
  2426. 23914   return(get_block(dev, baseblock, NORMAL));
  2427. 23915 }
  2428. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2429. src/fs/write.c    
  2430. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2431. 24000 /* This file is the counterpart of "read.c".  It contains the code for writing
  2432. 24001  * insofar as this is not contained in read_write().
  2433. 24002  *
  2434. 24003  * The entry points into this file are
  2435. 24004  *   do_write:     call read_write to perform the WRITE system call
  2436. 24005  *   clear_zone:   erase a zone in the middle of a file
  2437. 24006  *   new_block:    acquire a new block
  2438. 24007  */
  2439. 24008
  2440. 24009 #include "fs.h"
  2441. 24010 #include <string.h>
  2442. 24011 #include "buf.h"
  2443. 24012 #include "file.h"
  2444. 24013 #include "fproc.h"
  2445. 24014 #include "inode.h"
  2446. 24015 #include "super.h"
  2447. 24016
  2448. 24017 FORWARD _PROTOTYPE( int write_map, (struct inode *rip, off_t position,
  2449. 24018                         zone_t new_zone)                                );
  2450. 24019
  2451. 24020 FORWARD _PROTOTYPE( void wr_indir, (struct buf *bp, int index, zone_t zone) );
  2452. 24021
  2453. 24022 /*===========================================================================*
  2454. 24023  *                              do_write                                     *
  2455. 24024  *===========================================================================*/
  2456. 24025 PUBLIC int do_write()
  2457. 24026 {
  2458. 24027 /* Perform the write(fd, buffer, nbytes) system call. */
  2459. 24028
  2460. 24029   return(read_write(WRITING));
  2461. 24030 }
  2462. 24033 /*===========================================================================*
  2463. 24034  *                              write_map                                    *
  2464. 24035  *===========================================================================*/
  2465. 24036 PRIVATE int write_map(rip, position, new_zone)
  2466. 24037 register struct inode *rip;     /* pointer to inode to be changed */
  2467. 24038 off_t position;                 /* file address to be mapped */
  2468. 24039 zone_t new_zone;                /* zone # to be inserted */
  2469. 24040 {
  2470. 24041 /* Write a new zone into an inode. */
  2471. 24042   int scale, ind_ex, new_ind, new_dbl, zones, nr_indirects, single, zindex, ex;
  2472. 24043   zone_t z, z1;
  2473. 24044   register block_t b;
  2474. 24045   long excess, zone;
  2475. 24046   struct buf *bp;
  2476. 24047
  2477. 24048   rip->i_dirt = DIRTY;          /* inode will be changed */
  2478. 24049   bp = NIL_BUF;
  2479. 24050   scale = rip->i_sp->s_log_zone_size;           /* for zone-block conversion */
  2480. 24051   zone = (position/BLOCK_SIZE) >> scale;        /* relative zone # to insert */
  2481. 24052   zones = rip->i_ndzones;       /* # direct zones in the inode */
  2482. 24053   nr_indirects = rip->i_nindirs;/* # indirect zones per indirect block */
  2483. 24054
  2484. 24055   /* Is 'position' to be found in the inode itself? */
  2485. 24056   if (zone < zones) {
  2486. 24057         zindex = (int) zone;    /* we need an integer here */
  2487. 24058         rip->i_zone[zindex] = new_zone;
  2488. 24059         return(OK);
  2489. 24060   }
  2490. 24061
  2491. 24062   /* It is not in the inode, so it must be single or double indirect. */
  2492. 24063   excess = zone - zones;        /* first Vx_NR_DZONES don't count */
  2493. 24064   new_ind = FALSE;
  2494. 24065   new_dbl = FALSE;
  2495. 24066
  2496. 24067   if (excess < nr_indirects) {
  2497. 24068         /* 'position' can be located via the single indirect block. */
  2498. 24069         z1 = rip->i_zone[zones];        /* single indirect zone */
  2499. 24070         single = TRUE;
  2500. 24071   } else {
  2501. 24072         /* 'position' can be located via the double indirect block. */
  2502. 24073         if ( (z = rip->i_zone[zones+1]) == NO_ZONE) {
  2503. 24074                 /* Create the double indirect block. */
  2504. 24075                 if ( (z = alloc_zone(rip->i_dev, rip->i_zone[0])) == NO_ZONE)
  2505. 24076                         return(err_code);
  2506. 24077                 rip->i_zone[zones+1] = z;
  2507. 24078                 new_dbl = TRUE; /* set flag for later */
  2508. 24079         }
  2509. 24080
  2510. 24081         /* Either way, 'z' is zone number for double indirect block. */
  2511. 24082         excess -= nr_indirects; /* single indirect doesn't count */
  2512. 24083         ind_ex = (int) (excess / nr_indirects);
  2513. 24084         excess = excess % nr_indirects;
  2514. 24085         if (ind_ex >= nr_indirects) return(EFBIG);
  2515. 24086         b = (block_t) z << scale;
  2516. 24087         bp = get_block(rip->i_dev, b, (new_dbl ? NO_READ : NORMAL));
  2517. 24088         if (new_dbl) zero_block(bp);
  2518. 24089         z1 = rd_indir(bp, ind_ex);
  2519. 24090         single = FALSE;
  2520. 24091   }
  2521. 24092
  2522. 24093   /* z1 is now single indirect zone; 'excess' is index. */
  2523. 24094   if (z1 == NO_ZONE) {
  2524. 24095         /* Create indirect block and store zone # in inode or dbl indir blk. */
  2525. 24096         z1 = alloc_zone(rip->i_dev, rip->i_zone[0]);
  2526. 24097         if (single)
  2527. 24098                 rip->i_zone[zones] = z1;        /* update inode */
  2528. 24099         else
  2529. 24100                 wr_indir(bp, ind_ex, z1);       /* update dbl indir */
  2530. 24101
  2531. 24102         new_ind = TRUE;
  2532. 24103         if (bp != NIL_BUF) bp->b_dirt = DIRTY;  /* if double ind, it is dirty*/
  2533. 24104         if (z1 == NO_ZONE) {
  2534. 24105                 put_block(bp, INDIRECT_BLOCK);  /* release dbl indirect blk */
  2535. 24106                 return(err_code);       /* couldn't create single ind */
  2536. 24107         }
  2537. 24108   }
  2538. 24109   put_block(bp, INDIRECT_BLOCK);        /* release double indirect blk */
  2539. 24110
  2540. 24111   /* z1 is indirect block's zone number. */
  2541. 24112   b = (block_t) z1 << scale;
  2542. 24113   bp = get_block(rip->i_dev, b, (new_ind ? NO_READ : NORMAL) );
  2543. 24114   if (new_ind) zero_block(bp);
  2544. 24115   ex = (int) excess;                    /* we need an int here */
  2545. 24116   wr_indir(bp, ex, new_zone);
  2546. 24117   bp->b_dirt = DIRTY;
  2547. 24118   put_block(bp, INDIRECT_BLOCK);
  2548. 24119
  2549. 24120   return(OK);
  2550. 24121 }
  2551. 24124 /*===========================================================================*
  2552. 24125  *                              wr_indir                                     *
  2553. 24126  *===========================================================================*/
  2554. 24127 PRIVATE void wr_indir(bp, index, zone)
  2555. 24128 struct buf *bp;                 /* pointer to indirect block */
  2556. 24129 int index;                      /* index into *bp */
  2557. 24130 zone_t zone;                    /* zone to write */
  2558. 24131 {
  2559. 24132 /* Given a pointer to an indirect block, write one entry. */
  2560. 24133
  2561. 24134   struct super_block *sp;
  2562. 24135
  2563. 24136   sp = get_super(bp->b_dev);    /* need super block to find file sys type */
  2564. 24137
  2565. 24138   /* write a zone into an indirect block */
  2566. 24139   if (sp->s_version == V1)
  2567. 24140         bp->b_v1_ind[index] = (zone1_t) conv2(sp->s_native, (int)  zone);
  2568. 24141   else
  2569. 24142         bp->b_v2_ind[index] = (zone_t)  conv4(sp->s_native, (long) zone);
  2570. 24143 }
  2571. 24146 /*===========================================================================*
  2572. 24147  *                              clear_zone                                   *
  2573. 24148  *===========================================================================*/
  2574. 24149 PUBLIC void clear_zone(rip, pos, flag)
  2575. 24150 register struct inode *rip;     /* inode to clear */
  2576. 24151 off_t pos;                      /* points to block to clear */
  2577. 24152 int flag;                       /* 0 if called by read_write, 1 by new_block */
  2578. 24153 {
  2579. 24154 /* Zero a zone, possibly starting in the middle.  The parameter 'pos' gives
  2580. 24155  * a byte in the first block to be zeroed.  Clearzone() is called from 
  2581. 24156  * read_write and new_block().
  2582. 24157  */
  2583. 24158
  2584. 24159   register struct buf *bp;
  2585. 24160   register block_t b, blo, bhi;
  2586. 24161   register off_t next;
  2587. 24162   register int scale;
  2588. 24163   register zone_t zone_size;
  2589. 24164
  2590. 24165   /* If the block size and zone size are the same, clear_zone() not needed. */
  2591. 24166   scale = rip->i_sp->s_log_zone_size;
  2592. 24167   if (scale == 0) return;
  2593. 24168
  2594. 24169   zone_size = (zone_t) BLOCK_SIZE << scale;
  2595. 24170   if (flag == 1) pos = (pos/zone_size) * zone_size;
  2596. 24171   next = pos + BLOCK_SIZE - 1;
  2597. 24172
  2598. 24173   /* If 'pos' is in the last block of a zone, do not clear the zone. */
  2599. 24174   if (next/zone_size != pos/zone_size) return;
  2600. 24175   if ( (blo = read_map(rip, next)) == NO_BLOCK) return;
  2601. 24176   bhi = (  ((blo>>scale)+1) << scale)   - 1;
  2602. 24177
  2603. 24178   /* Clear all the blocks between 'blo' and 'bhi'. */
  2604. 24179   for (b = blo; b <= bhi; b++) {
  2605. 24180         bp = get_block(rip->i_dev, b, NO_READ);
  2606. 24181         zero_block(bp);
  2607. 24182         put_block(bp, FULL_DATA_BLOCK);
  2608. 24183   }
  2609. 24184 }
  2610. 24187 /*===========================================================================*
  2611. 24188  *                              new_block                                    *
  2612. 24189  *===========================================================================*/
  2613. 24190 PUBLIC struct buf *new_block(rip, position)
  2614. 24191 register struct inode *rip;     /* pointer to inode */
  2615. 24192 off_t position;                 /* file pointer */
  2616. 24193 {
  2617. 24194 /* Acquire a new block and return a pointer to it.  Doing so may require
  2618. 24195  * allocating a complete zone, and then returning the initial block.
  2619. 24196  * On the other hand, the current zone may still have some unused blocks.
  2620. 24197  */
  2621. 24198
  2622. 24199   register struct buf *bp;
  2623. 24200   block_t b, base_block;
  2624. 24201   zone_t z;
  2625. 24202   zone_t zone_size;
  2626. 24203   int scale, r;
  2627. 24204   struct super_block *sp;
  2628. 24205
  2629. 24206   /* Is another block available in the current zone? */
  2630. 24207   if ( (b = read_map(rip, position)) == NO_BLOCK) {
  2631. 24208         /* Choose first zone if possible. */
  2632. 24209         /* Lose if the file is nonempty but the first zone number is NO_ZONE
  2633. 24210          * corresponding to a zone full of zeros.  It would be better to
  2634. 24211          * search near the last real zone.
  2635. 24212          */
  2636. 24213         if (rip->i_zone[0] == NO_ZONE) {
  2637. 24214                 sp = rip->i_sp;
  2638. 24215                 z = sp->s_firstdatazone;
  2639. 24216         } else {
  2640. 24217                 z = rip->i_zone[0];     /* hunt near first zone */
  2641. 24218         }
  2642. 24219         if ( (z = alloc_zone(rip->i_dev, z)) == NO_ZONE) return(NIL_BUF);
  2643. 24220         if ( (r = write_map(rip, position, z)) != OK) {
  2644. 24221                 free_zone(rip->i_dev, z);
  2645. 24222                 err_code = r;
  2646. 24223                 return(NIL_BUF);
  2647. 24224         }
  2648. 24225
  2649. 24226         /* If we are not writing at EOF, clear the zone, just to be safe. */
  2650. 24227         if ( position != rip->i_size) clear_zone(rip, position, 1);
  2651. 24228         scale = rip->i_sp->s_log_zone_size;
  2652. 24229         base_block = (block_t) z << scale;
  2653. 24230         zone_size = (zone_t) BLOCK_SIZE << scale;
  2654. 24231         b = base_block + (block_t)((position % zone_size)/BLOCK_SIZE);
  2655. 24232   }
  2656. 24233
  2657. 24234   bp = get_block(rip->i_dev, b, NO_READ);
  2658. 24235   zero_block(bp);
  2659. 24236   return(bp);
  2660. 24237 }
  2661. 24240 /*===========================================================================*
  2662. 24241  *                              zero_block                                   *
  2663. 24242  *===========================================================================*/
  2664. 24243 PUBLIC void zero_block(bp)
  2665. 24244 register struct buf *bp;        /* pointer to buffer to zero */
  2666. 24245 {
  2667. 24246 /* Zero a block. */
  2668. 24247
  2669. 24248   memset(bp->b_data, 0, BLOCK_SIZE);
  2670. 24249   bp->b_dirt = DIRTY;
  2671. 24250 }
  2672. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2673. src/fs/pipe.c    
  2674. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2675. 24300 /* This file deals with the suspension and revival of processes.  A process can
  2676. 24301  * be suspended because it wants to read or write from a pipe and can't, or
  2677. 24302  * because it wants to read or write from a special file and can't.  When a
  2678. 24303  * process can't continue it is suspended, and revived later when it is able
  2679. 24304  * to continue.
  2680. 24305  *
  2681. 24306  * The entry points into this file are
  2682. 24307  *   do_pipe:     perform the PIPE system call
  2683. 24308  *   pipe_check:  check to see that a read or write on a pipe is feasible now
  2684. 24309  *   suspend:     suspend a process that cannot do a requested read or write
  2685. 24310  *   release:     check to see if a suspended process can be released and do it
  2686. 24311  *   revive:      mark a suspended process as able to run again
  2687. 24312  *   do_unpause:  a signal has been sent to a process; see if it suspended
  2688. 24313  */
  2689. 24314
  2690. 24315 #include "fs.h"
  2691. 24316 #include <fcntl.h>