lock.c
上传用户:tsgydb
上传日期:2007-04-14
资源大小:10674k
文件大小:37k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. /*-
  2.  * See the file LICENSE for redistribution information.
  3.  *
  4.  * Copyright (c) 1996, 1997, 1998, 1999, 2000
  5.  * Sleepycat Software.  All rights reserved.
  6.  */
  7. #include "db_config.h"
  8. #ifndef lint
  9. static const char revid[] = "$Id: lock.c,v 11.40 2000/12/19 23:18:58 ubell Exp $";
  10. #endif /* not lint */
  11. #ifndef NO_SYSTEM_INCLUDES
  12. #include <sys/types.h>
  13. #include <string.h>
  14. #endif
  15. #ifdef HAVE_RPC
  16. #include "db_server.h"
  17. #endif
  18. #include "db_int.h"
  19. #include "db_page.h"
  20. #include "db_shash.h"
  21. #include "lock.h"
  22. #include "log.h"
  23. #include "db_am.h"
  24. #include "txn.h"
  25. #ifdef HAVE_RPC
  26. #include "gen_client_ext.h"
  27. #include "rpc_client_ext.h"
  28. #endif
  29. static int  __lock_checklocker __P((DB_LOCKTAB *,
  30.     struct __db_lock *, u_int32_t, u_int32_t, int *));
  31. static int  __lock_get_internal __P((DB_LOCKTAB *, u_int32_t,
  32.     u_int32_t, const DBT *, db_lockmode_t, DB_LOCK *));
  33. static int __lock_is_parent __P((DB_LOCKTAB *, u_int32_t, DB_LOCKER *));
  34. static int __lock_put_internal __P((DB_LOCKTAB *,
  35.     struct __db_lock *, u_int32_t,  u_int32_t));
  36. static int __lock_put_nolock __P((DB_ENV *, DB_LOCK *, int *, int));
  37. static void __lock_remove_waiter __P((DB_ENV *,
  38.     DB_LOCKOBJ *, struct __db_lock *, db_status_t));
  39. static const char __db_lock_err[] = "Lock table is out of available %s";
  40. static const char __db_lock_invalid[] = "%s: Lock is no longer valid";
  41. static const char __db_locker_invalid[] = "Locker is not valid";
  42. /*
  43.  * lock_id --
  44.  * Generate a unique locker id.
  45.  */
  46. int
  47. lock_id(dbenv, idp)
  48. DB_ENV *dbenv;
  49. u_int32_t *idp;
  50. {
  51. DB_LOCKTAB *lt;
  52. DB_LOCKREGION *region;
  53. #ifdef HAVE_RPC
  54. if (F_ISSET(dbenv, DB_ENV_RPCCLIENT))
  55. return (__dbcl_lock_id(dbenv, idp));
  56. #endif
  57. PANIC_CHECK(dbenv);
  58. ENV_REQUIRES_CONFIG(dbenv, dbenv->lk_handle, DB_INIT_LOCK);
  59. lt = dbenv->lk_handle;
  60. region = lt->reginfo.primary;
  61. /*
  62.  * Note that we are letting locker IDs wrap.
  63.  *
  64.  * This is potentially dangerous in that it's conceivable that you
  65.  * could be allocating a new locker id and still have someone using
  66.  * it.  However, the alternatives are that we keep a bitmap of
  67.  * locker ids or we forbid wrapping.  Both are probably bad.  The
  68.  * bitmap of locker ids will take up 64 MB of space.  Forbidding
  69.  * wrapping means that we'll run out of locker IDs after 2 billion.
  70.  * In order for the wrap bug to fire, we'd need to have something
  71.  * that stayed open while 2 billion locker ids were used up.  Since
  72.  * we cache cursors it means that something would have to stay open
  73.  * sufficiently long that we open and close a lot of files and a
  74.  * lot of cursors within them.  Betting that this won't happen seems
  75.  * to the lesser of the evils.
  76.  */
  77. LOCKREGION(dbenv, lt);
  78. if (region->id >= DB_LOCK_MAXID)
  79. region->id = 0;
  80. *idp = ++region->id;
  81. UNLOCKREGION(dbenv, lt);
  82. return (0);
  83. }
  84. /*
  85.  * Vector lock routine.  This function takes a set of operations
  86.  * and performs them all at once.  In addition, lock_vec provides
  87.  * functionality for lock inheritance, releasing all locks for a
  88.  * given locker (used during transaction commit/abort), releasing
  89.  * all locks on a given object, and generating debugging information.
  90.  */
  91. int
  92. lock_vec(dbenv, locker, flags, list, nlist, elistp)
  93. DB_ENV *dbenv;
  94. u_int32_t locker, flags;
  95. int nlist;
  96. DB_LOCKREQ *list, **elistp;
  97. {
  98. struct __db_lock *lp, *next_lock;
  99. DB_LOCKER *sh_locker, *sh_parent;
  100. DB_LOCKOBJ *obj, *sh_obj;
  101. DB_LOCKREGION *region;
  102. DB_LOCKTAB *lt;
  103. u_int32_t lndx, ndx;
  104. int did_abort, i, ret, run_dd;
  105. #ifdef HAVE_RPC
  106. if (F_ISSET(dbenv, DB_ENV_RPCCLIENT))
  107. return (__dbcl_lock_vec(dbenv, locker,
  108.     flags, list, nlist, elistp));
  109. #endif
  110. PANIC_CHECK(dbenv);
  111. ENV_REQUIRES_CONFIG(dbenv, dbenv->lk_handle, DB_INIT_LOCK);
  112. /* Validate arguments. */
  113. if ((ret = __db_fchk(dbenv, "lock_vec", flags, DB_LOCK_NOWAIT)) != 0)
  114. return (ret);
  115. lt = dbenv->lk_handle;
  116. region = lt->reginfo.primary;
  117. run_dd = 0;
  118. LOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  119. for (i = 0, ret = 0; i < nlist && ret == 0; i++)
  120. switch (list[i].op) {
  121. case DB_LOCK_GET:
  122. ret = __lock_get_internal(dbenv->lk_handle,
  123.     locker, flags,
  124.     list[i].obj, list[i].mode, &list[i].lock);
  125. break;
  126. case DB_LOCK_INHERIT:
  127. /*
  128.  * Get the committing locker and mark it as deleted.
  129.  * This allows us to traverse the locker links without
  130.  * worrying that someone else is deleting locks out
  131.  * from under us.  However, if the locker doesn't
  132.  * exist, that just means that the child holds no
  133.  * locks, so inheritance is easy!
  134.  */
  135. LOCKER_LOCK(lt, region, locker, ndx);
  136. if ((ret = __lock_getlocker(lt,
  137.     locker, ndx, 0, &sh_locker)) != 0 ||
  138.     sh_locker == NULL ||
  139.     F_ISSET(sh_locker, DB_LOCKER_DELETED)) {
  140. if (ret == 0 && sh_locker != NULL)
  141. ret = EACCES;
  142. __db_err(dbenv, __db_locker_invalid);
  143. break;
  144. }
  145. /* Make sure we are a child transaction. */
  146. if (sh_locker->parent_locker == INVALID_ROFF) {
  147. __db_err(dbenv, "Not a child transaction");
  148. ret = EINVAL;
  149. break;
  150. }
  151. sh_parent = (DB_LOCKER *)
  152.     R_ADDR(&lt->reginfo, sh_locker->parent_locker);
  153. F_SET(sh_locker, DB_LOCKER_DELETED);
  154. /*
  155.  * Now, lock the parent locker; move locks from
  156.  * the committing list to the parent's list.
  157.  */
  158. LOCKER_LOCK(lt, region, locker, ndx);
  159. if (F_ISSET(sh_parent, DB_LOCKER_DELETED)) {
  160. if (ret == 0) {
  161. __db_err(dbenv,
  162.      "Parent locker is not valid");
  163. ret = EACCES;
  164. }
  165. break;
  166. }
  167. for (lp = SH_LIST_FIRST(&sh_locker->heldby, __db_lock);
  168.     lp != NULL;
  169.     lp = SH_LIST_FIRST(&sh_locker->heldby, __db_lock)) {
  170. SH_LIST_REMOVE(lp, locker_links, __db_lock);
  171. SH_LIST_INSERT_HEAD(&sh_parent->heldby, lp,
  172.     locker_links, __db_lock);
  173. lp->holder = sh_parent->id;
  174. /* Get the object associated with this lock. */
  175. obj = (DB_LOCKOBJ *)((u_int8_t *)lp + lp->obj);
  176. (void)__lock_promote(lt, obj,
  177.     LF_ISSET(DB_LOCK_NOWAITERS));
  178. }
  179. /* Now free the original locker. */
  180. ret = __lock_checklocker(lt,
  181.     NULL, locker, DB_LOCK_IGNOREDEL, NULL);
  182. break;
  183. case DB_LOCK_PUT:
  184. ret =
  185.     __lock_put_nolock(dbenv, &list[i].lock, &run_dd, 0);
  186. break;
  187. case DB_LOCK_PUT_ALL:
  188. /*
  189.  * Get the locker and mark it as deleted.  This
  190.  * allows us to traverse the locker links without
  191.  * worrying that someone else is deleting locks out
  192.  * from under us.  Since the locker may hold no
  193.  * locks (i.e., you could call abort before you've
  194.  * done any work), it's perfectly reasonable for there
  195.  * to be no locker; this is not an error.
  196.  */
  197. LOCKER_LOCK(lt, region, locker, ndx);
  198. if ((ret = __lock_getlocker(lt,
  199.     locker, ndx, 0, &sh_locker)) != 0 ||
  200.     sh_locker == NULL ||
  201.     F_ISSET(sh_locker, DB_LOCKER_DELETED))
  202. /*
  203.  * If ret is set, then we'll generate an
  204.  * error.  If it's not set, we have nothing
  205.  * to do.
  206.  */
  207. break;
  208. F_SET(sh_locker, DB_LOCKER_DELETED);
  209. /* Now traverse the locks, releasing each one. */
  210. for (lp = SH_LIST_FIRST(&sh_locker->heldby, __db_lock);
  211.     lp != NULL;
  212.     lp = SH_LIST_FIRST(&sh_locker->heldby, __db_lock)) {
  213. SH_LIST_REMOVE(lp, locker_links, __db_lock);
  214. sh_obj =
  215.     (DB_LOCKOBJ *)((u_int8_t *)lp + lp->obj);
  216. SHOBJECT_LOCK(lt, region, sh_obj, lndx);
  217. ret = __lock_put_internal(lt,
  218.     lp, lndx, DB_LOCK_FREE | DB_LOCK_DOALL);
  219. if (ret != 0)
  220. break;
  221. }
  222. ret = __lock_checklocker(lt,
  223.     NULL, locker, DB_LOCK_IGNOREDEL, NULL);
  224. break;
  225. case DB_LOCK_PUT_OBJ:
  226. /* Remove all the locks associated with an object. */
  227. OBJECT_LOCK(lt, region, list[i].obj, ndx);
  228. if ((ret = __lock_getobj(lt, list[i].obj,
  229.     ndx, 0, &sh_obj)) != 0 || sh_obj == NULL) {
  230. if (ret == 0)
  231. ret = EINVAL;
  232. break;
  233. }
  234. /*
  235.  * Go through both waiters and holders.  Don't bother
  236.  * to run promotion, because everyone is getting
  237.  * released.  The processes waiting will still get
  238.  * awakened as their waiters are released.
  239.  */
  240. for (lp = SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock);
  241.     ret == 0 && lp != NULL;
  242.     lp = SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock))
  243. ret = __lock_put_internal(lt,
  244.     lp, ndx, DB_LOCK_NOPROMOTE | DB_LOCK_DOALL);
  245. /*
  246.  * On the last time around, the object will get
  247.  * reclaimed by __lock_put_internal, structure the
  248.  * loop carefully so we do not get bitten.
  249.  */
  250. for (lp = SH_TAILQ_FIRST(&sh_obj->holders, __db_lock);
  251.     ret == 0 && lp != NULL;
  252.     lp = next_lock) {
  253. next_lock = SH_TAILQ_NEXT(lp, links, __db_lock);
  254. ret = __lock_put_internal(lt,
  255.     lp, ndx, DB_LOCK_NOPROMOTE | DB_LOCK_DOALL);
  256. }
  257. break;
  258. #ifdef DEBUG
  259. case DB_LOCK_DUMP:
  260. /* Find the locker. */
  261. LOCKER_LOCK(lt, region, locker, ndx);
  262. if ((ret = __lock_getlocker(lt,
  263.     locker, ndx, 0, &sh_locker)) != 0
  264.     || sh_locker == NULL
  265.     || F_ISSET(sh_locker, DB_LOCKER_DELETED))
  266. break;
  267. for (lp = SH_LIST_FIRST(&sh_locker->heldby, __db_lock);
  268.     lp != NULL;
  269.     lp = SH_LIST_NEXT(lp, locker_links, __db_lock)) {
  270. __lock_printlock(lt, lp, 1);
  271. }
  272. break;
  273. #endif
  274. default:
  275. __db_err(dbenv,
  276.     "Invalid lock operation: %d", list[i].op);
  277. ret = EINVAL;
  278. break;
  279. }
  280. if (ret == 0 && region->need_dd && region->detect != DB_LOCK_NORUN) {
  281. run_dd = 1;
  282. region->need_dd = 0;
  283. }
  284. UNLOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  285. if (run_dd)
  286. (void)lock_detect(dbenv, 0, region->detect, &did_abort);
  287. if (ret != 0 && elistp != NULL)
  288. *elistp = &list[i - 1];
  289. return (ret);
  290. }
  291. /*
  292.  * Lock acquisition routines.  There are two library interfaces:
  293.  *
  294.  * lock_get --
  295.  * original lock get interface that takes a locker id.
  296.  *
  297.  * All the work for lock_get (and for the GET option of lock_vec) is done
  298.  * inside of lock_get_internal.
  299.  */
  300. int
  301. lock_get(dbenv, locker, flags, obj, lock_mode, lock)
  302. DB_ENV *dbenv;
  303. u_int32_t locker, flags;
  304. const DBT *obj;
  305. db_lockmode_t lock_mode;
  306. DB_LOCK *lock;
  307. {
  308. int ret;
  309. #ifdef HAVE_RPC
  310. if (F_ISSET(dbenv, DB_ENV_RPCCLIENT))
  311. return (__dbcl_lock_get(dbenv, locker,
  312.     flags, obj, lock_mode, lock));
  313. #endif
  314. PANIC_CHECK(dbenv);
  315. ENV_REQUIRES_CONFIG(dbenv, dbenv->lk_handle, DB_INIT_LOCK);
  316. if (IS_RECOVERING(dbenv)) {
  317. lock->off = LOCK_INVALID;
  318. return (0);
  319. }
  320. /* Validate arguments. */
  321. if ((ret = __db_fchk(dbenv,
  322.     "lock_get", flags,
  323.     DB_LOCK_NOWAIT | DB_LOCK_UPGRADE | DB_LOCK_SWITCH)) != 0)
  324. return (ret);
  325. LOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  326. ret = __lock_get_internal(dbenv->lk_handle,
  327.     locker, flags, obj, lock_mode, lock);
  328. UNLOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  329. return (ret);
  330. }
  331. static int
  332. __lock_get_internal(lt, locker, flags, obj, lock_mode, lock)
  333. DB_LOCKTAB *lt;
  334. u_int32_t locker, flags;
  335. const DBT *obj;
  336. db_lockmode_t lock_mode;
  337. DB_LOCK *lock;
  338. {
  339. struct __db_lock *newl, *lp;
  340. DB_ENV *dbenv;
  341. DB_LOCKER *sh_locker;
  342. DB_LOCKOBJ *sh_obj;
  343. DB_LOCKREGION *region;
  344. u_int32_t locker_ndx;
  345. int did_abort, freed, ihold, on_locker_list, no_dd, ret;
  346. no_dd = ret = 0;
  347. on_locker_list = 0;
  348. region = lt->reginfo.primary;
  349. dbenv = lt->dbenv;
  350. /*
  351.  * If we are not going to reuse this lock, initialize
  352.  * the offset to invalid so that if we fail it
  353.  * will not look like a valid lock.
  354.  */
  355. if (!LF_ISSET(DB_LOCK_UPGRADE | DB_LOCK_SWITCH))
  356. lock->off = LOCK_INVALID;
  357. /*
  358.  * Check that the lock mode is valid.
  359.  */
  360. if ((u_int32_t)lock_mode >= region->nmodes) {
  361. __db_err(dbenv,
  362.     "lock_get: invalid lock mode %lun", (u_long)lock_mode);
  363. return (EINVAL);
  364. }
  365. /* Allocate a new lock.  Optimize for the common case of a grant. */
  366. region->nrequests++;
  367. if ((newl = SH_TAILQ_FIRST(&region->free_locks, __db_lock)) != NULL)
  368. SH_TAILQ_REMOVE(&region->free_locks, newl, links, __db_lock);
  369. if (newl == NULL) {
  370. __db_err(dbenv, __db_lock_err, "locks");
  371. return (ENOMEM);
  372. }
  373. if (++region->nlocks > region->maxnlocks)
  374. region->maxnlocks = region->nlocks;
  375. /* Allocate a new object. */
  376. OBJECT_LOCK(lt, region, obj, lock->ndx);
  377. if ((ret = __lock_getobj(lt, obj, lock->ndx, 1, &sh_obj)) != 0)
  378. goto err;
  379. /* Get the locker, we may need it to find our parent. */
  380. LOCKER_LOCK(lt, region, locker, locker_ndx);
  381. if ((ret =
  382.      __lock_getlocker(lt, locker, locker_ndx, 1, &sh_locker)) != 0) {
  383. /*
  384.  * XXX: Margo
  385.  * CLEANUP the object and the lock.
  386.  */
  387. return (ret);
  388. }
  389. /*
  390.  * Now we have a lock and an object and we need to see if we should
  391.  * grant the lock.  We use a FIFO ordering so we can only grant a
  392.  * new lock if it does not conflict with anyone on the holders list
  393.  * OR anyone on the waiters list.  The reason that we don't grant if
  394.  * there's a conflict is that this can lead to starvation (a writer
  395.  * waiting on a popularly read item will never be granted).  The
  396.  * downside of this is that a waiting reader can prevent an upgrade
  397.  * from reader to writer, which is not uncommon.
  398.  *
  399.  * There is one exception to the no-conflict rule.  If a lock is held
  400.  * by the requesting locker AND the new lock does not conflict with
  401.  * any other holders, then we grant the lock.  The most common place
  402.  * this happens is when the holder has a WRITE lock and a READ lock
  403.  * request comes in for the same locker.  If we do not grant the read
  404.  * lock, then we guarantee deadlock.
  405.  *
  406.  * In case of conflict, we put the new lock on the end of the waiters
  407.  * list, unless we are upgrading in which case the locker goes on the
  408.  * front of the list.
  409.  */
  410. ihold = 0;
  411. lp = NULL;
  412. if (LF_ISSET(DB_LOCK_SWITCH))
  413. goto put_lock;
  414. for (lp = SH_TAILQ_FIRST(&sh_obj->holders, __db_lock);
  415.     lp != NULL;
  416.     lp = SH_TAILQ_NEXT(lp, links, __db_lock)) {
  417. if (locker == lp->holder ||
  418.     __lock_is_parent(lt, lp->holder, sh_locker)) {
  419. if (lp->mode == lock_mode &&
  420.     lp->status == DB_LSTAT_HELD) {
  421. if (LF_ISSET(DB_LOCK_UPGRADE))
  422. goto upgrade;
  423. /*
  424.  * Lock is held, so we can increment the
  425.  * reference count and return this lock.
  426.  */
  427. lp->refcount++;
  428. lock->off = R_OFFSET(&lt->reginfo, lp);
  429. lock->gen = lp->gen;
  430. ret = 0;
  431. goto done;
  432. } else
  433. ihold = 1;
  434. } else if (CONFLICTS(lt, region, lp->mode, lock_mode))
  435. break;
  436. }
  437. /*
  438.  * Make the new lock point to the new object, initialize fields.
  439.  *
  440.  * This lock is not linked in anywhere, so we can muck with it
  441.  * without holding any mutexes.
  442.  */
  443. put_lock:
  444. newl->holder = locker;
  445. newl->refcount = 1;
  446. newl->mode = lock_mode;
  447. newl->obj = SH_PTR_TO_OFF(newl, sh_obj);
  448. newl->status = DB_LSTAT_HELD;
  449. /*
  450.  * If we are upgrading, then there are two scenarios.  Either
  451.  * we had no conflicts, so we can do the upgrade.  Or, there
  452.  * is a conflict and we should wait at the HEAD of the waiters
  453.  * list.
  454.  */
  455. if (LF_ISSET(DB_LOCK_UPGRADE)) {
  456. if (lp == NULL)
  457. goto upgrade;
  458. /*
  459.  * There was a conflict, wait.  If this is the first waiter,
  460.  * add the object to the deadlock detector's list.
  461.  */
  462. if (SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock) == NULL)
  463. SH_TAILQ_INSERT_HEAD(&region->dd_objs,
  464.     sh_obj, dd_links, __db_lockobj);
  465. SH_TAILQ_INSERT_HEAD(&sh_obj->waiters, newl, links, __db_lock);
  466. goto llist;
  467. }
  468. if (lp == NULL && !ihold)
  469. for (lp = SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock);
  470.     lp != NULL;
  471.     lp = SH_TAILQ_NEXT(lp, links, __db_lock)) {
  472. if (CONFLICTS(lt, region, lp->mode, lock_mode) &&
  473.     locker != lp->holder)
  474. break;
  475. }
  476. if (!LF_ISSET(DB_LOCK_SWITCH) && lp == NULL)
  477. SH_TAILQ_INSERT_TAIL(&sh_obj->holders, newl, links);
  478. else if (!LF_ISSET(DB_LOCK_NOWAIT)) {
  479. /*
  480.  * If this is the first waiter, add the object to the
  481.  * deadlock detector's list.
  482.  */
  483. if (SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock) == NULL)
  484. SH_TAILQ_INSERT_HEAD(&region->dd_objs,
  485.     sh_obj, dd_links, __db_lockobj);
  486. SH_TAILQ_INSERT_TAIL(&sh_obj->waiters, newl, links);
  487. } else {
  488. ret = DB_LOCK_NOTGRANTED;
  489. if (SH_LIST_FIRST(&sh_locker->heldby, __db_lock) == NULL
  490.     && LOCKER_FREEABLE(sh_locker))
  491. __lock_freelocker( lt, region, sh_locker, locker_ndx);
  492. region->nnowaits++;
  493. goto err;
  494. }
  495. llist:
  496. /*
  497.  * Now, insert the lock onto its locker's list.  If the locker does
  498.  * not currently hold any locks, there's no reason to run a deadlock
  499.  * detector, save that information.
  500.  */
  501. on_locker_list = 1;
  502. no_dd = sh_locker->master_locker == INVALID_ROFF
  503.     && SH_LIST_FIRST(&sh_locker->child_locker, __db_locker) == NULL
  504.     && SH_LIST_FIRST(&sh_locker->heldby, __db_lock) == NULL;
  505. SH_LIST_INSERT_HEAD(&sh_locker->heldby, newl, locker_links, __db_lock);
  506. if (LF_ISSET(DB_LOCK_SWITCH) || lp != NULL) {
  507. if (LF_ISSET(DB_LOCK_SWITCH) &&
  508.     (ret = __lock_put_nolock(dbenv,
  509.     lock, &ihold, DB_LOCK_NOWAITERS)) != 0)
  510. goto err;
  511. /*
  512.  * This is really a blocker for the thread.  It should be
  513.  * initialized locked, so that when we try to acquire it, we
  514.  * block.
  515.  */
  516. newl->status = DB_LSTAT_WAITING;
  517. region->nconflicts++;
  518. if (region->detect == DB_LOCK_NORUN)
  519. region->need_dd = 1;
  520. UNLOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  521. /*
  522.  * We are about to wait; before waiting, see if the deadlock
  523.  * detector should be run.
  524.  */
  525. if (region->detect != DB_LOCK_NORUN && !no_dd)
  526. (void)lock_detect(dbenv, 0, region->detect, &did_abort);
  527. MUTEX_LOCK(dbenv, &newl->mutex, dbenv->lockfhp);
  528. LOCKREGION(dbenv, (DB_LOCKTAB *)dbenv->lk_handle);
  529. if (newl->status != DB_LSTAT_PENDING) {
  530. (void)__lock_checklocker(lt,
  531.     newl, newl->holder, 0, &freed);
  532. switch (newl->status) {
  533. case DB_LSTAT_ABORTED:
  534. on_locker_list = 0;
  535. ret = DB_LOCK_DEADLOCK;
  536. break;
  537. case DB_LSTAT_NOGRANT:
  538. ret = DB_LOCK_NOTGRANTED;
  539. break;
  540. default:
  541. ret = EINVAL;
  542. break;
  543. }
  544. goto err;
  545. } else if (LF_ISSET(DB_LOCK_UPGRADE)) {
  546. /*
  547.  * The lock that was just granted got put on the
  548.  * holders list.  Since we're upgrading some other
  549.  * lock, we've got to remove it here.
  550.  */
  551. SH_TAILQ_REMOVE(
  552.     &sh_obj->holders, newl, links, __db_lock);
  553. /*
  554.  * Ensure that the object is not believed to be on
  555.  * the object's lists, if we're traversing by locker.
  556.  */
  557. newl->links.stqe_prev = -1;
  558. goto upgrade;
  559. } else
  560. newl->status = DB_LSTAT_HELD;
  561. }
  562. lock->off = R_OFFSET(&lt->reginfo, newl);
  563. lock->gen = newl->gen;
  564. return (0);
  565. upgrade:/*
  566.  * This was an upgrade, so return the new lock to the free list and
  567.  * upgrade the mode of the original lock.
  568.  */
  569. ((struct __db_lock *)R_ADDR(&lt->reginfo, lock->off))->mode = lock_mode;
  570. ret = 0;
  571. /* FALLTHROUGH */
  572. done:
  573. err: newl->status = DB_LSTAT_FREE;
  574. if (on_locker_list) {
  575. SH_LIST_REMOVE(newl, locker_links, __db_lock);
  576. }
  577. SH_TAILQ_INSERT_HEAD(&region->free_locks, newl, links, __db_lock);
  578. region->nlocks--;
  579. return (ret);
  580. }
  581. /*
  582.  * Lock release routines.
  583.  *
  584.  * The user callable one is lock_put and the three we use internally are
  585.  * __lock_put_nolock, __lock_put_internal and __lock_downgrade.
  586.  */
  587. int
  588. lock_put(dbenv, lock)
  589. DB_ENV *dbenv;
  590. DB_LOCK *lock;
  591. {
  592. DB_LOCKTAB *lt;
  593. int ret, run_dd;
  594. #ifdef HAVE_RPC
  595. if (F_ISSET(dbenv, DB_ENV_RPCCLIENT))
  596. return (__dbcl_lock_put(dbenv, lock));
  597. #endif
  598. PANIC_CHECK(dbenv);
  599. ENV_REQUIRES_CONFIG(dbenv, dbenv->lk_handle, DB_INIT_LOCK);
  600. if (IS_RECOVERING(dbenv))
  601. return (0);
  602. lt = dbenv->lk_handle;
  603. LOCKREGION(dbenv, lt);
  604. ret = __lock_put_nolock(dbenv, lock, &run_dd, 0);
  605. UNLOCKREGION(dbenv, lt);
  606. if (ret == 0 && run_dd)
  607. (void)lock_detect(dbenv, 0,
  608.     ((DB_LOCKREGION *)lt->reginfo.primary)->detect, NULL);
  609. return (ret);
  610. }
  611. static int
  612. __lock_put_nolock(dbenv, lock, runp, flags)
  613. DB_ENV *dbenv;
  614. DB_LOCK *lock;
  615. int *runp;
  616. int flags;
  617. {
  618. struct __db_lock *lockp;
  619. DB_LOCKREGION *region;
  620. DB_LOCKTAB *lt;
  621. u_int32_t locker;
  622. int ret;
  623. lt = dbenv->lk_handle;
  624. region = lt->reginfo.primary;
  625. lockp = (struct __db_lock *)R_ADDR(&lt->reginfo, lock->off);
  626. lock->off = LOCK_INVALID;
  627. if (lock->gen != lockp->gen) {
  628. __db_err(dbenv, __db_lock_invalid, "lock_put");
  629. return (EACCES);
  630. }
  631. locker = lockp->holder;
  632. ret = __lock_put_internal(lt,
  633.     lockp, lock->ndx, flags | DB_LOCK_UNLINK | DB_LOCK_FREE);
  634. *runp = 0;
  635. if (ret == 0 && region->need_dd && region->detect != DB_LOCK_NORUN) {
  636. *runp = 1;
  637. region->need_dd = 0;
  638. }
  639. return (ret);
  640. }
  641. /*
  642.  * __lock_downgrade --
  643.  * Used by the concurrent access product to downgrade write locks
  644.  * back to iwrite locks.
  645.  *
  646.  * PUBLIC: int __lock_downgrade __P((DB_ENV *,
  647.  * PUBLIC:     DB_LOCK *, db_lockmode_t, u_int32_t));
  648.  */
  649. int
  650. __lock_downgrade(dbenv, lock, new_mode, flags)
  651. DB_ENV *dbenv;
  652. DB_LOCK *lock;
  653. db_lockmode_t new_mode;
  654. u_int32_t flags;
  655. {
  656. struct __db_lock *lockp;
  657. DB_LOCKOBJ *obj;
  658. DB_LOCKREGION *region;
  659. DB_LOCKTAB *lt;
  660. int ret;
  661. COMPQUIET(flags, 0);
  662. PANIC_CHECK(dbenv);
  663. lt = dbenv->lk_handle;
  664. region = lt->reginfo.primary;
  665. LOCKREGION(dbenv, lt);
  666. lockp = (struct __db_lock *)R_ADDR(&lt->reginfo, lock->off);
  667. if (lock->gen != lockp->gen) {
  668. __db_err(dbenv, __db_lock_invalid, "lock_downgrade");
  669. ret = EACCES;
  670. goto out;
  671. }
  672. lockp->mode = new_mode;
  673. /* Get the object associated with this lock. */
  674. obj = (DB_LOCKOBJ *)((u_int8_t *)lockp + lockp->obj);
  675. (void)__lock_promote(lt, obj, LF_ISSET(DB_LOCK_NOWAITERS));
  676. ++region->nreleases;
  677. out: UNLOCKREGION(dbenv, lt);
  678. return (0);
  679. }
  680. static int
  681. __lock_put_internal(lt, lockp, obj_ndx, flags)
  682. DB_LOCKTAB *lt;
  683. struct __db_lock *lockp;
  684. u_int32_t obj_ndx;
  685. u_int32_t flags;
  686. {
  687. DB_LOCKOBJ *sh_obj;
  688. DB_LOCKREGION *region;
  689. int no_reclaim, ret, state_changed;
  690. region = lt->reginfo.primary;
  691. no_reclaim = ret = state_changed = 0;
  692. if (!OBJ_LINKS_VALID(lockp)) {
  693. /*
  694.  * Someone removed this lock while we were doing a release
  695.  * by locker id.  We are trying to free this lock, but it's
  696.  * already been done; all we need to do is return it to the
  697.  * free list.
  698.  */
  699. lockp->status = DB_LSTAT_FREE;
  700. SH_TAILQ_INSERT_HEAD(
  701.     &region->free_locks, lockp, links, __db_lock);
  702. region->nlocks--;
  703. return (0);
  704. }
  705. if (LF_ISSET(DB_LOCK_DOALL))
  706. region->nreleases += lockp->refcount;
  707. else
  708. region->nreleases++;
  709. if (!LF_ISSET(DB_LOCK_DOALL) && lockp->refcount > 1) {
  710. lockp->refcount--;
  711. return (0);
  712. }
  713. /* Increment generation number. */
  714. lockp->gen++;
  715. /* Get the object associated with this lock. */
  716. sh_obj = (DB_LOCKOBJ *)((u_int8_t *)lockp + lockp->obj);
  717. /* Remove this lock from its holders/waitlist. */
  718. if (lockp->status != DB_LSTAT_HELD)
  719. __lock_remove_waiter(lt->dbenv, sh_obj, lockp, DB_LSTAT_FREE);
  720. else {
  721. SH_TAILQ_REMOVE(&sh_obj->holders, lockp, links, __db_lock);
  722. lockp->links.stqe_prev = -1;
  723. }
  724. if (LF_ISSET(DB_LOCK_NOPROMOTE))
  725. state_changed = 0;
  726. else
  727. state_changed =
  728.     __lock_promote(lt, sh_obj, LF_ISSET(DB_LOCK_NOWAITERS));
  729. if (LF_ISSET(DB_LOCK_UNLINK))
  730. ret = __lock_checklocker(lt, lockp, lockp->holder, flags, NULL);
  731. /* Check if object should be reclaimed. */
  732. if (SH_TAILQ_FIRST(&sh_obj->holders, __db_lock) == NULL
  733.     && SH_TAILQ_FIRST(&sh_obj->waiters, __db_lock) == NULL) {
  734. HASHREMOVE_EL(lt->obj_tab,
  735.     obj_ndx, __db_lockobj, links, sh_obj);
  736. if (sh_obj->lockobj.size > sizeof(sh_obj->objdata))
  737. __db_shalloc_free(lt->reginfo.addr,
  738.     SH_DBT_PTR(&sh_obj->lockobj));
  739. SH_TAILQ_INSERT_HEAD(
  740.     &region->free_objs, sh_obj, links, __db_lockobj);
  741. region->nobjects--;
  742. state_changed = 1;
  743. }
  744. /* Free lock. */
  745. if (!LF_ISSET(DB_LOCK_UNLINK) && LF_ISSET(DB_LOCK_FREE)) {
  746. lockp->status = DB_LSTAT_FREE;
  747. SH_TAILQ_INSERT_HEAD(
  748.     &region->free_locks, lockp, links, __db_lock);
  749. region->nlocks--;
  750. }
  751. /*
  752.  * If we did not promote anyone; we need to run the deadlock
  753.  * detector again.
  754.  */
  755. if (state_changed == 0)
  756. region->need_dd = 1;
  757. return (ret);
  758. }
  759. /*
  760.  * Utility functions; listed alphabetically.
  761.  */
  762. /*
  763.  * __lock_checklocker --
  764.  * If a locker has no more locks, then we can free the object.
  765.  * Return a boolean indicating whether we freed the object or not.
  766.  *
  767.  * Must be called without the locker's lock set.
  768.  */
  769. static int
  770. __lock_checklocker(lt, lockp, locker, flags, freed)
  771. DB_LOCKTAB *lt;
  772. struct __db_lock *lockp;
  773. u_int32_t locker, flags;
  774. int *freed;
  775. {
  776. DB_ENV *dbenv;
  777. DB_LOCKER *sh_locker;
  778. DB_LOCKREGION *region;
  779. u_int32_t indx;
  780. int ret;
  781. dbenv = lt->dbenv;
  782. region = lt->reginfo.primary;
  783. ret = 0;
  784. if (freed != NULL)
  785. *freed = 0;
  786. LOCKER_LOCK(lt, region, locker, indx);
  787. /* If the locker's list is NULL, free up the locker. */
  788. if ((ret = __lock_getlocker(lt,
  789.     locker, indx, 0, &sh_locker)) != 0 || sh_locker == NULL) {
  790. if (ret == 0)
  791. ret = EACCES;
  792. __db_err(lt->dbenv, __db_locker_invalid);
  793. goto freelock;
  794. }
  795. if (F_ISSET(sh_locker, DB_LOCKER_DELETED)) {
  796. LF_CLR(DB_LOCK_FREE);
  797. if (!LF_ISSET(DB_LOCK_IGNOREDEL))
  798. goto freelock;
  799. }
  800. if (LF_ISSET(DB_LOCK_UNLINK))
  801. SH_LIST_REMOVE(lockp, locker_links, __db_lock);
  802. if (SH_LIST_FIRST(&sh_locker->heldby, __db_lock) == NULL
  803.     && LOCKER_FREEABLE(sh_locker)) {
  804. __lock_freelocker( lt, region, sh_locker, indx);
  805. if (freed != NULL)
  806. *freed = 1;
  807. }
  808. freelock:
  809. if (LF_ISSET(DB_LOCK_FREE)) {
  810. lockp->status = DB_LSTAT_FREE;
  811. SH_TAILQ_INSERT_HEAD(
  812.     &region->free_locks, lockp, links, __db_lock);
  813. region->nlocks--;
  814. }
  815. return (ret);
  816. }
  817. /*
  818.  * __lock_addfamilylocker
  819.  * Put a locker entry in for a child transaction.
  820.  *
  821.  * PUBLIC: int __lock_addfamilylocker __P((DB_ENV *, u_int32_t, u_int32_t));
  822.  */
  823. int
  824. __lock_addfamilylocker(dbenv, pid, id)
  825. DB_ENV *dbenv;
  826. u_int32_t pid, id;
  827. {
  828. DB_LOCKER *lockerp, *mlockerp;
  829. DB_LOCKREGION *region;
  830. DB_LOCKTAB *lt;
  831. u_int32_t ndx;
  832. int ret;
  833. lt = dbenv->lk_handle;
  834. region = lt->reginfo.primary;
  835. LOCKREGION(dbenv, lt);
  836. /* get/create the  parent locker info */
  837. LOCKER_LOCK(lt, region, pid, ndx);
  838. if ((ret = __lock_getlocker(dbenv->lk_handle,
  839.     pid, ndx, 1, &mlockerp)) != 0)
  840. goto err;
  841. /*
  842.  * We assume that only one thread can manipulate
  843.  * a single transaction family.
  844.  * Therefore the master locker cannot go away while
  845.  * we manipulate it, nor can another child in the
  846.  * family be created at the same time.
  847.  */
  848. LOCKER_LOCK(lt, region, id, ndx);
  849. if ((ret = __lock_getlocker(dbenv->lk_handle,
  850.     id, ndx, 1, &lockerp)) != 0)
  851. goto err;
  852. /* Point to our parent. */
  853. lockerp->parent_locker = R_OFFSET(&lt->reginfo, mlockerp);
  854. /* See if this locker is the family master. */
  855. if (mlockerp->master_locker == INVALID_ROFF)
  856. lockerp->master_locker = R_OFFSET(&lt->reginfo, mlockerp);
  857. else {
  858. lockerp->master_locker = mlockerp->master_locker;
  859. mlockerp = R_ADDR(&lt->reginfo, mlockerp->master_locker);
  860. }
  861. /*
  862.  * Link the child at the head of the master's list.
  863.  * The guess is when looking for deadlock that
  864.  * the most recent child is the one thats blocked.
  865.  */
  866. SH_LIST_INSERT_HEAD(
  867.     &mlockerp->child_locker, lockerp, child_link, __db_locker);
  868. err:
  869. UNLOCKREGION(dbenv, lt);
  870. return (ret);
  871. }
  872. /*
  873.  * __lock_freefamilylocker
  874.  * Remove a locker from the hash table and its family.
  875.  *
  876.  * This must be called without the locker bucket locked.
  877.  *
  878.  * PUBLIC: int __lock_freefamilylocker  __P((DB_LOCKTAB *, u_int32_t));
  879.  */
  880. int
  881. __lock_freefamilylocker(lt, locker)
  882. DB_LOCKTAB *lt;
  883. u_int32_t locker;
  884. {
  885. DB_ENV *dbenv;
  886. DB_LOCKER *sh_locker;
  887. DB_LOCKREGION *region;
  888. u_int32_t indx;
  889. int ret;
  890. dbenv = lt->dbenv;
  891. region = lt->reginfo.primary;
  892. LOCKREGION(dbenv, lt);
  893. LOCKER_LOCK(lt, region, locker, indx);
  894. if ((ret = __lock_getlocker(lt,
  895.     locker, indx, 0, &sh_locker)) != 0 || sh_locker == NULL) {
  896. if (ret == 0)
  897. ret = EACCES;
  898. goto freelock;
  899. }
  900. if (SH_LIST_FIRST(&sh_locker->heldby, __db_lock) != NULL) {
  901. ret = EINVAL;
  902. __db_err(dbenv, "Freeing locker with locks");
  903. goto freelock;
  904. }
  905. /* If this is part of a family, we must fix up its links. */
  906. if (sh_locker->master_locker != INVALID_ROFF)
  907. SH_LIST_REMOVE(sh_locker, child_link, __db_locker);
  908. __lock_freelocker(lt, region, sh_locker, indx);
  909. freelock:
  910. UNLOCKREGION(dbenv, lt);
  911. return (ret);
  912. }
  913. /*
  914.  * __lock_freelocker
  915.  * common code for deleting a locker.
  916.  *
  917.  * This must be called with the locker bucket locked.
  918.  *
  919.  * PUBLIC: void __lock_freelocker __P((DB_LOCKTAB *,
  920.  * PUBLIC:     DB_LOCKREGION *, DB_LOCKER *, u_int32_t));
  921.  */
  922. void
  923. __lock_freelocker(lt, region, sh_locker, indx)
  924. DB_LOCKTAB *lt;
  925. DB_LOCKREGION *region;
  926. DB_LOCKER *sh_locker;
  927. u_int32_t indx;
  928. {
  929. HASHREMOVE_EL(
  930.     lt->locker_tab, indx, __db_locker, links, sh_locker);
  931. SH_TAILQ_INSERT_HEAD(
  932.     &region->free_lockers, sh_locker, links, __db_locker);
  933. region->nlockers--;
  934. }
  935. /*
  936.  * __lock_getlocker --
  937.  * Get a locker in the locker hash table.  The create parameter
  938.  * indicates if the locker should be created if it doesn't exist in
  939.  * the table.
  940.  *
  941.  * This must be called with the locker bucket locked.
  942.  *
  943.  * PUBLIC: int __lock_getlocker __P((DB_LOCKTAB *,
  944.  * PUBLIC:     u_int32_t, u_int32_t, int, DB_LOCKER **));
  945.  */
  946. int
  947. __lock_getlocker(lt, locker, indx, create, retp)
  948. DB_LOCKTAB *lt;
  949. u_int32_t locker, indx;
  950. int create;
  951. DB_LOCKER **retp;
  952. {
  953. DB_ENV *dbenv;
  954. DB_LOCKER *sh_locker;
  955. DB_LOCKREGION *region;
  956. dbenv = lt->dbenv;
  957. region = lt->reginfo.primary;
  958. HASHLOOKUP(lt->locker_tab,
  959.     indx, __db_locker, links, locker, sh_locker, __lock_locker_cmp);
  960. /*
  961.  * If we found the locker, then we can just return it.  If
  962.  * we didn't find the locker, then we need to create it.
  963.  */
  964. if (sh_locker == NULL && create) {
  965. /* Create new locker and then insert it into hash table. */
  966. if ((sh_locker = SH_TAILQ_FIRST(
  967.     &region->free_lockers, __db_locker)) == NULL) {
  968. __db_err(lt->dbenv, __db_lock_err, "locker entries");
  969. return (ENOMEM);
  970. }
  971. SH_TAILQ_REMOVE(
  972.     &region->free_lockers, sh_locker, links, __db_locker);
  973. if (++region->nlockers > region->maxnlockers)
  974. region->maxnlockers = region->nlockers;
  975. sh_locker->id = locker;
  976. sh_locker->dd_id = 0;
  977. sh_locker->master_locker = INVALID_ROFF;
  978. sh_locker->parent_locker = INVALID_ROFF;
  979. SH_LIST_INIT(&sh_locker->child_locker);
  980. sh_locker->flags = 0;
  981. SH_LIST_INIT(&sh_locker->heldby);
  982. HASHINSERT(lt->locker_tab, indx, __db_locker, links, sh_locker);
  983. }
  984. *retp = sh_locker;
  985. return (0);
  986. }
  987. /*
  988.  * __lock_getobj --
  989.  * Get an object in the object hash table.  The create parameter
  990.  * indicates if the object should be created if it doesn't exist in
  991.  * the table.
  992.  *
  993.  * This must be called with the object bucket locked.
  994.  *
  995.  * PUBLIC: int __lock_getobj __P((DB_LOCKTAB *,
  996.  * PUBLIC:     const DBT *, u_int32_t, int, DB_LOCKOBJ **));
  997.  */
  998. int
  999. __lock_getobj(lt, obj, ndx, create, retp)
  1000. DB_LOCKTAB *lt;
  1001. const DBT *obj;
  1002. u_int32_t ndx;
  1003. int create;
  1004. DB_LOCKOBJ **retp;
  1005. {
  1006. DB_ENV *dbenv;
  1007. DB_LOCKOBJ *sh_obj;
  1008. DB_LOCKREGION *region;
  1009. int ret;
  1010. void *p;
  1011. dbenv = lt->dbenv;
  1012. region = lt->reginfo.primary;
  1013. /* Look up the object in the hash table. */
  1014. HASHLOOKUP(lt->obj_tab,
  1015.     ndx, __db_lockobj, links, obj, sh_obj, __lock_cmp);
  1016. /*
  1017.  * If we found the object, then we can just return it.  If
  1018.  * we didn't find the object, then we need to create it.
  1019.  */
  1020. if (sh_obj == NULL && create) {
  1021. /* Create new object and then insert it into hash table. */
  1022. if ((sh_obj =
  1023.     SH_TAILQ_FIRST(&region->free_objs, __db_lockobj)) == NULL) {
  1024. __db_err(lt->dbenv, __db_lock_err, "object entries");
  1025. ret = ENOMEM;
  1026. goto err;
  1027. }
  1028. /*
  1029.  * If we can fit this object in the structure, do so instead
  1030.  * of shalloc-ing space for it.
  1031.  */
  1032. if (obj->size <= sizeof(sh_obj->objdata))
  1033. p = sh_obj->objdata;
  1034. else if ((ret = __db_shalloc(
  1035.     lt->reginfo.addr, obj->size, 0, &p)) != 0) {
  1036. __db_err(dbenv, "No space for lock object storage");
  1037. goto err;
  1038. }
  1039. memcpy(p, obj->data, obj->size);
  1040. SH_TAILQ_REMOVE(
  1041.     &region->free_objs, sh_obj, links, __db_lockobj);
  1042. if (++region->nobjects > region->maxnobjects)
  1043. region->maxnobjects = region->nobjects;
  1044. SH_TAILQ_INIT(&sh_obj->waiters);
  1045. SH_TAILQ_INIT(&sh_obj->holders);
  1046. sh_obj->lockobj.size = obj->size;
  1047. sh_obj->lockobj.off = SH_PTR_TO_OFF(&sh_obj->lockobj, p);
  1048. HASHINSERT(lt->obj_tab, ndx, __db_lockobj, links, sh_obj);
  1049. }
  1050. *retp = sh_obj;
  1051. return (0);
  1052. err: return (ret);
  1053. }
  1054. /*
  1055.  * __lock_is_parent --
  1056.  * Given a locker and a transaction, return 1 if the locker is
  1057.  * an ancestor of the designcated transaction.  This is used to determine
  1058.  * if we should grant locks that appear to conflict, but don't because
  1059.  * the lock is already held by an ancestor.
  1060.  */
  1061. static int
  1062. __lock_is_parent(lt, locker, sh_locker)
  1063. DB_LOCKTAB *lt;
  1064. u_int32_t locker;
  1065. DB_LOCKER *sh_locker;
  1066. {
  1067. DB_LOCKER *parent;
  1068. parent = sh_locker;
  1069. while (parent->parent_locker != INVALID_ROFF) {
  1070. parent = (DB_LOCKER *)
  1071.      R_ADDR(&lt->reginfo, parent->parent_locker);
  1072. if (parent->id == locker)
  1073. return (1);
  1074. }
  1075. return (0);
  1076. }
  1077. /*
  1078.  * __lock_promote --
  1079.  *
  1080.  * Look through the waiters and holders lists and decide which (if any)
  1081.  * locks can be promoted.   Promote any that are eligible.
  1082.  *
  1083.  * PUBLIC: int __lock_promote __P((DB_LOCKTAB *, DB_LOCKOBJ *, int));
  1084.  */
  1085. int
  1086. __lock_promote(lt, obj, not_waiters)
  1087. DB_LOCKTAB *lt;
  1088. DB_LOCKOBJ *obj;
  1089. int not_waiters;
  1090. {
  1091. struct __db_lock *lp_w, *lp_h, *next_waiter;
  1092. DB_LOCKER *sh_locker;
  1093. DB_LOCKREGION *region;
  1094. u_int32_t locker_ndx;
  1095. int had_waiters, state_changed;
  1096. region = lt->reginfo.primary;
  1097. had_waiters = 0;
  1098. /*
  1099.  * We need to do lock promotion.  We also need to determine if we're
  1100.  * going to need to run the deadlock detector again.  If we release
  1101.  * locks, and there are waiters, but no one gets promoted, then we
  1102.  * haven't fundamentally changed the lockmgr state, so we may still
  1103.  * have a deadlock and we have to run again.  However, if there were
  1104.  * no waiters, or we actually promoted someone, then we are OK and we
  1105.  * don't have to run it immediately.
  1106.  *
  1107.  * During promotion, we look for state changes so we can return this
  1108.  * information to the caller.
  1109.  */
  1110. for (lp_w = SH_TAILQ_FIRST(&obj->waiters, __db_lock),
  1111.     state_changed = lp_w == NULL;
  1112.     lp_w != NULL;
  1113.     lp_w = next_waiter) {
  1114. had_waiters = 1;
  1115. next_waiter = SH_TAILQ_NEXT(lp_w, links, __db_lock);
  1116. /* Are we switching locks? */
  1117. if (not_waiters && lp_w->mode == DB_LOCK_WAIT)
  1118. continue;
  1119. for (lp_h = SH_TAILQ_FIRST(&obj->holders, __db_lock);
  1120.     lp_h != NULL;
  1121.     lp_h = SH_TAILQ_NEXT(lp_h, links, __db_lock)) {
  1122. if (lp_h->holder != lp_w->holder &&
  1123.     CONFLICTS(lt, region, lp_h->mode, lp_w->mode)) {
  1124. LOCKER_LOCK(lt, region, lp_w->holder, locker_ndx);
  1125. if ((__lock_getlocker(lt, lp_w->holder,
  1126.     locker_ndx, 0, &sh_locker)) != 0) {
  1127. DB_ASSERT(0);
  1128. break;
  1129. }
  1130. if (!__lock_is_parent(lt,
  1131.     lp_h->holder, sh_locker))
  1132. break;
  1133. }
  1134. }
  1135. if (lp_h != NULL) /* Found a conflict. */
  1136. break;
  1137. /* No conflict, promote the waiting lock. */
  1138. SH_TAILQ_REMOVE(&obj->waiters, lp_w, links, __db_lock);
  1139. lp_w->status = DB_LSTAT_PENDING;
  1140. SH_TAILQ_INSERT_TAIL(&obj->holders, lp_w, links);
  1141. /* Wake up waiter. */
  1142. MUTEX_UNLOCK(lt->dbenv, &lp_w->mutex);
  1143. state_changed = 1;
  1144. }
  1145. /*
  1146.  * If this object had waiters and doesn't any more, then we need
  1147.  * to remove it from the dd_obj list.
  1148.  */
  1149. if (had_waiters && SH_TAILQ_FIRST(&obj->waiters, __db_lock) == NULL)
  1150. SH_TAILQ_REMOVE(&region->dd_objs, obj, dd_links, __db_lockobj);
  1151. return (state_changed);
  1152. }
  1153. /*
  1154.  * __lock_remove_waiter --
  1155.  * Any lock on the waitlist has a process waiting for it.  Therefore,
  1156.  * we can't return the lock to the freelist immediately.  Instead, we can
  1157.  * remove the lock from the list of waiters, set the status field of the
  1158.  * lock, and then let the process waking up return the lock to the
  1159.  * free list.
  1160.  *
  1161.  * This must be called with the Object bucket locked.
  1162.  */
  1163. static void
  1164. __lock_remove_waiter(dbenv, sh_obj, lockp, status)
  1165. DB_ENV *dbenv;
  1166. DB_LOCKOBJ *sh_obj;
  1167. struct __db_lock *lockp;
  1168. db_status_t status;
  1169. {
  1170. int do_wakeup;
  1171. do_wakeup = lockp->status == DB_LSTAT_WAITING;
  1172. SH_TAILQ_REMOVE(&sh_obj->waiters, lockp, links, __db_lock);
  1173. lockp->links.stqe_prev = -1;
  1174. lockp->status = status;
  1175. /*
  1176.  * Wake whoever is waiting on this lock.
  1177.  *
  1178.  * The MUTEX_UNLOCK macro normally resolves to a single argument,
  1179.  * keep the compiler quiet.
  1180.  */
  1181. if (do_wakeup)
  1182. MUTEX_UNLOCK(dbenv, &lockp->mutex);
  1183. }
  1184. /*
  1185.  * __lock_printlock --
  1186.  *
  1187.  * PUBLIC: void __lock_printlock __P((DB_LOCKTAB *, struct __db_lock *, int));
  1188.  */
  1189. void
  1190. __lock_printlock(lt, lp, ispgno)
  1191. DB_LOCKTAB *lt;
  1192. struct __db_lock *lp;
  1193. int ispgno;
  1194. {
  1195. DB_LOCKOBJ *lockobj;
  1196. db_pgno_t pgno;
  1197. u_int32_t *fidp;
  1198. u_int8_t *ptr, type;
  1199. const char *mode, *status;
  1200. switch (lp->mode) {
  1201. case DB_LOCK_IREAD:
  1202. mode = "IREAD";
  1203. break;
  1204. case DB_LOCK_IWR:
  1205. mode = "IWR";
  1206. break;
  1207. case DB_LOCK_IWRITE:
  1208. mode = "IWRITE";
  1209. break;
  1210. case DB_LOCK_NG:
  1211. mode = "NG";
  1212. break;
  1213. case DB_LOCK_READ:
  1214. mode = "READ";
  1215. break;
  1216. case DB_LOCK_WRITE:
  1217. mode = "WRITE";
  1218. break;
  1219. case DB_LOCK_WAIT:
  1220. mode = "WAIT";
  1221. break;
  1222. default:
  1223. mode = "UNKNOWN";
  1224. break;
  1225. }
  1226. switch (lp->status) {
  1227. case DB_LSTAT_ABORTED:
  1228. status = "ABORT";
  1229. break;
  1230. case DB_LSTAT_ERR:
  1231. status = "ERROR";
  1232. break;
  1233. case DB_LSTAT_FREE:
  1234. status = "FREE";
  1235. break;
  1236. case DB_LSTAT_HELD:
  1237. status = "HELD";
  1238. break;
  1239. case DB_LSTAT_NOGRANT:
  1240. status = "NONE";
  1241. break;
  1242. case DB_LSTAT_WAITING:
  1243. status = "WAIT";
  1244. break;
  1245. case DB_LSTAT_PENDING:
  1246. status = "PENDING";
  1247. break;
  1248. default:
  1249. status = "UNKNOWN";
  1250. break;
  1251. }
  1252. printf("t%lxt%st%lut%st",
  1253.     (u_long)lp->holder, mode, (u_long)lp->refcount, status);
  1254. lockobj = (DB_LOCKOBJ *)((u_int8_t *)lp + lp->obj);
  1255. ptr = SH_DBT_PTR(&lockobj->lockobj);
  1256. if (ispgno && lockobj->lockobj.size == sizeof(struct __db_ilock)) {
  1257. /* Assume this is a DBT lock. */
  1258. memcpy(&pgno, ptr, sizeof(db_pgno_t));
  1259. fidp = (u_int32_t *)(ptr + sizeof(db_pgno_t));
  1260. type = *(u_int8_t *)(ptr + sizeof(db_pgno_t) + DB_FILE_ID_LEN);
  1261. printf("%s  %lu (%lu %lu %lu %lu %lu)n",
  1262. type == DB_PAGE_LOCK ? "page" : "record",
  1263. (u_long)pgno,
  1264. (u_long)fidp[0], (u_long)fidp[1], (u_long)fidp[2],
  1265. (u_long)fidp[3], (u_long)fidp[4]);
  1266. } else {
  1267. printf("0x%lx ", (u_long)R_OFFSET(&lt->reginfo, lockobj));
  1268. __db_pr(ptr, lockobj->lockobj.size);
  1269. printf("n");
  1270. }
  1271. }