lock0lock.c
上传用户:tsgydb
上传日期:2007-04-14
资源大小:10674k
文件大小:102k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. /******************************************************
  2. The transaction lock system
  3. (c) 1996 Innobase Oy
  4. Created 5/7/1996 Heikki Tuuri
  5. *******************************************************/
  6. #include "lock0lock.h"
  7. #ifdef UNIV_NONINL
  8. #include "lock0lock.ic"
  9. #endif
  10. #include "usr0sess.h"
  11. /* When releasing transaction locks, this specifies how often we release
  12. the kernel mutex for a moment to give also others access to it */
  13. #define LOCK_RELEASE_KERNEL_INTERVAL 1000
  14. /* Safety margin when creating a new record lock: this many extra records
  15. can be inserted to the page without need to create a lock with a bigger
  16. bitmap */
  17. #define LOCK_PAGE_BITMAP_MARGIN 64
  18. /* An explicit record lock affects both the record and the gap before it.
  19. An implicit x-lock does not affect the gap, it only locks the index
  20. record from read or update. 
  21. If a transaction has modified or inserted an index record, then
  22. it owns an implicit x-lock on the record. On a secondary index record,
  23. a transaction has an implicit x-lock also if it has modified the
  24. clustered index record, the max trx id of the page where the secondary
  25. index record resides is >= trx id of the transaction (or database recovery
  26. is running), and there are no explicit non-gap lock requests on the
  27. secondary index record.
  28. This complicated definition for a secondary index comes from the
  29. implementation: we want to be able to determine if a secondary index
  30. record has an implicit x-lock, just by looking at the present clustered
  31. index record, not at the historical versions of the record. The
  32. complicated definition can be explained to the user so that there is
  33. nondeterminism in the access path when a query is answered: we may,
  34. or may not, access the clustered index record and thus may, or may not,
  35. bump into an x-lock set there.
  36. Different transaction can have conflicting locks set on the gap at the
  37. same time. The locks on the gap are purely inhibitive: an insert cannot
  38. be made, or a select cursor may have to wait, if a different transaction
  39. has a conflicting lock on the gap. An x-lock on the gap does not give
  40. the right to insert into the gap if there are conflicting locks granted
  41. on the gap at the same time.
  42. An explicit lock can be placed on a user record or the supremum record of
  43. a page. The locks on the supremum record are always thought to be of the gap
  44. type, though the gap bit is not set. When we perform an update of a record
  45. where the size of the record changes, we may temporarily store its explicit
  46. locks on the infimum record of the page, though the infimum otherwise never
  47. carries locks.
  48. A waiting record lock can also be of the gap type. A waiting lock request
  49. can be granted when there is no conflicting mode lock request by another
  50. transaction ahead of it in the explicit lock queue.
  51. -------------------------------------------------------------------------
  52. RULE 1: If there is an implicit x-lock on a record, and there are non-gap
  53. -------
  54. lock requests waiting in the queue, then the transaction holding the implicit
  55. x-lock also has an explicit non-gap record x-lock. Therefore, as locks are
  56. released, we can grant locks to waiting lock requests purely by looking at
  57. the explicit lock requests in the queue.
  58. RULE 2: Granted non-gap locks on a record are always ahead in the queue
  59. -------
  60. of waiting non-gap locks on a record.
  61. RULE 3: Different transactions cannot have conflicting granted non-gap locks
  62. -------
  63. on a record at the same time. However, they can have conflicting granted gap
  64. locks.
  65. RULE 4: If a there is a waiting lock request in a queue, no lock request,
  66. -------
  67. gap or not, can be inserted ahead of it in the queue. In record deletes
  68. and page splits, new gap type locks can be created by the database manager
  69. for a transaction, and without rule 4, the waits-for graph of transactions
  70. might become cyclic without the database noticing it, as the deadlock check
  71. is only performed when a transaction itself requests a lock!
  72. -------------------------------------------------------------------------
  73. An insert is allowed to a gap if there are no explicit lock requests by
  74. other transactions on the next record. It does not matter if these lock
  75. requests are granted or waiting, gap bit set or not. On the other hand, an
  76. implicit x-lock by another transaction does not prevent an insert, which
  77. allows for more concurrency when using an Oracle-style sequence number
  78. generator for the primary key with many transactions doing inserts
  79. concurrently.
  80. A modify of a record is allowed if the transaction has an x-lock on the
  81. record, or if other transactions do not have any non-gap lock requests on the
  82. record.
  83. A read of a single user record with a cursor is allowed if the transaction
  84. has a non-gap explicit, or an implicit lock on the record, or if the other
  85. transactions have no x-lock requests on the record. At a page supremum a
  86. read is always allowed.
  87. In summary, an implicit lock is seen as a granted x-lock only on the
  88. record, not on the gap. An explicit lock with no gap bit set is a lock
  89. both on the record and the gap. If the gap bit is set, the lock is only
  90. on the gap. Different transaction cannot own conflicting locks on the
  91. record at the same time, but they may own conflicting locks on the gap.
  92. Granted locks on a record give an access right to the record, but gap type
  93. locks just inhibit operations.
  94. NOTE: Finding out if some transaction has an implicit x-lock on a secondary
  95. index record can be cumbersome. We may have to look at previous versions of
  96. the corresponding clustered index record to find out if a delete marked
  97. secondary index record was delete marked by an active transaction, not by
  98. a committed one.
  99. FACT A: If a transaction has inserted a row, it can delete it any time
  100. without need to wait for locks.
  101. PROOF: The transaction has an implicit x-lock on every index record inserted
  102. for the row, and can thus modify each record without the need to wait. Q.E.D.
  103. FACT B: If a transaction has read some result set with a cursor, it can read
  104. it again, and retrieves the same result set, if it has not modified the
  105. result set in the meantime. Hence, there is no phantom problem. If the
  106. biggest record, in the alphabetical order, touched by the cursor is removed,
  107. a lock wait may occur, otherwise not.
  108. PROOF: When a read cursor proceeds, it sets an s-lock on each user record
  109. it passes, and a gap type s-lock on each page supremum. The cursor must
  110. wait until it has these locks granted. Then no other transaction can
  111. have a granted x-lock on any of the user records, and therefore cannot
  112. modify the user records. Neither can any other transaction insert into
  113. the gaps which were passed over by the cursor. Page splits and merges,
  114. and removal of obsolete versions of records do not affect this, because
  115. when a user record or a page supremum is removed, the next record inherits
  116. its locks as gap type locks, and therefore blocks inserts to the same gap.
  117. Also, if a page supremum is inserted, it inherits its locks from the successor
  118. record. When the cursor is positioned again at the start of the result set,
  119. the records it will touch on its course are either records it touched
  120. during the last pass or new inserted page supremums. It can immediately
  121. access all these records, and when it arrives at the biggest record, it
  122. notices that the result set is complete. If the biggest record was removed,
  123. lock wait can occur because the next record only inherits a gap type lock,
  124. and a wait may be needed. Q.E.D. */
  125. /* If an index record should be changed or a new inserted, we must check
  126. the lock on the record or the next. When a read cursor starts reading,
  127. we will set a record level s-lock on each record it passes, except on the
  128. initial record on which the cursor is positioned before we start to fetch
  129. records. Our index tree search has the convention that the B-tree
  130. cursor is positioned BEFORE the first possibly matching record in
  131. the search. Optimizations are possible here: if the record is searched
  132. on an equality condition to a unique key, we could actually set a special
  133. lock on the record, a lock which would not prevent any insert before
  134. this record. In the next key locking an x-lock set on a record also
  135. prevents inserts just before that record.
  136. There are special infimum and supremum records on each page.
  137. A supremum record can be locked by a read cursor. This records cannot be
  138. updated but the lock prevents insert of a user record to the end of
  139. the page.
  140. Next key locks will prevent the phantom problem where new rows
  141. could appear to SELECT result sets after the select operation has been
  142. performed. Prevention of phantoms ensures the serilizability of
  143. transactions.
  144. What should we check if an insert of a new record is wanted?
  145. Only the lock on the next record on the same page, because also the
  146. supremum record can carry a lock. An s-lock prevents insertion, but
  147. what about an x-lock? If it was set by a searched update, then there
  148. is implicitly an s-lock, too, and the insert should be prevented.
  149. What if our transaction owns an x-lock to the next record, but there is
  150. a waiting s-lock request on the next record? If this s-lock was placed
  151. by a read cursor moving in the ascending order in the index, we cannot
  152. do the insert immediately, because when we finally commit our transaction,
  153. the read cursor should see also the new inserted record. So we should
  154. move the read cursor backward from the the next record for it to pass over
  155. the new inserted record. This move backward may be too cumbersome to
  156. implement. If we in this situation just enqueue a second x-lock request
  157. for our transaction on the next record, then the deadlock mechanism
  158. notices a deadlock between our transaction and the s-lock request
  159. transaction. This seems to be an ok solution.
  160. We could have the convention that granted explicit record locks,
  161. lock the corresponding records from changing, and also lock the gaps
  162. before them from inserting. A waiting explicit lock request locks the gap
  163. before from inserting. Implicit record x-locks, which we derive from the
  164. transaction id in the clustered index record, only lock the record itself
  165. from modification, not the gap before it from inserting.
  166. How should we store update locks? If the search is done by a unique
  167. key, we could just modify the record trx id. Otherwise, we could put a record
  168. x-lock on the record. If the update changes ordering fields of the
  169. clustered index record, the inserted new record needs no record lock in
  170. lock table, the trx id is enough. The same holds for a secondary index
  171. record. Searched delete is similar to update.
  172. PROBLEM:
  173. What about waiting lock requests? If a transaction is waiting to make an
  174. update to a record which another modified, how does the other transaction
  175. know to send the end-lock-wait signal to the waiting transaction? If we have
  176. the convention that a transaction may wait for just one lock at a time, how
  177. do we preserve it if lock wait ends?
  178. PROBLEM:
  179. Checking the trx id label of a secondary index record. In the case of a
  180. modification, not an insert, is this necessary? A secondary index record
  181. is modified only by setting or resetting its deleted flag. A secondary index
  182. record contains fields to uniquely determine the corresponding clustered
  183. index record. A secondary index record is therefore only modified if we
  184. also modify the clustered index record, and the trx id checking is done
  185. on the clustered index record, before we come to modify the secondary index
  186. record. So, in the case of delete marking or unmarking a secondary index
  187. record, we do not have to care about trx ids, only the locks in the lock
  188. table must be checked. In the case of a select from a secondary index, the
  189. trx id is relevant, and in this case we may have to search the clustered
  190. index record.
  191. PROBLEM: How to update record locks when page is split or merged, or
  192. --------------------------------------------------------------------
  193. a record is deleted or updated?
  194. If the size of fields in a record changes, we perform the update by
  195. a delete followed by an insert. How can we retain the locks set or
  196. waiting on the record? Because a record lock is indexed in the bitmap
  197. by the heap number of the record, when we remove the record from the
  198. record list, it is possible still to keep the lock bits. If the page
  199. is reorganized, we could make a table of old and new heap numbers,
  200. and permute the bitmaps in the locks accordingly. We can add to the
  201. table a row telling where the updated record ended. If the update does
  202. not require a reorganization of the page, we can simply move the lock
  203. bits for the updated record to the position determined by its new heap
  204. number (we may have to allocate a new lock, if we run out of the bitmap
  205. in the old one).
  206. A more complicated case is the one where the reinsertion of the
  207. updated record is done pessimistically, because the structure of the
  208. tree may change.
  209. PROBLEM: If a supremum record is removed in a page merge, or a record
  210. ---------------------------------------------------------------------
  211. removed in a purge, what to do to the waiting lock requests? In a split to
  212. the right, we just move the lock requests to the new supremum. If a record
  213. is removed, we could move the waiting lock request to its inheritor, the
  214. next record in the index. But, the next record may already have lock
  215. requests on its own queue. A new deadlock check should be made then. Maybe
  216. it is easier just to release the waiting transactions. They can then enqueue
  217. new lock requests on appropriate records.
  218. PROBLEM: When a record is inserted, what locks should it inherit from the
  219. -------------------------------------------------------------------------
  220. upper neighbor? An insert of a new supremum record in a page split is
  221. always possible, but an insert of a new user record requires that the upper
  222. neighbor does not have any lock requests by other transactions, granted or
  223. waiting, in its lock queue. Solution: We can copy the locks as gap type
  224. locks, so that also the waiting locks are transformed to granted gap type
  225. locks on the inserted record. */
  226. ibool lock_print_waits = FALSE;
  227. /* The lock system */
  228. lock_sys_t* lock_sys = NULL;
  229. /* A table lock */
  230. typedef struct lock_table_struct lock_table_t;
  231. struct lock_table_struct{
  232. dict_table_t* table; /* database table in dictionary cache */
  233. UT_LIST_NODE_T(lock_t)
  234. locks;  /* list of locks on the same table */
  235. };
  236. /* Record lock for a page */
  237. typedef struct lock_rec_struct lock_rec_t;
  238. struct lock_rec_struct{
  239. ulint space; /* space id */
  240. ulint page_no; /* page number */
  241. ulint n_bits; /* number of bits in the lock bitmap */
  242. /* NOTE: the lock bitmap is placed immediately
  243. after the lock struct */
  244. };
  245. /* Lock struct */
  246. struct lock_struct{
  247. trx_t* trx; /* transaction owning the lock */
  248. UT_LIST_NODE_T(lock_t)
  249. trx_locks; /* list of the locks of the
  250. transaction */
  251. ulint type_mode; /* lock type, mode, gap flag, and
  252. wait flag, ORed */
  253. hash_node_t hash; /* hash chain node for a record lock */
  254. dict_index_t* index; /* index for a record lock */
  255. union {
  256. lock_table_t tab_lock;/* table lock */
  257. lock_rec_t rec_lock;/* record lock */
  258. } un_member;
  259. };
  260. /************************************************************************
  261. Checks if a lock request results in a deadlock. */
  262. static
  263. ibool
  264. lock_deadlock_occurs(
  265. /*=================*/
  266. /* out: TRUE if a deadlock was detected */
  267. lock_t* lock, /* in: lock the transaction is requesting */
  268. trx_t* trx); /* in: transaction */
  269. /************************************************************************
  270. Looks recursively for a deadlock. */
  271. static
  272. ibool
  273. lock_deadlock_recursive(
  274. /*====================*/
  275. /* out: TRUE if a deadlock was detected */
  276. trx_t* start, /* in: recursion starting point */
  277. trx_t* trx, /* in: a transaction waiting for a lock */
  278. lock_t* wait_lock); /* in: the lock trx is waiting to be granted */
  279. /*************************************************************************
  280. Reserves the kernel mutex. This function is used in this module to allow
  281. monitoring the contention degree on the kernel mutex caused by the lock
  282. operations. */
  283. UNIV_INLINE
  284. void
  285. lock_mutex_enter_kernel(void)
  286. /*=========================*/
  287. {
  288. mutex_enter(&kernel_mutex);
  289. }
  290. /*************************************************************************
  291. Releses the kernel mutex. This function is used in this module to allow
  292. monitoring the contention degree on the kernel mutex caused by the lock
  293. operations. */
  294. UNIV_INLINE
  295. void
  296. lock_mutex_exit_kernel(void)
  297. /*=========================*/
  298. {
  299. mutex_exit(&kernel_mutex);
  300. }
  301. #ifdef notdefined
  302. /*************************************************************************
  303. Gets the mutex protecting record locks for a page in the buffer pool. */
  304. UNIV_INLINE
  305. mutex_t*
  306. lock_rec_get_mutex(
  307. /*===============*/
  308. byte* ptr) /* in: pointer to somewhere within a buffer frame */
  309. {
  310. return(buf_frame_get_lock_mutex(ptr));
  311. }
  312. /*************************************************************************
  313. Reserves the mutex protecting record locks for a page in the buffer pool. */
  314. UNIV_INLINE
  315. void
  316. lock_rec_mutex_enter(
  317. /*=================*/
  318. byte* ptr) /* in: pointer to somewhere within a buffer frame */
  319. {
  320. mutex_enter(lock_rec_get_mutex(ptr));
  321. }
  322. /*************************************************************************
  323. Releases the mutex protecting record locks for a page in the buffer pool. */
  324. UNIV_INLINE
  325. void
  326. lock_rec_mutex_exit(
  327. /*================*/
  328. byte* ptr) /* in: pointer to somewhere within a buffer frame */
  329. {
  330. mutex_exit(lock_rec_get_mutex(ptr));
  331. }
  332. /*************************************************************************
  333. Checks if the caller owns the mutex to record locks of a page. Works only in
  334. the debug version. */
  335. UNIV_INLINE
  336. ibool
  337. lock_rec_mutex_own(
  338. /*===============*/
  339. /* out: TRUE if the current OS thread has reserved the
  340. mutex */
  341. byte* ptr) /* in: pointer to somewhere within a buffer frame */
  342. {
  343. return(mutex_own(lock_rec_get_mutex(ptr)));
  344. }
  345. /*************************************************************************
  346. Gets the mutex protecting record locks on a given page address. */
  347. mutex_t*
  348. lock_rec_get_mutex_for_addr(
  349. /*========================*/
  350. ulint space, /* in: space id */
  351. ulint page_no)/* in: page number */
  352. {
  353. return(hash_get_mutex(lock_sys->rec_hash,
  354. lock_rec_fold(space, page_no)));
  355. }
  356. /*************************************************************************
  357. Checks if the caller owns the mutex to record locks of a page. Works only in
  358. the debug version. */
  359. UNIV_INLINE
  360. ibool
  361. lock_rec_mutex_own_addr(
  362. /*====================*/
  363. ulint space, /* in: space id */
  364. ulint page_no)/* in: page number */
  365. {
  366. return(mutex_own(lock_rec_get_mutex_for_addr(space, page_no)));
  367. }
  368. /*************************************************************************
  369. Reserves all the mutexes protecting record locks. */
  370. UNIV_INLINE
  371. void
  372. lock_rec_mutex_enter_all(void)
  373. /*==========================*/
  374. {
  375. hash_table_t*  table; 
  376. ulint n_mutexes;
  377. ulint i;
  378. table = lock_sys->rec_hash;
  379. n_mutexes = table->n_mutexes;
  380. for (i = 0; i < n_mutexes; i++) {
  381. mutex_enter(hash_get_nth_mutex(table, i));
  382. }
  383. }
  384. /*************************************************************************
  385. Releases all the mutexes protecting record locks. */
  386. UNIV_INLINE
  387. void
  388. lock_rec_mutex_exit_all(void)
  389. /*=========================*/
  390. {
  391. hash_table_t*  table; 
  392. ulint n_mutexes;
  393. ulint i;
  394. table = lock_sys->rec_hash;
  395. n_mutexes = table->n_mutexes;
  396. for (i = 0; i < n_mutexes; i++) {
  397. mutex_exit(hash_get_nth_mutex(table, i));
  398. }
  399. }
  400. /*************************************************************************
  401. Checks that the current OS thread owns all the mutexes protecting record
  402. locks. */
  403. UNIV_INLINE
  404. ibool
  405. lock_rec_mutex_own_all(void)
  406. /*========================*/
  407. /* out: TRUE if owns all */
  408. {
  409. hash_table_t*  table; 
  410. ulint n_mutexes;
  411. ibool owns_yes = TRUE;
  412. ulint i;
  413. table = lock_sys->rec_hash;
  414. n_mutexes = table->n_mutexes;
  415. for (i = 0; i < n_mutexes; i++) {
  416. if (!mutex_own(hash_get_nth_mutex(table, i))) {
  417. owns_yes = FALSE;
  418. }
  419. }
  420. return(owns_yes);
  421. }
  422. #endif
  423. /*************************************************************************
  424. Checks that a record is seen in a consistent read. */
  425. ibool
  426. lock_clust_rec_cons_read_sees(
  427. /*==========================*/
  428. /* out: TRUE if sees, or FALSE if an earlier
  429. version of the record should be retrieved */
  430. rec_t* rec, /* in: user record which should be read or
  431. passed over by a read cursor */
  432. dict_index_t* index, /* in: clustered index */
  433. read_view_t* view) /* in: consistent read view */
  434. {
  435. dulint trx_id;
  436. ut_ad(index->type & DICT_CLUSTERED);
  437. ut_ad(page_rec_is_user_rec(rec));
  438. trx_id = row_get_rec_trx_id(rec, index);
  439. if (read_view_sees_trx_id(view, trx_id)) {
  440. return(TRUE);
  441. }
  442. return(FALSE);
  443. }
  444. /*************************************************************************
  445. Checks that a non-clustered index record is seen in a consistent read. */
  446. ulint
  447. lock_sec_rec_cons_read_sees(
  448. /*========================*/
  449. /* out: TRUE if certainly sees, or FALSE if an
  450. earlier version of the clustered index record
  451. might be needed: NOTE that a non-clustered
  452. index page contains so little information on
  453. its modifications that also in the case FALSE,
  454. the present version of rec may be the right,
  455. but we must check this from the clustered
  456. index record */
  457. rec_t* rec, /* in: user record which should be read or
  458. passed over by a read cursor */
  459. dict_index_t* index, /* in: non-clustered index */
  460. read_view_t* view) /* in: consistent read view */
  461. {
  462. dulint max_trx_id;
  463. ut_ad(!(index->type & DICT_CLUSTERED));
  464. ut_ad(page_rec_is_user_rec(rec));
  465. if (recv_recovery_is_on()) {
  466. return(FALSE);
  467. }
  468. max_trx_id = page_get_max_trx_id(buf_frame_align(rec));
  469. if (ut_dulint_cmp(max_trx_id, view->up_limit_id) >= 0) {
  470. return(FALSE);
  471. }
  472. return(TRUE);
  473. }
  474. /*************************************************************************
  475. Creates the lock system at database start. */
  476. void
  477. lock_sys_create(
  478. /*============*/
  479. ulint n_cells) /* in: number of slots in lock hash table */
  480. {
  481. lock_sys = mem_alloc(sizeof(lock_sys_t));
  482. lock_sys->rec_hash = hash_create(n_cells);
  483. /* hash_create_mutexes(lock_sys->rec_hash, 2, SYNC_REC_LOCK); */
  484. }
  485. /*************************************************************************
  486. Gets the mode of a lock. */
  487. UNIV_INLINE
  488. ulint
  489. lock_get_mode(
  490. /*==========*/
  491. /* out: mode */
  492. lock_t* lock) /* in: lock */
  493. {
  494. ut_ad(lock);
  495. return(lock->type_mode & LOCK_MODE_MASK);
  496. }
  497. /*************************************************************************
  498. Gets the type of a lock. */
  499. UNIV_INLINE
  500. ulint
  501. lock_get_type(
  502. /*==========*/
  503. /* out: LOCK_TABLE or LOCK_RECa */
  504. lock_t* lock) /* in: lock */
  505. {
  506. ut_ad(lock);
  507. return(lock->type_mode & LOCK_TYPE_MASK);
  508. }
  509. /*************************************************************************
  510. Gets the wait flag of a lock. */
  511. UNIV_INLINE
  512. ibool
  513. lock_get_wait(
  514. /*==========*/
  515. /* out: TRUE if waiting */
  516. lock_t* lock) /* in: lock */
  517. {
  518. ut_ad(lock);
  519. if (lock->type_mode & LOCK_WAIT) {
  520. return(TRUE);
  521. }
  522. return(FALSE);
  523. }
  524. /*************************************************************************
  525. Sets the wait flag of a lock and the back pointer in trx to lock. */
  526. UNIV_INLINE
  527. void
  528. lock_set_lock_and_trx_wait(
  529. /*=======================*/
  530. lock_t* lock, /* in: lock */
  531. trx_t* trx) /* in: trx */
  532. {
  533. ut_ad(lock);
  534. ut_ad(trx->wait_lock == NULL);
  535. trx->wait_lock = lock;
  536.   lock->type_mode = lock->type_mode | LOCK_WAIT;
  537. }
  538. /**************************************************************************
  539. The back pointer to a waiting lock request in the transaction is set to NULL
  540. and the wait bit in lock type_mode is reset. */
  541. UNIV_INLINE
  542. void
  543. lock_reset_lock_and_trx_wait(
  544. /*=========================*/
  545. lock_t* lock) /* in: record lock */
  546. {
  547. ut_ad((lock->trx)->wait_lock == lock);
  548. ut_ad(lock_get_wait(lock));
  549. /* Reset the back pointer in trx to this waiting lock request */
  550. (lock->trx)->wait_lock = NULL;
  551.   lock->type_mode = lock->type_mode & ~LOCK_WAIT;
  552. }
  553. /*************************************************************************
  554. Gets the gap flag of a record lock. */
  555. UNIV_INLINE
  556. ibool
  557. lock_rec_get_gap(
  558. /*=============*/
  559. /* out: TRUE if gap flag set */
  560. lock_t* lock) /* in: record lock */
  561. {
  562. ut_ad(lock);
  563. ut_ad(lock_get_type(lock) == LOCK_REC);
  564. if (lock->type_mode & LOCK_GAP) {
  565. return(TRUE);
  566. }
  567. return(FALSE);
  568. }
  569. /*************************************************************************
  570. Sets the gap flag of a record lock. */
  571. UNIV_INLINE
  572. void
  573. lock_rec_set_gap(
  574. /*=============*/
  575. lock_t* lock, /* in: record lock */
  576. ibool val) /* in: value to set: TRUE or FALSE */
  577. {
  578. ut_ad(lock);
  579. ut_ad((val == TRUE) || (val == FALSE));
  580. ut_ad(lock_get_type(lock) == LOCK_REC);
  581. if (val) {
  582.   lock->type_mode = lock->type_mode | LOCK_GAP;
  583. } else {
  584. lock->type_mode = lock->type_mode & ~LOCK_GAP;
  585. }
  586. }
  587. /*************************************************************************
  588. Calculates if lock mode 1 is stronger or equal to lock mode 2. */
  589. UNIV_INLINE
  590. ibool
  591. lock_mode_stronger_or_eq(
  592. /*=====================*/
  593. /* out: TRUE if mode1 stronger or equal to mode2 */
  594. ulint mode1, /* in: lock mode */
  595. ulint mode2) /* in: lock mode */
  596. {
  597. ut_ad((mode1 == LOCK_X) || (mode1 == LOCK_S) || (mode1 == LOCK_IX)
  598. || (mode1 == LOCK_IS));
  599. ut_ad((mode2 == LOCK_X) || (mode2 == LOCK_S) || (mode2 == LOCK_IX)
  600. || (mode2 == LOCK_IS));
  601. if (mode1 == LOCK_X) {
  602. return(TRUE);
  603. } else if ((mode1 == LOCK_S)
  604. && ((mode2 == LOCK_S) || (mode2 == LOCK_IS))) {
  605. return(TRUE);
  606. } else if ((mode1 == LOCK_IS) && (mode2 == LOCK_IS)) {
  607. return(TRUE);
  608. } else if ((mode1 == LOCK_IX) && ((mode2 == LOCK_IX)
  609. || (mode2 == LOCK_IS))) {
  610. return(TRUE);
  611. }
  612. return(FALSE);
  613. }
  614. /*************************************************************************
  615. Calculates if lock mode 1 is compatible with lock mode 2. */
  616. UNIV_INLINE
  617. ibool
  618. lock_mode_compatible(
  619. /*=================*/
  620. /* out: TRUE if mode1 compatible with mode2 */
  621. ulint mode1, /* in: lock mode */
  622. ulint mode2) /* in: lock mode */
  623. {
  624. ut_ad((mode1 == LOCK_X) || (mode1 == LOCK_S) || (mode1 == LOCK_IX)
  625. || (mode1 == LOCK_IS));
  626. ut_ad((mode2 == LOCK_X) || (mode2 == LOCK_S) || (mode2 == LOCK_IX)
  627. || (mode2 == LOCK_IS));
  628. if ((mode1 == LOCK_S) && ((mode2 == LOCK_IS) || (mode2 == LOCK_S))) {
  629. return(TRUE);
  630. } else if (mode1 == LOCK_X) {
  631. return(FALSE);
  632. } else if ((mode1 == LOCK_IS) && ((mode2 == LOCK_IS)
  633.    || (mode2 == LOCK_IX)
  634.    || (mode2 == LOCK_S))) {
  635. return(TRUE);
  636. } else if ((mode1 == LOCK_IX) && ((mode2 == LOCK_IS)
  637.    || (mode2 == LOCK_IX))) {
  638. return(TRUE);
  639. }
  640. return(FALSE);
  641. }
  642. /*************************************************************************
  643. Returns LOCK_X if mode is LOCK_S, and vice versa. */
  644. UNIV_INLINE
  645. ulint
  646. lock_get_confl_mode(
  647. /*================*/
  648. /* out: conflicting basic lock mode */
  649. ulint mode) /* in: LOCK_S or LOCK_X */
  650. {
  651. ut_ad((mode == LOCK_X) || (mode == LOCK_S));
  652. if (mode == LOCK_S) {
  653. return(LOCK_X);
  654. }
  655. return(LOCK_S);
  656. }
  657. /*************************************************************************
  658. Checks if a lock request lock1 has to wait for request lock2. NOTE that we,
  659. for simplicity, ignore the gap bits in locks, and treat gap type lock
  660. requests like non-gap lock requests. */
  661. UNIV_INLINE
  662. ibool
  663. lock_has_to_wait(
  664. /*=============*/
  665. /* out: TRUE if lock1 has to wait lock2 to be removed */
  666. lock_t* lock1, /* in: waiting record lock */
  667. lock_t* lock2) /* in: another lock; NOTE that it is assumed that this
  668. has a lock bit set on the same record as in lock1 */
  669. {
  670. if ((lock1->trx != lock2->trx)
  671. && !lock_mode_compatible(lock_get_mode(lock1),
  672.       lock_get_mode(lock2))) {
  673. return(TRUE);
  674. }
  675. return(FALSE);
  676. }
  677. /*============== RECORD LOCK BASIC FUNCTIONS ============================*/
  678. /*************************************************************************
  679. Gets the number of bits in a record lock bitmap. */
  680. UNIV_INLINE
  681. ulint
  682. lock_rec_get_n_bits(
  683. /*================*/
  684. /* out: number of bits */
  685. lock_t* lock) /* in: record lock */
  686. {
  687. return(lock->un_member.rec_lock.n_bits);
  688. }
  689. /*************************************************************************
  690. Gets the nth bit of a record lock. */
  691. UNIV_INLINE
  692. ibool
  693. lock_rec_get_nth_bit(
  694. /*=================*/
  695. /* out: TRUE if bit set */
  696. lock_t* lock, /* in: record lock */
  697. ulint i) /* in: index of the bit */
  698. {
  699. ulint byte_index;
  700. ulint bit_index;
  701. ulint b;
  702. ut_ad(lock);
  703. ut_ad(lock_get_type(lock) == LOCK_REC);
  704. if (i >= lock->un_member.rec_lock.n_bits) {
  705. return(FALSE);
  706. }
  707. byte_index = i / 8;
  708. bit_index = i % 8;
  709. b = (ulint)*((byte*)lock + sizeof(lock_t) + byte_index);
  710. return(ut_bit_get_nth(b, bit_index));
  711. }
  712. /**************************************************************************
  713. Sets the nth bit of a record lock to TRUE. */
  714. UNIV_INLINE
  715. void
  716. lock_rec_set_nth_bit(
  717. /*==================*/
  718. lock_t* lock, /* in: record lock */
  719. ulint i) /* in: index of the bit */
  720. {
  721. ulint byte_index;
  722. ulint bit_index;
  723. byte* ptr;
  724. ulint b;
  725. ut_ad(lock);
  726. ut_ad(lock_get_type(lock) == LOCK_REC);
  727. ut_ad(i < lock->un_member.rec_lock.n_bits);
  728. byte_index = i / 8;
  729. bit_index = i % 8;
  730. ptr = (byte*)lock + sizeof(lock_t) + byte_index;
  731. b = (ulint)*ptr;
  732. b = ut_bit_set_nth(b, bit_index, TRUE);
  733. *ptr = (byte)b;
  734. }
  735. /**************************************************************************
  736. Looks for a set bit in a record lock bitmap. Returns ULINT_UNDEFINED,
  737. if none found. */
  738. static
  739. ulint
  740. lock_rec_find_set_bit(
  741. /*==================*/
  742. /* out: bit index == heap number of the record, or
  743. ULINT_UNDEFINED if none found */
  744. lock_t* lock) /* in: record lock with at least one bit set */
  745. {
  746. ulint i;
  747. for (i = 0; i < lock_rec_get_n_bits(lock); i++) {
  748. if (lock_rec_get_nth_bit(lock, i)) {
  749. return(i);
  750. }
  751. }
  752. return(ULINT_UNDEFINED);
  753. }
  754. /**************************************************************************
  755. Resets the nth bit of a record lock. */
  756. UNIV_INLINE
  757. void
  758. lock_rec_reset_nth_bit(
  759. /*===================*/
  760. lock_t* lock, /* in: record lock */
  761. ulint i) /* in: index of the bit which must be set to TRUE
  762. when this function is called */
  763. {
  764. ulint byte_index;
  765. ulint bit_index;
  766. byte* ptr;
  767. ulint b;
  768. ut_ad(lock);
  769. ut_ad(lock_get_type(lock) == LOCK_REC);
  770. ut_ad(i < lock->un_member.rec_lock.n_bits);
  771. byte_index = i / 8;
  772. bit_index = i % 8;
  773. ptr = (byte*)lock + sizeof(lock_t) + byte_index;
  774. b = (ulint)*ptr;
  775. b = ut_bit_set_nth(b, bit_index, FALSE);
  776. *ptr = (byte)b;
  777. }
  778. /*************************************************************************
  779. Gets the first or next record lock on a page. */
  780. UNIV_INLINE
  781. lock_t*
  782. lock_rec_get_next_on_page(
  783. /*======================*/
  784. /* out: next lock, NULL if none exists */
  785. lock_t* lock) /* in: a record lock */
  786. {
  787. ulint space;
  788. ulint page_no;
  789. ut_ad(mutex_own(&kernel_mutex));
  790. space = lock->un_member.rec_lock.space;
  791. page_no = lock->un_member.rec_lock.page_no;
  792. for (;;) {
  793. lock = HASH_GET_NEXT(hash, lock);
  794. if (!lock) {
  795. break;
  796. }
  797. if ((lock->un_member.rec_lock.space == space) 
  798.          && (lock->un_member.rec_lock.page_no == page_no)) {
  799. break;
  800. }
  801. }
  802. return(lock);
  803. }
  804. /*************************************************************************
  805. Gets the first record lock on a page, where the page is identified by its
  806. file address. */
  807. UNIV_INLINE
  808. lock_t*
  809. lock_rec_get_first_on_page_addr(
  810. /*============================*/
  811. /* out: first lock, NULL if none exists */
  812. ulint space, /* in: space */
  813. ulint page_no)/* in: page number */
  814. {
  815. lock_t* lock;
  816. ut_ad(mutex_own(&kernel_mutex));
  817. lock = HASH_GET_FIRST(lock_sys->rec_hash,
  818. lock_rec_hash(space, page_no));
  819. while (lock) {
  820. if ((lock->un_member.rec_lock.space == space) 
  821.          && (lock->un_member.rec_lock.page_no == page_no)) {
  822. break;
  823. }
  824. lock = HASH_GET_NEXT(hash, lock);
  825. }
  826. return(lock);
  827. }
  828. /*************************************************************************
  829. Returns TRUE if there are explicit record locks on a page. */
  830. ibool
  831. lock_rec_expl_exist_on_page(
  832. /*========================*/
  833. /* out: TRUE if there are explicit record locks on
  834. the page */
  835. ulint space, /* in: space id */
  836. ulint page_no)/* in: page number */
  837. {
  838. ibool ret;
  839. mutex_enter(&kernel_mutex);
  840. if (lock_rec_get_first_on_page_addr(space, page_no)) {
  841. ret = TRUE;
  842. } else {
  843. ret = FALSE;
  844. }
  845. mutex_exit(&kernel_mutex);
  846. return(ret);
  847. }
  848. /*************************************************************************
  849. Gets the first record lock on a page, where the page is identified by a
  850. pointer to it. */
  851. UNIV_INLINE
  852. lock_t*
  853. lock_rec_get_first_on_page(
  854. /*=======================*/
  855. /* out: first lock, NULL if none exists */
  856. byte* ptr) /* in: pointer to somewhere on the page */
  857. {
  858. ulint hash;
  859. lock_t* lock;
  860. ulint space;
  861. ulint page_no;
  862. ut_ad(mutex_own(&kernel_mutex));
  863. hash = buf_frame_get_lock_hash_val(ptr);
  864. lock = HASH_GET_FIRST(lock_sys->rec_hash, hash);
  865. while (lock) {
  866. space = buf_frame_get_space_id(ptr);
  867. page_no = buf_frame_get_page_no(ptr);
  868. if ((lock->un_member.rec_lock.space == space) 
  869.      && (lock->un_member.rec_lock.page_no == page_no)) {
  870. break;
  871. }
  872. lock = HASH_GET_NEXT(hash, lock);
  873. }
  874. return(lock);
  875. }
  876. /*************************************************************************
  877. Gets the next explicit lock request on a record. */
  878. UNIV_INLINE
  879. lock_t*
  880. lock_rec_get_next(
  881. /*==============*/
  882. /* out: next lock, NULL if none exists */
  883. rec_t* rec, /* in: record on a page */
  884. lock_t* lock) /* in: lock */
  885. {
  886. ut_ad(mutex_own(&kernel_mutex));
  887. for (;;) {
  888. lock = lock_rec_get_next_on_page(lock);
  889. if (lock == NULL) {
  890. return(NULL);
  891. }
  892. if (lock_rec_get_nth_bit(lock, rec_get_heap_no(rec))) {
  893. return(lock);
  894. }
  895. }
  896. }
  897. /*************************************************************************
  898. Gets the first explicit lock request on a record. */
  899. UNIV_INLINE
  900. lock_t*
  901. lock_rec_get_first(
  902. /*===============*/
  903. /* out: first lock, NULL if none exists */
  904. rec_t* rec) /* in: record on a page */
  905. {
  906. lock_t* lock;
  907. ut_ad(mutex_own(&kernel_mutex));
  908. lock = lock_rec_get_first_on_page(rec);
  909. while (lock) {
  910. if (lock_rec_get_nth_bit(lock, rec_get_heap_no(rec))) {
  911. break;
  912. }
  913. lock = lock_rec_get_next_on_page(lock);
  914. }
  915. return(lock);
  916. }
  917. /*************************************************************************
  918. Resets the record lock bitmap to zero. NOTE: does not touch the wait_lock
  919. pointer in the transaction! This function is used in lock object creation
  920. and resetting. */
  921. static
  922. void
  923. lock_rec_bitmap_reset(
  924. /*==================*/
  925. lock_t* lock) /* in: record lock */
  926. {
  927. byte* ptr;
  928. ulint n_bytes;
  929. ulint i;
  930. /* Reset to zero the bitmap which resides immediately after the lock
  931. struct */
  932. ptr = (byte*)lock + sizeof(lock_t);
  933. n_bytes = lock_rec_get_n_bits(lock) / 8;
  934. ut_ad((lock_rec_get_n_bits(lock) % 8) == 0);
  935. for (i = 0; i < n_bytes; i++) {
  936. *ptr = 0;
  937. ptr++;
  938. }
  939. }
  940. /*************************************************************************
  941. Copies a record lock to heap. */
  942. static
  943. lock_t*
  944. lock_rec_copy(
  945. /*==========*/
  946. /* out: copy of lock */
  947. lock_t* lock, /* in: record lock */
  948. mem_heap_t* heap) /* in: memory heap */
  949. {
  950. lock_t* dupl_lock;
  951. ulint size;
  952. size = sizeof(lock_t) + lock_rec_get_n_bits(lock) / 8;
  953. dupl_lock = mem_heap_alloc(heap, size);
  954. ut_memcpy(dupl_lock, lock, size);
  955. return(dupl_lock);
  956. }
  957. /*************************************************************************
  958. Gets the previous record lock set on a record. */
  959. static
  960. lock_t*
  961. lock_rec_get_prev(
  962. /*==============*/
  963. /* out: previous lock on the same record, NULL if
  964. none exists */
  965. lock_t* in_lock,/* in: record lock */
  966. ulint heap_no)/* in: heap number of the record */
  967. {
  968. lock_t* lock;
  969. ulint space;
  970. ulint page_no;
  971. lock_t* found_lock  = NULL;
  972. ut_ad(mutex_own(&kernel_mutex));
  973. ut_ad(lock_get_type(in_lock) == LOCK_REC);
  974. space = in_lock->un_member.rec_lock.space;
  975. page_no = in_lock->un_member.rec_lock.page_no;
  976. lock = lock_rec_get_first_on_page_addr(space, page_no);
  977. for (;;) {
  978. ut_ad(lock);
  979. if (lock == in_lock) {
  980. return(found_lock);
  981. }
  982. if (lock_rec_get_nth_bit(lock, heap_no)) {
  983. found_lock = lock;
  984. }
  985. lock = lock_rec_get_next_on_page(lock);
  986. }
  987. }
  988. /*============= FUNCTIONS FOR ANALYZING TABLE LOCK QUEUE ================*/
  989. /*************************************************************************
  990. Checks if a transaction has the specified table lock, or stronger. */
  991. UNIV_INLINE
  992. lock_t*
  993. lock_table_has(
  994. /*===========*/
  995. /* out: lock or NULL */
  996. trx_t* trx, /* in: transaction */
  997. dict_table_t* table, /* in: table */
  998. ulint mode) /* in: lock mode */
  999. {
  1000. lock_t* lock;
  1001. ut_ad(mutex_own(&kernel_mutex));
  1002. /* Look for stronger locks the same trx already has on the table */
  1003. lock = UT_LIST_GET_LAST(table->locks);
  1004. while (lock != NULL) {
  1005. if ((lock->trx == trx)
  1006.     && (lock_mode_stronger_or_eq(lock_get_mode(lock), mode))) {
  1007. /* The same trx already has locked the table in 
  1008. a mode stronger or equal to the mode given */
  1009. ut_ad(!lock_get_wait(lock)); 
  1010. return(lock);
  1011. }
  1012. lock = UT_LIST_GET_PREV(un_member.tab_lock.locks, lock);
  1013. }
  1014. return(NULL);
  1015. }
  1016. /*============= FUNCTIONS FOR ANALYZING RECORD LOCK QUEUE ================*/
  1017. /*************************************************************************
  1018. Checks if a transaction has a GRANTED explicit non-gap lock on rec, stronger
  1019. or equal to mode. */
  1020. UNIV_INLINE
  1021. lock_t*
  1022. lock_rec_has_expl(
  1023. /*==============*/
  1024. /* out: lock or NULL */
  1025. ulint mode, /* in: lock mode */
  1026. rec_t* rec, /* in: record */
  1027. trx_t* trx) /* in: transaction */
  1028. {
  1029. lock_t* lock;
  1030. ut_ad(mutex_own(&kernel_mutex));
  1031. ut_ad((mode == LOCK_X) || (mode == LOCK_S));
  1032. lock = lock_rec_get_first(rec);
  1033. while (lock) {
  1034. if ((lock->trx == trx)
  1035.     && lock_mode_stronger_or_eq(lock_get_mode(lock), mode)
  1036.     && !lock_get_wait(lock)
  1037.     && !(lock_rec_get_gap(lock)
  1038. || page_rec_is_supremum(rec))) {
  1039.      return(lock);
  1040. }
  1041. lock = lock_rec_get_next(rec, lock);
  1042. }
  1043. return(NULL);
  1044. }
  1045. /*************************************************************************
  1046. Checks if some other transaction has an explicit lock request stronger or
  1047. equal to mode on rec or gap, waiting or granted, in the lock queue. */
  1048. UNIV_INLINE
  1049. lock_t*
  1050. lock_rec_other_has_expl_req(
  1051. /*========================*/
  1052. /* out: lock or NULL */
  1053. ulint mode, /* in: lock mode */
  1054. ulint gap, /* in: LOCK_GAP if also gap locks are taken
  1055. into account, or 0 if not */
  1056. ulint wait, /* in: LOCK_WAIT if also waiting locks are
  1057. taken into account, or 0 if not */
  1058. rec_t* rec, /* in: record to look at */
  1059. trx_t* trx) /* in: transaction, or NULL if requests
  1060. by any transaction are wanted */
  1061. {
  1062. lock_t* lock;
  1063. ut_ad(mutex_own(&kernel_mutex));
  1064. ut_ad((mode == LOCK_X) || (mode == LOCK_S));
  1065. lock = lock_rec_get_first(rec);
  1066. while (lock) {
  1067. if ((lock->trx != trx)
  1068.     && (gap ||
  1069. !(lock_rec_get_gap(lock) || page_rec_is_supremum(rec)))
  1070.     && (wait || !lock_get_wait(lock))
  1071.     && lock_mode_stronger_or_eq(lock_get_mode(lock), mode)) {
  1072.      return(lock);
  1073. }
  1074. lock = lock_rec_get_next(rec, lock);
  1075. }
  1076. return(NULL);
  1077. }
  1078. /*************************************************************************
  1079. Looks for a suitable type record lock struct by the same trx on the same page.
  1080. This can be used to save space when a new record lock should be set on a page:
  1081. no new struct is needed, if a suitable old is found. */
  1082. UNIV_INLINE
  1083. lock_t*
  1084. lock_rec_find_similar_on_page(
  1085. /*==========================*/
  1086. /* out: lock or NULL */
  1087. ulint type_mode, /* in: lock type_mode field */
  1088. rec_t* rec, /* in: record */
  1089. trx_t* trx) /* in: transaction */
  1090. {
  1091. lock_t* lock;
  1092. ulint heap_no;
  1093. ut_ad(mutex_own(&kernel_mutex));
  1094. heap_no = rec_get_heap_no(rec);
  1095. lock = lock_rec_get_first_on_page(rec);
  1096. while (lock != NULL) {
  1097. if ((lock->trx == trx)
  1098.     && (lock->type_mode == type_mode)
  1099.     && (lock_rec_get_n_bits(lock) > heap_no)) {
  1100.     
  1101. return(lock);
  1102. }
  1103. lock = lock_rec_get_next_on_page(lock);
  1104. }
  1105. return(NULL);
  1106. }
  1107. /*************************************************************************
  1108. Checks if some transaction has an implicit x-lock on a record in a secondary
  1109. index. */
  1110. trx_t*
  1111. lock_sec_rec_some_has_impl_off_kernel(
  1112. /*==================================*/
  1113. /* out: transaction which has the x-lock, or
  1114. NULL */
  1115. rec_t* rec, /* in: user record */
  1116. dict_index_t* index) /* in: secondary index */
  1117. {
  1118. page_t* page;
  1119. ut_ad(mutex_own(&kernel_mutex));
  1120. ut_ad(!(index->type & DICT_CLUSTERED));
  1121. ut_ad(page_rec_is_user_rec(rec));
  1122. page = buf_frame_align(rec);
  1123. /* Some transaction may have an implicit x-lock on the record only
  1124. if the max trx id for the page >= min trx id for the trx list, or
  1125. database recovery is running. We do not write the changes of a page
  1126. max trx id to the log, and therefore during recovery, this value
  1127. for a page may be incorrect. */
  1128. if (!(ut_dulint_cmp(page_get_max_trx_id(page),
  1129. trx_list_get_min_trx_id()) >= 0)
  1130.     && !recv_recovery_is_on()) {
  1131. return(NULL);
  1132. }
  1133. /* Ok, in this case it is possible that some transaction has an
  1134. implicit x-lock. We have to look in the clustered index. */
  1135. return(row_vers_impl_x_locked_off_kernel(rec, index));
  1136. }
  1137. /*============== RECORD LOCK CREATION AND QUEUE MANAGEMENT =============*/
  1138. /*************************************************************************
  1139. Creates a new record lock and inserts it to the lock queue. Does NOT check
  1140. for deadlocks or lock compatibility! */
  1141. static
  1142. lock_t*
  1143. lock_rec_create(
  1144. /*============*/
  1145. /* out: created lock, NULL if out of memory */
  1146. ulint type_mode,/* in: lock mode and wait flag, type is
  1147. ignored and replaced by LOCK_REC */
  1148. rec_t* rec, /* in: record on page */
  1149. dict_index_t* index, /* in: index of record */
  1150. trx_t* trx) /* in: transaction */
  1151. {
  1152. page_t* page;
  1153. lock_t* lock;
  1154. ulint page_no;
  1155. ulint heap_no;
  1156. ulint space;
  1157. ulint n_bits;
  1158. ulint n_bytes;
  1159. ut_ad(mutex_own(&kernel_mutex));
  1160. page = buf_frame_align(rec);
  1161. space = buf_frame_get_space_id(page);
  1162. page_no = buf_frame_get_page_no(page);
  1163. heap_no = rec_get_heap_no(rec);
  1164. /* If rec is the supremum record, then we reset the gap bit, as
  1165. all locks on the supremum are automatically of the gap type, and
  1166. we try to avoid unnecessary memory consumption of a new record lock
  1167. struct for a gap type lock */
  1168. if (rec == page_get_supremum_rec(page)) {
  1169. type_mode = type_mode & ~LOCK_GAP;
  1170. }
  1171. /* Make lock bitmap bigger by a safety margin */
  1172. n_bits = page_header_get_field(page, PAGE_N_HEAP)
  1173. + LOCK_PAGE_BITMAP_MARGIN;
  1174. n_bytes = 1 + n_bits / 8;
  1175. lock = mem_heap_alloc(trx->lock_heap, sizeof(lock_t) + n_bytes);
  1176. if (lock == NULL) {
  1177. return(NULL);
  1178. }
  1179. UT_LIST_ADD_LAST(trx_locks, trx->trx_locks, lock);
  1180. lock->trx = trx;
  1181. lock->type_mode = (type_mode & ~LOCK_TYPE_MASK) | LOCK_REC;
  1182. lock->index = index;
  1183. lock->un_member.rec_lock.space = space;
  1184. lock->un_member.rec_lock.page_no = page_no;
  1185. lock->un_member.rec_lock.n_bits = n_bytes * 8;
  1186. /* Reset to zero the bitmap which resides immediately after the
  1187. lock struct */
  1188. lock_rec_bitmap_reset(lock);
  1189. /* Set the bit corresponding to rec */
  1190. lock_rec_set_nth_bit(lock, heap_no);
  1191. HASH_INSERT(lock_t, hash, lock_sys->rec_hash,
  1192. lock_rec_fold(space, page_no), lock); 
  1193. if (type_mode & LOCK_WAIT) {
  1194. lock_set_lock_and_trx_wait(lock, trx);
  1195. }
  1196. return(lock);
  1197. }
  1198. /*************************************************************************
  1199. Enqueues a waiting request for a lock which cannot be granted immediately.
  1200. Checks for deadlocks. */
  1201. static
  1202. ulint
  1203. lock_rec_enqueue_waiting(
  1204. /*=====================*/
  1205. /* out: DB_LOCK_WAIT, DB_DEADLOCK, or
  1206. DB_QUE_THR_SUSPENDED */
  1207. ulint type_mode,/* in: lock mode this transaction is
  1208. requesting: LOCK_S or LOCK_X, ORed with
  1209. LOCK_GAP if a gap lock is requested */
  1210. rec_t* rec, /* in: record */
  1211. dict_index_t* index, /* in: index of record */
  1212. que_thr_t* thr) /* in: query thread */
  1213. {
  1214. lock_t* lock;
  1215. trx_t* trx;
  1216. ut_ad(mutex_own(&kernel_mutex));
  1217. /* Test if there already is some other reason to suspend thread:
  1218. we do not enqueue a lock request if the query thread should be
  1219. stopped anyway */
  1220. if (que_thr_stop(thr)) {
  1221. return(DB_QUE_THR_SUSPENDED);
  1222. }
  1223. trx = thr_get_trx(thr);
  1224. /* Enqueue the lock request that will wait to be granted */
  1225. lock = lock_rec_create(type_mode | LOCK_WAIT, rec, index, trx);
  1226. /* Check if a deadlock occurs: if yes, remove the lock request and
  1227. return an error code */
  1228. if (lock_deadlock_occurs(lock, trx)) {
  1229. lock_reset_lock_and_trx_wait(lock);
  1230. lock_rec_reset_nth_bit(lock, rec_get_heap_no(rec));
  1231. return(DB_DEADLOCK);
  1232. }
  1233. trx->que_state = TRX_QUE_LOCK_WAIT;
  1234. ut_a(que_thr_stop(thr));
  1235. if (lock_print_waits) {
  1236. printf("Lock wait for trx %lu in index %sn",
  1237. ut_dulint_get_low(trx->id), index->name);
  1238. }
  1239. return(DB_LOCK_WAIT);
  1240. }
  1241. /*************************************************************************
  1242. Adds a record lock request in the record queue. The request is normally
  1243. added as the last in the queue, but if there are no waiting lock requests
  1244. on the record, and the request to be added is not a waiting request, we
  1245. can reuse a suitable record lock object already existing on the same page,
  1246. just setting the appropriate bit in its bitmap. This is a low-level function
  1247. which does NOT check for deadlocks or lock compatibility! */
  1248. static
  1249. lock_t*
  1250. lock_rec_add_to_queue(
  1251. /*==================*/
  1252. /* out: lock where the bit was set, NULL if out
  1253. of memory */
  1254. ulint type_mode,/* in: lock mode, wait, and gap flags; type
  1255. is ignored and replaced by LOCK_REC */
  1256. rec_t* rec, /* in: record on page */
  1257. dict_index_t* index, /* in: index of record */
  1258. trx_t* trx) /* in: transaction */
  1259. {
  1260. lock_t* lock;
  1261. lock_t* similar_lock = NULL;
  1262. ulint heap_no;
  1263. page_t* page;
  1264. ibool somebody_waits = FALSE;
  1265. ut_ad(mutex_own(&kernel_mutex));
  1266. ut_ad((type_mode & (LOCK_WAIT | LOCK_GAP))
  1267.       || ((type_mode & LOCK_MODE_MASK) != LOCK_S)
  1268.       || !lock_rec_other_has_expl_req(LOCK_X, 0, LOCK_WAIT, rec, trx));
  1269. ut_ad((type_mode & (LOCK_WAIT | LOCK_GAP))
  1270.       || ((type_mode & LOCK_MODE_MASK) != LOCK_X)
  1271.       || !lock_rec_other_has_expl_req(LOCK_S, 0, LOCK_WAIT, rec, trx));
  1272.       
  1273. type_mode = type_mode | LOCK_REC;
  1274. page = buf_frame_align(rec);
  1275. /* If rec is the supremum record, then we can reset the gap bit, as
  1276. all locks on the supremum are automatically of the gap type, and we
  1277. try to avoid unnecessary memory consumption of a new record lock
  1278. struct for a gap type lock */
  1279. if (rec == page_get_supremum_rec(page)) {
  1280. type_mode = type_mode & ~LOCK_GAP;
  1281. }
  1282. /* Look for a waiting lock request on the same record, or for a
  1283. similar record lock on the same page */
  1284. heap_no = rec_get_heap_no(rec);
  1285. lock = lock_rec_get_first_on_page(rec);
  1286. while (lock != NULL) {
  1287. if (lock_get_wait(lock)
  1288. && (lock_rec_get_nth_bit(lock, heap_no))) {
  1289. somebody_waits = TRUE;
  1290. }
  1291. lock = lock_rec_get_next_on_page(lock);
  1292. }
  1293. similar_lock = lock_rec_find_similar_on_page(type_mode, rec, trx);
  1294. if (similar_lock && !somebody_waits && !(type_mode & LOCK_WAIT)) {
  1295. lock_rec_set_nth_bit(similar_lock, heap_no);
  1296. return(similar_lock);
  1297. }
  1298. return(lock_rec_create(type_mode, rec, index, trx));
  1299. }
  1300. /*************************************************************************
  1301. This is a fast routine for locking a record in the most common cases:
  1302. there are no explicit locks on the page, or there is just one lock, owned
  1303. by this transaction, and of the right type_mode. This is a low-level function
  1304. which does NOT look at implicit locks! Checks lock compatibility within
  1305. explicit locks. */
  1306. UNIV_INLINE
  1307. ibool
  1308. lock_rec_lock_fast(
  1309. /*===============*/
  1310. /* out: TRUE if locking succeeded */
  1311. ibool impl, /* in: if TRUE, no lock is set if no wait
  1312. is necessary: we assume that the caller will
  1313. set an implicit lock */
  1314. ulint mode, /* in: lock mode */
  1315. rec_t* rec, /* in: record */
  1316. dict_index_t* index, /* in: index of record */
  1317. que_thr_t*  thr) /* in: query thread */
  1318. {
  1319. lock_t* lock;
  1320. ulint heap_no;
  1321. ut_ad(mutex_own(&kernel_mutex));
  1322. ut_ad((mode == LOCK_X) || (mode == LOCK_S));
  1323. heap_no = rec_get_heap_no(rec);
  1324. lock = lock_rec_get_first_on_page(rec);
  1325. if (lock == NULL) {
  1326. if (!impl) {
  1327. lock_rec_create(mode, rec, index, thr_get_trx(thr));
  1328. }
  1329. return(TRUE);
  1330. }
  1331. if (lock_rec_get_next_on_page(lock)) {
  1332. return(FALSE);
  1333. }
  1334. if ((lock->trx != thr_get_trx(thr))
  1335. || (lock->type_mode != (mode | LOCK_REC))
  1336. || (lock_rec_get_n_bits(lock) <= heap_no)) {
  1337.      return(FALSE);
  1338. }
  1339. if (!impl) {
  1340. lock_rec_set_nth_bit(lock, heap_no);
  1341. }
  1342. return(TRUE);
  1343. }
  1344. /*************************************************************************
  1345. This is the general, and slower, routine for locking a record. This is a
  1346. low-level function which does NOT look at implicit locks! Checks lock
  1347. compatibility within explicit locks. */
  1348. static
  1349. ulint
  1350. lock_rec_lock_slow(
  1351. /*===============*/
  1352. /* out: DB_SUCCESS, DB_LOCK_WAIT, or error
  1353. code */
  1354. ibool impl, /* in: if TRUE, no lock is set if no wait is
  1355. necessary: we assume that the caller will set
  1356. an implicit lock */
  1357. ulint mode, /* in: lock mode */
  1358. rec_t* rec, /* in: record */
  1359. dict_index_t* index, /* in: index of record */
  1360. que_thr_t*  thr) /* in: query thread */
  1361. {
  1362. ulint confl_mode;
  1363. trx_t* trx;
  1364. ulint err;
  1365. ut_ad(mutex_own(&kernel_mutex));
  1366. ut_ad((mode == LOCK_X) || (mode == LOCK_S));
  1367. trx = thr_get_trx(thr);
  1368. confl_mode = lock_get_confl_mode(mode);
  1369. ut_ad((mode != LOCK_S) || lock_table_has(trx, index->table,
  1370. LOCK_IS));
  1371. ut_ad((mode != LOCK_X) || lock_table_has(trx, index->table,
  1372. LOCK_IX));
  1373. if (lock_rec_has_expl(mode, rec, trx)) {
  1374. /* The trx already has a strong enough lock on rec: do
  1375. nothing */
  1376. err = DB_SUCCESS;
  1377. } else if (lock_rec_other_has_expl_req(confl_mode, 0, LOCK_WAIT, rec,
  1378. trx)) {
  1379. /* If another transaction has a non-gap conflicting request in
  1380. the queue, as this transaction does not have a lock strong
  1381. enough already granted on the record, we have to wait. */
  1382.     
  1383. err = lock_rec_enqueue_waiting(mode, rec, index, thr);
  1384. } else {
  1385. if (!impl) {
  1386. /* Set the requested lock on the record */
  1387. lock_rec_add_to_queue(LOCK_REC | mode, rec, index,
  1388. trx);
  1389. }
  1390. err = DB_SUCCESS;
  1391. }
  1392. return(err);
  1393. }
  1394. /*************************************************************************
  1395. Tries to lock the specified record in the mode requested. If not immediately
  1396. possible, enqueues a waiting lock request. This is a low-level function
  1397. which does NOT look at implicit locks! Checks lock compatibility within
  1398. explicit locks. */
  1399. ulint
  1400. lock_rec_lock(
  1401. /*==========*/
  1402. /* out: DB_SUCCESS, DB_LOCK_WAIT, or error
  1403. code */
  1404. ibool impl, /* in: if TRUE, no lock is set if no wait is
  1405. necessary: we assume that the caller will set
  1406. an implicit lock */
  1407. ulint mode, /* in: lock mode */
  1408. rec_t* rec, /* in: record */
  1409. dict_index_t* index, /* in: index of record */
  1410. que_thr_t*  thr) /* in: query thread */
  1411. {
  1412. ulint err;
  1413. ut_ad(mutex_own(&kernel_mutex));
  1414. ut_ad((mode != LOCK_S) || lock_table_has(thr_get_trx(thr),
  1415. index->table, LOCK_IS));
  1416. ut_ad((mode != LOCK_X) || lock_table_has(thr_get_trx(thr),
  1417. index->table, LOCK_IX));
  1418. if (lock_rec_lock_fast(impl, mode, rec, index, thr)) {
  1419. /* We try a simplified and faster subroutine for the most
  1420. common cases */
  1421. err = DB_SUCCESS;
  1422. } else {
  1423. err = lock_rec_lock_slow(impl, mode, rec, index, thr);
  1424. }
  1425. return(err);
  1426. }
  1427. /*************************************************************************
  1428. Checks if a waiting record lock request still has to wait in a queue.
  1429. NOTE that we, for simplicity, ignore the gap bits in locks, and treat
  1430. gap type lock requests like non-gap lock requests. */
  1431. static
  1432. ibool
  1433. lock_rec_has_to_wait_in_queue(
  1434. /*==========================*/
  1435. /* out: TRUE if still has to wait */
  1436. lock_t* wait_lock) /* in: waiting record lock */
  1437. {
  1438. lock_t* lock;
  1439. ulint space;
  1440. ulint page_no;
  1441. ulint heap_no;
  1442. ut_ad(mutex_own(&kernel_mutex));
  1443.   ut_ad(lock_get_wait(wait_lock));
  1444.  
  1445. space = wait_lock->un_member.rec_lock.space;
  1446. page_no = wait_lock->un_member.rec_lock.page_no;
  1447. heap_no = lock_rec_find_set_bit(wait_lock);
  1448. lock = lock_rec_get_first_on_page_addr(space, page_no);
  1449. while (lock != wait_lock) {
  1450. if (lock_has_to_wait(wait_lock, lock)
  1451. && lock_rec_get_nth_bit(lock, heap_no)) {
  1452.      return(TRUE);
  1453. }
  1454. lock = lock_rec_get_next_on_page(lock);
  1455. }
  1456. return(FALSE);
  1457. }
  1458. /*****************************************************************
  1459. Grants a lock to a waiting lock request and releases the waiting
  1460. transaction. */
  1461. void
  1462. lock_grant(
  1463. /*=======*/
  1464. lock_t* lock) /* in: waiting lock request */
  1465. {
  1466. ut_ad(mutex_own(&kernel_mutex));
  1467. lock_reset_lock_and_trx_wait(lock);
  1468. if (lock_print_waits) {
  1469. printf("Lock wait for trx %lu endsn",
  1470. ut_dulint_get_low(lock->trx->id));
  1471. }
  1472. trx_end_lock_wait(lock->trx);
  1473. }
  1474. /*****************************************************************
  1475. Cancels a waiting record lock request and releases the waiting transaction
  1476. that requested it. NOTE: does NOT check if waiting lock requests behind this
  1477. one can now be granted! */
  1478. void
  1479. lock_rec_cancel(
  1480. /*============*/
  1481. lock_t* lock) /* in: waiting record lock request */
  1482. {
  1483. ut_ad(mutex_own(&kernel_mutex));
  1484. /* Reset the bit in lock bitmap */
  1485. lock_rec_reset_nth_bit(lock, lock_rec_find_set_bit(lock));
  1486. /* Reset the wait flag and the back pointer to lock in trx */
  1487. lock_reset_lock_and_trx_wait(lock);
  1488. /* The following function releases the trx from lock wait */
  1489. trx_end_lock_wait(lock->trx);
  1490. }
  1491. /*****************************************************************
  1492. Removes a record lock request, waiting or granted, from the queue and
  1493. grants locks to other transactions in the queue if they now are entitled
  1494. to a lock. NOTE: all record locks contained in in_lock are removed. */
  1495. void
  1496. lock_rec_dequeue_from_page(
  1497. /*=======================*/
  1498. lock_t* in_lock)/* in: record lock object: all record locks which
  1499. are contained in this lock object are removed;
  1500. transactions waiting behind will get their lock
  1501. requests granted, if they are now qualified to it */
  1502. {
  1503. ulint space;
  1504. ulint page_no;
  1505. lock_t* lock;
  1506. trx_t* trx;
  1507. ut_ad(mutex_own(&kernel_mutex));
  1508. ut_ad(lock_get_type(in_lock) == LOCK_REC);
  1509. trx = in_lock->trx;
  1510. space = in_lock->un_member.rec_lock.space;
  1511. page_no = in_lock->un_member.rec_lock.page_no;
  1512. HASH_DELETE(lock_t, hash, lock_sys->rec_hash,
  1513. lock_rec_fold(space, page_no), in_lock);
  1514. UT_LIST_REMOVE(trx_locks, trx->trx_locks, in_lock);
  1515. /* Check if waiting locks in the queue can now be granted: grant
  1516. locks if there are no conflicting locks ahead. */
  1517. lock = lock_rec_get_first_on_page_addr(space, page_no);
  1518. while (lock != NULL) {
  1519. if (lock_get_wait(lock)
  1520. && !lock_rec_has_to_wait_in_queue(lock)) {
  1521. /* Grant the lock */
  1522. lock_grant(lock);
  1523. }
  1524. lock = lock_rec_get_next_on_page(lock);
  1525. }
  1526. }
  1527. /*****************************************************************
  1528. Removes record lock objects set on an index page which is discarded. This
  1529. function does not move locks, or check for waiting locks, therefore the
  1530. lock bitmaps must already be reset when this function is called. */
  1531. static
  1532. void
  1533. lock_rec_free_all_from_discard_page(
  1534. /*================================*/
  1535. page_t* page) /* in: page to be discarded */
  1536. {
  1537. ulint space;
  1538. ulint page_no;
  1539. lock_t* lock;
  1540. lock_t* next_lock;
  1541. trx_t* trx;
  1542. ut_ad(mutex_own(&kernel_mutex));
  1543. space = buf_frame_get_space_id(page);
  1544. page_no = buf_frame_get_page_no(page);
  1545. lock = lock_rec_get_first_on_page_addr(space, page_no);
  1546. while (lock != NULL) {
  1547. ut_ad(lock_rec_find_set_bit(lock) == ULINT_UNDEFINED);
  1548. ut_ad(!lock_get_wait(lock));
  1549. next_lock = lock_rec_get_next_on_page(lock);
  1550. HASH_DELETE(lock_t, hash, lock_sys->rec_hash,
  1551. lock_rec_fold(space, page_no), lock);
  1552. trx = lock->trx;
  1553. UT_LIST_REMOVE(trx_locks, trx->trx_locks, lock);
  1554. lock = next_lock;
  1555. }
  1556. }
  1557. /*============= RECORD LOCK MOVING AND INHERITING ===================*/
  1558. /*****************************************************************
  1559. Resets the lock bits for a single record. Releases transactions waiting for
  1560. lock requests here. */
  1561. void
  1562. lock_rec_reset_and_release_wait(
  1563. /*============================*/
  1564. rec_t* rec) /* in: record whose locks bits should be reset */
  1565. {
  1566. lock_t* lock;
  1567. ulint heap_no;
  1568. ut_ad(mutex_own(&kernel_mutex));
  1569. heap_no = rec_get_heap_no(rec);
  1570. lock = lock_rec_get_first(rec);
  1571. while (lock != NULL) {
  1572. if (lock_get_wait(lock)) {
  1573. lock_rec_cancel(lock);
  1574. } else {
  1575. lock_rec_reset_nth_bit(lock, heap_no);
  1576. }
  1577. lock = lock_rec_get_next(rec, lock);
  1578. }
  1579. }
  1580. /*****************************************************************
  1581. Makes a record to inherit the locks of another record as gap type locks, but
  1582. does not reset the lock bits of the other record. Also waiting lock requests
  1583. on rec are inherited as GRANTED gap locks. */
  1584. void
  1585. lock_rec_inherit_to_gap(
  1586. /*====================*/
  1587. rec_t* heir, /* in: record which inherits */
  1588. rec_t* rec) /* in: record from which inherited; does NOT reset
  1589. the locks on this record */
  1590. {
  1591. lock_t* lock;
  1592. ut_ad(mutex_own(&kernel_mutex));
  1593. lock = lock_rec_get_first(rec);
  1594. while (lock != NULL) {
  1595. lock_rec_add_to_queue((lock->type_mode | LOCK_GAP) & ~LOCK_WAIT,
  1596.         heir, lock->index, lock->trx);
  1597. lock = lock_rec_get_next(rec, lock);
  1598. }
  1599. }
  1600. /*****************************************************************
  1601. Moves the locks of a record to another record and resets the lock bits of
  1602. the donating record. */
  1603. static
  1604. void
  1605. lock_rec_move(
  1606. /*==========*/
  1607. rec_t* receiver, /* in: record which gets locks; this record
  1608. must have no lock requests on it! */
  1609. rec_t* donator) /* in: record which gives locks */
  1610. {
  1611. lock_t* lock;
  1612. ulint heap_no;
  1613. ulint type_mode;
  1614. ut_ad(mutex_own(&kernel_mutex));
  1615. heap_no = rec_get_heap_no(donator);
  1616. lock = lock_rec_get_first(donator);
  1617. ut_ad(lock_rec_get_first(receiver) == NULL);
  1618. while (lock != NULL) {
  1619. type_mode = lock->type_mode;
  1620. lock_rec_reset_nth_bit(lock, heap_no);
  1621. if (lock_get_wait(lock)) {
  1622. lock_reset_lock_and_trx_wait(lock);
  1623. }
  1624. /* Note that we FIRST reset the bit, and then set the lock:
  1625. the function works also if donator == receiver */
  1626. lock_rec_add_to_queue(type_mode, receiver, lock->index,
  1627. lock->trx);
  1628. lock = lock_rec_get_next(donator, lock);
  1629. }
  1630. ut_ad(lock_rec_get_first(donator) == NULL);
  1631. }
  1632. /*****************************************************************
  1633. Updates the lock table when we have reorganized a page. NOTE: we copy
  1634. also the locks set on the infimum of the page; the infimum may carry
  1635. locks if an update of a record is occurring on the page, and its locks
  1636. were temporarily stored on the infimum. */
  1637. void
  1638. lock_move_reorganize_page(
  1639. /*======================*/
  1640. page_t* page, /* in: old index page, now reorganized */
  1641. page_t* old_page) /* in: copy of the old, not reorganized page */
  1642. {
  1643. lock_t* lock;
  1644. lock_t* old_lock;
  1645. page_cur_t cur1;
  1646. page_cur_t cur2;
  1647. ulint old_heap_no;
  1648. UT_LIST_BASE_NODE_T(lock_t) old_locks;
  1649. mem_heap_t* heap = NULL;
  1650. rec_t* sup;
  1651. lock_mutex_enter_kernel();
  1652. lock = lock_rec_get_first_on_page(page);
  1653. if (lock == NULL) {
  1654. lock_mutex_exit_kernel();
  1655. return;
  1656. }
  1657. heap = mem_heap_create(256);
  1658. /* Copy first all the locks on the page to heap and reset the
  1659. bitmaps in the original locks; chain the copies of the locks
  1660. using the trx_locks field in them. */
  1661. UT_LIST_INIT(old_locks);
  1662. while (lock != NULL) {
  1663. /* Make a copy of the lock */
  1664. old_lock = lock_rec_copy(lock, heap);
  1665. UT_LIST_ADD_LAST(trx_locks, old_locks, old_lock);
  1666. /* Reset bitmap of lock */
  1667. lock_rec_bitmap_reset(lock);
  1668. if (lock_get_wait(lock)) {
  1669. lock_reset_lock_and_trx_wait(lock);
  1670. }
  1671. lock = lock_rec_get_next_on_page(lock);
  1672. }
  1673. sup = page_get_supremum_rec(page);
  1674. lock = UT_LIST_GET_FIRST(old_locks);
  1675. while (lock) {
  1676. /* NOTE: we copy also the locks set on the infimum and
  1677. supremum of the page; the infimum may carry locks if an
  1678. update of a record is occurring on the page, and its locks
  1679. were temporarily stored on the infimum */
  1680. page_cur_set_before_first(page, &cur1);
  1681. page_cur_set_before_first(old_page, &cur2);
  1682. /* Set locks according to old locks */
  1683. for (;;) {
  1684. ut_ad(0 == ut_memcmp(page_cur_get_rec(&cur1),
  1685. page_cur_get_rec(&cur2),
  1686. rec_get_data_size(
  1687.    page_cur_get_rec(&cur2))));
  1688. old_heap_no = rec_get_heap_no(page_cur_get_rec(&cur2));
  1689. if (lock_rec_get_nth_bit(lock, old_heap_no)) {
  1690. /* NOTE that the old lock bitmap could be too
  1691. small for the new heap number! */
  1692. lock_rec_add_to_queue(lock->type_mode,
  1693. page_cur_get_rec(&cur1),
  1694. lock->index, lock->trx);
  1695. /* if ((page_cur_get_rec(&cur1) == sup)
  1696. && lock_get_wait(lock)) {
  1697. printf(
  1698. "---n--n!!!Lock reorg: supr type %lun",
  1699. lock->type_mode);
  1700. } */
  1701. }
  1702. if (page_cur_get_rec(&cur1) == sup) {
  1703. break;
  1704. }
  1705. page_cur_move_to_next(&cur1);
  1706. page_cur_move_to_next(&cur2);
  1707. }
  1708. /* Remember that we chained old locks on the trx_locks field: */
  1709. lock = UT_LIST_GET_NEXT(trx_locks, lock);
  1710. }
  1711. lock_mutex_exit_kernel();
  1712. mem_heap_free(heap);
  1713. /*  ut_ad(lock_rec_validate_page(buf_frame_get_space_id(page),
  1714. buf_frame_get_page_no(page))); */
  1715. }
  1716. /*****************************************************************
  1717. Moves the explicit locks on user records to another page if a record
  1718. list end is moved to another page. */
  1719. void
  1720. lock_move_rec_list_end(
  1721. /*===================*/
  1722. page_t* new_page, /* in: index page to move to */
  1723. page_t* page, /* in: index page */
  1724. rec_t* rec) /* in: record on page: this is the
  1725. first record moved */
  1726. {
  1727. lock_t* lock;
  1728. page_cur_t cur1;
  1729. page_cur_t cur2;
  1730. ulint heap_no;
  1731. rec_t* sup;
  1732. ulint type_mode;
  1733. lock_mutex_enter_kernel();
  1734. /* Note: when we move locks from record to record, waiting locks
  1735. and possible granted gap type locks behind them are enqueued in
  1736. the original order, because new elements are inserted to a hash
  1737. table to the end of the hash chain, and lock_rec_add_to_queue
  1738. does not reuse locks if there are waiters in the queue. */
  1739. sup = page_get_supremum_rec(page);
  1740. lock = lock_rec_get_first_on_page(page);
  1741. while (lock != NULL) {
  1742. page_cur_position(rec, &cur1);
  1743. if (page_cur_is_before_first(&cur1)) {
  1744. page_cur_move_to_next(&cur1);
  1745. }
  1746. page_cur_set_before_first(new_page, &cur2);
  1747. page_cur_move_to_next(&cur2);
  1748. /* Copy lock requests on user records to new page and
  1749. reset the lock bits on the old */
  1750. while (page_cur_get_rec(&cur1) != sup) {
  1751. ut_ad(0 == ut_memcmp(page_cur_get_rec(&cur1),
  1752. page_cur_get_rec(&cur2),
  1753. rec_get_data_size(
  1754.    page_cur_get_rec(&cur2))));
  1755. heap_no = rec_get_heap_no(page_cur_get_rec(&cur1));
  1756. if (lock_rec_get_nth_bit(lock, heap_no)) {
  1757. type_mode = lock->type_mode;
  1758. lock_rec_reset_nth_bit(lock, heap_no);
  1759. if (lock_get_wait(lock)) {
  1760. lock_reset_lock_and_trx_wait(lock);
  1761. }
  1762. lock_rec_add_to_queue(type_mode,
  1763. page_cur_get_rec(&cur2),
  1764. lock->index, lock->trx);
  1765. }
  1766. page_cur_move_to_next(&cur1);
  1767. page_cur_move_to_next(&cur2);
  1768. }
  1769. lock = lock_rec_get_next_on_page(lock);
  1770. }
  1771. lock_mutex_exit_kernel();
  1772. /* ut_ad(lock_rec_validate_page(buf_frame_get_space_id(page),
  1773. buf_frame_get_page_no(page)));
  1774. ut_ad(lock_rec_validate_page(buf_frame_get_space_id(new_page),
  1775. buf_frame_get_page_no(new_page))); */
  1776. }
  1777. /*****************************************************************
  1778. Moves the explicit locks on user records to another page if a record
  1779. list start is moved to another page. */
  1780. void
  1781. lock_move_rec_list_start(
  1782. /*=====================*/
  1783. page_t* new_page, /* in: index page to move to */
  1784. page_t* page, /* in: index page */
  1785. rec_t* rec, /* in: record on page: this is the
  1786. first record NOT copied */
  1787. rec_t* old_end) /* in: old previous-to-last record on
  1788. new_page before the records were copied */
  1789. {
  1790. lock_t* lock;
  1791. page_cur_t cur1;
  1792. page_cur_t cur2;
  1793. ulint heap_no;
  1794. ulint type_mode;
  1795. ut_ad(new_page);
  1796. lock_mutex_enter_kernel();
  1797. lock = lock_rec_get_first_on_page(page);
  1798. while (lock != NULL) {
  1799. page_cur_set_before_first(page, &cur1);
  1800. page_cur_move_to_next(&cur1);
  1801. page_cur_position(old_end, &cur2);
  1802. page_cur_move_to_next(&cur2);
  1803. /* Copy lock requests on user records to new page and
  1804. reset the lock bits on the old */
  1805. while (page_cur_get_rec(&cur1) != rec) {
  1806. ut_ad(0 == ut_memcmp(page_cur_get_rec(&cur1),
  1807. page_cur_get_rec(&cur2),
  1808. rec_get_data_size(
  1809.    page_cur_get_rec(&cur2))));
  1810. heap_no = rec_get_heap_no(page_cur_get_rec(&cur1));
  1811. if (lock_rec_get_nth_bit(lock, heap_no)) {
  1812. type_mode = lock->type_mode;
  1813. lock_rec_reset_nth_bit(lock, heap_no);
  1814. if (lock_get_wait(lock)) {
  1815. lock_reset_lock_and_trx_wait(lock);
  1816. }
  1817. lock_rec_add_to_queue(type_mode,
  1818. page_cur_get_rec(&cur2),
  1819. lock->index, lock->trx);
  1820. }
  1821. page_cur_move_to_next(&cur1);
  1822. page_cur_move_to_next(&cur2);
  1823. }
  1824. lock = lock_rec_get_next_on_page(lock);
  1825. }
  1826. lock_mutex_exit_kernel();
  1827. /* ut_ad(lock_rec_validate_page(buf_frame_get_space_id(page),
  1828. buf_frame_get_page_no(page)));
  1829. ut_ad(lock_rec_validate_page(buf_frame_get_space_id(new_page),
  1830. buf_frame_get_page_no(new_page))); */
  1831. }
  1832. /*****************************************************************
  1833. Updates the lock table when a page is split to the right. */
  1834. void
  1835. lock_update_split_right(
  1836. /*====================*/
  1837. page_t* right_page, /* in: right page */
  1838. page_t* left_page) /* in: left page */
  1839. {
  1840. lock_mutex_enter_kernel();
  1841. /* Move the locks on the supremum of the left page to the supremum
  1842. of the right page */
  1843. lock_rec_move(page_get_supremum_rec(right_page),
  1844. page_get_supremum_rec(left_page));
  1845. /* Inherit the locks to the supremum of left page from the successor
  1846. of the infimum on right page */
  1847. lock_rec_inherit_to_gap(page_get_supremum_rec(left_page),
  1848. page_rec_get_next(page_get_infimum_rec(right_page)));
  1849. lock_mutex_exit_kernel();
  1850. }
  1851. /*****************************************************************
  1852. Updates the lock table when a page is merged to the right. */
  1853. void
  1854. lock_update_merge_right(
  1855. /*====================*/
  1856. rec_t* orig_succ, /* in: original successor of infimum
  1857. on the right page before merge */
  1858. page_t* left_page) /* in: merged index page which will be
  1859. discarded */
  1860. {
  1861. lock_mutex_enter_kernel();
  1862. /* Inherit the locks from the supremum of the left page to the
  1863. original successor of infimum on the right page, to which the left
  1864. page was merged */
  1865. lock_rec_inherit_to_gap(orig_succ, page_get_supremum_rec(left_page));
  1866. /* Reset the locks on the supremum of the left page, releasing
  1867. waiting transactions */
  1868. lock_rec_reset_and_release_wait(page_get_supremum_rec(left_page));
  1869. lock_rec_free_all_from_discard_page(left_page);
  1870. lock_mutex_exit_kernel();
  1871. }
  1872. /*****************************************************************
  1873. Updates the lock table when the root page is copied to another in
  1874. btr_root_raise_and_insert. Note that we leave lock structs on the
  1875. root page, even though they do not make sense on other than leaf
  1876. pages: the reason is that in a pessimistic update the infimum record
  1877. of the root page will act as a dummy carrier of the locks of the record
  1878. to be updated. */
  1879. void
  1880. lock_update_root_raise(
  1881. /*===================*/
  1882. page_t* new_page, /* in: index page to which copied */
  1883. page_t* root) /* in: root page */
  1884. {
  1885. lock_mutex_enter_kernel();
  1886. /* Move the locks on the supremum of the root to the supremum
  1887. of new_page */
  1888. lock_rec_move(page_get_supremum_rec(new_page),
  1889. page_get_supremum_rec(root));
  1890. lock_mutex_exit_kernel();
  1891. }
  1892. /*****************************************************************
  1893. Updates the lock table when a page is copied to another and the original page
  1894. is removed from the chain of leaf pages, except if page is the root! */
  1895. void
  1896. lock_update_copy_and_discard(
  1897. /*=========================*/
  1898. page_t* new_page, /* in: index page to which copied */
  1899. page_t* page) /* in: index page; NOT the root! */
  1900. {
  1901. lock_mutex_enter_kernel();
  1902. /* Move the locks on the supremum of the old page to the supremum
  1903. of new_page */
  1904. lock_rec_move(page_get_supremum_rec(new_page),
  1905. page_get_supremum_rec(page));
  1906. lock_rec_free_all_from_discard_page(page);
  1907. lock_mutex_exit_kernel();
  1908. }
  1909. /*****************************************************************
  1910. Updates the lock table when a page is split to the left. */
  1911. void
  1912. lock_update_split_left(
  1913. /*===================*/
  1914. page_t* right_page, /* in: right page */
  1915. page_t* left_page) /* in: left page */
  1916. {
  1917. lock_mutex_enter_kernel();
  1918. /* Inherit the locks to the supremum of the left page from the
  1919. successor of the infimum on the right page */
  1920. lock_rec_inherit_to_gap(page_get_supremum_rec(left_page),
  1921. page_rec_get_next(page_get_infimum_rec(right_page)));
  1922. lock_mutex_exit_kernel();
  1923. }
  1924. /*****************************************************************
  1925. Updates the lock table when a page is merged to the left. */
  1926. void
  1927. lock_update_merge_left(
  1928. /*===================*/
  1929. page_t* left_page, /* in: left page to which merged */
  1930. rec_t* orig_pred, /* in: original predecessor of supremum
  1931. on the left page before merge */
  1932. page_t* right_page) /* in: merged index page which will be
  1933. discarded */
  1934. {
  1935. lock_mutex_enter_kernel();
  1936. if (page_rec_get_next(orig_pred) != page_get_supremum_rec(left_page)) {
  1937. /* Inherit the locks on the supremum of the left page to the
  1938. first record which was moved from the right page */
  1939. lock_rec_inherit_to_gap(page_rec_get_next(orig_pred),
  1940. page_get_supremum_rec(left_page));
  1941. /* Reset the locks on the supremum of the left page,
  1942. releasing waiting transactions */
  1943. lock_rec_reset_and_release_wait(page_get_supremum_rec(
  1944. left_page));
  1945. }
  1946. /* Move the locks from the supremum of right page to the supremum
  1947. of the left page */
  1948. lock_rec_move(page_get_supremum_rec(left_page),
  1949.  page_get_supremum_rec(right_page));
  1950. lock_rec_free_all_from_discard_page(right_page);
  1951. lock_mutex_exit_kernel();
  1952. }
  1953. /*****************************************************************
  1954. Resets the original locks on heir and replaces them with gap type locks
  1955. inherited from rec. */
  1956. void
  1957. lock_rec_reset_and_inherit_gap_locks(
  1958. /*=================================*/
  1959. rec_t* heir, /* in: heir record */
  1960. rec_t* rec) /* in: record */
  1961. {
  1962. mutex_enter(&kernel_mutex);       
  1963. lock_rec_reset_and_release_wait(heir);
  1964. lock_rec_inherit_to_gap(heir, rec);
  1965. mutex_exit(&kernel_mutex);       
  1966. }
  1967. /*****************************************************************
  1968. Updates the lock table when a page is discarded. */
  1969. void
  1970. lock_update_discard(
  1971. /*================*/
  1972. rec_t* heir, /* in: record which will inherit the locks */
  1973. page_t* page) /* in: index page which will be discarded */
  1974. {
  1975. rec_t* rec;
  1976. lock_mutex_enter_kernel();
  1977. if (NULL == lock_rec_get_first_on_page(page)) {
  1978. /* No locks exist on page, nothing to do */
  1979. lock_mutex_exit_kernel();
  1980. return;
  1981. }
  1982. /* Inherit all the locks on the page to the record and reset all
  1983. the locks on the page */
  1984. rec = page_get_infimum_rec(page);
  1985. for (;;) {
  1986. lock_rec_inherit_to_gap(heir, rec);
  1987. /* Reset the locks on rec, releasing waiting transactions */
  1988. lock_rec_reset_and_release_wait(rec);
  1989. if (rec == page_get_supremum_rec(page)) {
  1990. break;
  1991. }
  1992. rec = page_rec_get_next(rec);
  1993. }
  1994. lock_rec_free_all_from_discard_page(page);
  1995. lock_mutex_exit_kernel();
  1996. }
  1997. /*****************************************************************
  1998. Updates the lock table when a new user record is inserted. */
  1999. void
  2000. lock_update_insert(
  2001. /*===============*/
  2002. rec_t* rec) /* in: the inserted record */
  2003. {
  2004. lock_mutex_enter_kernel();
  2005. /* Inherit the locks for rec, in gap mode, from the next record */
  2006. lock_rec_inherit_to_gap(rec, page_rec_get_next(rec));
  2007. lock_mutex_exit_kernel();
  2008. }
  2009. /*****************************************************************
  2010. Updates the lock table when a record is removed. */
  2011. void
  2012. lock_update_delete(
  2013. /*===============*/
  2014. rec_t* rec) /* in: the record to be removed */
  2015. {
  2016. lock_mutex_enter_kernel();
  2017. /* Let the next record inherit the locks from rec, in gap mode */
  2018. lock_rec_inherit_to_gap(page_rec_get_next(rec), rec);
  2019. /* Reset the lock bits on rec and release waiting transactions */
  2020. lock_rec_reset_and_release_wait(rec);
  2021. lock_mutex_exit_kernel();
  2022. }
  2023.  
  2024. /*************************************************************************
  2025. Stores on the page infimum record the explicit locks of another record.
  2026. This function is used to store the lock state of a record when it is
  2027. updated and the size of the record changes in the update. The record
  2028. is moved in such an update, perhaps to another page. The infimum record
  2029. acts as a dummy carrier record, taking care of lock releases while the
  2030. actual record is being moved. */
  2031. void
  2032. lock_rec_store_on_page_infimum(
  2033. /*===========================*/
  2034. rec_t* rec) /* in: record whose lock state is stored
  2035. on the infimum record of the same page; lock
  2036. bits are reset on the record */
  2037. {
  2038. page_t* page;
  2039. page = buf_frame_align(rec);
  2040. lock_mutex_enter_kernel();
  2041. lock_rec_move(page_get_infimum_rec(page), rec);
  2042. lock_mutex_exit_kernel();
  2043. }
  2044. /*************************************************************************
  2045. Restores the state of explicit lock requests on a single record, where the
  2046. state was stored on the infimum of the page. */
  2047. void
  2048. lock_rec_restore_from_page_infimum(
  2049. /*===============================*/
  2050. rec_t* rec, /* in: record whose lock state is restored */
  2051. page_t* page) /* in: page (rec is not necessarily on this page)
  2052. whose infimum stored the lock state; lock bits are
  2053. reset on the infimum */ 
  2054. {
  2055. lock_mutex_enter_kernel();
  2056. lock_rec_move(rec, page_get_infimum_rec(page));
  2057. lock_mutex_exit_kernel();
  2058. }
  2059. /*=========== DEADLOCK CHECKING ======================================*/
  2060. /************************************************************************
  2061. Checks if a lock request results in a deadlock. */
  2062. static
  2063. ibool
  2064. lock_deadlock_occurs(
  2065. /*=================*/
  2066. /* out: TRUE if a deadlock was detected */
  2067. lock_t* lock, /* in: lock the transaction is requesting */
  2068. trx_t* trx) /* in: transaction */
  2069. {
  2070. dict_table_t* table;
  2071. dict_index_t* index;
  2072. ibool ret;
  2073. ut_ad(trx && lock);
  2074. ut_ad(mutex_own(&kernel_mutex));
  2075. ret = lock_deadlock_recursive(trx, trx, lock);
  2076. if (ret) {
  2077. if (lock_get_type(lock) == LOCK_TABLE) {
  2078. table = lock->un_member.tab_lock.table;
  2079. index = NULL;
  2080. } else {
  2081. index = lock->index;
  2082. table = index->table;
  2083. }
  2084. /*
  2085. sess_raise_error_low(trx, DB_DEADLOCK, lock->type_mode, table,
  2086. index, NULL, NULL, NULL);
  2087. */
  2088. }
  2089. return(ret);
  2090. }
  2091. /************************************************************************
  2092. Looks recursively for a deadlock. */
  2093. static
  2094. ibool
  2095. lock_deadlock_recursive(
  2096. /*====================*/
  2097. /* out: TRUE if a deadlock was detected */
  2098. trx_t* start, /* in: recursion starting point */
  2099. trx_t* trx, /* in: a transaction waiting for a lock */
  2100. lock_t* wait_lock) /* in: the lock trx is waiting to be granted */
  2101. {
  2102. lock_t* lock;
  2103. ulint bit_no;
  2104. trx_t* lock_trx;
  2105. ut_a(trx && start && wait_lock);
  2106. ut_ad(mutex_own(&kernel_mutex));
  2107. lock = wait_lock;
  2108. if (lock_get_type(wait_lock) == LOCK_REC) {
  2109. bit_no = lock_rec_find_set_bit(wait_lock);
  2110. ut_a(bit_no != ULINT_UNDEFINED);
  2111. }
  2112. /* Look at the locks ahead of wait_lock in the lock queue */
  2113. for (;;) {
  2114. if (lock_get_type(lock) == LOCK_TABLE) {
  2115. lock = UT_LIST_GET_PREV(un_member.tab_lock.locks, lock);
  2116. } else {
  2117. ut_ad(lock_get_type(lock) == LOCK_REC);
  2118. lock = lock_rec_get_prev(lock, bit_no);
  2119. }
  2120. if (lock == NULL) {
  2121. return(FALSE);
  2122. }
  2123. if (lock_has_to_wait(wait_lock, lock)) {
  2124. lock_trx = lock->trx;
  2125. if (lock_trx == start) {
  2126. if (lock_print_waits) {
  2127. printf("Deadlock detectedn");
  2128. }
  2129. return(TRUE);
  2130. }
  2131. if (lock_trx->que_state == TRX_QUE_LOCK_WAIT) {
  2132. /* Another trx ahead has requested lock in an
  2133. incompatible mode, and is itself waiting for
  2134. a lock */
  2135. if (lock_deadlock_recursive(start, lock_trx,
  2136. lock_trx->wait_lock)) {
  2137. return(TRUE);
  2138. }
  2139. }
  2140. }
  2141. }/* end of the 'for (;;)'-loop */
  2142. }
  2143. /*========================= TABLE LOCKS ==============================*/
  2144. /*************************************************************************
  2145. Creates a table lock object and adds it as the last in the lock queue
  2146. of the table. Does NOT check for deadlocks or lock compatibility. */
  2147. UNIV_INLINE
  2148. lock_t*
  2149. lock_table_create(
  2150. /*==============*/
  2151. /* out, own: new lock object, or NULL if
  2152. out of memory */
  2153. dict_table_t* table, /* in: database table in dictionary cache */
  2154. ulint type_mode,/* in: lock mode possibly ORed with
  2155. LOCK_WAIT */
  2156. trx_t* trx) /* in: trx */
  2157. {
  2158. lock_t* lock;
  2159. ut_ad(table && trx);
  2160. ut_ad(mutex_own(&kernel_mutex));
  2161. lock = mem_heap_alloc(trx->lock_heap, sizeof(lock_t));
  2162. if (lock == NULL) {
  2163. return(NULL);
  2164. }
  2165. UT_LIST_ADD_LAST(trx_locks, trx->trx_locks, lock);
  2166. lock->type_mode = type_mode | LOCK_TABLE;
  2167. lock->trx = trx;
  2168. lock->un_member.tab_lock.table = table;
  2169. UT_LIST_ADD_LAST(un_member.tab_lock.locks, table->locks, lock);
  2170. if (type_mode & LOCK_WAIT) {
  2171. lock_set_lock_and_trx_wait(lock, trx);
  2172. }
  2173. return(lock);
  2174. }
  2175. /*****************************************************************
  2176. Removes a table lock request from the queue and the trx list of locks;
  2177. this is a low-level function which does NOT check if waiting requests
  2178. can now be granted. */
  2179. UNIV_INLINE
  2180. void
  2181. lock_table_remove_low(
  2182. /*==================*/
  2183. lock_t* lock) /* in: table lock */
  2184. {
  2185. dict_table_t* table;
  2186. trx_t* trx;
  2187. ut_ad(mutex_own(&kernel_mutex));
  2188. table = lock->un_member.tab_lock.table;
  2189. trx = lock->trx;
  2190. UT_LIST_REMOVE(trx_locks, trx->trx_locks, lock);
  2191. UT_LIST_REMOVE(un_member.tab_lock.locks, table->locks, lock);
  2192. }
  2193. /*************************************************************************
  2194. Enqueues a waiting request for a table lock which cannot be granted
  2195. immediately. Checks for deadlocks. */
  2196. ulint
  2197. lock_table_enqueue_waiting(
  2198. /*=======================*/
  2199. /* out: DB_LOCK_WAIT, DB_DEADLOCK, or
  2200. DB_QUE_THR_SUSPENDED */
  2201. ulint mode, /* in: lock mode this transaction is
  2202. requesting */
  2203. dict_table_t* table, /* in: table */
  2204. que_thr_t* thr) /* in: query thread */
  2205. {
  2206. lock_t* lock;
  2207. trx_t* trx;
  2208. ut_ad(mutex_own(&kernel_mutex));
  2209. /* Test if there already is some other reason to suspend thread:
  2210. we do not enqueue a lock request if the query thread should be
  2211. stopped anyway */
  2212. if (que_thr_stop(thr)) {
  2213. return(DB_QUE_THR_SUSPENDED);
  2214. }
  2215. trx = thr_get_trx(thr);
  2216. /* Enqueue the lock request that will wait to be granted */
  2217. lock = lock_table_create(table, mode | LOCK_WAIT, trx);
  2218. /* Check if a deadlock occurs: if yes, remove the lock request and
  2219. return an error code */
  2220. if (lock_deadlock_occurs(lock, trx)) {
  2221. lock_reset_lock_and_trx_wait(lock);
  2222. lock_table_remove_low(lock);
  2223. return(DB_DEADLOCK);
  2224. }
  2225. trx->que_state = TRX_QUE_LOCK_WAIT;
  2226. ut_a(que_thr_stop(thr));
  2227. return(DB_LOCK_WAIT);
  2228. }
  2229. /*************************************************************************
  2230. Checks if other transactions have an incompatible mode lock request in
  2231. the lock queue. */
  2232. UNIV_INLINE
  2233. ibool
  2234. lock_table_other_has_incompatible(
  2235. /*==============================*/
  2236. trx_t* trx, /* in: transaction, or NULL if all
  2237. transactions should be included */
  2238. ulint wait, /* in: LOCK_WAIT if also waiting locks are
  2239. taken into account, or 0 if not */
  2240. dict_table_t* table, /* in: table */
  2241. ulint mode) /* in: lock mode */
  2242. {
  2243. lock_t* lock;
  2244. ut_ad(mutex_own(&kernel_mutex));
  2245. lock = UT_LIST_GET_LAST(table->locks);
  2246. while (lock != NULL) {
  2247. if ((lock->trx != trx) 
  2248.     && (!lock_mode_compatible(lock_get_mode(lock), mode))
  2249.     && (wait || !(lock_get_wait(lock)))) {
  2250.      return(TRUE);
  2251. }
  2252. lock = UT_LIST_GET_PREV(un_member.tab_lock.locks, lock);
  2253. }
  2254. return(FALSE);
  2255. }
  2256. /*************************************************************************
  2257. Locks the specified database table in the mode given. If the lock cannot
  2258. be granted immediately, the query thread is put to wait. */
  2259. ulint
  2260. lock_table(
  2261. /*=======*/
  2262. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  2263. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  2264. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  2265. does nothing */
  2266. dict_table_t* table, /* in: database table in dictionary cache */
  2267. ulint mode, /* in: lock mode */
  2268. que_thr_t* thr) /* in: query thread */
  2269. {
  2270. trx_t* trx;
  2271. ulint err;
  2272. ut_ad(table && thr);
  2273. if (flags & BTR_NO_LOCKING_FLAG) {
  2274. return(DB_SUCCESS);
  2275. }
  2276. trx = thr_get_trx(thr);
  2277. lock_mutex_enter_kernel();
  2278. /* Look for stronger locks the same trx already has on the table */
  2279. if (lock_table_has(trx, table, mode)) {
  2280. lock_mutex_exit_kernel();
  2281. return(DB_SUCCESS);
  2282. }
  2283. /* We have to check if the new lock is compatible with any locks
  2284. other transactions have in the table lock queue. */
  2285. if (lock_table_other_has_incompatible(trx, LOCK_WAIT, table, mode)) {
  2286. /* Another trx has request on the table in an incompatible
  2287. mode: this trx must wait */
  2288. err = lock_table_enqueue_waiting(mode, table, thr);
  2289. lock_mutex_exit_kernel();
  2290. return(err);
  2291. }
  2292. lock_table_create(table, mode, trx);
  2293. lock_mutex_exit_kernel();
  2294. return(DB_SUCCESS);
  2295. }
  2296. /*************************************************************************
  2297. Checks if there are any locks set on the table. */
  2298. ibool
  2299. lock_is_on_table(
  2300. /*=============*/
  2301. /* out: TRUE if there are lock(s) */
  2302. dict_table_t* table) /* in: database table in dictionary cache */
  2303. {
  2304. ibool ret;
  2305. ut_ad(table);
  2306. lock_mutex_enter_kernel();
  2307. if (UT_LIST_GET_LAST(table->locks)) {
  2308. ret = TRUE;
  2309. } else {
  2310. ret = FALSE;
  2311. }
  2312. lock_mutex_exit_kernel();
  2313. return(ret);
  2314. }
  2315. /*************************************************************************
  2316. Checks if a waiting table lock request still has to wait in a queue. */
  2317. static
  2318. ibool
  2319. lock_table_has_to_wait_in_queue(
  2320. /*============================*/
  2321. /* out: TRUE if still has to wait */
  2322. lock_t* wait_lock) /* in: waiting table lock */
  2323. {
  2324. dict_table_t* table;
  2325. lock_t* lock;
  2326.   ut_ad(lock_get_wait(wait_lock));
  2327.  
  2328. table = wait_lock->un_member.tab_lock.table;
  2329. lock = UT_LIST_GET_FIRST(table->locks);
  2330. while (lock != wait_lock) {
  2331. if (lock_has_to_wait(wait_lock, lock)) {
  2332.      return(TRUE);
  2333. }
  2334. lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
  2335. }
  2336. return(FALSE);
  2337. }
  2338. /*****************************************************************
  2339. Removes a table lock request, waiting or granted, from the queue and grants
  2340. locks to other transactions in the queue, if they now are entitled to a
  2341. lock. */
  2342. void
  2343. lock_table_dequeue(
  2344. /*===============*/
  2345. lock_t* in_lock)/* in: table lock object; transactions waiting
  2346. behind will get their lock requests granted, if
  2347. they are now qualified to it */
  2348. {
  2349. lock_t* lock;
  2350. ut_ad(mutex_own(&kernel_mutex));
  2351. ut_ad(lock_get_type(in_lock) == LOCK_TABLE);
  2352. lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, in_lock);
  2353. lock_table_remove_low(in_lock);
  2354. /* Check if waiting locks in the queue can now be granted: grant
  2355. locks if there are no conflicting locks ahead. */
  2356. while (lock != NULL) {
  2357. if (lock_get_wait(lock)
  2358. && !lock_table_has_to_wait_in_queue(lock)) {
  2359. /* Grant the lock */
  2360. lock_grant(lock);
  2361. }
  2362. lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
  2363. }
  2364. }
  2365. /*=========================== LOCK RELEASE ==============================*/
  2366. /*************************************************************************
  2367. Releases transaction locks, and releases possible other transactions waiting
  2368. because of these locks. */
  2369. void
  2370. lock_release_off_kernel(
  2371. /*====================*/
  2372. trx_t* trx) /* in: transaction */
  2373. {
  2374. ulint count;
  2375. lock_t* lock;
  2376. ut_ad(mutex_own(&kernel_mutex));
  2377. lock = UT_LIST_GET_LAST(trx->trx_locks);
  2378. count = 0;
  2379. while (lock != NULL) {
  2380. count++;
  2381. if (lock_get_type(lock) == LOCK_REC) {
  2382. lock_rec_dequeue_from_page(lock);
  2383. } else {
  2384. ut_ad(lock_get_type(lock) == LOCK_TABLE);
  2385. lock_table_dequeue(lock);
  2386. }
  2387. if (count == LOCK_RELEASE_KERNEL_INTERVAL) {
  2388. /* Release the kernel mutex for a while, so that we
  2389. do not monopolize it */
  2390. lock_mutex_exit_kernel();
  2391. lock_mutex_enter_kernel();
  2392. count = 0;
  2393. }
  2394. lock = UT_LIST_GET_LAST(trx->trx_locks);
  2395. }
  2396. mem_heap_empty(trx->lock_heap);
  2397. }
  2398. /*===================== VALIDATION AND DEBUGGING  ====================*/
  2399. /*************************************************************************
  2400. Prints info of a table lock. */
  2401. void
  2402. lock_table_print(
  2403. /*=============*/
  2404. lock_t* lock) /* in: table type lock */
  2405. {
  2406. ut_ad(mutex_own(&kernel_mutex));
  2407. ut_a(lock_get_type(lock) == LOCK_TABLE);
  2408. printf("nTABLE LOCK table %s trx id %lu %lu",
  2409. lock->un_member.tab_lock.table->name,
  2410. (lock->trx)->id.high, (lock->trx)->id.low);
  2411. if (lock_get_mode(lock) == LOCK_S) {
  2412. printf(" lock mode S");
  2413. } else if (lock_get_mode(lock) == LOCK_X) {
  2414. printf(" lock_mode X");
  2415. } else if (lock_get_mode(lock) == LOCK_IS) {
  2416. printf(" lock_mode IS");
  2417. } else if (lock_get_mode(lock) == LOCK_IX) {
  2418. printf(" lock_mode IX");
  2419. } else {
  2420. ut_error;
  2421. }
  2422. if (lock_get_wait(lock)) {
  2423. printf(" waiting");
  2424. }
  2425. printf("n");
  2426. }
  2427. /*************************************************************************
  2428. Prints info of a record lock. */
  2429. void
  2430. lock_rec_print(
  2431. /*===========*/
  2432. lock_t* lock) /* in: record type lock */
  2433. {
  2434. page_t* page;
  2435. ulint space;
  2436. ulint page_no;
  2437. ulint i;
  2438. mtr_t mtr;
  2439. ut_ad(mutex_own(&kernel_mutex));
  2440. ut_a(lock_get_type(lock) == LOCK_REC);
  2441. space = lock->un_member.rec_lock.space;
  2442.   page_no = lock->un_member.rec_lock.page_no;
  2443. printf("nRECORD LOCKS space id %lu page no %lu n bits %lu",
  2444.     space, page_no, lock_rec_get_n_bits(lock));
  2445. printf(" index %s trx id %lu %lu", (lock->index)->name,
  2446. (lock->trx)->id.high, (lock->trx)->id.low);
  2447. if (lock_get_mode(lock) == LOCK_S) {
  2448. printf(" lock mode S");
  2449. } else if (lock_get_mode(lock) == LOCK_X) {
  2450. printf(" lock_mode X");
  2451. } else {
  2452. ut_error;
  2453. }
  2454. if (lock_rec_get_gap(lock)) {
  2455. printf(" gap type lock");
  2456. }
  2457. if (lock_get_wait(lock)) {
  2458. printf(" waiting");
  2459. }
  2460. printf("n");
  2461. mtr_start(&mtr);
  2462. /* If the page is not in the buffer pool, we cannot load it
  2463. because we have the kernel mutex and ibuf operations would
  2464. break the latching order */
  2465. page = buf_page_get_gen(space, page_no, RW_NO_LATCH,
  2466. NULL, BUF_GET_IF_IN_POOL,
  2467. #ifdef UNIV_SYNC_DEBUG
  2468. IB__FILE__, __LINE__,
  2469. #endif
  2470. &mtr);
  2471. if (page) {
  2472. page = buf_page_get_nowait(space, page_no, RW_S_LATCH, &mtr);
  2473. }
  2474. if (page) {
  2475. buf_page_dbg_add_level(page, SYNC_NO_ORDER_CHECK);
  2476. }
  2477. for (i = 0; i < lock_rec_get_n_bits(lock); i++) {
  2478. if (lock_rec_get_nth_bit(lock, i)) {
  2479. printf("Record lock, heap no %lu ", i);
  2480. if (page) {
  2481. rec_print(page_find_rec_with_heap_no(page, i));
  2482. }
  2483. printf("n");
  2484. }
  2485. }
  2486. mtr_commit(&mtr);
  2487. }
  2488. /*************************************************************************
  2489. Calculates the number of record lock structs in the record lock hash table. */
  2490. static
  2491. ulint
  2492. lock_get_n_rec_locks(void)
  2493. /*======================*/
  2494. {
  2495. lock_t* lock;
  2496. ulint n_locks = 0;
  2497. ulint i;
  2498. ut_ad(mutex_own(&kernel_mutex));
  2499. for (i = 0; i < hash_get_n_cells(lock_sys->rec_hash); i++) {
  2500. lock = HASH_GET_FIRST(lock_sys->rec_hash, i);
  2501. while (lock) {
  2502. n_locks++;
  2503. lock = HASH_GET_NEXT(hash, lock);
  2504. }
  2505. }
  2506. return(n_locks);
  2507. }
  2508. /*************************************************************************
  2509. Prints info of locks for all transactions. */
  2510. void
  2511. lock_print_info(void)
  2512. /*=================*/
  2513. {
  2514. lock_t* lock;
  2515. trx_t* trx;
  2516. ulint space;
  2517. ulint page_no;
  2518. page_t* page;
  2519. ibool load_page_first = TRUE;
  2520. ulint nth_trx = 0;
  2521. ulint nth_lock = 0;
  2522. ulint i;
  2523. mtr_t mtr;
  2524. lock_mutex_enter_kernel();
  2525. printf("------------------------------------n");
  2526. printf("LOCK INFO:n");
  2527. printf("Number of locks in the record hash table %lun",
  2528. lock_get_n_rec_locks());
  2529. loop:
  2530. trx = UT_LIST_GET_FIRST(trx_sys->trx_list);
  2531. i = 0;
  2532. while (trx && (i < nth_trx)) {
  2533. trx = UT_LIST_GET_NEXT(trx_list, trx);
  2534. i++;
  2535. }
  2536. if (trx == NULL) {
  2537. lock_mutex_exit_kernel();
  2538. lock_validate();
  2539. return;
  2540. }
  2541. if (nth_lock == 0) {
  2542. printf("nLOCKS FOR TRANSACTION ID %lu %lun", trx->id.high,
  2543. trx->id.low);
  2544. }
  2545. i = 0;
  2546. lock = UT_LIST_GET_FIRST(trx->trx_locks);
  2547. while (lock && (i < nth_lock)) {
  2548. lock = UT_LIST_GET_NEXT(trx_locks, lock);
  2549. i++;
  2550. }
  2551. if (lock == NULL) {
  2552. nth_trx++;
  2553. nth_lock = 0;
  2554. goto loop;
  2555. }
  2556. if (lock_get_type(lock) == LOCK_REC) {
  2557. space = lock->un_member.rec_lock.space;
  2558.   page_no = lock->un_member.rec_lock.page_no;
  2559.   if (load_page_first) {
  2560. lock_mutex_exit_kernel();
  2561. mtr_start(&mtr);
  2562. page = buf_page_get_with_no_latch(space, page_no, &mtr);
  2563. mtr_commit(&mtr);
  2564. load_page_first = FALSE;
  2565. lock_mutex_enter_kernel();
  2566. goto loop;
  2567. }
  2568. lock_rec_print(lock);
  2569. } else {
  2570. ut_ad(lock_get_type(lock) == LOCK_TABLE);
  2571. lock_table_print(lock);
  2572. }
  2573. load_page_first = TRUE;
  2574. nth_lock++;
  2575. goto loop;
  2576. }
  2577. /*************************************************************************
  2578. Validates the lock queue on a table. */
  2579. ibool
  2580. lock_table_queue_validate(
  2581. /*======================*/
  2582. /* out: TRUE if ok */
  2583. dict_table_t* table) /* in: table */
  2584. {
  2585. lock_t* lock;
  2586. ibool is_waiting;
  2587. ut_ad(mutex_own(&kernel_mutex));
  2588. is_waiting = FALSE;
  2589. lock = UT_LIST_GET_FIRST(table->locks);
  2590. while (lock) {
  2591. ut_a(((lock->trx)->conc_state == TRX_ACTIVE)
  2592.      || ((lock->trx)->conc_state == TRX_COMMITTED_IN_MEMORY));
  2593. if (!lock_get_wait(lock)) {
  2594. ut_a(!is_waiting);
  2595. ut_a(!lock_table_other_has_incompatible(lock->trx, 0,
  2596. table, lock_get_mode(lock)));
  2597. } else {
  2598. is_waiting = TRUE;
  2599. ut_a(lock_table_has_to_wait_in_queue(lock));
  2600. }
  2601. lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
  2602. }
  2603. return(TRUE);
  2604. }
  2605. /*************************************************************************
  2606. Validates the lock queue on a single record. */
  2607. ibool
  2608. lock_rec_queue_validate(
  2609. /*====================*/
  2610. /* out: TRUE if ok */
  2611. rec_t* rec, /* in: record to look at */
  2612. dict_index_t* index) /* in: index, or NULL if not known */
  2613. {
  2614. trx_t* impl_trx;
  2615. lock_t* lock;
  2616. ibool is_waiting;
  2617. ut_a(rec);
  2618. lock_mutex_enter_kernel();
  2619. if (page_rec_is_supremum(rec) || page_rec_is_infimum(rec)) {
  2620. lock = lock_rec_get_first(rec);
  2621. while (lock) {
  2622. ut_a(lock->trx->conc_state == TRX_ACTIVE
  2623.            || lock->trx->conc_state
  2624. == TRX_COMMITTED_IN_MEMORY);
  2625. ut_a(trx_in_trx_list(lock->trx));
  2626. if (lock_get_wait(lock)) {
  2627. ut_a(lock_rec_has_to_wait_in_queue(lock));
  2628. }
  2629. if (index) {
  2630. ut_a(lock->index == index);
  2631. }
  2632. lock = lock_rec_get_next(rec, lock);
  2633. }
  2634. lock_mutex_exit_kernel();
  2635.      return(TRUE);
  2636. }
  2637. if (index && index->type & DICT_CLUSTERED) {
  2638. impl_trx = lock_clust_rec_some_has_impl(rec, index);
  2639. if (impl_trx && lock_rec_other_has_expl_req(LOCK_S, 0,
  2640. LOCK_WAIT, rec, impl_trx)) {
  2641. ut_a(lock_rec_has_expl(LOCK_X, rec, impl_trx));
  2642. }
  2643. }
  2644. if (index && !(index->type & DICT_CLUSTERED)) {
  2645. /* The kernel mutex may get released temporarily in the
  2646. next function call: we have to release lock table mutex
  2647. to obey the latching order */
  2648. impl_trx = lock_sec_rec_some_has_impl_off_kernel(rec, index);
  2649. if (impl_trx && lock_rec_other_has_expl_req(LOCK_S, 0,
  2650. LOCK_WAIT, rec, impl_trx)) {
  2651. ut_a(lock_rec_has_expl(LOCK_X, rec, impl_trx));
  2652. }
  2653. }
  2654. is_waiting = FALSE;
  2655. lock = lock_rec_get_first(rec);
  2656. while (lock) {
  2657. ut_a(lock->trx->conc_state == TRX_ACTIVE
  2658.      || lock->trx->conc_state == TRX_COMMITTED_IN_MEMORY);
  2659. ut_a(trx_in_trx_list(lock->trx));
  2660. if (index) {
  2661. ut_a(lock->index == index);
  2662. }
  2663. if (!lock_rec_get_gap(lock) && !lock_get_wait(lock)) {
  2664. ut_a(!is_waiting);
  2665. if (lock_get_mode(lock) == LOCK_S) {
  2666. ut_a(!lock_rec_other_has_expl_req(LOCK_X,
  2667. 0, 0, rec,
  2668. lock->trx));
  2669. } else {
  2670. ut_a(!lock_rec_other_has_expl_req(LOCK_S,
  2671. 0, 0, rec,
  2672. lock->trx));
  2673. }
  2674. } else if (lock_get_wait(lock) && !lock_rec_get_gap(lock)) {
  2675. is_waiting = TRUE;
  2676. ut_a(lock_rec_has_to_wait_in_queue(lock));
  2677. }
  2678. lock = lock_rec_get_next(rec, lock);
  2679. }
  2680. lock_mutex_exit_kernel();
  2681. return(TRUE);
  2682. }
  2683. /*************************************************************************
  2684. Validates the record lock queues on a page. */
  2685. ibool
  2686. lock_rec_validate_page(
  2687. /*===================*/
  2688. /* out: TRUE if ok */
  2689. ulint space, /* in: space id */
  2690. ulint page_no)/* in: page number */
  2691. {
  2692. dict_index_t* index;
  2693. page_t* page;
  2694. lock_t* lock;
  2695. rec_t* rec;
  2696. ulint nth_lock = 0;
  2697. ulint nth_bit = 0;
  2698. ulint i;
  2699. mtr_t mtr;
  2700. ut_ad(!mutex_own(&kernel_mutex));
  2701. mtr_start(&mtr);
  2702. page = buf_page_get(space, page_no, RW_X_LATCH, &mtr);
  2703. buf_page_dbg_add_level(page, SYNC_NO_ORDER_CHECK);
  2704. lock_mutex_enter_kernel();
  2705. loop:
  2706. lock = lock_rec_get_first_on_page_addr(space, page_no);
  2707. if (!lock) {
  2708. goto function_exit;
  2709. }
  2710. for (i = 0; i < nth_lock; i++) {
  2711. lock = lock_rec_get_next_on_page(lock);
  2712. if (!lock) {
  2713. goto function_exit;
  2714. }
  2715. }
  2716. ut_a(trx_in_trx_list(lock->trx));
  2717. ut_a(((lock->trx)->conc_state == TRX_ACTIVE)
  2718.      || ((lock->trx)->conc_state == TRX_COMMITTED_IN_MEMORY));
  2719. for (i = nth_bit; i < lock_rec_get_n_bits(lock); i++) {
  2720. if ((i == 1) || lock_rec_get_nth_bit(lock, i)) {
  2721. index = lock->index;
  2722. rec = page_find_rec_with_heap_no(page, i);
  2723. printf("Validating %lu %lun", space, page_no);
  2724. lock_mutex_exit_kernel();
  2725. lock_rec_queue_validate(rec, index);
  2726. lock_mutex_enter_kernel();
  2727. nth_bit = i + 1;
  2728. goto loop;
  2729. }
  2730. }
  2731. nth_bit = 0;
  2732. nth_lock++;
  2733. goto loop;
  2734. function_exit:
  2735. lock_mutex_exit_kernel();
  2736. mtr_commit(&mtr);
  2737. return(TRUE);
  2738. }
  2739. /*************************************************************************
  2740. Validates the lock system. */
  2741. ibool
  2742. lock_validate(void)
  2743. /*===============*/
  2744. /* out: TRUE if ok */
  2745. {
  2746. lock_t* lock;
  2747. trx_t* trx;
  2748. dulint limit;
  2749. ulint space;
  2750. ulint page_no;
  2751. ulint i;
  2752. lock_mutex_enter_kernel();
  2753. trx = UT_LIST_GET_FIRST(trx_sys->trx_list);
  2754. while (trx) {
  2755. lock = UT_LIST_GET_FIRST(trx->trx_locks);
  2756. while (lock) {
  2757. if (lock_get_type(lock) == LOCK_TABLE) {
  2758. lock_table_queue_validate(
  2759. lock->un_member.tab_lock.table);
  2760. }
  2761. lock = UT_LIST_GET_NEXT(trx_locks, lock);
  2762. }
  2763. trx = UT_LIST_GET_NEXT(trx_list, trx);
  2764. }
  2765. for (i = 0; i < hash_get_n_cells(lock_sys->rec_hash); i++) {
  2766. limit = ut_dulint_zero;
  2767. for (;;) {
  2768. lock = HASH_GET_FIRST(lock_sys->rec_hash, i);
  2769. while (lock) {
  2770. ut_a(trx_in_trx_list(lock->trx));
  2771. space = lock->un_member.rec_lock.space;
  2772. page_no = lock->un_member.rec_lock.page_no;
  2773. if (ut_dulint_cmp(
  2774. ut_dulint_create(space, page_no),
  2775. limit) >= 0) {
  2776. break;
  2777. }
  2778. lock = HASH_GET_NEXT(hash, lock);
  2779. }
  2780. if (!lock) {
  2781. break;
  2782. }
  2783. lock_mutex_exit_kernel();
  2784. lock_rec_validate_page(space, page_no);
  2785. lock_mutex_enter_kernel();
  2786. limit = ut_dulint_create(space, page_no + 1);
  2787. }
  2788. }
  2789. lock_mutex_exit_kernel();
  2790. return(TRUE);
  2791. }
  2792. /*============ RECORD LOCK CHECKS FOR ROW OPERATIONS ====================*/
  2793. /*************************************************************************
  2794. Checks if locks of other transactions prevent an immediate insert of
  2795. a record. If they do, first tests if the query thread should anyway
  2796. be suspended for some reason; if not, then puts the transaction and
  2797. the query thread to the lock wait state and inserts a waiting request
  2798. for a gap x-lock to the lock queue. */
  2799. ulint
  2800. lock_rec_insert_check_and_lock(
  2801. /*===========================*/
  2802. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  2803. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  2804. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  2805. does nothing */
  2806. rec_t* rec, /* in: record after which to insert */
  2807. dict_index_t* index, /* in: index */
  2808. que_thr_t* thr, /* in: query thread */
  2809. ibool* inherit)/* out: set to TRUE if the new inserted
  2810. record maybe should inherit LOCK_GAP type
  2811. locks from the successor record */
  2812. {
  2813. rec_t* next_rec;
  2814. trx_t* trx;
  2815. lock_t* lock;
  2816. ulint err;
  2817. if (flags & BTR_NO_LOCKING_FLAG) {
  2818. return(DB_SUCCESS);
  2819. }
  2820. ut_ad(rec);
  2821. trx = thr_get_trx(thr);
  2822. next_rec = page_rec_get_next(rec);
  2823. *inherit = FALSE;
  2824. lock_mutex_enter_kernel();
  2825. ut_ad(lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
  2826. lock = lock_rec_get_first(next_rec);
  2827. if (lock == NULL) {
  2828. /* We optimize CPU time usage in the simplest case */
  2829. lock_mutex_exit_kernel();
  2830. if (!(index->type & DICT_CLUSTERED)) {
  2831. /* Update the page max trx id field */
  2832. page_update_max_trx_id(buf_frame_align(rec),
  2833. thr_get_trx(thr)->id);
  2834. }
  2835. return(DB_SUCCESS);
  2836. }
  2837. *inherit = TRUE;
  2838. /* If another transaction has an explicit lock request, gap or not,
  2839. waiting or granted, on the successor, the insert has to wait */
  2840. if (lock_rec_other_has_expl_req(LOCK_S, LOCK_GAP, LOCK_WAIT, next_rec,
  2841. trx)) {
  2842. err = lock_rec_enqueue_waiting(LOCK_X | LOCK_GAP, next_rec,
  2843. index, thr);
  2844. } else {
  2845. err = DB_SUCCESS;
  2846. }
  2847. lock_mutex_exit_kernel();
  2848. if (!(index->type & DICT_CLUSTERED) && (err == DB_SUCCESS)) {
  2849. /* Update the page max trx id field */
  2850. page_update_max_trx_id(buf_frame_align(rec),
  2851. thr_get_trx(thr)->id);
  2852. }
  2853. ut_ad(lock_rec_queue_validate(next_rec, index));
  2854. return(err);
  2855. }
  2856. /*************************************************************************
  2857. If a transaction has an implicit x-lock on a record, but no explicit x-lock
  2858. set on the record, sets one for it. NOTE that in the case of a secondary
  2859. index, the kernel mutex may get temporarily released. */
  2860. static
  2861. void
  2862. lock_rec_convert_impl_to_expl(
  2863. /*==========================*/
  2864. rec_t* rec, /* in: user record on page */
  2865. dict_index_t* index) /* in: index of record */
  2866. {
  2867. trx_t* impl_trx;
  2868. ut_ad(mutex_own(&kernel_mutex));
  2869. ut_ad(page_rec_is_user_rec(rec));
  2870. if (index->type & DICT_CLUSTERED) {
  2871. impl_trx = lock_clust_rec_some_has_impl(rec, index);
  2872. } else {
  2873. impl_trx = lock_sec_rec_some_has_impl_off_kernel(rec, index);
  2874. }
  2875. if (impl_trx) {
  2876. /* If the transaction has no explicit x-lock set on the
  2877. record, set one for it */
  2878. if (!lock_rec_has_expl(LOCK_X, rec, impl_trx)) {
  2879. lock_rec_add_to_queue(LOCK_REC | LOCK_X, rec, index,
  2880. impl_trx);
  2881. }
  2882. }
  2883. }
  2884. /*************************************************************************
  2885. Checks if locks of other transactions prevent an immediate modify (update,
  2886. delete mark, or delete unmark) of a clustered index record. If they do,
  2887. first tests if the query thread should anyway be suspended for some
  2888. reason; if not, then puts the transaction and the query thread to the
  2889. lock wait state and inserts a waiting request for a record x-lock to the
  2890. lock queue. */
  2891. ulint
  2892. lock_clust_rec_modify_check_and_lock(
  2893. /*=================================*/
  2894. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  2895. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  2896. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  2897. does nothing */
  2898. rec_t* rec, /* in: record which should be modified */
  2899. dict_index_t* index, /* in: clustered index */
  2900. que_thr_t* thr) /* in: query thread */
  2901. {
  2902. trx_t* trx;
  2903. ulint err;
  2904. if (flags & BTR_NO_LOCKING_FLAG) {
  2905. return(DB_SUCCESS);
  2906. }
  2907. ut_ad(index->type & DICT_CLUSTERED);
  2908. trx = thr_get_trx(thr);
  2909. lock_mutex_enter_kernel();
  2910. ut_ad(lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
  2911. /* If a transaction has no explicit x-lock set on the record, set one
  2912. for it */
  2913. lock_rec_convert_impl_to_expl(rec, index);
  2914. err = lock_rec_lock(TRUE, LOCK_X, rec, index, thr);
  2915. lock_mutex_exit_kernel();
  2916. ut_ad(lock_rec_queue_validate(rec, index));
  2917. return(err);
  2918. }
  2919. /*************************************************************************
  2920. Checks if locks of other transactions prevent an immediate modify (delete
  2921. mark or delete unmark) of a secondary index record. */
  2922. ulint
  2923. lock_sec_rec_modify_check_and_lock(
  2924. /*===============================*/
  2925. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  2926. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  2927. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  2928. does nothing */
  2929. rec_t* rec, /* in: record which should be modified;
  2930. NOTE: as this is a secondary index, we
  2931. always have to modify the clustered index
  2932. record first: see the comment below */
  2933. dict_index_t* index, /* in: secondary index */
  2934. que_thr_t* thr) /* in: query thread */
  2935. {
  2936. ulint err;
  2937. if (flags & BTR_NO_LOCKING_FLAG) {
  2938. return(DB_SUCCESS);
  2939. }
  2940. ut_ad(!(index->type & DICT_CLUSTERED));
  2941. /* Another transaction cannot have an implicit lock on the record,
  2942. because when we come here, we already have modified the clustered
  2943. index record, and this would not have been possible if another active
  2944. transaction had modified this secondary index record. */
  2945. lock_mutex_enter_kernel();
  2946. ut_ad(lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
  2947. err = lock_rec_lock(TRUE, LOCK_X, rec, index, thr);
  2948. lock_mutex_exit_kernel();
  2949. ut_ad(lock_rec_queue_validate(rec, index));
  2950. if (err == DB_SUCCESS) {
  2951. /* Update the page max trx id field */
  2952. page_update_max_trx_id(buf_frame_align(rec),
  2953. thr_get_trx(thr)->id);
  2954. }
  2955. return(err);
  2956. }
  2957. /*************************************************************************
  2958. Like the counterpart for a clustered index below, but now we read a
  2959. secondary index record. */
  2960. ulint
  2961. lock_sec_rec_read_check_and_lock(
  2962. /*=============================*/
  2963. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  2964. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  2965. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  2966. does nothing */
  2967. rec_t* rec, /* in: user record or page supremum record
  2968. which should be read or passed over by a read
  2969. cursor */
  2970. dict_index_t* index, /* in: secondary index */
  2971. ulint mode, /* in: mode of the lock which the read cursor
  2972. should set on records: LOCK_S or LOCK_X; the
  2973. latter is possible in SELECT FOR UPDATE */
  2974. que_thr_t* thr) /* in: query thread */
  2975. {
  2976. ulint err;
  2977. ut_ad(!(index->type & DICT_CLUSTERED));
  2978. ut_ad(page_rec_is_user_rec(rec) || page_rec_is_supremum(rec));
  2979. if (flags & BTR_NO_LOCKING_FLAG) {
  2980. return(DB_SUCCESS);
  2981. }
  2982. lock_mutex_enter_kernel();
  2983. ut_ad((mode != LOCK_X)
  2984.       || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
  2985. ut_ad((mode != LOCK_S)
  2986.       || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
  2987. /* Some transaction may have an implicit x-lock on the record only
  2988. if the max trx id for the page >= min trx id for the trx list or a
  2989. database recovery is running. */
  2990. if (((ut_dulint_cmp(page_get_max_trx_id(buf_frame_align(rec)),
  2991. trx_list_get_min_trx_id()) >= 0)
  2992.       || recv_recovery_is_on())
  2993.      && !page_rec_is_supremum(rec)) {
  2994.   lock_rec_convert_impl_to_expl(rec, index);
  2995. }
  2996. err = lock_rec_lock(FALSE, mode, rec, index, thr);
  2997. lock_mutex_exit_kernel();
  2998. ut_ad(lock_rec_queue_validate(rec, index));
  2999. return(err);
  3000. }
  3001. /*************************************************************************
  3002. Checks if locks of other transactions prevent an immediate read, or passing
  3003. over by a read cursor, of a clustered index record. If they do, first tests
  3004. if the query thread should anyway be suspended for some reason; if not, then
  3005. puts the transaction and the query thread to the lock wait state and inserts a
  3006. waiting request for a record lock to the lock queue. Sets the requested mode
  3007. lock on the record. */
  3008. ulint
  3009. lock_clust_rec_read_check_and_lock(
  3010. /*===============================*/
  3011. /* out: DB_SUCCESS, DB_LOCK_WAIT,
  3012. DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
  3013. ulint flags, /* in: if BTR_NO_LOCKING_FLAG bit is set,
  3014. does nothing */
  3015. rec_t* rec, /* in: user record or page supremum record
  3016. which should be read or passed over by a read
  3017. cursor */
  3018. dict_index_t* index, /* in: clustered index */
  3019. ulint mode, /* in: mode of the lock which the read cursor
  3020. should set on records: LOCK_S or LOCK_X; the
  3021. latter is possible in SELECT FOR UPDATE */
  3022. que_thr_t* thr) /* in: query thread */
  3023. {
  3024. ulint err;
  3025. ut_ad(index->type & DICT_CLUSTERED);
  3026. ut_ad(page_rec_is_user_rec(rec) || page_rec_is_supremum(rec));
  3027. if (flags & BTR_NO_LOCKING_FLAG) {
  3028. return(DB_SUCCESS);
  3029. }
  3030. lock_mutex_enter_kernel();
  3031. ut_ad((mode != LOCK_X)
  3032.       || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
  3033. ut_ad((mode != LOCK_S)
  3034.       || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
  3035. if (!page_rec_is_supremum(rec)) {
  3036.       
  3037. lock_rec_convert_impl_to_expl(rec, index);
  3038. }
  3039. err = lock_rec_lock(FALSE, mode, rec, index, thr);
  3040. lock_mutex_exit_kernel();
  3041. ut_ad(lock_rec_queue_validate(rec, index));
  3042. return(err);
  3043. }