btr0cur.c
上传用户:tsgydb
上传日期:2007-04-14
资源大小:10674k
文件大小:57k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. /******************************************************
  2. The index tree cursor
  3. All changes that row operations make to a B-tree or the records
  4. there must go through this module! Undo log records are written here
  5. of every modify or insert of a clustered index record.
  6. NOTE!!!
  7. To make sure we do not run out of disk space during a pessimistic
  8. insert or update, we have to reserve 2 x the height of the index tree
  9. many pages in the tablespace before we start the operation, because
  10. if leaf splitting has been started, it is difficult to undo, except
  11. by crashing the database and doing a roll-forward.
  12. (c) 1994-1996 Innobase Oy
  13. Created 10/16/1994 Heikki Tuuri
  14. *******************************************************/
  15. #include "btr0cur.h"
  16. #ifdef UNIV_NONINL
  17. #include "btr0cur.ic"
  18. #endif
  19. #include "page0page.h"
  20. #include "rem0rec.h"
  21. #include "rem0cmp.h"
  22. #include "btr0btr.h"
  23. #include "btr0sea.h"
  24. #include "row0upd.h"
  25. #include "trx0rec.h"
  26. #include "que0que.h"
  27. #include "row0row.h"
  28. #include "srv0srv.h"
  29. #include "ibuf0ibuf.h"
  30. #include "lock0lock.h"
  31. ulint btr_cur_rnd = 0;
  32. ulint btr_cur_n_non_sea = 0;
  33. /* In the optimistic insert, if the insert does not fit, but this much space
  34. can be released by page reorganize, then it is reorganized */
  35. #define BTR_CUR_PAGE_REORGANIZE_LIMIT (UNIV_PAGE_SIZE / 32)
  36. /* When estimating number of different kay values in an index sample
  37. this many index pages */
  38. #define BTR_KEY_VAL_ESTIMATE_N_PAGES 8
  39. /***********************************************************************
  40. Adds path information to the cursor for the current page, for which
  41. the binary search has been performed. */
  42. static
  43. void
  44. btr_cur_add_path_info(
  45. /*==================*/
  46. btr_cur_t* cursor, /* in: cursor positioned on a page */
  47. ulint height, /* in: height of the page in tree;
  48. 0 means leaf node */
  49. ulint root_height); /* in: root node height in tree */
  50. /*==================== B-TREE SEARCH =========================*/
  51. /************************************************************************
  52. Latches the leaf page or pages requested. */
  53. static
  54. void
  55. btr_cur_latch_leaves(
  56. /*=================*/
  57. dict_tree_t* tree, /* in: index tree */
  58. page_t* page, /* in: leaf page where the search
  59. converged */
  60. ulint space, /* in: space id */
  61. ulint page_no, /* in: page number of the leaf */
  62. ulint latch_mode, /* in: BTR_SEARCH_LEAF, ... */
  63. btr_cur_t* cursor,  /* in: cursor */
  64. mtr_t* mtr) /* in: mtr */
  65. {
  66. ulint left_page_no;
  67. ulint right_page_no;
  68. ut_ad(tree && page && mtr);
  69. if (latch_mode == BTR_SEARCH_LEAF) {
  70. btr_page_get(space, page_no, RW_S_LATCH, mtr);
  71. } else if (latch_mode == BTR_MODIFY_LEAF) {
  72. btr_page_get(space, page_no, RW_X_LATCH, mtr);
  73. } else if (latch_mode == BTR_MODIFY_TREE) {
  74. /* x-latch also brothers from left to right */
  75. left_page_no = btr_page_get_prev(page, mtr);
  76. if (left_page_no != FIL_NULL) {
  77. btr_page_get(space, left_page_no, RW_X_LATCH, mtr);
  78. }
  79. btr_page_get(space, page_no, RW_X_LATCH, mtr);
  80. right_page_no = btr_page_get_next(page, mtr);
  81. if (right_page_no != FIL_NULL) {
  82. btr_page_get(space, right_page_no, RW_X_LATCH, mtr);
  83. }
  84. } else if (latch_mode == BTR_SEARCH_PREV) {
  85. /* s-latch also left brother */
  86. left_page_no = btr_page_get_prev(page, mtr);
  87. if (left_page_no != FIL_NULL) {
  88. cursor->left_page = btr_page_get(space, left_page_no,
  89. RW_S_LATCH, mtr);
  90. }
  91. btr_page_get(space, page_no, RW_S_LATCH, mtr);
  92. } else if (latch_mode == BTR_MODIFY_PREV) {
  93. /* x-latch also left brother */
  94. left_page_no = btr_page_get_prev(page, mtr);
  95. if (left_page_no != FIL_NULL) {
  96. cursor->left_page = btr_page_get(space, left_page_no,
  97. RW_X_LATCH, mtr);
  98. }
  99. btr_page_get(space, page_no, RW_X_LATCH, mtr);
  100. } else {
  101. ut_error;
  102. }
  103. }
  104. /************************************************************************
  105. Searches an index tree and positions a tree cursor on a given level.
  106. NOTE: n_fields_cmp in tuple must be set so that it cannot be compared
  107. to node pointer page number fields on the upper levels of the tree!
  108. Note that if mode is PAGE_CUR_LE, which is used in inserts, then
  109. cursor->up_match and cursor->low_match both will have sensible values.
  110. If mode is PAGE_CUR_GE, then up_match will a have a sensible value. */
  111. void
  112. btr_cur_search_to_nth_level(
  113. /*========================*/
  114. dict_index_t* index, /* in: index */
  115. ulint level, /* in: the tree level of search */
  116. dtuple_t* tuple, /* in: data tuple; NOTE: n_fields_cmp in
  117. tuple must be set so that it cannot get
  118. compared to the node ptr page number field! */
  119. ulint mode, /* in: PAGE_CUR_L, ...;
  120. NOTE that if the search is made using a unique
  121. prefix of a record, mode should be
  122. PAGE_CUR_LE, not PAGE_CUR_GE, as the latter
  123. may end up on the previous page relative to the
  124. record! Inserts should always be made using
  125. PAGE_CUR_LE to search the position! */
  126. ulint latch_mode, /* in: BTR_SEARCH_LEAF, ..., ORed with
  127. BTR_INSERT and BTR_ESTIMATE;
  128. cursor->left_page is used to store a pointer
  129. to the left neighbor page, in the cases
  130. BTR_SEARCH_PREV and BTR_MODIFY_PREV */
  131. btr_cur_t* cursor, /* in/out: tree cursor; the cursor page is
  132. s- or x-latched */
  133. ulint has_search_latch,/* in: info on the latch mode the
  134. caller currently has on btr_search_latch:
  135. RW_S_LATCH, or 0 */
  136. mtr_t* mtr) /* in: mtr */
  137. {
  138. dict_tree_t* tree;
  139. page_cur_t* page_cursor;
  140. page_t* page;
  141. page_t* guess;
  142. rec_t* node_ptr;
  143. ulint page_no;
  144. ulint space;
  145. ulint up_match;
  146. ulint up_bytes;
  147. ulint low_match;
  148. ulint  low_bytes;
  149. ulint height;
  150. ulint savepoint;
  151. ulint rw_latch;
  152. ulint page_mode;
  153. ulint insert_planned;
  154. ulint buf_mode;
  155. ulint estimate;
  156. ulint root_height;
  157. #ifdef BTR_CUR_ADAPT
  158. btr_search_t* info;
  159. #endif
  160. /* Currently, PAGE_CUR_LE is the only search mode used for searches
  161. ending to upper levels */
  162. ut_ad(level == 0 || mode == PAGE_CUR_LE);
  163. ut_ad(dict_tree_check_search_tuple(index->tree, tuple));
  164. ut_ad(!(index->type & DICT_IBUF) || ibuf_inside());
  165. ut_ad(dtuple_check_typed(tuple));
  166. #ifdef UNIV_DEBUG
  167. cursor->up_match = ULINT_UNDEFINED;
  168. cursor->low_match = ULINT_UNDEFINED;
  169. #endif
  170. insert_planned = latch_mode & BTR_INSERT;
  171. estimate = latch_mode & BTR_ESTIMATE;
  172. latch_mode = latch_mode & ~(BTR_INSERT | BTR_ESTIMATE);
  173. ut_ad(!insert_planned || (mode == PAGE_CUR_LE));
  174. cursor->flag = BTR_CUR_BINARY;
  175. cursor->index = index;
  176. #ifndef BTR_CUR_ADAPT
  177. guess = NULL;
  178. #else
  179. info = btr_search_get_info(index);
  180. guess = info->root_guess;
  181. #ifdef BTR_CUR_HASH_ADAPT
  182. #ifdef UNIV_SEARCH_PERF_STAT
  183. info->n_searches++;
  184. #endif
  185. if (latch_mode <= BTR_MODIFY_LEAF && info->last_hash_succ
  186. && !estimate
  187.         && btr_search_guess_on_hash(index, info, tuple, mode,
  188. latch_mode, cursor,
  189. has_search_latch, mtr)) {
  190. /* Search using the hash index succeeded */
  191. ut_ad(cursor->up_match != ULINT_UNDEFINED
  192. || mode != PAGE_CUR_GE);
  193. ut_ad(cursor->up_match != ULINT_UNDEFINED
  194. || mode != PAGE_CUR_LE);
  195. ut_ad(cursor->low_match != ULINT_UNDEFINED
  196. || mode != PAGE_CUR_LE);
  197.         return;
  198. }
  199. #endif
  200. #endif
  201. #ifdef UNIV_SEARCH_PERF_STAT
  202. btr_cur_n_non_sea++;
  203. #endif
  204. /* If the hash search did not succeed, do binary search down the
  205. tree */
  206. if (has_search_latch) {
  207. /* Release possible search latch to obey latching order */
  208. rw_lock_s_unlock(&btr_search_latch);
  209. }
  210. savepoint = mtr_set_savepoint(mtr);
  211. tree = index->tree;
  212. if (latch_mode == BTR_MODIFY_TREE) {
  213. mtr_x_lock(dict_tree_get_lock(tree), mtr);
  214. } else if (latch_mode == BTR_CONT_MODIFY_TREE) {
  215. /* Do nothing */
  216. ut_ad(mtr_memo_contains(mtr, dict_tree_get_lock(tree),
  217. MTR_MEMO_X_LOCK));
  218. } else {
  219. mtr_s_lock(dict_tree_get_lock(tree), mtr);
  220. }
  221. page_cursor = btr_cur_get_page_cur(cursor);
  222. space = dict_tree_get_space(tree);
  223. page_no = dict_tree_get_page(tree);
  224. up_match = 0;
  225. up_bytes = 0;
  226. low_match = 0;
  227. low_bytes = 0;
  228. height = ULINT_UNDEFINED;
  229. rw_latch = RW_NO_LATCH;
  230. buf_mode = BUF_GET;
  231. if (mode == PAGE_CUR_GE) {
  232. page_mode = PAGE_CUR_L;
  233. } else if (mode == PAGE_CUR_G) {
  234. page_mode = PAGE_CUR_LE;
  235. } else if (mode == PAGE_CUR_LE) {
  236. page_mode = PAGE_CUR_LE;
  237. } else {
  238. ut_ad(mode == PAGE_CUR_L);
  239. page_mode = PAGE_CUR_L;
  240. }
  241. /* Loop and search until we arrive at the desired level */
  242. for (;;) {
  243. if ((height == 0) && (latch_mode <= BTR_MODIFY_LEAF)) {
  244. rw_latch = latch_mode;
  245. if (insert_planned && ibuf_should_try(index)) {
  246. /* Try insert to the insert buffer if the
  247. page is not in the buffer pool */
  248. buf_mode = BUF_GET_IF_IN_POOL;
  249. }
  250. }
  251. retry_page_get:
  252. page = buf_page_get_gen(space, page_no, rw_latch, guess,
  253. buf_mode,
  254. #ifdef UNIV_SYNC_DEBUG
  255. IB__FILE__, __LINE__,
  256. #endif
  257. mtr);
  258. if (page == NULL) {
  259. /* This must be a search to perform an insert;
  260. try insert to the insert buffer */
  261. ut_ad(buf_mode == BUF_GET_IF_IN_POOL);
  262. ut_ad(insert_planned);
  263. ut_ad(cursor->thr);
  264. if (ibuf_should_try(index) &&
  265. ibuf_insert(tuple, index, space, page_no,
  266. cursor->thr)) {
  267. /* Insertion to the insert buffer succeeded */
  268. cursor->flag = BTR_CUR_INSERT_TO_IBUF;
  269. return;
  270. }
  271. /* Insert to the insert buffer did not succeed:
  272. retry page get */
  273. buf_mode = BUF_GET;
  274. goto retry_page_get;
  275. }
  276. #ifdef UNIV_SYNC_DEBUG
  277. if (rw_latch != RW_NO_LATCH) {
  278. buf_page_dbg_add_level(page, SYNC_TREE_NODE);
  279. }
  280. #endif
  281. ut_ad(0 == ut_dulint_cmp(tree->id,
  282. btr_page_get_index_id(page)));
  283. if (height == ULINT_UNDEFINED) {
  284. /* We are in the root node */
  285. height = btr_page_get_level(page, mtr);
  286. root_height = height;
  287. cursor->tree_height = root_height + 1;
  288. #ifdef BTR_CUR_ADAPT
  289. if (page != guess) {
  290. info->root_guess = page;
  291. }
  292. #endif
  293. }
  294. if (height == 0) {
  295. if (rw_latch == RW_NO_LATCH) {
  296. btr_cur_latch_leaves(tree, page, space,
  297. page_no, latch_mode, cursor,
  298. mtr);
  299. }
  300. if ((latch_mode != BTR_MODIFY_TREE)
  301.     && (latch_mode != BTR_CONT_MODIFY_TREE)) {
  302. /* Release the tree s-latch */
  303. mtr_release_s_latch_at_savepoint(
  304. mtr, savepoint,
  305. dict_tree_get_lock(tree));
  306. }
  307. page_mode = mode;
  308. }
  309. page_cur_search_with_match(page, tuple, page_mode, &up_match,
  310. &up_bytes, &low_match, &low_bytes,
  311. page_cursor);
  312. if (estimate) {
  313. btr_cur_add_path_info(cursor, height, root_height);
  314. }
  315. /* If this is the desired level, leave the loop */
  316. if (level == height) {
  317. if (level > 0) {
  318. /* x-latch the page */
  319. btr_page_get(space, page_no, RW_X_LATCH, mtr);
  320. }
  321. break;
  322. }
  323. ut_ad(height > 0);
  324. height--;
  325. guess = NULL;
  326. node_ptr = page_cur_get_rec(page_cursor);
  327. /* Go to the child node */
  328. page_no = btr_node_ptr_get_child_page_no(node_ptr);
  329. }
  330. if (level == 0) {
  331. cursor->low_match = low_match;
  332. cursor->low_bytes = low_bytes;
  333. cursor->up_match = up_match;
  334. cursor->up_bytes = up_bytes;
  335. #ifdef BTR_CUR_ADAPT
  336. btr_search_info_update(index, cursor);
  337. #endif
  338. ut_ad(cursor->up_match != ULINT_UNDEFINED
  339. || mode != PAGE_CUR_GE);
  340. ut_ad(cursor->up_match != ULINT_UNDEFINED
  341. || mode != PAGE_CUR_LE);
  342. ut_ad(cursor->low_match != ULINT_UNDEFINED
  343. || mode != PAGE_CUR_LE);
  344. }
  345. if (has_search_latch) {
  346. rw_lock_s_lock(&btr_search_latch);
  347. }
  348. }
  349. /*********************************************************************
  350. Opens a cursor at either end of an index. */
  351. void
  352. btr_cur_open_at_index_side(
  353. /*=======================*/
  354. ibool from_left, /* in: TRUE if open to the low end,
  355. FALSE if to the high end */
  356. dict_index_t* index, /* in: index */
  357. ulint latch_mode, /* in: latch mode */
  358. btr_cur_t* cursor, /* in: cursor */
  359. mtr_t* mtr) /* in: mtr */
  360. {
  361. page_cur_t* page_cursor;
  362. dict_tree_t* tree;
  363. page_t* page;
  364. ulint page_no;
  365. ulint space;
  366. ulint height;
  367. ulint root_height;
  368. rec_t* node_ptr;
  369. ulint estimate;
  370. estimate = latch_mode & BTR_ESTIMATE;
  371. latch_mode = latch_mode & ~BTR_ESTIMATE;
  372. tree = index->tree;
  373. if (latch_mode == BTR_MODIFY_TREE) {
  374. mtr_x_lock(dict_tree_get_lock(tree), mtr);
  375. } else {
  376. mtr_s_lock(dict_tree_get_lock(tree), mtr);
  377. }
  378. page_cursor = btr_cur_get_page_cur(cursor);
  379. cursor->index = index;
  380. space = dict_tree_get_space(tree);
  381. page_no = dict_tree_get_page(tree);
  382. height = ULINT_UNDEFINED;
  383. for (;;) {
  384. page = buf_page_get_gen(space, page_no, RW_NO_LATCH, NULL,
  385. BUF_GET,
  386. #ifdef UNIV_SYNC_DEBUG
  387. IB__FILE__, __LINE__,
  388. #endif
  389. mtr);
  390. ut_ad(0 == ut_dulint_cmp(tree->id,
  391. btr_page_get_index_id(page)));
  392. if (height == ULINT_UNDEFINED) {
  393. /* We are in the root node */
  394. height = btr_page_get_level(page, mtr);
  395. root_height = height;
  396. }
  397. if (height == 0) {
  398. btr_cur_latch_leaves(tree, page, space, page_no,
  399. latch_mode, cursor, mtr);
  400. }
  401. if (from_left) {
  402. page_cur_set_before_first(page, page_cursor);
  403. } else {
  404. page_cur_set_after_last(page, page_cursor);
  405. }
  406. if (estimate) {
  407. btr_cur_add_path_info(cursor, height, root_height);
  408. }
  409. if (height == 0) {
  410. break;
  411. }
  412. ut_ad(height > 0);
  413. if (from_left) {
  414. page_cur_move_to_next(page_cursor);
  415. } else {
  416. page_cur_move_to_prev(page_cursor);
  417. }
  418. height--;
  419. node_ptr = page_cur_get_rec(page_cursor);
  420. /* Go to the child node */
  421. page_no = btr_node_ptr_get_child_page_no(node_ptr);
  422. }
  423. }
  424. /**************************************************************************
  425. Positions a cursor at a randomly chosen position within a B-tree. */
  426. void
  427. btr_cur_open_at_rnd_pos(
  428. /*====================*/
  429. dict_index_t* index, /* in: index */
  430. ulint latch_mode, /* in: BTR_SEARCH_LEAF, ... */
  431. btr_cur_t* cursor, /* in/out: B-tree cursor */
  432. mtr_t* mtr) /* in: mtr */
  433. {
  434. page_cur_t* page_cursor;
  435. dict_tree_t* tree;
  436. page_t* page;
  437. ulint page_no;
  438. ulint space;
  439. ulint height;
  440. rec_t* node_ptr;
  441. tree = index->tree;
  442. if (latch_mode == BTR_MODIFY_TREE) {
  443. mtr_x_lock(dict_tree_get_lock(tree), mtr);
  444. } else {
  445. mtr_s_lock(dict_tree_get_lock(tree), mtr);
  446. }
  447. page_cursor = btr_cur_get_page_cur(cursor);
  448. cursor->index = index;
  449. space = dict_tree_get_space(tree);
  450. page_no = dict_tree_get_page(tree);
  451. height = ULINT_UNDEFINED;
  452. for (;;) {
  453. page = buf_page_get_gen(space, page_no, RW_NO_LATCH, NULL,
  454. BUF_GET,
  455. #ifdef UNIV_SYNC_DEBUG
  456. IB__FILE__, __LINE__,
  457. #endif
  458. mtr);
  459. ut_ad(0 == ut_dulint_cmp(tree->id,
  460. btr_page_get_index_id(page)));
  461. if (height == ULINT_UNDEFINED) {
  462. /* We are in the root node */
  463. height = btr_page_get_level(page, mtr);
  464. }
  465. if (height == 0) {
  466. btr_cur_latch_leaves(tree, page, space, page_no,
  467. latch_mode, cursor, mtr);
  468. }
  469. page_cur_open_on_rnd_user_rec(page, page_cursor);
  470. if (height == 0) {
  471. break;
  472. }
  473. ut_ad(height > 0);
  474. height--;
  475. node_ptr = page_cur_get_rec(page_cursor);
  476. /* Go to the child node */
  477. page_no = btr_node_ptr_get_child_page_no(node_ptr);
  478. }
  479. }
  480. /*==================== B-TREE INSERT =========================*/
  481. /*****************************************************************
  482. Inserts a record if there is enough space, or if enough space can
  483. be freed by reorganizing. Differs from _optimistic_insert because
  484. no heuristics is applied to whether it pays to use CPU time for
  485. reorganizing the page or not. */
  486. static
  487. rec_t*
  488. btr_cur_insert_if_possible(
  489. /*=======================*/
  490. /* out: pointer to inserted record if succeed,
  491. else NULL */
  492. btr_cur_t* cursor, /* in: cursor on page after which to insert;
  493. cursor stays valid */
  494. dtuple_t* tuple, /* in: tuple to insert; the size info need not
  495. have been stored to tuple */
  496. ibool* reorg, /* out: TRUE if reorganization occurred */
  497. mtr_t* mtr) /* in: mtr */
  498. {
  499. page_cur_t* page_cursor;
  500. page_t* page;
  501. rec_t* rec;
  502. ut_ad(dtuple_check_typed(tuple));
  503. *reorg = FALSE;
  504. page = btr_cur_get_page(cursor);
  505. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  506. MTR_MEMO_PAGE_X_FIX));
  507. page_cursor = btr_cur_get_page_cur(cursor);
  508. /* Now, try the insert */
  509. rec = page_cur_tuple_insert(page_cursor, tuple, mtr);
  510. if (!rec) {
  511. /* If record did not fit, reorganize */
  512. btr_page_reorganize(page, mtr);
  513. *reorg = TRUE;
  514. page_cur_search(page, tuple, PAGE_CUR_LE, page_cursor);
  515. rec = page_cur_tuple_insert(page_cursor, tuple, mtr);
  516. }
  517. return(rec);
  518. }
  519. /*****************************************************************
  520. For an insert, checks the locks and does the undo logging if desired. */
  521. UNIV_INLINE
  522. ulint
  523. btr_cur_ins_lock_and_undo(
  524. /*======================*/
  525. /* out: DB_SUCCESS, DB_WAIT_LOCK,
  526. DB_FAIL, or error number */
  527. ulint flags, /* in: undo logging and locking flags: if
  528. not zero, the parameters index and thr
  529. should be specified */
  530. btr_cur_t* cursor, /* in: cursor on page after which to insert */
  531. dtuple_t* entry, /* in: entry to insert */
  532. que_thr_t* thr, /* in: query thread or NULL */
  533. ibool* inherit)/* out: TRUE if the inserted new record maybe
  534. should inherit LOCK_GAP type locks from the
  535. successor record */
  536. {
  537. dict_index_t* index;
  538. ulint err;
  539. rec_t* rec;
  540. dulint roll_ptr;
  541. /* Check if we have to wait for a lock: enqueue an explicit lock
  542. request if yes */
  543. rec = btr_cur_get_rec(cursor);
  544. index = cursor->index;
  545. err = lock_rec_insert_check_and_lock(flags, rec, index, thr, inherit);
  546. if (err != DB_SUCCESS) {
  547. return(err);
  548. }
  549. if ((index->type & DICT_CLUSTERED) && !(index->type & DICT_IBUF)) {
  550. err = trx_undo_report_row_operation(flags, TRX_UNDO_INSERT_OP,
  551. thr, index, entry, NULL, 0, NULL,
  552. &roll_ptr);
  553. if (err != DB_SUCCESS) {
  554. return(err);
  555. }
  556. /* Now we can fill in the roll ptr field in entry */
  557. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  558. row_upd_index_entry_sys_field(entry, index,
  559. DATA_ROLL_PTR, roll_ptr);
  560. }
  561. }
  562. return(DB_SUCCESS);
  563. }
  564. /*****************************************************************
  565. Tries to perform an insert to a page in an index tree, next to cursor.
  566. It is assumed that mtr holds an x-latch on the page. The operation does
  567. not succeed if there is too little space on the page. If there is just
  568. one record on the page, the insert will always succeed; this is to
  569. prevent trying to split a page with just one record. */
  570. ulint
  571. btr_cur_optimistic_insert(
  572. /*======================*/
  573. /* out: DB_SUCCESS, DB_WAIT_LOCK,
  574. DB_FAIL, or error number */
  575. ulint flags, /* in: undo logging and locking flags: if not
  576. zero, the parameters index and thr should be
  577. specified */
  578. btr_cur_t* cursor, /* in: cursor on page after which to insert;
  579. cursor stays valid */
  580. dtuple_t* entry, /* in: entry to insert */
  581. rec_t** rec, /* out: pointer to inserted record if
  582. succeed */
  583. que_thr_t* thr, /* in: query thread or NULL */
  584. mtr_t* mtr) /* in: mtr */
  585. {
  586. dict_index_t* index;
  587. page_cur_t* page_cursor;
  588. page_t* page;
  589. ulint max_size;
  590. rec_t* dummy_rec;
  591. ulint level;
  592. ibool reorg;
  593. ibool inherit;
  594. ulint rec_size;
  595. ulint data_size;
  596. ulint extra_size;
  597. ulint type;
  598. ulint err;
  599. ut_ad(dtuple_check_typed(entry));
  600. page = btr_cur_get_page(cursor);
  601. index = cursor->index;
  602. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  603. MTR_MEMO_PAGE_X_FIX));
  604. max_size = page_get_max_insert_size_after_reorganize(page, 1);
  605. level = btr_page_get_level(page, mtr);
  606. /* Calculate the record size when entry is converted to a record */
  607. data_size = dtuple_get_data_size(entry);
  608. extra_size = rec_get_converted_extra_size(data_size,
  609. dtuple_get_n_fields(entry));
  610. rec_size = data_size + extra_size;
  611. if (rec_size >= page_get_free_space_of_empty() / 2) {
  612. return(DB_TOO_BIG_RECORD);
  613. }
  614. /* If there have been many consecutive inserts, and we are on the leaf
  615. level, check if we have to split the page to reserve enough free space
  616. for future updates of records. */
  617. type = index->type;
  618. if ((type & DICT_CLUSTERED)
  619.     && (dict_tree_get_space_reserve(index->tree) + rec_size > max_size)
  620.     && (page_get_n_recs(page) >= 2)
  621.     && (0 == level)
  622.     && (btr_page_get_split_rec_to_right(cursor, &dummy_rec)
  623.         || btr_page_get_split_rec_to_left(cursor, &dummy_rec))) {
  624.     
  625. return(DB_FAIL);
  626. }
  627. if (!(((max_size >= rec_size)
  628.        && (max_size >= BTR_CUR_PAGE_REORGANIZE_LIMIT))
  629.       || (page_get_max_insert_size(page, 1) >= rec_size)
  630.       || (page_get_n_recs(page) <= 1))) {
  631. return(DB_FAIL);
  632. }
  633.         /* Check locks and write to the undo log, if specified */
  634.         err = btr_cur_ins_lock_and_undo(flags, cursor, entry, thr, &inherit);
  635. if (err != DB_SUCCESS) {
  636. return(err);
  637. }
  638. page_cursor = btr_cur_get_page_cur(cursor);
  639. reorg = FALSE;
  640. /* Now, try the insert */
  641. *rec = page_cur_insert_rec_low(page_cursor, entry, data_size,
  642. NULL, mtr);
  643. if (!(*rec)) {
  644. /* If the record did not fit, reorganize */
  645. btr_page_reorganize(page, mtr);
  646. ut_ad(page_get_max_insert_size(page, 1) == max_size);
  647. reorg = TRUE;
  648. page_cur_search(page, entry, PAGE_CUR_LE, page_cursor);
  649. *rec = page_cur_tuple_insert(page_cursor, entry, mtr);
  650. ut_a(*rec); /* <- We calculated above the record would fit */
  651. }
  652. #ifdef BTR_CUR_HASH_ADAPT
  653. if (!reorg && (0 == level) && (cursor->flag == BTR_CUR_HASH)) {
  654. btr_search_update_hash_node_on_insert(cursor);
  655. } else {
  656. btr_search_update_hash_on_insert(cursor);
  657. }
  658. #endif
  659. if (!(flags & BTR_NO_LOCKING_FLAG) && inherit) {
  660. lock_update_insert(*rec);
  661. }
  662. /* printf("Insert to page %lu, max ins size %lu, rec %lu ind type %lun",
  663. buf_frame_get_page_no(page), max_size,
  664. rec_size + PAGE_DIR_SLOT_SIZE, type);
  665. */
  666. if (!(type & (DICT_CLUSTERED | DICT_UNIQUE))) {
  667. /* We have added a record to page: update its free bits */
  668. ibuf_update_free_bits_if_full(cursor->index, page, max_size,
  669. rec_size + PAGE_DIR_SLOT_SIZE);
  670. }
  671. return(DB_SUCCESS);
  672. }
  673. /*****************************************************************
  674. Performs an insert on a page of an index tree. It is assumed that mtr
  675. holds an x-latch on the tree and on the cursor page. If the insert is
  676. made on the leaf level, to avoid deadlocks, mtr must also own x-latches
  677. to brothers of page, if those brothers exist. */
  678. ulint
  679. btr_cur_pessimistic_insert(
  680. /*=======================*/
  681. /* out: DB_SUCCESS or error number */
  682. ulint flags, /* in: undo logging and locking flags: if not
  683. zero, the parameter thr should be
  684. specified; if no undo logging is specified,
  685. then the caller must have reserved enough
  686. free extents in the file space so that the
  687. insertion will certainly succeed */
  688. btr_cur_t* cursor, /* in: cursor after which to insert;
  689. cursor stays valid */
  690. dtuple_t* entry, /* in: entry to insert */
  691. rec_t** rec, /* out: pointer to inserted record if
  692. succeed */
  693. que_thr_t* thr, /* in: query thread or NULL */
  694. mtr_t* mtr) /* in: mtr */
  695. {
  696. page_t* page;
  697. ulint err;
  698. ibool dummy_inh;
  699. ibool success;
  700. ulint n_extents = 0;
  701. ut_ad(dtuple_check_typed(entry));
  702. page = btr_cur_get_page(cursor);
  703. ut_ad(mtr_memo_contains(mtr,
  704. dict_tree_get_lock(btr_cur_get_tree(cursor)),
  705. MTR_MEMO_X_LOCK));
  706. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  707. MTR_MEMO_PAGE_X_FIX));
  708. /* Try first an optimistic insert; reset the cursor flag: we do not
  709. assume anything of how it was positioned */
  710. cursor->flag = BTR_CUR_BINARY;
  711. err = btr_cur_optimistic_insert(flags, cursor, entry, rec, thr, mtr);
  712. if (err != DB_FAIL) {
  713. return(err);
  714. }
  715. /* Retry with a pessimistic insert. Check locks and write to undo log,
  716. if specified */
  717. err = btr_cur_ins_lock_and_undo(flags, cursor, entry, thr, &dummy_inh);
  718. if (err != DB_SUCCESS) {
  719. return(err);
  720. }
  721. if (!(flags & BTR_NO_UNDO_LOG_FLAG)) {
  722. /* First reserve enough free space for the file segments
  723. of the index tree, so that the insert will not fail because
  724. of lack of space */
  725. n_extents = cursor->tree_height / 16 + 3;
  726. success = fsp_reserve_free_extents(cursor->index->space,
  727. n_extents, FSP_NORMAL, mtr);
  728. if (!success) {
  729. err = DB_OUT_OF_FILE_SPACE;
  730. return(err);
  731. }
  732. }
  733. if (dict_tree_get_page(cursor->index->tree)
  734. == buf_frame_get_page_no(page)) {
  735. /* The page is the root page */
  736. *rec = btr_root_raise_and_insert(cursor, entry, mtr);
  737. } else {
  738. *rec = btr_page_split_and_insert(cursor, entry, mtr);
  739. }
  740. btr_cur_position(cursor->index, page_rec_get_prev(*rec), cursor);
  741. #ifdef BTR_CUR_ADAPT
  742. btr_search_update_hash_on_insert(cursor);
  743. #endif
  744. if (!(flags & BTR_NO_LOCKING_FLAG)) {
  745. lock_update_insert(*rec);
  746. }
  747. err = DB_SUCCESS;
  748. if (n_extents > 0) {
  749. fil_space_release_free_extents(cursor->index->space, n_extents);
  750. }
  751. return(err);
  752. }
  753. /*==================== B-TREE UPDATE =========================*/
  754. /* Only clustered index records are modified using these functions */
  755. /*****************************************************************
  756. For an update, checks the locks and does the undo logging. */
  757. UNIV_INLINE
  758. ulint
  759. btr_cur_upd_lock_and_undo(
  760. /*======================*/
  761. /* out: DB_SUCCESS, DB_WAIT_LOCK, or error
  762. number */
  763. ulint flags, /* in: undo logging and locking flags */
  764. btr_cur_t* cursor, /* in: cursor on record to update */
  765. upd_t* update, /* in: update vector */
  766. ulint cmpl_info,/* in: compiler info on secondary index
  767. updates */
  768. que_thr_t* thr, /* in: query thread */
  769. dulint* roll_ptr)/* out: roll pointer */
  770. {
  771. dict_index_t* index;
  772. rec_t* rec;
  773. ulint err;
  774. ut_ad(cursor && update && thr && roll_ptr);
  775. /* Only clustered index records are updated using this function */
  776. ut_ad((cursor->index)->type & DICT_CLUSTERED);
  777. rec = btr_cur_get_rec(cursor);
  778. index = cursor->index;
  779. /* Check if we have to wait for a lock: enqueue an explicit lock
  780. request if yes */
  781. err = DB_SUCCESS;
  782. if (!(flags & BTR_NO_LOCKING_FLAG)) {
  783. err = lock_clust_rec_modify_check_and_lock(flags, rec, index,
  784. thr);
  785. if (err != DB_SUCCESS) {
  786. return(err);
  787. }
  788. }
  789. /* Append the info about the update in the undo log */
  790. err = trx_undo_report_row_operation(flags, TRX_UNDO_MODIFY_OP, thr,
  791. index, NULL, update,
  792. cmpl_info, rec, roll_ptr);
  793. return(err);
  794. }
  795. /***************************************************************
  796. Writes a redo log record of updating a record in-place. */
  797. UNIV_INLINE
  798. void
  799. btr_cur_update_in_place_log(
  800. /*========================*/
  801. ulint flags, /* in: flags */
  802. rec_t* rec, /* in: record */
  803. dict_index_t* index, /* in: index where cursor positioned */
  804. upd_t* update, /* in: update vector */
  805. trx_t* trx, /* in: transaction */
  806. dulint roll_ptr, /* in: roll ptr */
  807. mtr_t* mtr) /* in: mtr */
  808. {
  809. byte* log_ptr;
  810. log_ptr = mlog_open(mtr, 30 + MLOG_BUF_MARGIN);
  811. log_ptr = mlog_write_initial_log_record_fast(rec,
  812. MLOG_REC_UPDATE_IN_PLACE, log_ptr, mtr);
  813. mach_write_to_1(log_ptr, flags);
  814. log_ptr++;
  815. log_ptr = row_upd_write_sys_vals_to_log(index, trx, roll_ptr, log_ptr,
  816. mtr);
  817. mach_write_to_2(log_ptr, rec - buf_frame_align(rec));
  818. log_ptr += 2;
  819. row_upd_index_write_log(update, log_ptr, mtr);
  820. }
  821. /***************************************************************
  822. Parses a redo log record of updating a record in-place. */
  823. byte*
  824. btr_cur_parse_update_in_place(
  825. /*==========================*/
  826. /* out: end of log record or NULL */
  827. byte* ptr, /* in: buffer */
  828. byte* end_ptr,/* in: buffer end */
  829. page_t* page) /* in: page or NULL */
  830. {
  831. ulint flags;
  832. rec_t* rec;
  833. upd_t* update;
  834. ulint pos;
  835. dulint trx_id;
  836. dulint roll_ptr;
  837. ulint rec_offset;
  838. mem_heap_t* heap;
  839. if (end_ptr < ptr + 1) {
  840. return(NULL);
  841. }
  842. flags = mach_read_from_1(ptr);
  843. ptr++;
  844. ptr = row_upd_parse_sys_vals(ptr, end_ptr, &pos, &trx_id, &roll_ptr);
  845. if (ptr == NULL) {
  846. return(NULL);
  847. }
  848. if (end_ptr < ptr + 2) {
  849. return(NULL);
  850. }
  851. rec_offset = mach_read_from_2(ptr);
  852. ptr += 2;
  853. heap = mem_heap_create(256);
  854. ptr = row_upd_index_parse(ptr, end_ptr, heap, &update);
  855. if (ptr == NULL) {
  856. mem_heap_free(heap);
  857. return(NULL);
  858. }
  859. if (!page) {
  860. mem_heap_free(heap);
  861. return(ptr);
  862. }
  863. rec = page + rec_offset;
  864. /* We do not need to reserve btr_search_latch, as the page is only
  865. being recovered, and there cannot be a hash index to it. */
  866. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  867. row_upd_rec_sys_fields_in_recovery(rec, pos, trx_id, roll_ptr);
  868. }
  869. row_upd_rec_in_place(rec, update);
  870. mem_heap_free(heap);
  871. return(ptr);
  872. }
  873. /*****************************************************************
  874. Updates a record when the update causes no size changes in its fields. */
  875. ulint
  876. btr_cur_update_in_place(
  877. /*====================*/
  878. /* out: DB_SUCCESS or error number */
  879. ulint flags, /* in: undo logging and locking flags */
  880. btr_cur_t* cursor, /* in: cursor on the record to update;
  881. cursor stays valid and positioned on the
  882. same record */
  883. upd_t* update, /* in: update vector */
  884. ulint cmpl_info,/* in: compiler info on secondary index
  885. updates */
  886. que_thr_t* thr, /* in: query thread */
  887. mtr_t* mtr) /* in: mtr */
  888. {
  889. dict_index_t* index;
  890. buf_block_t* block;
  891. ulint err;
  892. rec_t* rec;
  893. dulint roll_ptr;
  894. trx_t* trx;
  895. /* Only clustered index records are updated using this function */
  896. ut_ad((cursor->index)->type & DICT_CLUSTERED);
  897. rec = btr_cur_get_rec(cursor);
  898. index = cursor->index;
  899. trx = thr_get_trx(thr);
  900. /* Do lock checking and undo logging */
  901. err = btr_cur_upd_lock_and_undo(flags, cursor, update, cmpl_info,
  902. thr, &roll_ptr);
  903. if (err != DB_SUCCESS) {
  904. return(err);
  905. }
  906. block = buf_block_align(rec);
  907. if (block->is_hashed) {
  908. rw_lock_x_lock(&btr_search_latch);
  909. }
  910. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  911. row_upd_rec_sys_fields(rec, index, trx, roll_ptr);
  912. }
  913. /* FIXME: in a mixed tree, all records may not have enough ordering
  914. fields for btr search: */
  915. row_upd_rec_in_place(rec, update);
  916. if (block->is_hashed) {
  917. rw_lock_x_unlock(&btr_search_latch);
  918. }
  919. btr_cur_update_in_place_log(flags, rec, index, update, trx, roll_ptr,
  920. mtr);
  921. return(DB_SUCCESS);
  922. }
  923. /*****************************************************************
  924. Tries to update a record on a page in an index tree. It is assumed that mtr
  925. holds an x-latch on the page. The operation does not succeed if there is too
  926. little space on the page or if the update would result in too empty a page,
  927. so that tree compression is recommended. */
  928. ulint
  929. btr_cur_optimistic_update(
  930. /*======================*/
  931. /* out: DB_SUCCESS, or DB_OVERFLOW if the
  932. updated record does not fit, DB_UNDERFLOW
  933. if the page would become too empty */
  934. ulint flags, /* in: undo logging and locking flags */
  935. btr_cur_t* cursor, /* in: cursor on the record to update;
  936. cursor stays valid and positioned on the
  937. same record */
  938. upd_t* update, /* in: update vector; this must also
  939. contain trx id and roll ptr fields */
  940. ulint cmpl_info,/* in: compiler info on secondary index
  941. updates */
  942. que_thr_t* thr, /* in: query thread */
  943. mtr_t* mtr) /* in: mtr */
  944. {
  945. dict_index_t* index;
  946. page_cur_t* page_cursor;
  947. ulint err;
  948. page_t* page;
  949. rec_t* rec;
  950. ulint max_size;
  951. ulint new_rec_size;
  952. ulint old_rec_size;
  953. dtuple_t* new_entry;
  954. dulint roll_ptr;
  955. trx_t* trx;
  956. mem_heap_t* heap;
  957. ibool reorganized = FALSE;
  958. /* Only clustered index records are updated using this function */
  959. ut_ad((cursor->index)->type & DICT_CLUSTERED);
  960. page = btr_cur_get_page(cursor);
  961. rec = btr_cur_get_rec(cursor);
  962. index = cursor->index;
  963. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  964. MTR_MEMO_PAGE_X_FIX));
  965. if (!row_upd_changes_field_size(rec, index, update)) {
  966. /* The simplest and most common case: the update does not
  967. change the size of any field */
  968. return(btr_cur_update_in_place(flags, cursor, update,
  969. cmpl_info, thr, mtr));
  970. }
  971. page_cursor = btr_cur_get_page_cur(cursor);
  972. heap = mem_heap_create(1024);
  973. new_entry = row_rec_to_index_entry(ROW_COPY_DATA, index, rec, heap);
  974. row_upd_clust_index_replace_new_col_vals(new_entry, update);
  975. old_rec_size = rec_get_size(rec);
  976. new_rec_size = rec_get_converted_size(new_entry);
  977. if (new_rec_size >= page_get_free_space_of_empty() / 2) {
  978. mem_heap_free(heap);
  979. return(DB_TOO_BIG_RECORD);
  980. }
  981. max_size = old_rec_size
  982. + page_get_max_insert_size_after_reorganize(page, 1);
  983. if (page_get_data_size(page) - old_rec_size + new_rec_size
  984. < BTR_CUR_PAGE_COMPRESS_LIMIT) {
  985. /* The page would become too empty */
  986. mem_heap_free(heap);
  987. return(DB_UNDERFLOW);
  988. }
  989. if (!(((max_size >= BTR_CUR_PAGE_REORGANIZE_LIMIT)
  990.         && (max_size >= new_rec_size))
  991.       || (page_get_n_recs(page) <= 1))) {
  992. /* There was not enough space, or it did not pay to
  993. reorganize: for simplicity, we decide what to do assuming a
  994. reorganization is needed, though it might not be necessary */
  995. mem_heap_free(heap);
  996. return(DB_OVERFLOW);
  997. }
  998. /* Do lock checking and undo logging */
  999. err = btr_cur_upd_lock_and_undo(flags, cursor, update, cmpl_info, thr,
  1000. &roll_ptr);
  1001. if (err != DB_SUCCESS) {
  1002. mem_heap_free(heap);
  1003. return(err);
  1004. }
  1005.         
  1006.         /* Ok, we may do the replacement. Store on the page infimum the
  1007. explicit locks on rec, before deleting rec (see the comment in
  1008. .._pessimistic_update). */
  1009. lock_rec_store_on_page_infimum(rec);
  1010. btr_search_update_hash_on_delete(cursor);
  1011.         page_cur_delete_rec(page_cursor, mtr);
  1012. page_cur_move_to_prev(page_cursor);
  1013.         
  1014. trx = thr_get_trx(thr);
  1015. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  1016. row_upd_index_entry_sys_field(new_entry, index, DATA_ROLL_PTR,
  1017. roll_ptr);
  1018. row_upd_index_entry_sys_field(new_entry, index, DATA_TRX_ID,
  1019. trx->id);
  1020. }
  1021. rec = btr_cur_insert_if_possible(cursor, new_entry, &reorganized, mtr);
  1022. ut_a(rec); /* <- We calculated above the insert would fit */
  1023. /* Restore the old explicit lock state on the record */
  1024. lock_rec_restore_from_page_infimum(rec, page);
  1025.         page_cur_move_to_next(page_cursor);
  1026. mem_heap_free(heap);
  1027. return(DB_SUCCESS);
  1028. }
  1029. /*****************************************************************
  1030. If, in a split, a new supremum record was created as the predecessor of the
  1031. updated record, the supremum record must inherit exactly the locks on the
  1032. updated record. In the split it may have inherited locks from the successor
  1033. of the updated record, which is not correct. This function restores the
  1034. right locks for the new supremum. */
  1035. static
  1036. void
  1037. btr_cur_pess_upd_restore_supremum(
  1038. /*==============================*/
  1039. rec_t* rec, /* in: updated record */
  1040. mtr_t* mtr) /* in: mtr */
  1041. {
  1042. page_t* page;
  1043. page_t* prev_page;
  1044. ulint space;
  1045. ulint prev_page_no;
  1046. page = buf_frame_align(rec);
  1047. if (page_rec_get_next(page_get_infimum_rec(page)) != rec) {
  1048. /* Updated record is not the first user record on its page */ 
  1049. return;
  1050. }
  1051. space = buf_frame_get_space_id(page);
  1052. prev_page_no = btr_page_get_prev(page, mtr);
  1053. ut_ad(prev_page_no != FIL_NULL);
  1054. prev_page = buf_page_get_with_no_latch(space, prev_page_no, mtr);
  1055. /* We must already have an x-latch to prev_page! */
  1056. ut_ad(mtr_memo_contains(mtr, buf_block_align(prev_page),
  1057.        MTR_MEMO_PAGE_X_FIX));
  1058. lock_rec_reset_and_inherit_gap_locks(page_get_supremum_rec(prev_page),
  1059. rec);
  1060. }
  1061.    
  1062. /*****************************************************************
  1063. Performs an update of a record on a page of a tree. It is assumed
  1064. that mtr holds an x-latch on the tree and on the cursor page. If the
  1065. update is made on the leaf level, to avoid deadlocks, mtr must also
  1066. own x-latches to brothers of page, if those brothers exist. */
  1067. ulint
  1068. btr_cur_pessimistic_update(
  1069. /*=======================*/
  1070. /* out: DB_SUCCESS or error code */
  1071. ulint flags, /* in: undo logging, locking, and rollback
  1072. flags */
  1073. btr_cur_t* cursor, /* in: cursor on the record to update;
  1074. cursor does not stay valid */
  1075. upd_t* update, /* in: update vector; this is allowed also
  1076. contain trx id and roll ptr fields, but
  1077. the values in update vector have no effect */
  1078. ulint cmpl_info,/* in: compiler info on secondary index
  1079. updates */
  1080. que_thr_t* thr, /* in: query thread */
  1081. mtr_t* mtr) /* in: mtr */
  1082. {
  1083. dict_index_t* index;
  1084. page_t* page;
  1085. dict_tree_t* tree;
  1086. rec_t* rec;
  1087. page_cur_t* page_cursor;
  1088. dtuple_t* new_entry;
  1089. mem_heap_t* heap;
  1090. ulint err;
  1091. ulint optim_err;
  1092. ibool dummy_reorganized;
  1093. dulint roll_ptr;
  1094. trx_t* trx;
  1095. ibool was_first;
  1096. ibool success;
  1097. ulint n_extents = 0;
  1098. page = btr_cur_get_page(cursor);
  1099. rec = btr_cur_get_rec(cursor);
  1100. index = cursor->index;
  1101. tree = index->tree;
  1102. ut_ad(index->type & DICT_CLUSTERED);
  1103. ut_ad(mtr_memo_contains(mtr, dict_tree_get_lock(tree),
  1104. MTR_MEMO_X_LOCK));
  1105. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  1106. MTR_MEMO_PAGE_X_FIX));
  1107. optim_err = btr_cur_optimistic_update(flags, cursor, update,
  1108. cmpl_info, thr, mtr);
  1109. if (optim_err != DB_UNDERFLOW && optim_err != DB_OVERFLOW) {
  1110. return(optim_err);
  1111. }
  1112. /* Do lock checking and undo logging */
  1113. err = btr_cur_upd_lock_and_undo(flags, cursor, update, cmpl_info,
  1114. thr, &roll_ptr);
  1115. if (err != DB_SUCCESS) {
  1116. return(err);
  1117. }
  1118. if (optim_err == DB_OVERFLOW) {
  1119. /* First reserve enough free space for the file segments
  1120. of the index tree, so that the update will not fail because
  1121. of lack of space */
  1122. n_extents = cursor->tree_height / 16 + 3;
  1123. success = fsp_reserve_free_extents(cursor->index->space,
  1124. n_extents, FSP_NORMAL, mtr);
  1125. if (!success) {
  1126. err = DB_OUT_OF_FILE_SPACE;
  1127. return(err);
  1128. }
  1129. }
  1130. heap = mem_heap_create(1024);
  1131. trx = thr_get_trx(thr);
  1132. new_entry = row_rec_to_index_entry(ROW_COPY_DATA, index, rec, heap);
  1133. row_upd_clust_index_replace_new_col_vals(new_entry, update);
  1134. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  1135. row_upd_index_entry_sys_field(new_entry, index, DATA_ROLL_PTR,
  1136. roll_ptr);
  1137. row_upd_index_entry_sys_field(new_entry, index, DATA_TRX_ID,
  1138. trx->id);
  1139. }
  1140. page_cursor = btr_cur_get_page_cur(cursor);
  1141. /* Store state of explicit locks on rec on the page infimum record,
  1142. before deleting rec. The page infimum acts as a dummy carrier of the
  1143. locks, taking care also of lock releases, before we can move the locks
  1144. back on the actual record. There is a special case: if we are
  1145. inserting on the root page and the insert causes a call of
  1146. btr_root_raise_and_insert. Therefore we cannot in the lock system
  1147. delete the lock structs set on the root page even if the root
  1148. page carries just node pointers. */
  1149. lock_rec_store_on_page_infimum(rec);
  1150. btr_search_update_hash_on_delete(cursor);
  1151. page_cur_delete_rec(page_cursor, mtr);
  1152. page_cur_move_to_prev(page_cursor);
  1153. if (optim_err == DB_UNDERFLOW) {
  1154. rec = btr_cur_insert_if_possible(cursor, new_entry,
  1155. &dummy_reorganized, mtr);
  1156. ut_a(rec); /* <- We knew the insert would fit */
  1157. lock_rec_restore_from_page_infimum(rec, page);
  1158. btr_cur_compress_if_useful(cursor, mtr);
  1159. err = DB_SUCCESS;
  1160. mem_heap_free(heap);
  1161. goto return_after_reservations;
  1162. }
  1163. if (page_cur_is_before_first(page_cursor)) {
  1164. /* The record to be updated was positioned as the first user
  1165. record on its page */
  1166. was_first = TRUE;
  1167. } else {
  1168. was_first = FALSE;
  1169. }
  1170. /* The first parameter means that no lock checking and undo logging
  1171. is made in the insert */
  1172. err = btr_cur_pessimistic_insert(BTR_NO_UNDO_LOG_FLAG
  1173. | BTR_NO_LOCKING_FLAG
  1174. | BTR_KEEP_SYS_FLAG,
  1175. cursor, new_entry, &rec, NULL, mtr);
  1176. ut_a(rec);
  1177. ut_a(err == DB_SUCCESS);
  1178. lock_rec_restore_from_page_infimum(rec, page);
  1179. /* If necessary, restore also the correct lock state for a new,
  1180. preceding supremum record created in a page split. While the old
  1181. record was nonexistent, the supremum might have inherited its locks
  1182. from a wrong record. */
  1183. if (!was_first) {
  1184. btr_cur_pess_upd_restore_supremum(rec, mtr);
  1185. }
  1186. mem_heap_free(heap);
  1187. return_after_reservations:
  1188. if (n_extents > 0) {
  1189. fil_space_release_free_extents(cursor->index->space, n_extents);
  1190. }
  1191. return(err);
  1192. }
  1193. /*==================== B-TREE DELETE MARK AND UNMARK ===============*/
  1194. /********************************************************************
  1195. Writes the redo log record for delete marking or unmarking of an index
  1196. record. */
  1197. UNIV_INLINE
  1198. void
  1199. btr_cur_del_mark_set_clust_rec_log(
  1200. /*===============================*/
  1201. ulint flags, /* in: flags */
  1202. rec_t* rec, /* in: record */
  1203. dict_index_t* index, /* in: index of the record */
  1204. ibool val, /* in: value to set */
  1205. trx_t* trx, /* in: deleting transaction */
  1206. dulint roll_ptr,/* in: roll ptr to the undo log record */
  1207. mtr_t* mtr) /* in: mtr */
  1208. {
  1209. byte* log_ptr;
  1210. log_ptr = mlog_open(mtr, 30);
  1211. log_ptr = mlog_write_initial_log_record_fast(rec,
  1212. MLOG_REC_CLUST_DELETE_MARK, log_ptr, mtr);
  1213. mach_write_to_1(log_ptr, flags);
  1214. log_ptr++;
  1215. mach_write_to_1(log_ptr, val);
  1216. log_ptr++;
  1217. log_ptr = row_upd_write_sys_vals_to_log(index, trx, roll_ptr, log_ptr,
  1218. mtr);
  1219. mach_write_to_2(log_ptr, rec - buf_frame_align(rec));
  1220. log_ptr += 2;
  1221. mlog_close(mtr, log_ptr);
  1222. }
  1223. /********************************************************************
  1224. Parses the redo log record for delete marking or unmarking of a clustered
  1225. index record. */
  1226. byte*
  1227. btr_cur_parse_del_mark_set_clust_rec(
  1228. /*=================================*/
  1229. /* out: end of log record or NULL */
  1230. byte* ptr, /* in: buffer */
  1231. byte* end_ptr,/* in: buffer end */
  1232. page_t* page) /* in: page or NULL */
  1233. {
  1234. ulint flags;
  1235. ibool val;
  1236. ulint pos;
  1237. dulint trx_id;
  1238. dulint roll_ptr;
  1239. ulint offset;
  1240. rec_t* rec;
  1241. if (end_ptr < ptr + 2) {
  1242. return(NULL);
  1243. }
  1244. flags = mach_read_from_1(ptr);
  1245. ptr++;
  1246. val = mach_read_from_1(ptr);
  1247. ptr++;
  1248. ptr = row_upd_parse_sys_vals(ptr, end_ptr, &pos, &trx_id, &roll_ptr);
  1249. if (ptr == NULL) {
  1250. return(NULL);
  1251. }
  1252. if (end_ptr < ptr + 2) {
  1253. return(NULL);
  1254. }
  1255. offset = mach_read_from_2(ptr);
  1256. ptr += 2;
  1257. if (page) {
  1258. rec = page + offset;
  1259. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  1260. row_upd_rec_sys_fields_in_recovery(rec, pos, trx_id,
  1261. roll_ptr);
  1262. }
  1263. /* We do not need to reserve btr_search_latch, as the page
  1264. is only being recovered, and there cannot be a hash index to
  1265. it. */
  1266. rec_set_deleted_flag(rec, val);
  1267. }
  1268. return(ptr);
  1269. }
  1270. /***************************************************************
  1271. Marks a clustered index record deleted. Writes an undo log record to
  1272. undo log on this delete marking. Writes in the trx id field the id
  1273. of the deleting transaction, and in the roll ptr field pointer to the
  1274. undo log record created. */
  1275. ulint
  1276. btr_cur_del_mark_set_clust_rec(
  1277. /*===========================*/
  1278. /* out: DB_SUCCESS, DB_LOCK_WAIT, or error
  1279. number */
  1280. ulint flags, /* in: undo logging and locking flags */
  1281. btr_cur_t* cursor, /* in: cursor */
  1282. ibool val, /* in: value to set */
  1283. que_thr_t* thr, /* in: query thread */
  1284. mtr_t* mtr) /* in: mtr */
  1285. {
  1286. dict_index_t* index;
  1287. buf_block_t* block;
  1288. dulint roll_ptr;
  1289. ulint err;
  1290. rec_t* rec;
  1291. trx_t* trx;
  1292. rec = btr_cur_get_rec(cursor);
  1293. index = cursor->index;
  1294. ut_ad(index->type & DICT_CLUSTERED);
  1295. ut_ad(rec_get_deleted_flag(rec) == FALSE);
  1296. err = lock_clust_rec_modify_check_and_lock(flags, rec, index, thr);
  1297. if (err != DB_SUCCESS) {
  1298. return(err);
  1299. }
  1300. err = trx_undo_report_row_operation(flags, TRX_UNDO_MODIFY_OP, thr,
  1301. index, NULL, NULL, 0, rec,
  1302. &roll_ptr);
  1303. if (err != DB_SUCCESS) {
  1304. return(err);
  1305. }
  1306. block = buf_block_align(rec);
  1307. if (block->is_hashed) {
  1308. rw_lock_x_lock(&btr_search_latch);
  1309. }
  1310. rec_set_deleted_flag(rec, val);
  1311. trx = thr_get_trx(thr);
  1312. if (!(flags & BTR_KEEP_SYS_FLAG)) {
  1313. row_upd_rec_sys_fields(rec, index, trx, roll_ptr);
  1314. }
  1315. if (block->is_hashed) {
  1316. rw_lock_x_unlock(&btr_search_latch);
  1317. }
  1318. btr_cur_del_mark_set_clust_rec_log(flags, rec, index, val, trx,
  1319. roll_ptr, mtr);
  1320. return(DB_SUCCESS);
  1321. }
  1322. /********************************************************************
  1323. Writes the redo log record for a delete mark setting of a secondary
  1324. index record. */
  1325. UNIV_INLINE
  1326. void
  1327. btr_cur_del_mark_set_sec_rec_log(
  1328. /*=============================*/
  1329. rec_t* rec, /* in: record */
  1330. ibool val, /* in: value to set */
  1331. mtr_t* mtr) /* in: mtr */
  1332. {
  1333. byte* log_ptr;
  1334. log_ptr = mlog_open(mtr, 30);
  1335. log_ptr = mlog_write_initial_log_record_fast(rec,
  1336. MLOG_REC_SEC_DELETE_MARK, log_ptr, mtr);
  1337. mach_write_to_1(log_ptr, val);
  1338. log_ptr++;
  1339. mach_write_to_2(log_ptr, rec - buf_frame_align(rec));
  1340. log_ptr += 2;
  1341. mlog_close(mtr, log_ptr);
  1342. }
  1343. /********************************************************************
  1344. Parses the redo log record for delete marking or unmarking of a secondary
  1345. index record. */
  1346. byte*
  1347. btr_cur_parse_del_mark_set_sec_rec(
  1348. /*===============================*/
  1349. /* out: end of log record or NULL */
  1350. byte* ptr, /* in: buffer */
  1351. byte* end_ptr,/* in: buffer end */
  1352. page_t* page) /* in: page or NULL */
  1353. {
  1354. ibool val;
  1355. ulint offset;
  1356. rec_t* rec;
  1357. if (end_ptr < ptr + 3) {
  1358. return(NULL);
  1359. }
  1360. val = mach_read_from_1(ptr);
  1361. ptr++;
  1362. offset = mach_read_from_2(ptr);
  1363. ptr += 2;
  1364. if (page) {
  1365. rec = page + offset;
  1366. /* We do not need to reserve btr_search_latch, as the page
  1367. is only being recovered, and there cannot be a hash index to
  1368. it. */
  1369. rec_set_deleted_flag(rec, val);
  1370. }
  1371. return(ptr);
  1372. }
  1373. /***************************************************************
  1374. Sets a secondary index record delete mark to TRUE or FALSE. */
  1375. ulint
  1376. btr_cur_del_mark_set_sec_rec(
  1377. /*=========================*/
  1378. /* out: DB_SUCCESS, DB_LOCK_WAIT, or error
  1379. number */
  1380. ulint flags, /* in: locking flag */
  1381. btr_cur_t* cursor, /* in: cursor */
  1382. ibool val, /* in: value to set */
  1383. que_thr_t* thr, /* in: query thread */
  1384. mtr_t* mtr) /* in: mtr */
  1385. {
  1386. buf_block_t* block;
  1387. rec_t* rec;
  1388. ulint err;
  1389. rec = btr_cur_get_rec(cursor);
  1390. err = lock_sec_rec_modify_check_and_lock(flags, rec, cursor->index,
  1391. thr);
  1392. if (err != DB_SUCCESS) {
  1393. return(err);
  1394. }
  1395. block = buf_block_align(rec);
  1396. if (block->is_hashed) {
  1397. rw_lock_x_lock(&btr_search_latch);
  1398. }
  1399. rec_set_deleted_flag(rec, val);
  1400. if (block->is_hashed) {
  1401. rw_lock_x_unlock(&btr_search_latch);
  1402. }
  1403. btr_cur_del_mark_set_sec_rec_log(rec, val, mtr);
  1404. return(DB_SUCCESS);
  1405. }
  1406. /***************************************************************
  1407. Sets a secondary index record delete mark to FALSE. This function is only
  1408. used by the insert buffer insert merge mechanism. */
  1409. void
  1410. btr_cur_del_unmark_for_ibuf(
  1411. /*========================*/
  1412. rec_t* rec, /* in: record to delete unmark */
  1413. mtr_t* mtr) /* in: mtr */
  1414. {
  1415. /* We do not need to reserve btr_search_latch, as the page has just
  1416. been read to the buffer pool and there cannot be a hash index to it. */
  1417. rec_set_deleted_flag(rec, FALSE);
  1418. btr_cur_del_mark_set_sec_rec_log(rec, FALSE, mtr);
  1419. }
  1420. /*==================== B-TREE RECORD REMOVE =========================*/
  1421. /*****************************************************************
  1422. Tries to compress a page of the tree on the leaf level. It is assumed
  1423. that mtr holds an x-latch on the tree and on the cursor page. To avoid
  1424. deadlocks, mtr must also own x-latches to brothers of page, if those
  1425. brothers exist. NOTE: it is assumed that the caller has reserved enough
  1426. free extents so that the compression will always succeed if done! */
  1427. void
  1428. btr_cur_compress(
  1429. /*=============*/
  1430. btr_cur_t* cursor, /* in: cursor on the page to compress;
  1431. cursor does not stay valid */
  1432. mtr_t* mtr) /* in: mtr */
  1433. {
  1434. ut_ad(mtr_memo_contains(mtr,
  1435. dict_tree_get_lock(btr_cur_get_tree(cursor)),
  1436. MTR_MEMO_X_LOCK));
  1437. ut_ad(mtr_memo_contains(mtr, buf_block_align(
  1438. btr_cur_get_page(cursor)),
  1439. MTR_MEMO_PAGE_X_FIX));
  1440. ut_ad(btr_page_get_level(btr_cur_get_page(cursor), mtr) == 0);
  1441. btr_compress(cursor, mtr);
  1442. }
  1443. /*****************************************************************
  1444. Tries to compress a page of the tree if it seems useful. It is assumed
  1445. that mtr holds an x-latch on the tree and on the cursor page. To avoid
  1446. deadlocks, mtr must also own x-latches to brothers of page, if those
  1447. brothers exist. NOTE: it is assumed that the caller has reserved enough
  1448. free extents so that the compression will always succeed if done! */
  1449. ibool
  1450. btr_cur_compress_if_useful(
  1451. /*=======================*/
  1452. /* out: TRUE if compression occurred */
  1453. btr_cur_t* cursor, /* in: cursor on the page to compress;
  1454. cursor does not stay valid if compression
  1455. occurs */
  1456. mtr_t* mtr) /* in: mtr */
  1457. {
  1458. ut_ad(mtr_memo_contains(mtr,
  1459. dict_tree_get_lock(btr_cur_get_tree(cursor)),
  1460. MTR_MEMO_X_LOCK));
  1461. ut_ad(mtr_memo_contains(mtr, buf_block_align(
  1462. btr_cur_get_page(cursor)),
  1463. MTR_MEMO_PAGE_X_FIX));
  1464. if (btr_cur_compress_recommendation(cursor, mtr)) {
  1465. btr_compress(cursor, mtr);
  1466. return(TRUE);
  1467. }
  1468. return(FALSE);
  1469. }
  1470. /***********************************************************
  1471. Removes the record on which the tree cursor is positioned on a leaf page.
  1472. It is assumed that the mtr has an x-latch on the page where the cursor is
  1473. positioned, but no latch on the whole tree. */
  1474. ibool
  1475. btr_cur_optimistic_delete(
  1476. /*======================*/
  1477. /* out: TRUE if success, i.e., the page
  1478. did not become too empty */
  1479. btr_cur_t* cursor, /* in: cursor on leaf page, on the record to
  1480. delete; cursor stays valid: if deletion
  1481. succeeds, on function exit it points to the
  1482. successor of the deleted record */
  1483. mtr_t* mtr) /* in: mtr */
  1484. {
  1485. page_t* page;
  1486. ulint max_ins_size;
  1487. ut_ad(mtr_memo_contains(mtr, buf_block_align(btr_cur_get_page(cursor)),
  1488. MTR_MEMO_PAGE_X_FIX));
  1489. /* This is intended only for leaf page deletions */
  1490. page = btr_cur_get_page(cursor);
  1491. ut_ad(btr_page_get_level(page, mtr) == 0);
  1492. if (btr_cur_can_delete_without_compress(cursor, mtr)) {
  1493. lock_update_delete(btr_cur_get_rec(cursor));
  1494. btr_search_update_hash_on_delete(cursor);
  1495. max_ins_size = page_get_max_insert_size_after_reorganize(page,
  1496. 1);
  1497. page_cur_delete_rec(btr_cur_get_page_cur(cursor), mtr);
  1498. ibuf_update_free_bits_low(cursor->index, page, max_ins_size,
  1499. mtr);
  1500. return(TRUE);
  1501. }
  1502. return(FALSE);
  1503. }
  1504. /*****************************************************************
  1505. Removes the record on which the tree cursor is positioned. Tries
  1506. to compress the page if its fillfactor drops below a threshold
  1507. or if it is the only page on the level. It is assumed that mtr holds
  1508. an x-latch on the tree and on the cursor page. To avoid deadlocks,
  1509. mtr must also own x-latches to brothers of page, if those brothers
  1510. exist. */
  1511. ibool
  1512. btr_cur_pessimistic_delete(
  1513. /*=======================*/
  1514. /* out: TRUE if compression occurred */
  1515. ulint* err, /* out: DB_SUCCESS or DB_OUT_OF_FILE_SPACE;
  1516. the latter may occur because we may have
  1517. to update node pointers on upper levels,
  1518. and in the case of variable length keys
  1519. these may actually grow in size */
  1520. ibool has_reserved_extents, /* in: TRUE if the
  1521. caller has already reserved enough free
  1522. extents so that he knows that the operation
  1523. will succeed */
  1524. btr_cur_t* cursor, /* in: cursor on the record to delete;
  1525. if compression does not occur, the cursor
  1526. stays valid: it points to successor of
  1527. deleted record on function exit */
  1528. mtr_t* mtr) /* in: mtr */
  1529. {
  1530. page_t* page;
  1531. dict_tree_t* tree;
  1532. rec_t* rec;
  1533. dtuple_t* node_ptr;
  1534. ulint n_extents = 0;
  1535. ibool success;
  1536. ibool ret = FALSE;
  1537. mem_heap_t* heap;
  1538. page = btr_cur_get_page(cursor);
  1539. tree = btr_cur_get_tree(cursor);
  1540. ut_ad(mtr_memo_contains(mtr, dict_tree_get_lock(tree),
  1541. MTR_MEMO_X_LOCK));
  1542. ut_ad(mtr_memo_contains(mtr, buf_block_align(page),
  1543. MTR_MEMO_PAGE_X_FIX));
  1544. if (!has_reserved_extents) {
  1545. /* First reserve enough free space for the file segments
  1546. of the index tree, so that the node pointer updates will
  1547. not fail because of lack of space */
  1548. n_extents = cursor->tree_height / 32 + 1;
  1549. success = fsp_reserve_free_extents(cursor->index->space,
  1550. n_extents, FSP_CLEANING, mtr);
  1551. if (!success) {
  1552. *err = DB_OUT_OF_FILE_SPACE;
  1553. return(FALSE);
  1554. }
  1555. }
  1556. if ((page_get_n_recs(page) < 2)
  1557.     && (dict_tree_get_page(btr_cur_get_tree(cursor))
  1558. != buf_frame_get_page_no(page))) {
  1559. /* If there is only one record, drop the whole page in
  1560. btr_discard_page, if this is not the root page */
  1561. btr_discard_page(cursor, mtr);
  1562. *err = DB_SUCCESS;
  1563. ret = TRUE;
  1564. goto return_after_reservations;
  1565. }
  1566. rec = btr_cur_get_rec(cursor);
  1567. lock_update_delete(rec);
  1568. if ((btr_page_get_level(page, mtr) > 0)
  1569.     && (page_rec_get_next(page_get_infimum_rec(page)) == rec)) {
  1570. if (btr_page_get_prev(page, mtr) == FIL_NULL) {
  1571. /* If we delete the leftmost node pointer on a
  1572. non-leaf level, we must mark the new leftmost node
  1573. pointer as the predefined minimum record */
  1574.      btr_set_min_rec_mark(page_rec_get_next(rec), mtr);
  1575. } else {
  1576. /* Otherwise, if we delete the leftmost node pointer
  1577. on a page, we have to change the father node pointer
  1578. so that it is equal to the new leftmost node pointer
  1579. on the page */
  1580. btr_node_ptr_delete(tree, page, mtr);
  1581. heap = mem_heap_create(256);
  1582. node_ptr = dict_tree_build_node_ptr(
  1583. tree, page_rec_get_next(rec),
  1584. buf_frame_get_page_no(page),
  1585. heap);
  1586. btr_insert_on_non_leaf_level(tree,
  1587. btr_page_get_level(page, mtr) + 1,
  1588. node_ptr, mtr);
  1589. mem_heap_free(heap);
  1590. }
  1591. btr_search_update_hash_on_delete(cursor);
  1592. page_cur_delete_rec(btr_cur_get_page_cur(cursor), mtr);
  1593. ut_ad(btr_check_node_ptr(tree, page, mtr));
  1594. *err = DB_SUCCESS;
  1595. return_after_reservations:
  1596. if (ret == FALSE) {
  1597. ret = btr_cur_compress_if_useful(cursor, mtr);
  1598. }
  1599. if (n_extents > 0) {
  1600. fil_space_release_free_extents(cursor->index->space, n_extents);
  1601. }
  1602. return(ret);
  1603. }
  1604. /***********************************************************************
  1605. Adds path information to the cursor for the current page, for which
  1606. the binary search has been performed. */
  1607. static
  1608. void
  1609. btr_cur_add_path_info(
  1610. /*==================*/
  1611. btr_cur_t* cursor, /* in: cursor positioned on a page */
  1612. ulint height, /* in: height of the page in tree;
  1613. 0 means leaf node */
  1614. ulint root_height) /* in: root node height in tree */
  1615. {
  1616. btr_path_t* slot;
  1617. rec_t* rec;
  1618. ut_a(cursor->path_arr);
  1619. if (root_height >= BTR_PATH_ARRAY_N_SLOTS - 1) {
  1620. /* Do nothing; return empty path */
  1621. slot = cursor->path_arr;
  1622. slot->nth_rec = ULINT_UNDEFINED;
  1623. return;
  1624. }
  1625. if (height == 0) {
  1626. /* Mark end of slots for path */
  1627. slot = cursor->path_arr + root_height + 1;
  1628. slot->nth_rec = ULINT_UNDEFINED;
  1629. }
  1630. rec = btr_cur_get_rec(cursor);
  1631. slot = cursor->path_arr + (root_height - height);
  1632. slot->nth_rec = page_rec_get_n_recs_before(rec);
  1633. slot->n_recs = page_get_n_recs(buf_frame_align(rec));
  1634. }
  1635. /***********************************************************************
  1636. Estimates the number of rows in a given index range. */
  1637. ulint
  1638. btr_estimate_n_rows_in_range(
  1639. /*=========================*/
  1640. /* out: estimated number of rows */
  1641. dict_index_t* index, /* in: index */
  1642. dtuple_t* tuple1, /* in: range start, may also be empty tuple */
  1643. ulint mode1, /* in: search mode for range start */
  1644. dtuple_t* tuple2, /* in: range end, may also be empty tuple */
  1645. ulint mode2) /* in: search mode for range end */
  1646. {
  1647. btr_path_t path1[BTR_PATH_ARRAY_N_SLOTS];
  1648. btr_path_t path2[BTR_PATH_ARRAY_N_SLOTS];
  1649. btr_cur_t cursor;
  1650. btr_path_t* slot1;
  1651. btr_path_t* slot2;
  1652. ibool diverged;
  1653. ulint n_rows;
  1654. ulint i;
  1655. mtr_t mtr;
  1656. mtr_start(&mtr);
  1657. cursor.path_arr = path1;
  1658. if (dtuple_get_n_fields(tuple1) > 0) {
  1659. btr_cur_search_to_nth_level(index, 0, tuple1, mode1,
  1660. BTR_SEARCH_LEAF | BTR_ESTIMATE,
  1661. &cursor, 0, &mtr);
  1662. } else {
  1663. btr_cur_open_at_index_side(TRUE, index,
  1664. BTR_SEARCH_LEAF | BTR_ESTIMATE,
  1665. &cursor, &mtr);
  1666. }
  1667. mtr_commit(&mtr);
  1668. mtr_start(&mtr);
  1669. cursor.path_arr = path2;
  1670. if (dtuple_get_n_fields(tuple2) > 0) {
  1671. btr_cur_search_to_nth_level(index, 0, tuple2, mode2,
  1672. BTR_SEARCH_LEAF | BTR_ESTIMATE,
  1673. &cursor, 0, &mtr);
  1674. } else {
  1675. btr_cur_open_at_index_side(FALSE, index,
  1676. BTR_SEARCH_LEAF | BTR_ESTIMATE,
  1677. &cursor, &mtr);
  1678. }
  1679. mtr_commit(&mtr);
  1680. /* We have the path information for the range in path1 and path2 */
  1681. n_rows = 1;
  1682. diverged = FALSE;
  1683. for (i = 0; ; i++) {
  1684. ut_ad(i < BTR_PATH_ARRAY_N_SLOTS);
  1685. slot1 = path1 + i;
  1686. slot2 = path2 + i;
  1687. if (slot1->nth_rec == ULINT_UNDEFINED
  1688. || slot2->nth_rec == ULINT_UNDEFINED) {
  1689. return(n_rows);
  1690. }
  1691. if (!diverged && slot1->nth_rec != slot2->nth_rec) {
  1692. if (slot1->nth_rec < slot2->nth_rec) {
  1693. n_rows = slot2->nth_rec - slot1->nth_rec;
  1694. } else {
  1695. /* Maybe the tree has changed between
  1696. searches */
  1697. return(10);
  1698. }
  1699. diverged = TRUE;
  1700. } else if (diverged) {
  1701. n_rows = (n_rows * (slot1->n_recs + slot2->n_recs))
  1702. / 2;
  1703. }
  1704. }
  1705. }
  1706. /***********************************************************************
  1707. Estimates the number of different key values in a given index. */
  1708. ulint
  1709. btr_estimate_number_of_different_key_vals(
  1710. /*======================================*/
  1711. /* out: estimated number of key values */
  1712. dict_index_t* index) /* in: index */
  1713. {
  1714. btr_cur_t cursor;
  1715. page_t* page;
  1716. rec_t* rec;
  1717. ulint total_n_recs = 0;
  1718. ulint n_diff_in_page;
  1719. ulint n_diff = 0;
  1720. ulint matched_fields;
  1721. ulint matched_bytes;
  1722. ulint i;
  1723. mtr_t mtr;
  1724. if (index->type & DICT_UNIQUE) {
  1725. return(index->table->stat_n_rows);
  1726. }
  1727. /* We sample some pages in the index to get an estimate */
  1728. for (i = 0; i < BTR_KEY_VAL_ESTIMATE_N_PAGES; i++) {
  1729. mtr_start(&mtr);
  1730. btr_cur_open_at_rnd_pos(index, BTR_SEARCH_LEAF, &cursor, &mtr);
  1731. /* Count the number of different key values minus one on this
  1732. index page: we subtract one because otherwise our algorithm
  1733. would give a wrong estimate for an index where there is
  1734. just one key value */
  1735. page = btr_cur_get_page(&cursor);
  1736. rec = page_get_infimum_rec(page);
  1737. rec = page_rec_get_next(rec);
  1738. n_diff_in_page = 0;
  1739. while (rec != page_get_supremum_rec(page)
  1740.        && page_rec_get_next(rec)
  1741. != page_get_supremum_rec(page)) {
  1742. matched_fields = 0;
  1743. matched_bytes = 0;
  1744. cmp_rec_rec_with_match(rec, page_rec_get_next(rec),
  1745. index, &matched_fields,
  1746. &matched_bytes);
  1747. if (matched_fields <
  1748. dict_index_get_n_ordering_defined_by_user(
  1749. index)) {
  1750. n_diff_in_page++;
  1751. }
  1752. rec = page_rec_get_next(rec);
  1753. }
  1754. n_diff += n_diff_in_page;
  1755. total_n_recs += page_get_n_recs(page);
  1756. mtr_commit(&mtr);
  1757. }
  1758. if (n_diff == 0) {
  1759. /* We play safe and assume that there are just two different
  1760. key values in the index */
  1761. return(2);
  1762. }
  1763. return(index->table->stat_n_rows / (total_n_recs / n_diff));
  1764. }