testutils.tcl
上传用户:tsgydb
上传日期:2007-04-14
资源大小:10674k
文件大小:56k
源码类别:

MySQL数据库

开发平台:

Visual C++

  1. # See the file LICENSE for redistribution information.
  2. #
  3. # Copyright (c) 1996, 1997, 1998, 1999, 2000
  4. # Sleepycat Software.  All rights reserved.
  5. #
  6. # $Id: testutils.tcl,v 11.86 2001/01/18 23:21:14 krinsky Exp $
  7. #
  8. # Test system utilities
  9. #
  10. # Timestamp -- print time along with elapsed time since last invocation
  11. # of timestamp.
  12. proc timestamp {{opt ""}} {
  13. global __timestamp_start
  14. if {[string compare $opt "-r"] == 0} {
  15. clock seconds
  16. } elseif {[string compare $opt "-t"] == 0} {
  17. # -t gives us the current time in the format expected by
  18. # db_recover -t.
  19. return [clock format [clock seconds] -format "%y%m%d%H%M.%S"]
  20. } else {
  21. set now [clock seconds]
  22. if {[catch {set start $__timestamp_start}] != 0} {
  23. set __timestamp_start $now
  24. }
  25. set start $__timestamp_start
  26. set elapsed [expr $now - $start]
  27. set the_time [clock format $now -format ""]
  28. set __timestamp_start $now
  29. format "%02d:%02d:%02d (%02d:%02d:%02d)" 
  30.     [__fix_num [clock format $now -format "%H"]] 
  31.     [__fix_num [clock format $now -format "%M"]] 
  32.     [__fix_num [clock format $now -format "%S"]] 
  33.     [expr $elapsed / 3600] 
  34.     [expr ($elapsed % 3600) / 60] 
  35.     [expr ($elapsed % 3600) % 60]
  36. }
  37. }
  38. proc __fix_num { num } {
  39. set num [string trimleft $num "0"]
  40. if {[string length $num] == 0} {
  41. set num "0"
  42. }
  43. return $num
  44. }
  45. # Add a {key,data} pair to the specified database where
  46. # key=filename and data=file contents.
  47. proc put_file { db txn flags file } {
  48. source ./include.tcl
  49. set fid [open $file r]
  50. fconfigure $fid -translation binary
  51. set data [read $fid]
  52. close $fid
  53. set ret [eval {$db put} $txn $flags {$file $data}]
  54. error_check_good put_file $ret 0
  55. }
  56. # Get a {key,data} pair from the specified database where
  57. # key=filename and data=file contents and then write the
  58. # data to the specified file.
  59. proc get_file { db txn flags file outfile } {
  60. source ./include.tcl
  61. set fid [open $outfile w]
  62. fconfigure $fid -translation binary
  63. if [catch {eval {$db get} $txn $flags {$file}} data] {
  64. puts -nonewline $fid $data
  65. } else {
  66. # Data looks like {{key data}}
  67. set data [lindex [lindex $data 0] 1]
  68. puts -nonewline $fid $data
  69. }
  70. close $fid
  71. }
  72. # Add a {key,data} pair to the specified database where
  73. # key=file contents and data=file name.
  74. proc put_file_as_key { db txn flags file } {
  75. source ./include.tcl
  76. set fid [open $file r]
  77. fconfigure $fid -translation binary
  78. set filecont [read $fid]
  79. close $fid
  80. # Use not the file contents, but the file name concatenated
  81. # before the file contents, as a key, to ensure uniqueness.
  82. set data $file$filecont
  83. set ret [eval {$db put} $txn $flags {$data $file}]
  84. error_check_good put_file $ret 0
  85. }
  86. # Get a {key,data} pair from the specified database where
  87. # key=file contents and data=file name
  88. proc get_file_as_key { db txn flags file} {
  89. source ./include.tcl
  90. set fid [open $file r]
  91. fconfigure $fid -translation binary
  92. set filecont [read $fid]
  93. close $fid
  94. set data $file$filecont
  95. return [eval {$db get} $txn $flags {$data}]
  96. }
  97. # open file and call dump_file to dumpkeys to tempfile
  98. proc open_and_dump_file {
  99.     dbname dbenv txn outfile checkfunc dump_func beg cont} {
  100. source ./include.tcl
  101. if { $dbenv == "NULL" } {
  102. set db [berkdb open -rdonly -unknown $dbname]
  103. error_check_good dbopen [is_valid_db $db] TRUE
  104. } else {
  105. set db [berkdb open -env $dbenv -rdonly -unknown $dbname]
  106. error_check_good dbopen [is_valid_db $db] TRUE
  107. }
  108. $dump_func $db $txn $outfile $checkfunc $beg $cont
  109. error_check_good db_close [$db close] 0
  110. }
  111. # open file and call dump_file to dumpkeys to tempfile
  112. proc open_and_dump_subfile {
  113.     dbname dbenv txn outfile checkfunc dump_func beg cont subdb} {
  114. source ./include.tcl
  115. if { $dbenv == "NULL" } {
  116. set db [berkdb open -rdonly -unknown $dbname $subdb]
  117. error_check_good dbopen [is_valid_db $db] TRUE
  118. } else {
  119. set db [berkdb open -env $dbenv -rdonly -unknown $dbname $subdb]
  120. error_check_good dbopen [is_valid_db $db] TRUE
  121. }
  122. $dump_func $db $txn $outfile $checkfunc $beg $cont
  123. error_check_good db_close [$db close] 0
  124. }
  125. # Sequentially read a file and call checkfunc on each key/data pair.
  126. # Dump the keys out to the file specified by outfile.
  127. proc dump_file { db txn outfile checkfunc } {
  128. source ./include.tcl
  129. dump_file_direction $db $txn $outfile $checkfunc "-first" "-next"
  130. }
  131. proc dump_file_direction { db txn outfile checkfunc start continue } {
  132. source ./include.tcl
  133. set outf [open $outfile w]
  134. # Now we will get each key from the DB and dump to outfile
  135. set c [eval {$db cursor} $txn]
  136. error_check_good db_cursor [is_valid_cursor $c $db] TRUE
  137. for {set d [$c get $start] } { [llength $d] != 0 } {
  138.     set d [$c get $continue] } {
  139. set kd [lindex $d 0]
  140. set k [lindex $kd 0]
  141. set d2 [lindex $kd 1]
  142. $checkfunc $k $d2
  143. puts $outf $k
  144. # XXX: Geoff Mainland
  145. # puts $outf "$k $d2"
  146. }
  147. close $outf
  148. error_check_good curs_close [$c close] 0
  149. }
  150. proc dump_binkey_file { db txn outfile checkfunc } {
  151. source ./include.tcl
  152. dump_binkey_file_direction $db $txn $outfile $checkfunc 
  153.     "-first" "-next"
  154. }
  155. proc dump_bin_file { db txn outfile checkfunc } {
  156. source ./include.tcl
  157. dump_bin_file_direction $db $txn $outfile $checkfunc "-first" "-next"
  158. }
  159. # Note: the following procedure assumes that the binary-file-as-keys were
  160. # inserted into the database by put_file_as_key, and consist of the file
  161. # name followed by the file contents as key, to ensure uniqueness.
  162. proc dump_binkey_file_direction { db txn outfile checkfunc begin cont } {
  163. source ./include.tcl
  164. set d1 $testdir/d1
  165. set outf [open $outfile w]
  166. # Now we will get each key from the DB and dump to outfile
  167. set c [eval {$db cursor} $txn]
  168. error_check_good db_cursor [is_valid_cursor $c $db] TRUE
  169. set inf $d1
  170. for {set d [$c get $begin] } { [llength $d] != 0 } 
  171.     {set d [$c get $cont] } {
  172. set kd [lindex $d 0]
  173. set keyfile [lindex $kd 0]
  174. set data [lindex $kd 1]
  175. set ofid [open $d1 w]
  176. fconfigure $ofid -translation binary
  177. # Chop off the first few bytes--that's the file name,
  178. # added for uniqueness in put_file_as_key, which we don't
  179. # want in the regenerated file.
  180. set namelen [string length $data]
  181. set keyfile [string range $keyfile $namelen end]
  182. puts -nonewline $ofid $keyfile
  183. close $ofid
  184. $checkfunc $data $d1
  185. puts $outf $data
  186. flush $outf
  187. }
  188. close $outf
  189. error_check_good curs_close [$c close] 0
  190. fileremove $d1
  191. }
  192. proc dump_bin_file_direction { db txn outfile checkfunc begin cont } {
  193. source ./include.tcl
  194. set d1 $testdir/d1
  195. set outf [open $outfile w]
  196. # Now we will get each key from the DB and dump to outfile
  197. set c [eval {$db cursor} $txn]
  198. for {set d [$c get $begin] } 
  199.     { [llength $d] != 0 } {set d [$c get $cont] } {
  200. set k [lindex [lindex $d 0] 0]
  201. set data [lindex [lindex $d 0] 1]
  202. set ofid [open $d1 w]
  203. fconfigure $ofid -translation binary
  204. puts -nonewline $ofid $data
  205. close $ofid
  206. $checkfunc $k $d1
  207. puts $outf $k
  208. }
  209. close $outf
  210. error_check_good curs_close [$c close] 0
  211. fileremove -f $d1
  212. }
  213. proc make_data_str { key } {
  214. set datastr ""
  215. for {set i 0} {$i < 10} {incr i} {
  216. append datastr $key
  217. }
  218. return $datastr
  219. }
  220. proc error_check_bad { func result bad {txn 0}} {
  221. if { [binary_compare $result $bad] == 0 } {
  222. if { $txn != 0 } {
  223. $txn abort
  224. }
  225. flush stdout
  226. flush stderr
  227. error "FAIL:[timestamp] $func returned error value $bad"
  228. }
  229. }
  230. proc error_check_good { func result desired {txn 0} } {
  231. if { [binary_compare $desired $result] != 0 } {
  232. if { $txn != 0 } {
  233. $txn abort
  234. }
  235. flush stdout
  236. flush stderr
  237. error "FAIL:[timestamp]
  238.     $func: expected $desired, got $result"
  239. }
  240. }
  241. # Locks have the prefix of their manager.
  242. proc is_substr { l mgr } {
  243. if { [string first $mgr $l]  == -1 } {
  244. return 0
  245. } else {
  246. return 1
  247. }
  248. }
  249. proc release_list { l } {
  250. # Now release all the locks
  251. foreach el $l {
  252. set ret [$el put]
  253. error_check_good lock_put $ret 0
  254. }
  255. }
  256. proc debug { {stop 0} } {
  257. global __debug_on
  258. global __debug_print
  259. global __debug_test
  260. set __debug_on 1
  261. set __debug_print 1
  262. set __debug_test $stop
  263. }
  264. # Check if each key appears exactly [llength dlist] times in the file with
  265. # the duplicate tags matching those that appear in dlist.
  266. proc dup_check { db txn tmpfile dlist {extra 0}} {
  267. source ./include.tcl
  268. set outf [open $tmpfile w]
  269. # Now we will get each key from the DB and dump to outfile
  270. set c [eval {$db cursor} $txn]
  271. set lastkey ""
  272. set done 0
  273. while { $done != 1} {
  274. foreach did $dlist {
  275. set rec [$c get "-next"]
  276. if { [string length $rec] == 0 } {
  277. set done 1
  278. break
  279. }
  280. set key [lindex [lindex $rec 0] 0]
  281. set fulldata [lindex [lindex $rec 0] 1]
  282. set id [id_of $fulldata]
  283. set d [data_of $fulldata]
  284. if { [string compare $key $lastkey] != 0 && 
  285.     $id != [lindex $dlist 0] } {
  286. set e [lindex $dlist 0]
  287. error "FAIL: tKey 
  288.     $key, expected dup id $e, got $id"
  289. }
  290. error_check_good dupget.data $d $key
  291. error_check_good dupget.id $id $did
  292. set lastkey $key
  293. }
  294. #
  295. # Some tests add an extra dup (like overflow entries)
  296. # Check id if it exists.
  297. if { $extra != 0} {
  298. set okey $key
  299. set rec [$c get "-next"]
  300. if { [string length $rec] != 0 } {
  301. set key [lindex [lindex $rec 0] 0]
  302. #
  303. # If this key has no extras, go back for
  304. # next iteration.
  305. if { [string compare $key $lastkey] != 0 } {
  306. set key $okey
  307. set rec [$c get "-prev"]
  308. } else {
  309. set fulldata [lindex [lindex $rec 0] 1]
  310. set id [id_of $fulldata]
  311. set d [data_of $fulldata]
  312. error_check_bad dupget.data1 $d $key
  313. error_check_good dupget.id1 $id $extra
  314. }
  315. }
  316. }
  317. if { $done != 1 } {
  318. puts $outf $key
  319. }
  320. }
  321. close $outf
  322. error_check_good curs_close [$c close] 0
  323. }
  324. # Parse duplicate data entries of the form N:data. Data_of returns
  325. # the data part; id_of returns the numerical part
  326. proc data_of {str} {
  327. set ndx [string first ":" $str]
  328. if { $ndx == -1 } {
  329. return ""
  330. }
  331. return [ string range $str [expr $ndx + 1] end]
  332. }
  333. proc id_of {str} {
  334. set ndx [string first ":" $str]
  335. if { $ndx == -1 } {
  336. return ""
  337. }
  338. return [ string range $str 0 [expr $ndx - 1]]
  339. }
  340. proc nop { {args} } {
  341. return
  342. }
  343. # Partial put test procedure.
  344. # Munges a data val through three different partial puts.  Stores
  345. # the final munged string in the dvals array so that you can check
  346. # it later (dvals should be global).  We take the characters that
  347. # are being replaced, make them capitals and then replicate them
  348. # some number of times (n_add).  We do this at the beginning of the
  349. # data, at the middle and at the end. The parameters are:
  350. # db, txn, key -- as per usual.  Data is the original data element
  351. # from which we are starting.  n_replace is the number of characters
  352. # that we will replace.  n_add is the number of times we will add
  353. # the replaced string back in.
  354. proc partial_put { method db txn gflags key data n_replace n_add } {
  355. global dvals
  356. source ./include.tcl
  357. # Here is the loop where we put and get each key/data pair
  358. # We will do the initial put and then three Partial Puts
  359. # for the beginning, middle and end of the string.
  360. eval {$db put} $txn {$key [chop_data $method $data]}
  361. # Beginning change
  362. set s [string range $data 0 [ expr $n_replace - 1 ] ]
  363. set repl [ replicate [string toupper $s] $n_add ]
  364. # This is gross, but necessary:  if this is a fixed-length
  365. # method, and the chopped length of $repl is zero,
  366. # it's because the original string was zero-length and our data item
  367. # is all nulls.  Set repl to something non-NULL.
  368. if { [is_fixed_length $method] && 
  369.     [string length [chop_data $method $repl]] == 0 } {
  370. set repl [replicate "." $n_add]
  371. }
  372. set newstr [chop_data $method $repl[string range $data $n_replace end]]
  373. set ret [eval {$db put} $txn {-partial [list 0 $n_replace] 
  374.     $key [chop_data $method $repl]}]
  375. error_check_good put $ret 0
  376. set ret [eval {$db get} $gflags $txn {$key}]
  377. error_check_good get $ret [list [list $key [pad_data $method $newstr]]]
  378. # End Change
  379. set len [string length $newstr]
  380. set spl [expr $len - $n_replace]
  381. # Handle case where $n_replace > $len
  382. if { $spl < 0 } {
  383. set spl 0
  384. }
  385. set s [string range $newstr [ expr $len - $n_replace ] end ]
  386. # Handle zero-length keys
  387. if { [string length $s] == 0 } { set s "A" }
  388. set repl [ replicate [string toupper $s] $n_add ]
  389. set newstr [chop_data $method 
  390.     [string range $newstr 0 [expr $spl - 1 ] ]$repl]
  391. set ret [eval {$db put} $txn 
  392.     {-partial [list $spl $n_replace] $key [chop_data $method $repl]}]
  393. error_check_good put $ret 0
  394. set ret [eval {$db get} $gflags $txn {$key}]
  395. error_check_good get $ret [list [list $key [pad_data $method $newstr]]]
  396. # Middle Change
  397. set len [string length $newstr]
  398. set mid [expr $len / 2 ]
  399. set beg [expr $mid - [expr $n_replace / 2] ]
  400. set end [expr $beg + $n_replace - 1]
  401. set s [string range $newstr $beg $end]
  402. set repl [ replicate [string toupper $s] $n_add ]
  403. set newstr [chop_data $method [string range $newstr 0 
  404.     [expr $beg - 1 ] ]$repl[string range $newstr [expr $end + 1] end]]
  405. set ret [eval {$db put} $txn {-partial [list $beg $n_replace] 
  406.     $key [chop_data $method $repl]}]
  407. error_check_good put $ret 0
  408. set ret [eval {$db get} $gflags $txn {$key}]
  409. error_check_good get $ret [list [list $key [pad_data $method $newstr]]]
  410. set dvals($key) [pad_data $method $newstr]
  411. }
  412. proc replicate { str times } {
  413. set res $str
  414. for { set i 1 } { $i < $times } { set i [expr $i * 2] } {
  415. append res $res
  416. }
  417. return $res
  418. }
  419. proc repeat { str n } {
  420. set ret ""
  421. while { $n > 0 } {
  422. set ret $str$ret
  423. incr n -1
  424. }
  425. return $ret
  426. }
  427. proc isqrt { l } {
  428. set s [expr sqrt($l)]
  429. set ndx [expr [string first "." $s] - 1]
  430. return [string range $s 0 $ndx]
  431. }
  432. # If we run watch_procs multiple times without an intervening
  433. # testdir cleanup, it's possible that old sentinel files will confuse
  434. # us.  Make sure they're wiped out before we spawn any other processes.
  435. proc sentinel_init { } {
  436. source ./include.tcl
  437. set filelist {}
  438. set ret [catch {glob $testdir/begin.*} result]
  439. if { $ret == 0 } { 
  440. set filelist $result
  441. }
  442. set ret [catch {glob $testdir/end.*} result]
  443. if { $ret == 0 } {
  444. set filelist [concat $filelist $result]
  445. }
  446. foreach f $filelist {
  447. fileremove $f
  448. }
  449. }
  450. proc watch_procs { {delay 30} {max 3600} } {
  451. source ./include.tcl
  452. set elapsed 0
  453. while { 1 } {
  454. tclsleep $delay
  455. incr elapsed $delay
  456. # Find the list of processes withoutstanding sentinel
  457. # files (i.e. a begin.pid and no end.pid).
  458. set beginlist {}
  459. set endlist {}
  460. set ret [catch {glob $testdir/begin.*} result]
  461. if { $ret == 0 } {
  462. set beginlist $result
  463. }
  464. set ret [catch {glob $testdir/end.*} result]
  465. if { $ret == 0 } {
  466. set endlist $result
  467. }
  468. set bpids {}
  469. catch {unset epids}
  470. foreach begfile $beginlist {
  471. lappend bpids [string range $begfile 
  472.     [string length $testdir/begin.] end]
  473. }
  474. foreach endfile $endlist {
  475. set epids([string range $endfile 
  476.     [string length $testdir/end.] end]) 1
  477. }
  478. # The set of processes that we still want to watch, $l,
  479. # is the set of pids that have begun but not ended
  480. # according to their sentinel files.
  481. set l {}
  482. foreach p $bpids {
  483. if { [info exists epids($p)] == 0 } {
  484. lappend l $p
  485. }
  486. }
  487. set rlist {}
  488. foreach i $l {
  489. set r [ catch { exec $KILL -0 $i } result ]
  490. if { $r == 0 } {
  491. lappend rlist $i
  492. }
  493. }
  494. if { [ llength $rlist] == 0 } {
  495. break
  496. } else {
  497. puts "[timestamp] processes running: $rlist"
  498. }
  499. if { $elapsed > $max } {
  500. # We have exceeded the limit; kill processes
  501. # and report an error
  502. set rlist {}
  503. foreach i $l {
  504. set r [catch { exec $KILL $i } result]
  505. if { $r == 0 } {
  506. lappend rlist $i
  507. }
  508. }
  509. error_check_good "Processes still running" 
  510.     [llength $rlist] 0
  511. }
  512. }
  513. puts "All processes have exited."
  514. }
  515. # These routines are all used from within the dbscript.tcl tester.
  516. proc db_init { dbp do_data } {
  517. global a_keys
  518. global l_keys
  519. source ./include.tcl
  520. set txn ""
  521. set nk 0
  522. set lastkey ""
  523. set a_keys() BLANK
  524. set l_keys ""
  525. set c [$dbp cursor]
  526. for {set d [$c get -first] } { [llength $d] != 0 } {
  527.     set d [$c get -next] } {
  528. set k [lindex [lindex $d 0] 0]
  529. set d2 [lindex [lindex $d 0] 1]
  530. incr nk
  531. if { $do_data == 1 } {
  532. if { [info exists a_keys($k)] } {
  533. lappend a_keys($k) $d2]
  534. } else {
  535. set a_keys($k) $d2
  536. }
  537. }
  538. lappend l_keys $k
  539. }
  540. error_check_good curs_close [$c close] 0
  541. return $nk
  542. }
  543. proc pick_op { min max n } {
  544. if { $n == 0 } {
  545. return add
  546. }
  547. set x [berkdb random_int 1 12]
  548. if {$n < $min} {
  549. if { $x <= 4 } {
  550. return put
  551. } elseif { $x <= 8} {
  552. return get
  553. } else {
  554. return add
  555. }
  556. } elseif {$n >  $max} {
  557. if { $x <= 4 } {
  558. return put
  559. } elseif { $x <= 8 } {
  560. return get
  561. } else {
  562. return del
  563. }
  564. } elseif { $x <= 3 } {
  565. return del
  566. } elseif { $x <= 6 } {
  567. return get
  568. } elseif { $x <= 9 } {
  569. return put
  570. } else {
  571. return add
  572. }
  573. }
  574. # random_data: Generate a string of random characters.
  575. # If recno is 0 - Use average to pick a length between 1 and 2 * avg.
  576. # If recno is non-0, generate a number between 1 and 2 ^ (avg * 2),
  577. #   that will fit into a 32-bit integer.
  578. # If the unique flag is 1, then make sure that the string is unique
  579. # in the array "where".
  580. proc random_data { avg unique where {recno 0} } {
  581. upvar #0 $where arr
  582. global debug_on
  583. set min 1
  584. set max [expr $avg+$avg-1]
  585. if { $recno  } {
  586. #
  587. # Tcl seems to have problems with values > 30.
  588. #
  589. if { $max > 30 } {
  590. set max 30
  591. }
  592. set maxnum [expr int(pow(2, $max))]
  593. }
  594. while {1} {
  595. set len [berkdb random_int $min $max]
  596. set s ""
  597. if {$recno} {
  598. set s [berkdb random_int 1 $maxnum]
  599. } else {
  600. for {set i 0} {$i < $len} {incr i} {
  601. append s [int_to_char [berkdb random_int 0 25]]
  602. }
  603. }
  604. if { $unique == 0 || [info exists arr($s)] == 0 } {
  605. break
  606. }
  607. }
  608. return $s
  609. }
  610. proc random_key { } {
  611. global l_keys
  612. global nkeys
  613. set x [berkdb random_int 0 [expr $nkeys - 1]]
  614. return [lindex $l_keys $x]
  615. }
  616. proc is_err { desired } {
  617. set x [berkdb random_int 1 100]
  618. if { $x <= $desired } {
  619. return 1
  620. } else {
  621. return 0
  622. }
  623. }
  624. proc pick_cursput { } {
  625. set x [berkdb random_int 1 4]
  626. switch $x {
  627. 1 { return "-keylast" }
  628. 2 { return "-keyfirst" }
  629. 3 { return "-before" }
  630. 4 { return "-after" }
  631. }
  632. }
  633. proc random_cursor { curslist } {
  634. global l_keys
  635. global nkeys
  636. set x [berkdb random_int 0 [expr [llength $curslist] - 1]]
  637. set dbc [lindex $curslist $x]
  638. # We want to randomly set the cursor.  Pick a key.
  639. set k [random_key]
  640. set r [$dbc get "-set" $k]
  641. error_check_good cursor_get:$k [is_substr Error $r] 0
  642. # Now move forward or backward some hops to randomly
  643. # position the cursor.
  644. set dist [berkdb random_int -10 10]
  645. set dir "-next"
  646. set boundary "-first"
  647. if { $dist < 0 } {
  648. set dir "-prev"
  649. set boundary "-last"
  650. set dist [expr 0 - $dist]
  651. }
  652. for { set i 0 } { $i < $dist } { incr i } {
  653. set r [ record $dbc get $dir $k ]
  654. if { [llength $d] == 0 } {
  655. set r [ record $dbc get $k $boundary ]
  656. }
  657. error_check_bad dbcget [llength $r] 0
  658. }
  659. return { [linsert r 0 $dbc] }
  660. }
  661. proc record { args } {
  662. # Recording every operation makes tests ridiculously slow on
  663. # NT, so we are commenting this out; for debugging purposes,
  664. # it will undoubtedly be useful to uncomment this.
  665. # puts $args
  666. # flush stdout
  667. return [eval $args]
  668. }
  669. proc newpair { k data } {
  670. global l_keys
  671. global a_keys
  672. global nkeys
  673. set a_keys($k) $data
  674. lappend l_keys $k
  675. incr nkeys
  676. }
  677. proc rempair { k } {
  678. global l_keys
  679. global a_keys
  680. global nkeys
  681. unset a_keys($k)
  682. set n [lsearch $l_keys $k]
  683. error_check_bad rempair:$k $n -1
  684. set l_keys [lreplace $l_keys $n $n]
  685. incr nkeys -1
  686. }
  687. proc changepair { k data } {
  688. global l_keys
  689. global a_keys
  690. global nkeys
  691. set a_keys($k) $data
  692. }
  693. proc changedup { k olddata newdata } {
  694. global l_keys
  695. global a_keys
  696. global nkeys
  697. set d $a_keys($k)
  698. error_check_bad changedup:$k [llength $d] 0
  699. set n [lsearch $d $olddata]
  700. error_check_bad changedup:$k $n -1
  701. set a_keys($k) [lreplace $a_keys($k) $n $n $newdata]
  702. }
  703. # Insert a dup into the a_keys array with DB_KEYFIRST.
  704. proc adddup { k olddata newdata } {
  705. global l_keys
  706. global a_keys
  707. global nkeys
  708. set d $a_keys($k)
  709. if { [llength $d] == 0 } {
  710. lappend l_keys $k
  711. incr nkeys
  712. set a_keys($k) { $newdata }
  713. }
  714. set ndx 0
  715. set d [linsert d $ndx $newdata]
  716. set a_keys($k) $d
  717. }
  718. proc remdup { k data } {
  719. global l_keys
  720. global a_keys
  721. global nkeys
  722. set d [$a_keys($k)]
  723. error_check_bad changedup:$k [llength $d] 0
  724. set n [lsearch $d $olddata]
  725. error_check_bad changedup:$k $n -1
  726. set a_keys($k) [lreplace $a_keys($k) $n $n]
  727. }
  728. proc dump_full_file { db txn outfile checkfunc start continue } {
  729. source ./include.tcl
  730. set outf [open $outfile w]
  731. # Now we will get each key from the DB and dump to outfile
  732. set c [eval {$db cursor} $txn]
  733. error_check_good dbcursor [is_valid_cursor $c $db] TRUE
  734. for {set d [$c get $start] } { [string length $d] != 0 } {
  735. set d [$c get $continue] } {
  736. set k [lindex [lindex $d 0] 0]
  737. set d2 [lindex [lindex $d 0] 1]
  738. $checkfunc $k $d2
  739. puts $outf "$kt$d2"
  740. }
  741. close $outf
  742. error_check_good curs_close [$c close] 0
  743. }
  744. proc int_to_char { i } {
  745. global alphabet
  746. return [string index $alphabet $i]
  747. }
  748. proc dbcheck { key data } {
  749. global l_keys
  750. global a_keys
  751. global nkeys
  752. global check_array
  753. if { [lsearch $l_keys $key] == -1 } {
  754. error "FAIL: Key |$key| not in list of valid keys"
  755. }
  756. set d $a_keys($key)
  757. if { [info exists check_array($key) ] } {
  758. set check $check_array($key)
  759. } else {
  760. set check {}
  761. }
  762. if { [llength $d] > 1 } {
  763. if { [llength $check] != [llength $d] } {
  764. # Make the check array the right length
  765. for { set i [llength $check] } { $i < [llength $d] } 
  766.     {incr i} {
  767. lappend check 0
  768. }
  769. set check_array($key) $check
  770. }
  771. # Find this data's index
  772. set ndx [lsearch $d $data]
  773. if { $ndx == -1 } {
  774. error "FAIL: 
  775.     Data |$data| not found for key $key.  Found |$d|"
  776. }
  777. # Set the bit in the check array
  778. set check_array($key) [lreplace $check_array($key) $ndx $ndx 1]
  779. } elseif { [string compare $d $data] != 0 } {
  780. error "FAIL: 
  781.     Invalid data |$data| for key |$key|. Expected |$d|."
  782. } else {
  783. set check_array($key) 1
  784. }
  785. }
  786. # Dump out the file and verify it
  787. proc filecheck { file txn } {
  788. global check_array
  789. global l_keys
  790. global nkeys
  791. global a_keys
  792. source ./include.tcl
  793. if { [info exists check_array] == 1 } {
  794. unset check_array
  795. }
  796. open_and_dump_file $file NULL $txn $file.dump dbcheck dump_full_file 
  797.     "-first" "-next"
  798. # Check that everything we checked had all its data
  799. foreach i [array names check_array] {
  800. set count 0
  801. foreach j $check_array($i) {
  802. if { $j != 1 } {
  803. puts -nonewline "Key |$i| never found datum"
  804. puts " [lindex $a_keys($i) $count]"
  805. }
  806. incr count
  807. }
  808. }
  809. # Check that all keys appeared in the checked array
  810. set count 0
  811. foreach k $l_keys {
  812. if { [info exists check_array($k)] == 0 } {
  813. puts "filecheck: key |$k| not found.  Data: $a_keys($k)"
  814. }
  815. incr count
  816. }
  817. if { $count != $nkeys } {
  818. puts "filecheck: Got $count keys; expected $nkeys"
  819. }
  820. }
  821. proc esetup { dir } {
  822. source ./include.tcl
  823. set ret [berkdb envremove -home $dir]
  824. fileremove -f $dir/file0 $dir/file1 $dir/file2 $dir/file3
  825. set mp [memp $dir 0644 -create -cachesize { 0 10240 }]
  826. set lp [lock_open "" -create 0644]
  827. error_check_good memp_close [$mp close] 0
  828. error_check_good lock_close [$lp close] 0
  829. }
  830. proc cleanup { dir env } {
  831. global gen_upgrade
  832. global upgrade_dir
  833. global upgrade_be
  834. global upgrade_method
  835. global upgrade_name
  836. source ./include.tcl
  837. if { $gen_upgrade == 1 } {
  838. set vers [berkdb version]
  839. set maj [lindex $vers 0]
  840. set min [lindex $vers 1]
  841. if { $upgrade_be == 1 } {
  842. set version_dir "$maj.${min}be"
  843. } else {
  844. set version_dir "$maj.${min}le"
  845. }
  846. set dest $upgrade_dir/$version_dir/$upgrade_method/$upgrade_name
  847. catch {exec mkdir -p $dest}
  848. catch {exec sh -c "mv $dir/*.db $dest"}
  849. catch {exec sh -c "mv $dir/__dbq.* $dest"}
  850. }
  851. # check_handles
  852. set remfiles {}
  853. set ret [catch { glob $dir/* } result]
  854. if { $ret == 0 } {
  855. foreach file $result {
  856. #
  857. # We:
  858. # - Ignore any env-related files, which are
  859. # those that have __db.* or log.* if we are
  860. # running in an env.
  861. # - Call 'dbremove' on any databases.
  862. # Remove any remaining temp files.
  863. #
  864. switch -glob -- $file {
  865. */__db.* -
  866. */log.* {
  867. if { $env != "NULL" } {
  868. continue
  869. } else {
  870. lappend remfiles $file
  871. }
  872. }
  873. *.db {
  874. set envargs ""
  875. if { $env != "NULL"} {
  876. set file [file tail $file]
  877. set envargs " -env $env "
  878. }
  879. # If a database is left in a corrupt
  880. # state, dbremove might not be able to handle
  881. # it (it does an open before the remove).
  882. # Be prepared for this, and if necessary,
  883. # just forcibly remove the file with a warning
  884. # message.
  885. set ret [catch 
  886.     {eval {berkdb dbremove} $envargs $file} res]
  887. if { $ret != 0 } {
  888. puts 
  889.     "FAIL: dbremove in cleanup failed: $res"
  890. lappend remfiles $file
  891. }
  892. }
  893. default {
  894. lappend remfiles $file
  895. }
  896. }
  897. }
  898. if {[llength $remfiles] > 0} {
  899. eval fileremove -f $remfiles
  900. }
  901. }
  902. }
  903. proc log_cleanup { dir } {
  904. source ./include.tcl
  905. set files [glob -nocomplain $dir/log.*]
  906. if { [llength $files] != 0} {
  907. foreach f $files {
  908. fileremove -f $f
  909. }
  910. }
  911. }
  912. proc env_cleanup { dir } {
  913. source ./include.tcl
  914. set stat [catch {berkdb envremove -home $dir} ret]
  915. #
  916. # If something failed and we are left with a region entry
  917. # in /dev/shmem that is zero-length, the envremove will
  918. # succeed, and the shm_unlink will succeed, but it will not
  919. # remove the zero-length entry from /dev/shmem.  Remove it
  920. # using fileremove or else all other tests using an env
  921. # will immediately fail.
  922. #
  923. if { $is_qnx_test == 1 } {
  924. set region_files [glob -nocomplain /dev/shmem/$dir*]
  925. if { [llength $region_files] != 0 } {
  926. foreach f $region_files {
  927. fileremove -f $f
  928. }
  929. }
  930. }
  931. log_cleanup $dir
  932. cleanup $dir NULL
  933. }
  934. proc remote_cleanup { server dir localdir } {
  935. set home [file tail $dir]
  936. error_check_good cleanup:remove [berkdb envremove -home $home 
  937.     -server $server] 0
  938. catch {exec rsh $server rm -f $dir/*} ret
  939. cleanup $localdir NULL
  940. }
  941. proc help { cmd } {
  942. if { [info command $cmd] == $cmd } {
  943. set is_proc [lsearch [info procs $cmd] $cmd]
  944. if { $is_proc == -1 } {
  945. # Not a procedure; must be a C command
  946. # Let's hope that it takes some parameters
  947. # and that it prints out a message
  948. puts "Usage: [eval $cmd]"
  949. } else {
  950. # It is a tcl procedure
  951. puts -nonewline "Usage: $cmd"
  952. set args [info args $cmd]
  953. foreach a $args {
  954. set is_def [info default $cmd $a val]
  955. if { $is_def != 0 } {
  956. # Default value
  957. puts -nonewline " $a=$val"
  958. } elseif {$a == "args"} {
  959. # Print out flag values
  960. puts " options"
  961. args
  962. } else {
  963. # No default value
  964. puts -nonewline " $a"
  965. }
  966. }
  967. puts ""
  968. }
  969. } else {
  970. puts "$cmd is not a command"
  971. }
  972. }
  973. # Run a recovery test for a particular operation
  974. # Notice that we catch the return from CP and do not do anything with it.
  975. # This is because Solaris CP seems to exit non-zero on occasion, but
  976. # everything else seems to run just fine.
  977. proc op_recover { encodedop dir env_cmd dbfile cmd msg } {
  978. global log_log_record_types
  979. global recd_debug
  980. global recd_id
  981. global recd_op
  982. source ./include.tcl
  983. #puts "op_recover: $encodedop $dir $env_cmd $dbfile $cmd $msg"
  984. set init_file $dir/t1
  985. set afterop_file $dir/t2
  986. set final_file $dir/t3
  987. set op ""
  988. set op2 ""
  989. if { $encodedop == "prepare-abort" } {
  990. set op "prepare"
  991. set op2 "abort"
  992. } elseif { $encodedop == "prepare-commit" } {
  993. set op "prepare"
  994. set op2 "commit"
  995. } else {
  996. set op $encodedop
  997. }
  998. puts "t$msg $encodedop"
  999. # Keep track of the log types we've seen
  1000. if { $log_log_record_types == 1} {
  1001. logtrack_read $dir
  1002. }
  1003. # Save the initial file and open the environment and the file
  1004. catch { file copy -force $dir/$dbfile $dir/$dbfile.init } res
  1005. copy_extent_file $dir $dbfile init
  1006. set env [eval $env_cmd]
  1007. set db [berkdb open -env $env $dbfile]
  1008. error_check_good dbopen [is_valid_db $db] TRUE
  1009. # Dump out file contents for initial case
  1010. set tflags ""
  1011. open_and_dump_file $dbfile $env $tflags $init_file nop 
  1012.     dump_file_direction "-first" "-next"
  1013. set t [$env txn]
  1014. error_check_bad txn_begin $t NULL
  1015. error_check_good txn_begin [is_substr $t "txn"] 1
  1016. # Now fill in the db, tmgr, and the txnid in the command
  1017. set exec_cmd $cmd
  1018. set i [lsearch $cmd ENV]
  1019. if { $i != -1 } {
  1020. set exec_cmd [lreplace $exec_cmd $i $i $env]
  1021. }
  1022. set i [lsearch $cmd TXNID]
  1023. if { $i != -1 } {
  1024. set exec_cmd [lreplace $exec_cmd $i $i $t]
  1025. }
  1026. set i [lsearch $exec_cmd DB]
  1027. if { $i != -1 } {
  1028. set exec_cmd [lreplace $exec_cmd $i $i $db]
  1029. }
  1030. # To test DB_CONSUME, we need to expect a record return, not "0".
  1031. set i [lsearch $exec_cmd "-consume"]
  1032. if { $i != -1 } {
  1033. set record_exec_cmd_ret 1
  1034. } else {
  1035. set record_exec_cmd_ret 0
  1036. }
  1037. # For the DB_APPEND test, we need to expect a return other than
  1038. # 0;  set this flag to be more lenient in the error_check_good.
  1039. set i [lsearch $exec_cmd "-append"]
  1040. if { $i != -1 } {
  1041. set lenient_exec_cmd_ret 1
  1042. } else {
  1043. set lenient_exec_cmd_ret 0
  1044. }
  1045. # Execute command and commit/abort it.
  1046. set ret [eval $exec_cmd]
  1047. if { $record_exec_cmd_ret == 1 } {
  1048. error_check_good ""$exec_cmd"" [llength [lindex $ret 0]] 2
  1049. } elseif { $lenient_exec_cmd_ret == 1 } {
  1050. error_check_good ""$exec_cmd"" [expr $ret > 0] 1
  1051. } else {
  1052. error_check_good ""$exec_cmd"" $ret 0
  1053. }
  1054. set record_exec_cmd_ret 0
  1055. set lenient_exec_cmd_ret 0
  1056. # Sync the file so that we can capture a snapshot to test
  1057. # recovery.
  1058. error_check_good sync:$db [$db sync] 0
  1059. catch { file copy -force $dir/$dbfile $dir/$dbfile.afterop } res
  1060. copy_extent_file $dir $dbfile afterop
  1061. #set tflags "-txn $t"
  1062. open_and_dump_file $dir/$dbfile.afterop NULL $tflags 
  1063. $afterop_file nop dump_file_direction 
  1064. "-first" "-next"
  1065. #puts "tttExecuting txn_$op:$t"
  1066. error_check_good txn_$op:$t [$t $op] 0
  1067. if { $op2 != "" } {
  1068. #puts "tttExecuting txn_$op2:$t"
  1069. error_check_good txn_$op2:$t [$t $op2] 0
  1070. }
  1071. switch $encodedop {
  1072. "commit" { puts "ttCommand executed and committed." }
  1073. "abort" { puts "ttCommand executed and aborted." }
  1074. "prepare" { puts "ttCommand executed and prepared." }
  1075. "prepare-commit" {
  1076. puts "ttCommand executed, prepared, and committed."
  1077. }
  1078. "prepare-abort" {
  1079. puts "ttCommand executed, prepared, and aborted."
  1080. }
  1081. }
  1082. # Dump out file and save a copy.
  1083. error_check_good sync:$db [$db sync] 0
  1084. open_and_dump_file $dir/$dbfile NULL $tflags $final_file nop 
  1085.     dump_file_direction "-first" "-next"
  1086. catch { file copy -force $dir/$dbfile $dir/$dbfile.final } res
  1087. copy_extent_file $dir $dbfile final
  1088. # If this is an abort or prepare-abort, it should match the
  1089. #   original file.
  1090. # If this was a commit or prepare-commit, then this file should
  1091. #   match the afterop file.
  1092. # If this was a prepare without an abort or commit, we still
  1093. #   have transactions active, and peering at the database from
  1094. #   another environment will show data from uncommitted transactions.
  1095. #   Thus we just skip this in the prepare-only case;  what
  1096. #   we care about are the results of a prepare followed by a
  1097. #   recovery, which we test later.
  1098. if { $op == "commit" || $op2 == "commit" } {
  1099. filesort $afterop_file $afterop_file.sort
  1100. filesort $final_file $final_file.sort
  1101. error_check_good 
  1102.     diff(post-$op,pre-commit):diff($afterop_file,$final_file) 
  1103.     [filecmp $afterop_file.sort $final_file.sort] 0
  1104. } elseif { $op == "abort" || $op2 == "abort" } {
  1105. filesort $init_file $init_file.sort
  1106. filesort $final_file $final_file.sort
  1107. error_check_good 
  1108.     diff(initial,post-$op):diff($init_file,$final_file) 
  1109.     [filecmp $init_file.sort $final_file.sort] 0
  1110. } else {
  1111. # Make sure this really is a prepare-only
  1112. error_check_good assert:prepare-only $encodedop "prepare"
  1113. }
  1114. # Running recovery on this database should not do anything.
  1115. # Flush all data to disk, close the environment and save the
  1116. # file.
  1117. error_check_good close:$db [$db close] 0
  1118. # If all we've done is a prepare, then there's still a
  1119. # transaction active, and an env close will return DB_RUNRECOVERY
  1120. if { $encodedop == "prepare" } {
  1121. catch {$env close} ret
  1122. error_check_good env_close 
  1123. [is_substr $ret DB_RUNRECOVERY] 1
  1124. } else {
  1125. reset_env $env
  1126. }
  1127. berkdb debug_check
  1128. puts -nonewline "ttRunning recovery ... "
  1129. flush stdout
  1130. set stat [catch {exec $util_path/db_recover -h $dir -c} result]
  1131. if { $stat == 1 } {
  1132. error "FAIL: Recovery error: $result."
  1133. }
  1134. puts -nonewline "complete ... "
  1135. error_check_good db_verify [verify_dir $testdir "tt" 0 1] 0
  1136. puts "verified"
  1137. berkdb debug_check
  1138. set env [eval $env_cmd]
  1139. error_check_good dbenv [is_valid_widget $env env] TRUE
  1140. open_and_dump_file $dir/$dbfile NULL $tflags $final_file nop 
  1141.     dump_file_direction "-first" "-next"
  1142. if { $op == "commit" || $op2 == "commit" } {
  1143. filesort $afterop_file $afterop_file.sort
  1144. filesort $final_file $final_file.sort
  1145. error_check_good 
  1146.     diff(post-$op,pre-commit):diff($afterop_file,$final_file) 
  1147.     [filecmp $afterop_file.sort $final_file.sort] 0
  1148. } else {
  1149. filesort $init_file $init_file.sort
  1150. filesort $final_file $final_file.sort
  1151. error_check_good 
  1152.     diff(initial,post-$op):diff($init_file,$final_file) 
  1153.     [filecmp $init_file.sort $final_file.sort] 0
  1154. }
  1155. # Now close the environment, substitute a file that will need
  1156. # recovery and try running recovery again.
  1157. reset_env $env
  1158. if { $op == "commit" || $op2 == "commit" } {
  1159. catch { file copy -force $dir/$dbfile.init $dir/$dbfile } res
  1160. move_file_extent $dir $dbfile init copy
  1161. } else {
  1162. catch { file copy -force $dir/$dbfile.afterop $dir/$dbfile } res
  1163. move_file_extent $dir $dbfile afterop copy
  1164. }
  1165. berkdb debug_check
  1166. puts -nonewline 
  1167.     "ttRunning recovery on pre-op database ... "
  1168. flush stdout
  1169. set stat [catch {exec $util_path/db_recover -h $dir -c} result]
  1170. if { $stat == 1 } {
  1171. error "FAIL: Recovery error: $result."
  1172. }
  1173. puts -nonewline "complete ... "
  1174. error_check_good db_verify_preop [verify_dir $testdir "tt" 0 1] 0
  1175. puts "verified"
  1176. set env [eval $env_cmd]
  1177. open_and_dump_file $dir/$dbfile NULL $tflags $final_file nop 
  1178.     dump_file_direction "-first" "-next"
  1179. if { $op == "commit" || $op2 == "commit" } {
  1180. filesort $final_file $final_file.sort
  1181. filesort $afterop_file $afterop_file.sort
  1182. error_check_good 
  1183.     diff(post-$op,recovered):diff($afterop_file,$final_file) 
  1184.     [filecmp $afterop_file.sort $final_file.sort] 0
  1185. } else {
  1186. filesort $init_file $init_file.sort
  1187. filesort $final_file $final_file.sort
  1188. error_check_good 
  1189.     diff(initial,post-$op):diff($init_file,$final_file) 
  1190.     [filecmp $init_file.sort $final_file.sort] 0
  1191. }
  1192. # This should just close the environment, not blow it away.
  1193. reset_env $env
  1194. }
  1195. proc populate { db method txn n dups bigdata } {
  1196. source ./include.tcl
  1197. set did [open $dict]
  1198. set count 0
  1199. while { [gets $did str] != -1 && $count < $n } {
  1200. if { [is_record_based $method] == 1 } {
  1201. set key [expr $count + 1]
  1202. } elseif { $dups == 1 } {
  1203. set key duplicate_key
  1204. } else {
  1205. set key $str
  1206. }
  1207. if { $bigdata == 1 && [berkdb random_int 1 3] == 1} {
  1208. set str [replicate $str 1000]
  1209. }
  1210. set ret [$db put -txn $txn $key $str]
  1211. error_check_good db_put:$key $ret 0
  1212. incr count
  1213. }
  1214. close $did
  1215. return 0
  1216. }
  1217. proc big_populate { db txn n } {
  1218. source ./include.tcl
  1219. set did [open $dict]
  1220. set count 0
  1221. while { [gets $did str] != -1 && $count < $n } {
  1222. set key [replicate $str 50]
  1223. set ret [$db put -txn $txn $key $str]
  1224. error_check_good db_put:$key $ret 0
  1225. incr count
  1226. }
  1227. close $did
  1228. return 0
  1229. }
  1230. proc unpopulate { db txn num } {
  1231. source ./include.tcl
  1232. set c [eval {$db cursor} "-txn $txn"]
  1233. error_check_bad $db:cursor $c NULL
  1234. error_check_good $db:cursor [is_substr $c $db] 1
  1235. set i 0
  1236. for {set d [$c get -first] } { [llength $d] != 0 } {
  1237. set d [$c get -next] } {
  1238. $c del
  1239. incr i
  1240. if { $num != 0 && $ >= $num } {
  1241. break
  1242. }
  1243. }
  1244. error_check_good cursor_close [$c close] 0
  1245. return 0
  1246. }
  1247. proc reset_env { env } {
  1248. error_check_good env_close [$env close] 0
  1249. }
  1250. # This routine will let us obtain a ring of deadlocks.
  1251. # Each locker will get a lock on obj_id, then sleep, and
  1252. # then try to lock (obj_id + 1) % num.
  1253. # When the lock is finally granted, we release our locks and
  1254. # return 1 if we got both locks and DEADLOCK if we deadlocked.
  1255. # The results here should be that 1 locker deadlocks and the
  1256. # rest all finish successfully.
  1257. proc ring { myenv locker_id obj_id num } {
  1258. source ./include.tcl
  1259. if {[catch {$myenv lock_get write $locker_id $obj_id} lock1] != 0} {
  1260. puts $errorInfo
  1261. return ERROR
  1262. } else {
  1263. error_check_good lockget:$obj_id [is_substr $lock1 $myenv] 1
  1264. }
  1265. tclsleep 30
  1266. set nextobj [expr ($obj_id + 1) % $num]
  1267. set ret 1
  1268. if {[catch {$myenv lock_get write $locker_id $nextobj} lock2] != 0} {
  1269. if {[string match "*DEADLOCK*" $lock2] == 1} {
  1270. set ret DEADLOCK
  1271. } else {
  1272. set ret ERROR
  1273. }
  1274. } else {
  1275. error_check_good lockget:$obj_id [is_substr $lock2 $myenv] 1
  1276. }
  1277. # Now release the first lock
  1278. error_check_good lockput:$lock1 [$lock1 put] 0
  1279. if {$ret == 1} {
  1280. error_check_bad lockget:$obj_id $lock2 NULL
  1281. error_check_good lockget:$obj_id [is_substr $lock2 $myenv] 1
  1282. error_check_good lockput:$lock2 [$lock2 put] 0
  1283. }
  1284. return $ret
  1285. }
  1286. # This routine will create massive deadlocks.
  1287. # Each locker will get a readlock on obj_id, then sleep, and
  1288. # then try to upgrade the readlock to a write lock.
  1289. # When the lock is finally granted, we release our first lock and
  1290. # return 1 if we got both locks and DEADLOCK if we deadlocked.
  1291. # The results here should be that 1 locker succeeds in getting all
  1292. # the locks and everyone else deadlocks.
  1293. proc clump { myenv locker_id obj_id num } {
  1294. source ./include.tcl
  1295. set obj_id 10
  1296. if {[catch {$myenv lock_get read $locker_id $obj_id} lock1] != 0} {
  1297. puts $errorInfo
  1298. return ERROR
  1299. } else {
  1300. error_check_good lockget:$obj_id 
  1301.     [is_valid_lock $lock1 $myenv] TRUE
  1302. }
  1303. tclsleep 30
  1304. set ret 1
  1305. if {[catch {$myenv lock_get write $locker_id $obj_id} lock2] != 0} {
  1306. if {[string match "*DEADLOCK*" $lock2] == 1} {
  1307. set ret DEADLOCK
  1308. } else {
  1309. set ret ERROR
  1310. }
  1311. } else {
  1312. error_check_good 
  1313.     lockget:$obj_id [is_valid_lock $lock2 $myenv] TRUE
  1314. }
  1315. # Now release the first lock
  1316. error_check_good lockput:$lock1 [$lock1 put] 0
  1317. if {$ret == 1} {
  1318. error_check_good 
  1319.     lockget:$obj_id [is_valid_lock $lock2 $myenv] TRUE
  1320. error_check_good lockput:$lock2 [$lock2 put] 0
  1321. }
  1322. return $ret
  1323.  }
  1324. proc dead_check { t procs dead clean other } {
  1325. error_check_good $t:$procs:other $other 0
  1326. switch $t {
  1327. ring {
  1328. error_check_good $t:$procs:deadlocks $dead 1
  1329. error_check_good $t:$procs:success $clean 
  1330.     [expr $procs - 1]
  1331. }
  1332. clump {
  1333. error_check_good $t:$procs:deadlocks $dead 
  1334.     [expr $procs - 1]
  1335. error_check_good $t:$procs:success $clean 1
  1336. }
  1337. default {
  1338. error "Test $t not implemented"
  1339. }
  1340. }
  1341. }
  1342. proc rdebug { id op where } {
  1343. global recd_debug
  1344. global recd_id
  1345. global recd_op
  1346. set recd_debug $where
  1347. set recd_id $id
  1348. set recd_op $op
  1349. }
  1350. proc rtag { msg id } {
  1351. set tag [lindex $msg 0]
  1352. set tail [expr [string length $tag] - 2]
  1353. set tag [string range $tag $tail $tail]
  1354. if { $id == $tag } {
  1355. return 1
  1356. } else {
  1357. return 0
  1358. }
  1359. }
  1360. proc zero_list { n } {
  1361. set ret ""
  1362. while { $n > 0 } {
  1363. lappend ret 0
  1364. incr n -1
  1365. }
  1366. return $ret
  1367. }
  1368. proc check_dump { k d } {
  1369. puts "key: $k data: $d"
  1370. }
  1371. proc reverse { s } {
  1372. set res ""
  1373. for { set i 0 } { $i < [string length $s] } { incr i } {
  1374. set res "[string index $s $i]$res"
  1375. }
  1376. return $res
  1377. }
  1378. proc is_valid_widget { w expected } {
  1379. # First N characters must match "expected"
  1380. set l [string length $expected]
  1381. incr l -1
  1382. if { [string compare [string range $w 0 $l] $expected] != 0 } {
  1383. return $w
  1384. }
  1385. # Remaining characters must be digits
  1386. incr l 1
  1387. for { set i $l } { $i < [string length $w] } { incr i} {
  1388. set c [string index $w $i]
  1389. if { $c < "0" || $c > "9" } {
  1390. return $w
  1391. }
  1392. }
  1393. return TRUE
  1394. }
  1395. proc is_valid_db { db } {
  1396. return [is_valid_widget $db db]
  1397. }
  1398. proc is_valid_env { env } {
  1399. return [is_valid_widget $env env]
  1400. }
  1401. proc is_valid_cursor { dbc db } {
  1402. return [is_valid_widget $dbc $db.c]
  1403. }
  1404. proc is_valid_lock { lock env } {
  1405. return [is_valid_widget $lock $env.lock]
  1406. }
  1407. proc is_valid_mpool { mpool env } {
  1408. return [is_valid_widget $mpool $env.mp]
  1409. }
  1410. proc is_valid_page { page mpool } {
  1411. return [is_valid_widget $page $mpool.pg]
  1412. }
  1413. proc is_valid_txn { txn env } {
  1414. return [is_valid_widget $txn $env.txn]
  1415. }
  1416. proc is_valid_mutex { m env } {
  1417. return [is_valid_widget $m $env.mutex]
  1418. }
  1419. proc send_cmd { fd cmd {sleep 2}} {
  1420. source ./include.tcl
  1421. puts $fd "set v [$cmd]"
  1422. puts $fd "puts $v"
  1423. puts $fd "flush stdout"
  1424. flush $fd
  1425. berkdb debug_check
  1426. tclsleep $sleep
  1427. set r [rcv_result $fd]
  1428. return $r
  1429. }
  1430. proc rcv_result { fd } {
  1431. set r [gets $fd result]
  1432. error_check_bad remote_read $r -1
  1433. return $result
  1434. }
  1435. proc send_timed_cmd { fd rcv_too cmd } {
  1436. set c1 "set start [timestamp -r]; "
  1437. set c2 "puts [expr [timestamp -r] - $start]"
  1438. set full_cmd [concat $c1 $cmd ";" $c2]
  1439. puts $fd $full_cmd
  1440. puts $fd "flush stdout"
  1441. flush $fd
  1442. return 0
  1443. }
  1444. #
  1445. # The rationale behind why we have *two* "data padding" routines is outlined
  1446. # below:
  1447. #
  1448. # Both pad_data and chop_data truncate data that is too long. However,
  1449. # pad_data also adds the pad character to pad data out to the fixed length
  1450. # record length.
  1451. #
  1452. # Which routine you call does not depend on the length of the data you're
  1453. # using, but on whether you're doing a put or a get. When we do a put, we
  1454. # have to make sure the data isn't longer than the size of a record because
  1455. # otherwise we'll get an error (use chop_data). When we do a get, we want to
  1456. # check that db padded everything correctly (use pad_data on the value against
  1457. # which we are comparing).
  1458. #
  1459. # We don't want to just use the pad_data routine for both purposes, because
  1460. # we want to be able to test whether or not db is padding correctly. For
  1461. # example, the queue access method had a bug where when a record was
  1462. # overwritten (*not* a partial put), only the first n bytes of the new entry
  1463. # were written, n being the new entry's (unpadded) length.  So, if we did
  1464. # a put with key,value pair (1, "abcdef") and then a put (1, "z"), we'd get
  1465. # back (1,"zbcdef"). If we had used pad_data instead of chop_data, we would
  1466. # have gotten the "correct" result, but we wouldn't have found this bug.
  1467. proc chop_data {method data} {
  1468. global fixed_len
  1469. if {[is_fixed_length $method] == 1 && 
  1470.     [string length $data] > $fixed_len} {
  1471. return [eval {binary format a$fixed_len $data}]
  1472. } else {
  1473. return $data
  1474. }
  1475. }
  1476. proc pad_data {method data} {
  1477. global fixed_len
  1478. if {[is_fixed_length $method] == 1} {
  1479. return [eval {binary format a$fixed_len $data}]
  1480. } else {
  1481. return $data
  1482. }
  1483. }
  1484. proc make_fixed_length {method data {pad 0}} {
  1485. global fixed_len
  1486. global fixed_pad
  1487. if {[is_fixed_length $method] == 1} {
  1488. if {[string length $data] > $fixed_len } {
  1489.     error_check_bad make_fixed_len:TOO_LONG 1 1
  1490. }
  1491. while { [string length $data] < $fixed_len } {
  1492. set data [format $data%c $fixed_pad]
  1493. }
  1494. }
  1495. return $data
  1496. }
  1497. # shift data for partial
  1498. # pad with fixed pad (which is NULL)
  1499. proc partial_shift { data offset direction} {
  1500. global fixed_len
  1501. set len [expr $fixed_len - 1]
  1502. if { [string compare $direction "right"] == 0 } {
  1503. for { set i 1} { $i <= $offset } {incr i} {
  1504. set data [binary format x1a$len $data]
  1505. }
  1506. } elseif { [string compare $direction "left"] == 0 } {
  1507. for { set i 1} { $i <= $offset } {incr i} {
  1508. set data [string range $data 1 end]
  1509. set data [binary format a$len $data]
  1510. }
  1511. }
  1512. return $data
  1513. }
  1514. # string compare does not always work to compare
  1515. # this data, nor does expr (==)
  1516. # specialized routine for comparison
  1517. # (for use in fixed len recno and q)
  1518. proc binary_compare { data1 data2 } {
  1519. if { [string length $data1] != [string length $data2] || 
  1520.     [string compare -length 
  1521.     [string length $data1] $data1 $data2] != 0 } {
  1522. return 1
  1523. } else {
  1524. return 0
  1525. }
  1526. }
  1527. proc convert_method { method } {
  1528. switch -- $method {
  1529. -btree -
  1530. -dbtree -
  1531. -ddbtree -
  1532. -rbtree -
  1533. BTREE -
  1534. DB_BTREE -
  1535. DB_RBTREE -
  1536. RBTREE -
  1537. bt -
  1538. btree -
  1539. db_btree -
  1540. db_rbtree -
  1541. rbt -
  1542. rbtree { return "-btree" }
  1543. -dhash -
  1544. -hash -
  1545. DB_HASH -
  1546. HASH -
  1547. db_hash -
  1548. h -
  1549. hash { return "-hash" }
  1550. -queue -
  1551. DB_QUEUE -
  1552. QUEUE -
  1553. db_queue -
  1554. q -
  1555. qam -
  1556. queue { return "-queue" }
  1557. -queueextent -
  1558. QUEUEEXTENT -
  1559. qe -
  1560. qamext -
  1561. -queueext -
  1562. queueextent - 
  1563. queueext { return "-queue" }
  1564. -frecno -
  1565. -recno -
  1566. -rrecno -
  1567. DB_FRECNO -
  1568. DB_RECNO -
  1569. DB_RRECNO -
  1570. FRECNO -
  1571. RECNO -
  1572. RRECNO -
  1573. db_frecno -
  1574. db_recno -
  1575. db_rrecno -
  1576. frec -
  1577. frecno -
  1578. rec -
  1579. recno -
  1580. rrec -
  1581. rrecno { return "-recno" }
  1582. default { error "FAIL:[timestamp] $method: unknown method" }
  1583. }
  1584. }
  1585. # If recno-with-renumbering or btree-with-renumbering is specified, then
  1586. # fix the arguments to specify the DB_RENUMBER/DB_RECNUM option for the
  1587. # -flags argument.
  1588. proc convert_args { method {largs ""} } {
  1589. global fixed_len
  1590. global fixed_pad
  1591. global gen_upgrade
  1592. global upgrade_be
  1593. source ./include.tcl
  1594. if { [string first - $largs] == -1 &&
  1595.     [string compare $largs ""] != 0 } {
  1596. set errstring "args must contain a hyphen; does this test
  1597.     have no numeric args?"
  1598. puts "FAIL:[timestamp] $errstring"
  1599. return -code return
  1600. }
  1601. if { $gen_upgrade == 1 && $upgrade_be == 1 } {
  1602. append largs " -lorder 4321 "
  1603. } elseif { $gen_upgrade == 1 && $upgrade_be != 1 } {
  1604. append largs " -lorder 1234 "
  1605. }
  1606. if { [is_rrecno $method] == 1 } {
  1607. append largs " -renumber "
  1608. } elseif { [is_rbtree $method] == 1 } {
  1609. append largs " -recnum "
  1610. } elseif { [is_dbtree $method] == 1 } {
  1611. append largs " -dup "
  1612. } elseif { [is_ddbtree $method] == 1 } {
  1613. append largs " -dup "
  1614. append largs " -dupsort "
  1615. } elseif { [is_dhash $method] == 1 } {
  1616. append largs " -dup "
  1617. } elseif { [is_queueext $method] == 1 } {
  1618. append largs " -extent 2 "
  1619. }
  1620. if {[is_fixed_length $method] == 1} {
  1621. append largs " -len $fixed_len -pad $fixed_pad "
  1622. }
  1623. return $largs
  1624. }
  1625. proc is_btree { method } {
  1626. set names { -btree BTREE DB_BTREE bt btree }
  1627. if { [lsearch $names $method] >= 0 } {
  1628. return 1
  1629. } else {
  1630. return 0
  1631. }
  1632. }
  1633. proc is_dbtree { method } {
  1634. set names { -dbtree }
  1635. if { [lsearch $names $method] >= 0 } {
  1636. return 1
  1637. } else {
  1638. return 0
  1639. }
  1640. }
  1641. proc is_ddbtree { method } {
  1642. set names { -ddbtree }
  1643. if { [lsearch $names $method] >= 0 } {
  1644. return 1
  1645. } else {
  1646. return 0
  1647. }
  1648. }
  1649. proc is_rbtree { method } {
  1650. set names { -rbtree rbtree RBTREE db_rbtree DB_RBTREE rbt }
  1651. if { [lsearch $names $method] >= 0 } {
  1652. return 1
  1653. } else {
  1654. return 0
  1655. }
  1656. }
  1657. proc is_recno { method } {
  1658. set names { -recno DB_RECNO RECNO db_recno rec recno}
  1659. if { [lsearch $names $method] >= 0 } {
  1660. return 1
  1661. } else {
  1662. return 0
  1663. }
  1664. }
  1665. proc is_rrecno { method } {
  1666. set names { -rrecno rrecno RRECNO db_rrecno DB_RRECNO rrec }
  1667. if { [lsearch $names $method] >= 0 } {
  1668. return 1
  1669. } else {
  1670. return 0
  1671. }
  1672. }
  1673. proc is_frecno { method } {
  1674. set names { -frecno frecno frec FRECNO db_frecno DB_FRECNO}
  1675. if { [lsearch $names $method] >= 0 } {
  1676. return 1
  1677. } else {
  1678. return 0
  1679. }
  1680. }
  1681. proc is_hash { method } {
  1682. set names { -hash DB_HASH HASH db_hash h hash }
  1683. if { [lsearch $names $method] >= 0 } {
  1684. return 1
  1685. } else {
  1686. return 0
  1687. }
  1688. }
  1689. proc is_dhash { method } {
  1690. set names { -dhash }
  1691. if { [lsearch $names $method] >= 0 } {
  1692. return 1
  1693. } else {
  1694. return 0
  1695. }
  1696. }
  1697. proc is_queue { method } {
  1698. if { [is_queueext $method] == 1 } {
  1699. return 1
  1700. }
  1701. set names { -queue DB_QUEUE QUEUE db_queue q queue qam }
  1702. if { [lsearch $names $method] >= 0 } {
  1703. return 1
  1704. } else {
  1705. return 0
  1706. }
  1707. }
  1708. proc is_queueext { method } {
  1709. set names { -queueextent queueextent QUEUEEXTENT qe qamext 
  1710.     queueext -queueext }
  1711. if { [lsearch $names $method] >= 0 } {
  1712. return 1
  1713. } else {
  1714. return 0
  1715. }
  1716. }
  1717. proc is_record_based { method } {
  1718. if { [is_recno $method] || [is_frecno $method] ||
  1719.     [is_rrecno $method] || [is_queue $method] } {
  1720. return 1
  1721. } else {
  1722. return 0
  1723. }
  1724. }
  1725. proc is_fixed_length { method } {
  1726. if { [is_queue $method] || [is_frecno $method] } {
  1727. return 1
  1728. } else {
  1729. return 0
  1730. }
  1731. }
  1732. # Sort lines in file $in and write results to file $out.
  1733. # This is a more portable alternative to execing the sort command,
  1734. # which has assorted issues on NT [#1576].
  1735. # The addition of a "-n" argument will sort numerically.
  1736. proc filesort { in out { arg "" } } {
  1737. set i [open $in r]
  1738. set ilines {}
  1739. while { [gets $i line] >= 0 } {
  1740. lappend ilines $line
  1741. }
  1742. if { [string compare $arg "-n"] == 0 } {
  1743. set olines [lsort -integer $ilines]
  1744. } else {
  1745. set olines [lsort $ilines]
  1746. }
  1747. close $i
  1748. set o [open $out w]
  1749. foreach line $olines {
  1750. puts $o $line
  1751. }
  1752. close $o
  1753. }
  1754. # Print lines up to the nth line of infile out to outfile, inclusive.
  1755. # The optional beg argument tells us where to start.
  1756. proc filehead { n infile outfile { beg 0 } } {
  1757. set in [open $infile r]
  1758. set out [open $outfile w]
  1759. # Sed uses 1-based line numbers, and so we do too.
  1760. for { set i 1 } { $i < $beg } { incr i } {
  1761. if { [gets $in junk] < 0 } {
  1762. break
  1763. }
  1764. }
  1765. for { } { $i <= $n } { incr i } {
  1766. if { [gets $in line] < 0 } {
  1767. break
  1768. }
  1769. puts $out $line
  1770. }
  1771. close $in
  1772. close $out
  1773. }
  1774. # Remove file (this replaces $RM).
  1775. # Usage: fileremove filenames =~ rm;  fileremove -f filenames =~ rm -rf.
  1776. proc fileremove { args } {
  1777. set forceflag ""
  1778. foreach a $args {
  1779. if { [string first - $a] == 0 } {
  1780. # It's a flag.  Better be f.
  1781. if { [string first f $a] != 1 } {
  1782. return -code error "bad flag to fileremove"
  1783. } else {
  1784. set forceflag "-force"
  1785. }
  1786. } else {
  1787. eval {file delete $forceflag $a}
  1788. }
  1789. }
  1790. }
  1791. proc findfail { args } {
  1792. foreach a $args {
  1793. if { [file exists $a] == 0 } {
  1794. continue
  1795. }
  1796. set f [open $a r]
  1797. while { [gets $f line] >= 0 } {
  1798. if { [string first FAIL $line] == 0 } {
  1799. close $f
  1800. return 1
  1801. }
  1802. }
  1803. close $f
  1804. }
  1805. return 0
  1806. }
  1807. # Sleep for s seconds.
  1808. proc tclsleep { s } {
  1809. # On Windows, the system time-of-day clock may update as much
  1810. # as 55 ms late due to interrupt timing.  Don't take any
  1811. # chances;  sleep extra-long so that when tclsleep 1 returns,
  1812. # it's guaranteed to be a new second.
  1813. after [expr $s * 1000 + 56]
  1814. }
  1815. # Compare two files, a la diff.  Returns 1 if non-identical, 0 if identical.
  1816. proc filecmp { file_a file_b } {
  1817. set fda [open $file_a r]
  1818. set fdb [open $file_b r]
  1819. set nra 0
  1820. set nrb 0
  1821. # The gets can't be in the while condition because we'll
  1822. # get short-circuit evaluated.
  1823. while { $nra >= 0 && $nrb >= 0 } {
  1824. set nra [gets $fda aline]
  1825. set nrb [gets $fdb bline]
  1826. if { $nra != $nrb || [string compare $aline $bline] != 0} {
  1827. close $fda
  1828. close $fdb
  1829. return 1
  1830. }
  1831. }
  1832. close $fda
  1833. close $fdb
  1834. return 0
  1835. }
  1836. # Verify all .db files in the specified directory.
  1837. proc verify_dir { 
  1838.     {directory "./TESTDIR"} { pref "" } { noredo 0 } { quiet 0 } } {
  1839. # If we're doing database verification between tests, we don't
  1840. # want to do verification twice without an intervening cleanup--some
  1841. # test was skipped.  Always verify by default (noredo == 0) so
  1842. # that explicit calls to verify_dir during tests don't require
  1843. # cleanup commands.
  1844. if { $noredo == 1 } { 
  1845. if { [file exists $directory/NOREVERIFY] == 1 } {
  1846. if { $quiet == 0 } { 
  1847. puts "Skipping verification."
  1848. }
  1849. return
  1850. }
  1851. set f [open $directory/NOREVERIFY w]
  1852. close $f
  1853. }
  1854. if { [catch {glob $directory/*.db} dbs] != 0 } {
  1855. # No files matched
  1856. return
  1857. }
  1858. if { [file exists /dev/stderr] == 1 } {
  1859. set errfilearg "-errfile /dev/stderr "
  1860. } else {
  1861. set errfilearg ""
  1862. }
  1863. set errpfxarg {-errpfx "FAIL: verify" }
  1864. set errarg $errfilearg$errpfxarg
  1865. set ret 0
  1866. foreach db $dbs {
  1867. if { [catch {eval {berkdb dbverify} $errarg $db} res] != 0 } {
  1868. puts $res
  1869. puts "FAIL:[timestamp] Verification of $db failed."
  1870. set ret 1
  1871. } else {
  1872. error_check_good verify:$db $res 0
  1873. if { $quiet == 0 } { 
  1874. puts "${pref}Verification of $db succeeded."
  1875. }
  1876. }
  1877. }
  1878. return $ret
  1879. }
  1880. # Generate randomly ordered, guaranteed-unique four-character strings that can
  1881. # be used to differentiate duplicates without creating duplicate duplicates.
  1882. # (test031 & test032) randstring_init is required before the first call to
  1883. # randstring and initializes things for up to $i distinct strings;  randstring
  1884. # gets the next string.
  1885. proc randstring_init { i } {
  1886. global rs_int_list alphabet
  1887. # Fail if we can't generate sufficient unique strings.
  1888. if { $i > [expr 26 * 26 * 26 * 26] } {
  1889. set errstring
  1890.     "Duplicate set too large for random string generator"
  1891. puts "FAIL:[timestamp] $errstring"
  1892. return -code return $errstring
  1893. }
  1894. set rs_int_list {}
  1895. # generate alphabet array
  1896. for { set j 0 } { $j < 26 } { incr j } {
  1897. set a($j) [string index $alphabet $j]
  1898. }
  1899. # Generate a list with $i elements, { aaaa, aaab, ... aaaz, aaba ...}
  1900. for { set d1 0 ; set j 0 } { $d1 < 26 && $j < $i } { incr d1 } {
  1901. for { set d2 0 } { $d2 < 26 && $j < $i } { incr d2 } {
  1902. for { set d3 0 } { $d3 < 26 && $j < $i } { incr d3 } {
  1903. for { set d4 0 } { $d4 < 26 && $j < $i } 
  1904.     { incr d4 } {
  1905. lappend rs_int_list 
  1906. $a($d1)$a($d2)$a($d3)$a($d4)
  1907. incr j
  1908. }
  1909. }
  1910. }
  1911. }
  1912. # Randomize the list.
  1913. set rs_int_list [randomize_list $rs_int_list]
  1914. }
  1915. # Randomize a list.  Returns a randomly-reordered copy of l.
  1916. proc randomize_list { l } {
  1917. set i [llength $l]
  1918. for { set j 0 } { $j < $i } { incr j } {
  1919. # Pick a random element from $j to the end
  1920. set k [berkdb random_int $j [expr $i - 1]]
  1921. # Swap it with element $j
  1922. set t1 [lindex $l $j]
  1923. set t2 [lindex $l $k]
  1924. set l [lreplace $l $j $j $t2]
  1925. set l [lreplace $l $k $k $t1]
  1926. }
  1927. return $l
  1928. }
  1929. proc randstring {} {
  1930. global rs_int_list
  1931. if { [info exists rs_int_list] == 0 || [llength $rs_int_list] == 0 } {
  1932. set errstring "randstring uninitialized or used too often"
  1933. puts "FAIL:[timestamp] $errstring"
  1934. return -code return $errstring
  1935. }
  1936. set item [lindex $rs_int_list 0]
  1937. set rs_int_list [lreplace $rs_int_list 0 0]
  1938. return $item
  1939. }
  1940. # Takes a variable-length arg list, and returns a list containing the list of
  1941. # the non-hyphenated-flag arguments, followed by a list of each alphanumeric
  1942. # flag it finds.
  1943. proc extractflags { args } {
  1944. set inflags 1
  1945. set flags {}
  1946. while { $inflags == 1 } {
  1947. set curarg [lindex $args 0]
  1948. if { [string first "-" $curarg] == 0 } {
  1949. set i 1
  1950. while {[string length [set f 
  1951.     [string index $curarg $i]]] > 0 } {
  1952. incr i
  1953. if { [string compare $f "-"] == 0 } {
  1954. set inflags 0
  1955. break
  1956. } else {
  1957. lappend flags $f
  1958. }
  1959. }
  1960. set args [lrange $args 1 end]
  1961. } else {
  1962. set inflags 0
  1963. }
  1964. }
  1965. return [list $args $flags]
  1966. }
  1967. # Wrapper for berkdb open, used throughout the test suite so that we can
  1968. # set an errfile/errpfx as appropriate.
  1969. proc berkdb_open { args } {
  1970. set errargs {}
  1971. if { [file exists /dev/stderr] == 1 } {
  1972. append errargs " -errfile /dev/stderr "
  1973. append errargs " -errpfx \F\A\I\L "
  1974. }
  1975. eval {berkdb open} $errargs $args
  1976. }
  1977. # Version without errpfx/errfile, used when we're expecting a failure.
  1978. proc berkdb_open_noerr { args } {
  1979. eval {berkdb open} $args
  1980. }
  1981. proc check_handles { {outf stdout} } {
  1982. global ohandles
  1983. set handles [berkdb handles]
  1984. if {[llength $handles] != [llength $ohandles]} {
  1985. puts $outf "WARNING: Open handles during cleanup: $handles"
  1986. }
  1987. set ohandles $handles
  1988. }
  1989. proc open_handles { } {
  1990. return [llength [berkdb handles]]
  1991. }
  1992. proc move_file_extent { dir dbfile tag op } {
  1993. set files [get_extfiles $dir $dbfile $tag]
  1994. foreach extfile $files {
  1995. set i [string last "." $extfile]
  1996. incr i
  1997. set extnum [string range $extfile $i end]
  1998. set dbq [make_ext_filename $dir $dbfile $extnum]
  1999. #
  2000. # We can either copy or rename
  2001. #
  2002. file $op -force $extfile $dbq
  2003. }
  2004. }
  2005. proc copy_extent_file { dir dbfile tag { op copy } } {
  2006. set files [get_extfiles $dir $dbfile ""]
  2007. foreach extfile $files {
  2008. set i [string last "." $extfile]
  2009. incr i
  2010. set extnum [string range $extfile $i end]
  2011. file $op -force $extfile $dir/__dbq.$dbfile.$tag.$extnum
  2012. }
  2013. }
  2014. proc get_extfiles { dir dbfile tag } {
  2015. if { $tag == "" } {
  2016. set filepat $dir/__dbq.$dbfile.[0-9]*
  2017. } else {
  2018. set filepat $dir/__dbq.$dbfile.$tag.[0-9]*
  2019. }
  2020. return [glob -nocomplain -- $filepat]
  2021. }
  2022. proc make_ext_filename { dir dbfile extnum } {
  2023. return $dir/__dbq.$dbfile.$extnum
  2024. }
  2025. # All pids for Windows 9X are negative values.  When we want to have
  2026. # unsigned int values, unique to the process, we'll take the absolute
  2027. # value of the pid.  This avoids unsigned/signed mistakes, yet
  2028. # guarantees uniqueness, since each system has pids that are all
  2029. # either positive or negative.
  2030. #
  2031. proc sanitized_pid { } {
  2032. set mypid [pid]
  2033. if { $mypid < 0 } {
  2034. set mypid [expr - $mypid]
  2035. }
  2036. puts "PID: [pid] $mypidn"
  2037. return $mypid
  2038. }
  2039. #
  2040. # Extract the page size field from a stat record.  Return -1 if
  2041. # none is found.
  2042. #
  2043. proc get_pagesize { stat } {
  2044. foreach field $stat {
  2045. set title [lindex $field 0]
  2046. if {[string compare $title "Page size"] == 0} {
  2047. return [lindex $field 1]
  2048. }
  2049. }
  2050. return -1
  2051. }