ropeimpl.h
上传用户:kellyonhid
上传日期:2013-10-12
资源大小:932k
文件大小:46k
源码类别:

3D图形编程

开发平台:

Visual C++

  1. /*
  2.  * Copyright (c) 1997
  3.  * Silicon Graphics Computer Systems, Inc.
  4.  *
  5.  * Permission to use, copy, modify, distribute and sell this software
  6.  * and its documentation for any purpose is hereby granted without fee,
  7.  * provided that the above copyright notice appear in all copies and
  8.  * that both that copyright notice and this permission notice appear
  9.  * in supporting documentation.  Silicon Graphics makes no
  10.  * representations about the suitability of this software for any
  11.  * purpose.  It is provided "as is" without express or implied warranty.
  12.  */
  13. /* NOTE: This is an internal header file, included by other STL headers.
  14.  *   You should not attempt to use it directly.
  15.  */
  16. # include <stdio.h>     /* XXX should use <cstdio> */
  17. # include <iostream.h>  /* XXX should use <iostream> */
  18. __STL_BEGIN_NAMESPACE
  19. #if defined(__sgi) && !defined(__GNUC__) && (_MIPS_SIM != _MIPS_SIM_ABI32)
  20. #pragma set woff 1174
  21. #endif
  22. // Set buf_start, buf_end, and buf_ptr appropriately, filling tmp_buf
  23. // if necessary.  Assumes _M_path_end[leaf_index] and leaf_pos are correct.
  24. // Results in a valid buf_ptr if the iterator can be legitimately
  25. // dereferenced.
  26. template <class _CharT, class _Alloc>
  27. void _Rope_iterator_base<_CharT,_Alloc>::_S_setbuf( 
  28.   _Rope_iterator_base<_CharT,_Alloc>& __x)
  29. {
  30.     const _RopeRep* __leaf = __x._M_path_end[__x._M_leaf_index];
  31.     size_t __leaf_pos = __x._M_leaf_pos;
  32.     size_t __pos = __x._M_current_pos;
  33.     switch(__leaf->_M_tag) {
  34. case _RopeRep::_S_leaf:
  35.     __x._M_buf_start = 
  36.       ((_Rope_RopeLeaf<_CharT,_Alloc>*)__leaf)->_M_data;
  37.     __x._M_buf_ptr = __x._M_buf_start + (__pos - __leaf_pos);
  38.     __x._M_buf_end = __x._M_buf_start + __leaf->_M_size;
  39.     break;
  40. case _RopeRep::_S_function:
  41. case _RopeRep::_S_substringfn:
  42.     {
  43. size_t __len = _S_iterator_buf_len;
  44. size_t __buf_start_pos = __leaf_pos;
  45. size_t __leaf_end = __leaf_pos + __leaf->_M_size;
  46. char_producer<_CharT>* __fn =
  47. ((_Rope_RopeFunction<_CharT,_Alloc>*)__leaf)->_M_fn;
  48. if (__buf_start_pos + __len <= __pos) {
  49.     __buf_start_pos = __pos - __len/4;
  50.     if (__buf_start_pos + __len > __leaf_end) {
  51. __buf_start_pos = __leaf_end - __len;
  52.     }
  53. }
  54. if (__buf_start_pos + __len > __leaf_end) {
  55.     __len = __leaf_end - __buf_start_pos;
  56. }
  57. (*__fn)(__buf_start_pos - __leaf_pos, __len, __x._M_tmp_buf);
  58. __x._M_buf_ptr = __x._M_tmp_buf + (__pos - __buf_start_pos);
  59. __x._M_buf_start = __x._M_tmp_buf;
  60. __x._M_buf_end = __x._M_tmp_buf + __len;
  61.     }
  62.     break;
  63. default:
  64.     __stl_assert(0);
  65.     }
  66. }
  67. // Set path and buffer inside a rope iterator.  We assume that 
  68. // pos and root are already set.
  69. template <class _CharT, class _Alloc>
  70. void _Rope_iterator_base<_CharT,_Alloc>::_S_setcache
  71. (_Rope_iterator_base<_CharT,_Alloc>& __x)
  72. {
  73.     const _RopeRep* __path[_RopeRep::_S_max_rope_depth+1];
  74.     const _RopeRep* __curr_rope;
  75.     int __curr_depth = -1;  /* index into path    */
  76.     size_t __curr_start_pos = 0;
  77.     size_t __pos = __x._M_current_pos;
  78.     unsigned char __dirns = 0; // Bit vector marking right turns in the path
  79.     __stl_assert(__pos <= __x._M_root->_M_size);
  80.     if (__pos >= __x._M_root->_M_size) {
  81. __x._M_buf_ptr = 0;
  82. return;
  83.     }
  84.     __curr_rope = __x._M_root;
  85.     if (0 != __curr_rope->_M_c_string) {
  86. /* Treat the root as a leaf. */
  87. __x._M_buf_start = __curr_rope->_M_c_string;
  88. __x._M_buf_end = __curr_rope->_M_c_string + __curr_rope->_M_size;
  89. __x._M_buf_ptr = __curr_rope->_M_c_string + __pos;
  90. __x._M_path_end[0] = __curr_rope;
  91. __x._M_leaf_index = 0;
  92. __x._M_leaf_pos = 0;
  93. return;
  94.     }
  95.     for(;;) {
  96. ++__curr_depth;
  97. __stl_assert(__curr_depth <= _RopeRep::_S_max_rope_depth);
  98. __path[__curr_depth] = __curr_rope;
  99. switch(__curr_rope->_M_tag) {
  100.   case _RopeRep::_S_leaf:
  101.   case _RopeRep::_S_function:
  102.   case _RopeRep::_S_substringfn:
  103.     __x._M_leaf_pos = __curr_start_pos;
  104.     goto done;
  105.   case _RopeRep::_S_concat:
  106.     {
  107. _Rope_RopeConcatenation<_CharT,_Alloc>* __c =
  108. (_Rope_RopeConcatenation<_CharT,_Alloc>*)__curr_rope;
  109. _RopeRep* __left = __c->_M_left;
  110. size_t __left_len = __left->_M_size;
  111. __dirns <<= 1;
  112. if (__pos >= __curr_start_pos + __left_len) {
  113.     __dirns |= 1;
  114.     __curr_rope = __c->_M_right;
  115.     __curr_start_pos += __left_len;
  116. } else {
  117.     __curr_rope = __left;
  118. }
  119.     }
  120.     break;
  121. }
  122.     }
  123.   done:
  124.     // Copy last section of path into _M_path_end.
  125.       {
  126. int __i = -1;
  127. int __j = __curr_depth + 1 - _S_path_cache_len;
  128. if (__j < 0) __j = 0;
  129. while (__j <= __curr_depth) {
  130.     __x._M_path_end[++__i] = __path[__j++];
  131. }
  132. __x._M_leaf_index = __i;
  133.       }
  134.       __x._M_path_directions = __dirns;
  135.       _S_setbuf(__x);
  136. }
  137. // Specialized version of the above.  Assumes that
  138. // the path cache is valid for the previous position.
  139. template <class _CharT, class _Alloc>
  140. void _Rope_iterator_base<_CharT,_Alloc>::_S_setcache_for_incr
  141. (_Rope_iterator_base<_CharT,_Alloc>& __x)
  142. {
  143.     int __current_index = __x._M_leaf_index;
  144.     const _RopeRep* __current_node = __x._M_path_end[__current_index];
  145.     size_t __len = __current_node->_M_size;
  146.     size_t __node_start_pos = __x._M_leaf_pos;
  147.     unsigned char __dirns = __x._M_path_directions;
  148.     _Rope_RopeConcatenation<_CharT,_Alloc>* __c;
  149.     __stl_assert(__x._M_current_pos <= __x._M_root->_M_size);
  150.     if (__x._M_current_pos - __node_start_pos < __len) {
  151. /* More stuff in this leaf, we just didn't cache it. */
  152. _S_setbuf(__x);
  153. return;
  154.     }
  155.     __stl_assert(__node_start_pos + __len == __x._M_current_pos);
  156.     //  node_start_pos is starting position of last_node.
  157.     while (--__current_index >= 0) {
  158. if (!(__dirns & 1) /* Path turned left */) 
  159.   break;
  160. __current_node = __x._M_path_end[__current_index];
  161. __c = (_Rope_RopeConcatenation<_CharT,_Alloc>*)__current_node;
  162. // Otherwise we were in the right child.  Thus we should pop
  163. // the concatenation node.
  164. __node_start_pos -= __c->_M_left->_M_size;
  165. __dirns >>= 1;
  166.     }
  167.     if (__current_index < 0) {
  168. // We underflowed the cache. Punt.
  169. _S_setcache(__x);
  170. return;
  171.     }
  172.     __current_node = __x._M_path_end[__current_index];
  173.     __c = (_Rope_RopeConcatenation<_CharT,_Alloc>*)__current_node;
  174.     // current_node is a concatenation node.  We are positioned on the first
  175.     // character in its right child.
  176.     // node_start_pos is starting position of current_node.
  177.     __node_start_pos += __c->_M_left->_M_size;
  178.     __current_node = __c->_M_right;
  179.     __x._M_path_end[++__current_index] = __current_node;
  180.     __dirns |= 1;
  181.     while (_RopeRep::_S_concat == __current_node->_M_tag) {
  182. ++__current_index;
  183. if (_S_path_cache_len == __current_index) {
  184.     int __i;
  185.     for (__i = 0; __i < _S_path_cache_len-1; __i++) {
  186. __x._M_path_end[__i] = __x._M_path_end[__i+1];
  187.     }
  188.     --__current_index;
  189. }
  190. __current_node =
  191.     ((_Rope_RopeConcatenation<_CharT,_Alloc>*)__current_node)->_M_left;
  192. __x._M_path_end[__current_index] = __current_node;
  193. __dirns <<= 1;
  194. // node_start_pos is unchanged.
  195.     }
  196.     __x._M_leaf_index = __current_index;
  197.     __x._M_leaf_pos = __node_start_pos;
  198.     __x._M_path_directions = __dirns;
  199.     _S_setbuf(__x);
  200. }
  201. template <class _CharT, class _Alloc>
  202. void _Rope_iterator_base<_CharT,_Alloc>::_M_incr(size_t __n) {
  203.     _M_current_pos += __n;
  204.     if (0 != _M_buf_ptr) {
  205.         size_t __chars_left = _M_buf_end - _M_buf_ptr;
  206.         if (__chars_left > __n) {
  207.             _M_buf_ptr += __n;
  208.         } else if (__chars_left == __n) {
  209.             _M_buf_ptr += __n;
  210.             _S_setcache_for_incr(*this);
  211.         } else {
  212.             _M_buf_ptr = 0;
  213.         }
  214.     }
  215. }
  216. template <class _CharT, class _Alloc>
  217. void _Rope_iterator_base<_CharT,_Alloc>::_M_decr(size_t __n) {
  218.     if (0 != _M_buf_ptr) {
  219.         size_t __chars_left = _M_buf_ptr - _M_buf_start;
  220.         if (__chars_left >= __n) {
  221.             _M_buf_ptr -= __n;
  222.         } else {
  223.             _M_buf_ptr = 0;
  224.         }
  225.     }
  226.     _M_current_pos -= __n;
  227. }
  228. template <class _CharT, class _Alloc>
  229. void _Rope_iterator<_CharT,_Alloc>::_M_check() {
  230.     if (_M_root_rope->_M_tree_ptr != _M_root) {
  231.         // _Rope was modified.  Get things fixed up.
  232.         _RopeRep::_S_unref(_M_root);
  233.         _M_root = _M_root_rope->_M_tree_ptr;
  234.         _RopeRep::_S_ref(_M_root);
  235.         _M_buf_ptr = 0;
  236.     }
  237. }
  238. template <class _CharT, class _Alloc>
  239. inline 
  240. _Rope_const_iterator<_CharT, _Alloc>::_Rope_const_iterator(
  241.   const _Rope_iterator<_CharT,_Alloc>& __x)
  242. : _Rope_iterator_base<_CharT,_Alloc>(__x) 
  243. { }
  244. template <class _CharT, class _Alloc>
  245. inline _Rope_iterator<_CharT,_Alloc>::_Rope_iterator(
  246.   rope<_CharT,_Alloc>& __r, size_t __pos)
  247. : _Rope_iterator_base<_CharT,_Alloc>(__r._M_tree_ptr, __pos), 
  248.   _M_root_rope(&__r)
  249. {
  250.     _RopeRep::_S_ref(_M_root);
  251. }
  252. template <class _CharT, class _Alloc>
  253. inline size_t 
  254. rope<_CharT,_Alloc>::_S_char_ptr_len(const _CharT* __s)
  255. {
  256.     const _CharT* __p = __s;
  257.     while (!_S_is0(*__p)) { ++__p; }
  258.     return (__p - __s);
  259. }
  260. #ifndef __GC
  261. template <class _CharT, class _Alloc>
  262. inline void _Rope_RopeRep<_CharT,_Alloc>::_M_free_c_string()
  263. {
  264.     _CharT* __cstr = _M_c_string;
  265.     if (0 != __cstr) {
  266. size_t __size = _M_size + 1;
  267. destroy(__cstr, __cstr + __size);
  268. _Data_deallocate(__cstr, __size);
  269.     }
  270. }
  271. template <class _CharT, class _Alloc>
  272. #ifdef __STL_USE_STD_ALLOCATORS
  273.   inline void _Rope_RopeRep<_CharT,_Alloc>::_S_free_string(_CharT* __s,
  274.    size_t __n,
  275.            allocator_type __a)
  276. #else
  277.   inline void _Rope_RopeRep<_CharT,_Alloc>::_S_free_string(_CharT* __s,
  278.    size_t __n)
  279. #endif
  280. {
  281.     if (!_S_is_basic_char_type((_CharT*)0)) {
  282. destroy(__s, __s + __n);
  283.     }
  284. //  This has to be a static member, so this gets a bit messy
  285. #   ifdef __STL_USE_STD_ALLOCATORS
  286.         __a.deallocate(
  287.     __s, _Rope_RopeLeaf<_CharT,_Alloc>::_S_rounded_up_size(__n));
  288. #   else
  289. _Data_deallocate(
  290.     __s, _Rope_RopeLeaf<_CharT,_Alloc>::_S_rounded_up_size(__n));
  291. #   endif
  292. }
  293. //  There are several reasons for not doing this with virtual destructors
  294. //  and a class specific delete operator:
  295. //  - A class specific delete operator can't easily get access to
  296. //    allocator instances if we need them.
  297. //  - Any virtual function would need a 4 or byte vtable pointer;
  298. //    this only requires a one byte tag per object.
  299. template <class _CharT, class _Alloc>
  300. void _Rope_RopeRep<_CharT,_Alloc>::_M_free_tree()
  301. {
  302.     switch(_M_tag) {
  303. case _S_leaf:
  304.     {
  305.         _Rope_RopeLeaf<_CharT,_Alloc>* __l
  306. = (_Rope_RopeLeaf<_CharT,_Alloc>*)this;
  307.         __l->_Rope_RopeLeaf<_CharT,_Alloc>::~_Rope_RopeLeaf();
  308.         _L_deallocate(__l, 1);
  309.         break;
  310.     }
  311. case _S_concat:
  312.     {
  313.         _Rope_RopeConcatenation<_CharT,_Alloc>* __c
  314.     = (_Rope_RopeConcatenation<_CharT,_Alloc>*)this;
  315.         __c->_Rope_RopeConcatenation<_CharT,_Alloc>::
  316.        ~_Rope_RopeConcatenation();
  317.         _C_deallocate(__c, 1);
  318.         break;
  319.     }
  320. case _S_function:
  321.     {
  322.         _Rope_RopeFunction<_CharT,_Alloc>* __f
  323.     = (_Rope_RopeFunction<_CharT,_Alloc>*)this;
  324.         __f->_Rope_RopeFunction<_CharT,_Alloc>::~_Rope_RopeFunction();
  325.         _F_deallocate(__f, 1);
  326.         break;
  327.     }
  328. case _S_substringfn:
  329.     {
  330.         _Rope_RopeSubstring<_CharT,_Alloc>* __ss =
  331. (_Rope_RopeSubstring<_CharT,_Alloc>*)this;
  332. __ss->_Rope_RopeSubstring<_CharT,_Alloc>::
  333.         ~_Rope_RopeSubstring();
  334. _S_deallocate(__ss, 1);
  335. break;
  336.     }
  337.     }
  338. }
  339. #else
  340. template <class _CharT, class _Alloc>
  341. #ifdef __STL_USE_STD_ALLOCATORS
  342.   inline void _Rope_RopeRep<_CharT,_Alloc>::_S_free_string
  343. (const _CharT*, size_t, allocator_type)
  344. #else
  345.   inline void _Rope_RopeRep<_CharT,_Alloc>::_S_free_string
  346. (const _CharT*, size_t)
  347. #endif
  348. {}
  349. #endif
  350. // Concatenate a C string onto a leaf rope by copying the rope data.
  351. // Used for short ropes.
  352. template <class _CharT, class _Alloc>
  353. rope<_CharT,_Alloc>::_RopeLeaf*
  354. rope<_CharT,_Alloc>::_S_leaf_concat_char_iter
  355. (_RopeLeaf* __r, const _CharT* __iter, size_t __len)
  356. {
  357.     size_t __old_len = __r->_M_size;
  358.     _CharT* __new_data = (_CharT*)
  359. _Data_allocate(_S_rounded_up_size(__old_len + __len));
  360.     _RopeLeaf* __result;
  361.     
  362.     uninitialized_copy_n(__r->_M_data, __old_len, __new_data);
  363.     uninitialized_copy_n(__iter, __len, __new_data + __old_len);
  364.     _S_cond_store_eos(__new_data[__old_len + __len]);
  365.     __STL_TRY {
  366. __result = _S_new_RopeLeaf(__new_data, __old_len + __len,
  367.    __r->get_allocator());
  368.     }
  369.     __STL_UNWIND(_RopeRep::__STL_FREE_STRING(__new_data, __old_len + __len,
  370.      __r->get_allocator()));
  371.     return __result;
  372. }
  373. #ifndef __GC
  374. // As above, but it's OK to clobber original if refcount is 1
  375. template <class _CharT, class _Alloc>
  376. rope<_CharT,_Alloc>::_RopeLeaf*
  377. rope<_CharT,_Alloc>::_S_destr_leaf_concat_char_iter
  378. (_RopeLeaf* __r, const _CharT* __iter, size_t __len)
  379. {
  380.     __stl_assert(__r->_M_refcount >= 1);
  381.     if (__r->_M_refcount > 1)
  382.       return _S_leaf_concat_char_iter(__r, __iter, __len);
  383.     size_t __old_len = __r->_M_size;
  384.     if (_S_allocated_capacity(__old_len) >= __old_len + __len) {
  385. // The space has been partially initialized for the standard
  386. // character types.  But that doesn't matter for those types.
  387. uninitialized_copy_n(__iter, __len, __r->_M_data + __old_len);
  388. if (_S_is_basic_char_type((_CharT*)0)) {
  389.     _S_cond_store_eos(__r->_M_data[__old_len + __len]);
  390.     __stl_assert(__r->_M_c_string == __r->_M_data);
  391. } else if (__r->_M_c_string != __r->_M_data && 0 != __r->_M_c_string) {
  392.     __r->_M_free_c_string();
  393.     __r->_M_c_string = 0;
  394. }
  395. __r->_M_size = __old_len + __len;
  396. __stl_assert(__r->_M_refcount == 1);
  397. __r->_M_refcount = 2;
  398. return __r;
  399.     } else {
  400. _RopeLeaf* __result = _S_leaf_concat_char_iter(__r, __iter, __len);
  401. __stl_assert(__result->_M_refcount == 1);
  402. return __result;
  403.     }
  404. }
  405. #endif
  406. // Assumes left and right are not 0.
  407. // Does not increment (nor decrement on exception) child reference counts.
  408. // Result has ref count 1.
  409. template <class _CharT, class _Alloc>
  410. rope<_CharT,_Alloc>::_RopeRep*
  411. rope<_CharT,_Alloc>::_S_tree_concat (_RopeRep* __left, _RopeRep* __right)
  412. {
  413.     _RopeConcatenation* __result =
  414.       _S_new_RopeConcatenation(__left, __right, __left->get_allocator());
  415.     size_t __depth = __result->_M_depth;
  416.     
  417. #   ifdef __STL_USE_STD_ALLOCATORS
  418.       __stl_assert(__left->get_allocator() == __right->get_allocator());
  419. #   endif
  420.     if (__depth > 20 && (__result->_M_size < 1000 ||
  421.  __depth > _RopeRep::_S_max_rope_depth)) {
  422.         _RopeRep* __balanced;
  423.       
  424. __STL_TRY {
  425.    __balanced = _S_balance(__result);
  426. #          ifndef __GC
  427.      if (__result != __balanced) {
  428. __stl_assert(1 == __result->_M_refcount
  429.      && 1 == __balanced->_M_refcount);
  430.      }
  431. #          endif
  432.    __result->_M_unref_nonnil();
  433.         }
  434. __STL_UNWIND((_C_deallocate(__result,1)));
  435. // In case of exception, we need to deallocate
  436. // otherwise dangling result node.  But caller
  437. // still owns its children.  Thus unref is
  438. // inappropriate.
  439. return __balanced;
  440.     } else {
  441. return __result;
  442.     }
  443. }
  444. template <class _CharT, class _Alloc>
  445. rope<_CharT,_Alloc>::_RopeRep* rope<_CharT,_Alloc>::_S_concat_char_iter
  446. (_RopeRep* __r, const _CharT*__s, size_t __slen)
  447. {
  448.     _RopeRep* __result;
  449.     if (0 == __slen) {
  450. _S_ref(__r);
  451. return __r;
  452.     }
  453.     if (0 == __r)
  454.       return __STL_ROPE_FROM_UNOWNED_CHAR_PTR(__s, __slen,
  455.       __r->get_allocator());
  456.     if (_RopeRep::_S_leaf == __r->_M_tag && 
  457.           __r->_M_size + __slen <= _S_copy_max) {
  458. __result = _S_leaf_concat_char_iter((_RopeLeaf*)__r, __s, __slen);
  459. #       ifndef __GC
  460.   __stl_assert(1 == __result->_M_refcount);
  461. #       endif
  462. return __result;
  463.     }
  464.     if (_RopeRep::_S_concat == __r->_M_tag
  465. && _RopeRep::_S_leaf == ((_RopeConcatenation*)__r)->_M_right->_M_tag) {
  466. _RopeLeaf* __right = 
  467.   (_RopeLeaf* )(((_RopeConcatenation* )__r)->_M_right);
  468. if (__right->_M_size + __slen <= _S_copy_max) {
  469.   _RopeRep* __left = ((_RopeConcatenation*)__r)->_M_left;
  470.   _RopeRep* __nright = 
  471.     _S_leaf_concat_char_iter((_RopeLeaf*)__right, __s, __slen);
  472.   __left->_M_ref_nonnil();
  473.   __STL_TRY {
  474.     __result = _S_tree_concat(__left, __nright);
  475.           }
  476.   __STL_UNWIND(_S_unref(__left); _S_unref(__nright));
  477. #         ifndef __GC
  478.     __stl_assert(1 == __result->_M_refcount);
  479. #         endif
  480.   return __result;
  481. }
  482.     }
  483.     _RopeRep* __nright =
  484.       __STL_ROPE_FROM_UNOWNED_CHAR_PTR(__s, __slen, __r->get_allocator());
  485.     __STL_TRY {
  486.       __r->_M_ref_nonnil();
  487.       __result = _S_tree_concat(__r, __nright);
  488.     }
  489.     __STL_UNWIND(_S_unref(__r); _S_unref(__nright));
  490. #   ifndef __GC
  491.       __stl_assert(1 == __result->_M_refcount);
  492. #   endif
  493.     return __result;
  494. }
  495. #ifndef __GC
  496. template <class _CharT, class _Alloc>
  497. rope<_CharT,_Alloc>::_RopeRep* 
  498. rope<_CharT,_Alloc>::_S_destr_concat_char_iter(
  499.   _RopeRep* __r, const _CharT* __s, size_t __slen)
  500. {
  501.     _RopeRep* __result;
  502.     if (0 == __r)
  503.       return __STL_ROPE_FROM_UNOWNED_CHAR_PTR(__s, __slen,
  504.       __r->get_allocator());
  505.     size_t __count = __r->_M_refcount;
  506.     size_t __orig_size = __r->_M_size;
  507.     __stl_assert(__count >= 1);
  508.     if (__count > 1) return _S_concat_char_iter(__r, __s, __slen);
  509.     if (0 == __slen) {
  510. __r->_M_refcount = 2;      // One more than before
  511. return __r;
  512.     }
  513.     if (__orig_size + __slen <= _S_copy_max && 
  514.           _RopeRep::_S_leaf == __r->_M_tag) {
  515. __result = _S_destr_leaf_concat_char_iter((_RopeLeaf*)__r, __s, __slen);
  516. return __result;
  517.     }
  518.     if (_RopeRep::_S_concat == __r->_M_tag) {
  519. _RopeLeaf* __right = (_RopeLeaf*)(((_RopeConcatenation*)__r)->_M_right);
  520. if (_RopeRep::_S_leaf == __right->_M_tag
  521.     && __right->_M_size + __slen <= _S_copy_max) {
  522.   _RopeRep* __new_right = 
  523.     _S_destr_leaf_concat_char_iter(__right, __s, __slen);
  524.   if (__right == __new_right) {
  525.       __stl_assert(__new_right->_M_refcount == 2);
  526.       __new_right->_M_refcount = 1;
  527.   } else {
  528.       __stl_assert(__new_right->_M_refcount >= 1);
  529.       __right->_M_unref_nonnil();
  530.   }
  531.   __stl_assert(__r->_M_refcount == 1);
  532.   __r->_M_refcount = 2;    // One more than before.
  533.   ((_RopeConcatenation*)__r)->_M_right = __new_right;
  534.   __r->_M_size = __orig_size + __slen;
  535.   if (0 != __r->_M_c_string) {
  536.       __r->_M_free_c_string();
  537.       __r->_M_c_string = 0;
  538.   }
  539.   return __r;
  540. }
  541.     }
  542.     _RopeRep* __right =
  543.       __STL_ROPE_FROM_UNOWNED_CHAR_PTR(__s, __slen, __r->get_allocator());
  544.     __r->_M_ref_nonnil();
  545.     __STL_TRY {
  546.       __result = _S_tree_concat(__r, __right);
  547.     }
  548.     __STL_UNWIND(_S_unref(__r); _S_unref(__right))
  549.     __stl_assert(1 == __result->_M_refcount);
  550.     return __result;
  551. }
  552. #endif /* !__GC */
  553. template <class _CharT, class _Alloc>
  554. rope<_CharT,_Alloc>::_RopeRep*
  555. rope<_CharT,_Alloc>::_S_concat(_RopeRep* __left, _RopeRep* __right)
  556. {
  557.     if (0 == __left) {
  558. _S_ref(__right);
  559. return __right;
  560.     }
  561.     if (0 == __right) {
  562. __left->_M_ref_nonnil();
  563. return __left;
  564.     }
  565.     if (_RopeRep::_S_leaf == __right->_M_tag) {
  566. if (_RopeRep::_S_leaf == __left->_M_tag) {
  567.   if (__right->_M_size + __left->_M_size <= _S_copy_max) {
  568.     return _S_leaf_concat_char_iter((_RopeLeaf*)__left,
  569.  ((_RopeLeaf*)__right)->_M_data,
  570.  __right->_M_size);
  571.   }
  572. } else if (_RopeRep::_S_concat == __left->_M_tag
  573.    && _RopeRep::_S_leaf ==
  574.       ((_RopeConcatenation*)__left)->_M_right->_M_tag) {
  575.   _RopeLeaf* __leftright =
  576.     (_RopeLeaf*)(((_RopeConcatenation*)__left)->_M_right); 
  577.   if (__leftright->_M_size + __right->_M_size <= _S_copy_max) {
  578.     _RopeRep* __leftleft = ((_RopeConcatenation*)__left)->_M_left;
  579.     _RopeRep* __rest = _S_leaf_concat_char_iter(__leftright,
  580.    ((_RopeLeaf*)__right)->_M_data,
  581.    __right->_M_size);
  582.     __leftleft->_M_ref_nonnil();
  583.     __STL_TRY {
  584.       return(_S_tree_concat(__leftleft, __rest));
  585.             }
  586.     __STL_UNWIND(_S_unref(__leftleft); _S_unref(__rest))
  587.   }
  588. }
  589.     }
  590.     __left->_M_ref_nonnil();
  591.     __right->_M_ref_nonnil();
  592.     __STL_TRY {
  593.       return(_S_tree_concat(__left, __right));
  594.     }
  595.     __STL_UNWIND(_S_unref(__left); _S_unref(__right));
  596. }
  597. template <class _CharT, class _Alloc>
  598. rope<_CharT,_Alloc>::_RopeRep*
  599. rope<_CharT,_Alloc>::_S_substring(_RopeRep* __base, 
  600.                                size_t __start, size_t __endp1)
  601. {
  602.     if (0 == __base) return 0;
  603.     size_t __len = __base->_M_size;
  604.     size_t __adj_endp1;
  605.     const size_t __lazy_threshold = 128;
  606.     
  607.     if (__endp1 >= __len) {
  608. if (0 == __start) {
  609.     __base->_M_ref_nonnil();
  610.     return __base;
  611. } else {
  612.     __adj_endp1 = __len;
  613. }
  614.     } else {
  615. __adj_endp1 = __endp1;
  616.     }
  617.     switch(__base->_M_tag) {
  618. case _RopeRep::_S_concat:
  619.     {
  620. _RopeConcatenation* __c = (_RopeConcatenation*)__base;
  621. _RopeRep* __left = __c->_M_left;
  622. _RopeRep* __right = __c->_M_right;
  623. size_t __left_len = __left->_M_size;
  624. _RopeRep* __result;
  625. if (__adj_endp1 <= __left_len) {
  626.     return _S_substring(__left, __start, __endp1);
  627. } else if (__start >= __left_len) {
  628.     return _S_substring(__right, __start - __left_len,
  629.   __adj_endp1 - __left_len);
  630. }
  631. _Self_destruct_ptr __left_result(
  632.   _S_substring(__left, __start, __left_len));
  633. _Self_destruct_ptr __right_result(
  634.   _S_substring(__right, 0, __endp1 - __left_len));
  635. __result = _S_concat(__left_result, __right_result);
  636. #               ifndef __GC
  637.   __stl_assert(1 == __result->_M_refcount);
  638. #               endif
  639. return __result;
  640.     }
  641. case _RopeRep::_S_leaf:
  642.     {
  643. _RopeLeaf* __l = (_RopeLeaf*)__base;
  644. _RopeLeaf* __result;
  645. size_t __result_len;
  646. if (__start >= __adj_endp1) return 0;
  647. __result_len = __adj_endp1 - __start;
  648. if (__result_len > __lazy_threshold) goto lazy;
  649. #               ifdef __GC
  650.     const _CharT* __section = __l->_M_data + __start;
  651.     __result = _S_new_RopeLeaf(__section, __result_len,
  652.   __base->get_allocator());
  653.     __result->_M_c_string = 0;  // Not eos terminated.
  654. #               else
  655.     // We should sometimes create substring node instead.
  656.     __result = __STL_ROPE_FROM_UNOWNED_CHAR_PTR(
  657. __l->_M_data + __start, __result_len,
  658. __base->get_allocator());
  659. #               endif
  660. return __result;
  661.     }
  662. case _RopeRep::_S_substringfn:
  663.     // Avoid introducing multiple layers of substring nodes.
  664.     {
  665. _RopeSubstring* __old = (_RopeSubstring*)__base;
  666. size_t __result_len;
  667. if (__start >= __adj_endp1) return 0;
  668. __result_len = __adj_endp1 - __start;
  669. if (__result_len > __lazy_threshold) {
  670.     _RopeSubstring* __result =
  671. _S_new_RopeSubstring(__old->_M_base,
  672.   __start + __old->_M_start,
  673.   __adj_endp1 - __start,
  674.   __base->get_allocator());
  675.     return __result;
  676. } // *** else fall through: ***
  677.     }
  678. case _RopeRep::_S_function:
  679.     {
  680. _RopeFunction* __f = (_RopeFunction*)__base;
  681. _CharT* __section;
  682. size_t __result_len;
  683. if (__start >= __adj_endp1) return 0;
  684. __result_len = __adj_endp1 - __start;
  685. if (__result_len > __lazy_threshold) goto lazy;
  686. __section = (_CharT*)
  687. _Data_allocate(_S_rounded_up_size(__result_len));
  688. __STL_TRY {
  689.   (*(__f->_M_fn))(__start, __result_len, __section);
  690.                 }
  691. __STL_UNWIND(_RopeRep::__STL_FREE_STRING(
  692.                __section, __result_len, __base->get_allocator()));
  693. _S_cond_store_eos(__section[__result_len]);
  694. return _S_new_RopeLeaf(__section, __result_len,
  695.        __base->get_allocator());
  696.     }
  697.     }
  698.     /*NOTREACHED*/
  699.     __stl_assert(false);
  700.   lazy:
  701.     {
  702. // Create substring node.
  703. return _S_new_RopeSubstring(__base, __start, __adj_endp1 - __start,
  704.        __base->get_allocator());
  705.     }
  706. }
  707. template<class _CharT>
  708. class _Rope_flatten_char_consumer : public _Rope_char_consumer<_CharT> {
  709.     private:
  710. _CharT* _M_buf_ptr;
  711.     public:
  712. //  _CharT* _M_buffer;  // XXX not used
  713. _Rope_flatten_char_consumer(_CharT* __buffer) {
  714.     _M_buf_ptr = __buffer;
  715. };
  716. ~_Rope_flatten_char_consumer() {}
  717. bool operator() (const _CharT* __leaf, size_t __n) {
  718.     uninitialized_copy_n(__leaf, __n, _M_buf_ptr);
  719.     _M_buf_ptr += __n;
  720.     return true;
  721. }
  722. };
  723.     
  724. template<class _CharT>
  725. class _Rope_find_char_char_consumer : public _Rope_char_consumer<_CharT> {
  726.     private:
  727. _CharT _M_pattern;
  728.     public:
  729. size_t _M_count;  // Number of nonmatching characters
  730. _Rope_find_char_char_consumer(_CharT __p) 
  731.   : _M_pattern(__p), _M_count(0) {}
  732. ~_Rope_find_char_char_consumer() {}
  733. bool operator() (const _CharT* __leaf, size_t __n) {
  734.     size_t __i;
  735.     for (__i = 0; __i < __n; __i++) {
  736. if (__leaf[__i] == _M_pattern) {
  737.     _M_count += __i; return false;
  738. }
  739.     }
  740.     _M_count += __n; return true;
  741. }
  742. };
  743.     
  744. template<class _CharT>
  745. class _Rope_insert_char_consumer : public _Rope_char_consumer<_CharT> {
  746.     private:
  747. typedef ostream _Insert_ostream;
  748. _Insert_ostream& _M_o;
  749.     public:
  750. // _CharT* buffer;    // XXX not used
  751. _Rope_insert_char_consumer(_Insert_ostream& __writer) 
  752.   : _M_o(__writer) {};
  753. ~_Rope_insert_char_consumer() { };
  754. // Caller is presumed to own the ostream
  755. bool operator() (const _CharT* __leaf, size_t __n);
  756. // Returns true to continue traversal.
  757. };
  758.     
  759. template<class _CharT>
  760. bool _Rope_insert_char_consumer<_CharT>::operator()
  761. (const _CharT* __leaf, size_t __n)
  762. {
  763.     size_t __i;
  764.     //  We assume that formatting is set up correctly for each element.
  765.     for (__i = 0; __i < __n; __i++) _M_o << __leaf[__i];
  766.     return true;
  767. }
  768. inline bool _Rope_insert_char_consumer<char>::operator()
  769. (const char* __leaf, size_t __n)
  770. {
  771.     size_t __i;
  772.     for (__i = 0; __i < __n; __i++) _M_o.put(__leaf[__i]);
  773.     return true;
  774. }
  775. #if 0
  776. // I couldn't get this to work work with the VC++ version of basic_ostream.
  777. // It also doesn't really do the right thing unless o is a wide stream.
  778. // Given that wchar_t is often 4 bytes, its not clear to me how useful
  779. // this stuff is anyway.
  780. inline bool _Rope_insert_char_consumer<wchar_t>::operator()
  781. (const wchar_t* __leaf, size_t __n)
  782. {
  783.     size_t __i;
  784.     for (__i = 0; __i < __n; __i++) _M_o.put(__leaf[__i]);
  785.     return true;
  786. }
  787. #endif /* !_MSC_VER  && !BORLAND */
  788. template <class _CharT, class _Alloc>
  789. bool rope<_CharT, _Alloc>::_S_apply_to_pieces(
  790. _Rope_char_consumer<_CharT>& __c,
  791. const _RopeRep* __r,
  792. size_t __begin, size_t __end)
  793. {
  794.     if (0 == __r) return true;
  795.     switch(__r->_M_tag) {
  796. case _RopeRep::_S_concat:
  797.     {
  798. _RopeConcatenation* __conc = (_RopeConcatenation*)__r;
  799. _RopeRep* __left =  __conc->_M_left;
  800. size_t __left_len = __left->_M_size;
  801. if (__begin < __left_len) {
  802.     size_t __left_end = min(__left_len, __end);
  803.     if (!_S_apply_to_pieces(__c, __left, __begin, __left_end))
  804. return false;
  805. }
  806. if (__end > __left_len) {
  807.     _RopeRep* __right =  __conc->_M_right;
  808.     size_t __right_start = max(__left_len, __begin);
  809.     if (!_S_apply_to_pieces(__c, __right,
  810.  __right_start - __left_len,
  811.  __end - __left_len)) {
  812. return false;
  813.     }
  814. }
  815.     }
  816.     return true;
  817. case _RopeRep::_S_leaf:
  818.     {
  819. _RopeLeaf* __l = (_RopeLeaf*)__r;
  820. return __c(__l->_M_data + __begin, __end - __begin);
  821.     }
  822. case _RopeRep::_S_function:
  823. case _RopeRep::_S_substringfn:
  824.     {
  825. _RopeFunction* __f = (_RopeFunction*)__r;
  826. size_t __len = __end - __begin;
  827. bool __result;
  828. _CharT* __buffer =
  829.   (_CharT*)alloc::allocate(__len * sizeof(_CharT));
  830. __STL_TRY {
  831.   (*(__f->_M_fn))(__begin, __end, __buffer);
  832.   __result = __c(__buffer, __len);
  833.                   alloc::deallocate(__buffer, __len * sizeof(_CharT));
  834.                 }
  835. __STL_UNWIND((alloc::deallocate(__buffer,
  836. __len * sizeof(_CharT))))
  837. return __result;
  838.     }
  839. default:
  840.     __stl_assert(false);
  841.     /*NOTREACHED*/
  842.     return false;
  843.     }
  844. }
  845. inline void _Rope_fill(ostream& __o, size_t __n)
  846. {
  847.     char __f = __o.fill();
  848.     size_t __i;
  849.     for (__i = 0; __i < __n; __i++) __o.put(__f);
  850. }
  851.     
  852. template <class _CharT> inline bool _Rope_is_simple(_CharT*) { return false; }
  853. inline bool _Rope_is_simple(char*) { return true; }
  854. inline bool _Rope_is_simple(wchar_t*) { return true; }
  855. template<class _CharT, class _Alloc>
  856. ostream& operator<< (ostream& __o, const rope<_CharT, _Alloc>& __r)
  857. {
  858.     size_t __w = __o.width();
  859.     bool __left = bool(__o.flags() & ios::left);
  860.     size_t __pad_len;
  861.     size_t __rope_len = __r.size();
  862.     _Rope_insert_char_consumer<_CharT> __c(__o);
  863.     bool __is_simple = _Rope_is_simple((_CharT*)0);
  864.     
  865.     if (__rope_len < __w) {
  866. __pad_len = __w - __rope_len;
  867.     } else {
  868. __pad_len = 0;
  869.     }
  870.     if (!__is_simple) __o.width(__w/__rope_len);
  871.     __STL_TRY {
  872.       if (__is_simple && !__left && __pad_len > 0) {
  873. _Rope_fill(__o, __pad_len);
  874.       }
  875.       __r.apply_to_pieces(0, __r.size(), __c);
  876.       if (__is_simple && __left && __pad_len > 0) {
  877. _Rope_fill(__o, __pad_len);
  878.       }
  879.       if (!__is_simple)
  880.         __o.width(__w);
  881.     }
  882.     __STL_UNWIND(if (!__is_simple) __o.width(__w))
  883.     return __o;
  884. }
  885. template <class _CharT, class _Alloc>
  886. _CharT*
  887. rope<_CharT,_Alloc>::_S_flatten(_RopeRep* __r,
  888.  size_t __start, size_t __len,
  889.  _CharT* __buffer)
  890. {
  891.     _Rope_flatten_char_consumer<_CharT> __c(__buffer);
  892.     _S_apply_to_pieces(__c, __r, __start, __start + __len);
  893.     return(__buffer + __len);
  894. }
  895. template <class _CharT, class _Alloc>
  896. size_t
  897. rope<_CharT,_Alloc>::find(_CharT __pattern, size_t __start) const
  898. {
  899.     _Rope_find_char_char_consumer<_CharT> __c(__pattern);
  900.     _S_apply_to_pieces(__c, _M_tree_ptr, __start, size());
  901.     size_type __result_pos = __start + __c._M_count;
  902. #   ifndef __STL_OLD_ROPE_SEMANTICS
  903. if (__result_pos == size()) __result_pos = npos;
  904. #   endif
  905.     return __result_pos;
  906. }
  907. template <class _CharT, class _Alloc>
  908. _CharT*
  909. rope<_CharT,_Alloc>::_S_flatten(_RopeRep* __r, _CharT* __buffer)
  910. {
  911.     if (0 == __r) return __buffer;
  912.     switch(__r->_M_tag) {
  913. case _RopeRep::_S_concat:
  914.     {
  915. _RopeConcatenation* __c = (_RopeConcatenation*)__r;
  916. _RopeRep* __left = __c->_M_left;
  917. _RopeRep* __right = __c->_M_right;
  918. _CharT* __rest = _S_flatten(__left, __buffer);
  919. return _S_flatten(__right, __rest);
  920.     }
  921. case _RopeRep::_S_leaf:
  922.     {
  923. _RopeLeaf* __l = (_RopeLeaf*)__r;
  924. return copy_n(__l->_M_data, __l->_M_size, __buffer).second;
  925.     }
  926. case _RopeRep::_S_function:
  927. case _RopeRep::_S_substringfn:
  928.     // We dont yet do anything with substring nodes.
  929.     // This needs to be fixed before ropefiles will work well.
  930.     {
  931. _RopeFunction* __f = (_RopeFunction*)__r;
  932. (*(__f->_M_fn))(0, __f->_M_size, __buffer);
  933. return __buffer + __f->_M_size;
  934.     }
  935. default:
  936.     __stl_assert(false);
  937.     /*NOTREACHED*/
  938.     return 0;
  939.     }
  940. }
  941. // This needs work for _CharT != char
  942. template <class _CharT, class _Alloc>
  943. void
  944. rope<_CharT,_Alloc>::_S_dump(_RopeRep* __r, int __indent)
  945. {
  946.     for (int __i = 0; __i < __indent; __i++) putchar(' ');
  947.     if (0 == __r) {
  948. printf("NULLn"); return;
  949.     }
  950.     if (_RopeRep::_S_concat == __r->_M_tag) {
  951. _RopeConcatenation* __c = (_RopeConcatenation*)__r;
  952. _RopeRep* __left = __c->_M_left;
  953. _RopeRep* __right = __c->_M_right;
  954. #       ifdef __GC
  955.   printf("Concatenation %p (depth = %d, len = %ld, %s balanced)n",
  956.     __r, __r->_M_depth, __r->_M_size, __r->_M_is_balanced? "" : "not");
  957. #       else
  958.   printf("Concatenation %p (rc = %ld, depth = %d, "
  959.            "len = %ld, %s balanced)n",
  960.  __r, __r->_M_refcount, __r->_M_depth, __r->_M_size,
  961.  __r->_M_is_balanced? "" : "not");
  962. #       endif
  963. _S_dump(__left, __indent + 2);
  964. _S_dump(__right, __indent + 2);
  965. return;
  966.     } else {
  967. char* __kind;
  968. switch (__r->_M_tag) {
  969.     case _RopeRep::_S_leaf:
  970. __kind = "Leaf";
  971. break;
  972.     case _RopeRep::_S_function:
  973. __kind = "Function";
  974. break;
  975.     case _RopeRep::_S_substringfn:
  976. __kind = "Function representing substring";
  977. break;
  978.     default:
  979. __kind = "(corrupted kind field!)";
  980. }
  981. #       ifdef __GC
  982.   printf("%s %p (depth = %d, len = %ld) ",
  983.  __kind, __r, __r->_M_depth, __r->_M_size);
  984. #       else
  985.   printf("%s %p (rc = %ld, depth = %d, len = %ld) ",
  986.  __kind, __r, __r->_M_refcount, __r->_M_depth, __r->_M_size);
  987. #       endif
  988. if (_S_is_one_byte_char_type((_CharT*)0)) {
  989.     const int __max_len = 40;
  990.     _Self_destruct_ptr __prefix(_S_substring(__r, 0, __max_len));
  991.     _CharT __buffer[__max_len + 1];
  992.     bool __too_big = __r->_M_size > __prefix->_M_size;
  993.     _S_flatten(__prefix, __buffer);
  994.     __buffer[__prefix->_M_size] = _S_eos((_CharT*)0); 
  995.     printf("%s%sn", 
  996.            (char*)__buffer, __too_big? "...n" : "n");
  997. } else {
  998.     printf("n");
  999. }
  1000.     }
  1001. }
  1002. template <class _CharT, class _Alloc>
  1003. const unsigned long
  1004. rope<_CharT,_Alloc>::_S_min_len[
  1005.   _Rope_RopeRep<_CharT,_Alloc>::_S_max_rope_depth + 1] = {
  1006. /* 0 */1, /* 1 */2, /* 2 */3, /* 3 */5, /* 4 */8, /* 5 */13, /* 6 */21,
  1007. /* 7 */34, /* 8 */55, /* 9 */89, /* 10 */144, /* 11 */233, /* 12 */377,
  1008. /* 13 */610, /* 14 */987, /* 15 */1597, /* 16 */2584, /* 17 */4181,
  1009. /* 18 */6765, /* 19 */10946, /* 20 */17711, /* 21 */28657, /* 22 */46368,
  1010. /* 23 */75025, /* 24 */121393, /* 25 */196418, /* 26 */317811,
  1011. /* 27 */514229, /* 28 */832040, /* 29 */1346269, /* 30 */2178309,
  1012. /* 31 */3524578, /* 32 */5702887, /* 33 */9227465, /* 34 */14930352,
  1013. /* 35 */24157817, /* 36 */39088169, /* 37 */63245986, /* 38 */102334155,
  1014. /* 39 */165580141, /* 40 */267914296, /* 41 */433494437,
  1015. /* 42 */701408733, /* 43 */1134903170, /* 44 */1836311903,
  1016. /* 45 */2971215073u };
  1017. // These are Fibonacci numbers < 2**32.
  1018. template <class _CharT, class _Alloc>
  1019. rope<_CharT,_Alloc>::_RopeRep*
  1020. rope<_CharT,_Alloc>::_S_balance(_RopeRep* __r)
  1021. {
  1022.     _RopeRep* __forest[_RopeRep::_S_max_rope_depth + 1];
  1023.     _RopeRep* __result = 0;
  1024.     int __i;
  1025.     // Invariant:
  1026.     // The concatenation of forest in descending order is equal to __r.
  1027.     // __forest[__i]._M_size >= _S_min_len[__i]
  1028.     // __forest[__i]._M_depth = __i
  1029.     // References from forest are included in refcount.
  1030.     for (__i = 0; __i <= _RopeRep::_S_max_rope_depth; ++__i) 
  1031.       __forest[__i] = 0;
  1032.     __STL_TRY {
  1033.       _S_add_to_forest(__r, __forest);
  1034.       for (__i = 0; __i <= _RopeRep::_S_max_rope_depth; ++__i) 
  1035.         if (0 != __forest[__i]) {
  1036. # ifndef __GC
  1037.   _Self_destruct_ptr __old(__result);
  1038. # endif
  1039.   __result = _S_concat(__forest[__i], __result);
  1040. __forest[__i]->_M_unref_nonnil();
  1041. # if !defined(__GC) && defined(__STL_USE_EXCEPTIONS)
  1042.   __forest[__i] = 0;
  1043. # endif
  1044.       }
  1045.     }
  1046.     __STL_UNWIND(for(__i = 0; __i <= _RopeRep::_S_max_rope_depth; __i++)
  1047.  _S_unref(__forest[__i]))
  1048.     if (__result->_M_depth > _RopeRep::_S_max_rope_depth) abort();
  1049.     return(__result);
  1050. }
  1051. template <class _CharT, class _Alloc>
  1052. void
  1053. rope<_CharT,_Alloc>::_S_add_to_forest(_RopeRep* __r, _RopeRep** __forest)
  1054. {
  1055.     if (__r->_M_is_balanced) {
  1056. _S_add_leaf_to_forest(__r, __forest);
  1057. return;
  1058.     }
  1059.     __stl_assert(__r->_M_tag == _RopeRep::_S_concat);
  1060.     {
  1061. _RopeConcatenation* __c = (_RopeConcatenation*)__r;
  1062. _S_add_to_forest(__c->_M_left, __forest);
  1063. _S_add_to_forest(__c->_M_right, __forest);
  1064.     }
  1065. }
  1066. template <class _CharT, class _Alloc>
  1067. void
  1068. rope<_CharT,_Alloc>::_S_add_leaf_to_forest(_RopeRep* __r, _RopeRep** __forest)
  1069. {
  1070.     _RopeRep* __insertee;    // included in refcount
  1071.     _RopeRep* __too_tiny = 0;     // included in refcount
  1072.     int __i;   // forest[0..__i-1] is empty
  1073.     size_t __s = __r->_M_size;
  1074.     for (__i = 0; __s >= _S_min_len[__i+1]/* not this bucket */; ++__i) {
  1075. if (0 != __forest[__i]) {
  1076. #     ifndef __GC
  1077.       _Self_destruct_ptr __old(__too_tiny);
  1078. #     endif
  1079.     __too_tiny = _S_concat_and_set_balanced(__forest[__i], __too_tiny);
  1080.     __forest[__i]->_M_unref_nonnil();
  1081.     __forest[__i] = 0;
  1082. }
  1083.     }
  1084.     {
  1085. # ifndef __GC
  1086.   _Self_destruct_ptr __old(__too_tiny);
  1087. # endif
  1088. __insertee = _S_concat_and_set_balanced(__too_tiny, __r);
  1089.     }
  1090.     // Too_tiny dead, and no longer included in refcount.
  1091.     // Insertee is live and included.
  1092.     __stl_assert(_S_is_almost_balanced(__insertee));
  1093.     __stl_assert(__insertee->_M_depth <= __r->_M_depth + 1);
  1094.     for (;; ++__i) {
  1095. if (0 != __forest[__i]) {
  1096. #     ifndef __GC
  1097.       _Self_destruct_ptr __old(__insertee);
  1098. #     endif
  1099.     __insertee = _S_concat_and_set_balanced(__forest[__i], __insertee);
  1100.     __forest[__i]->_M_unref_nonnil();
  1101.     __forest[__i] = 0;
  1102.     __stl_assert(_S_is_almost_balanced(__insertee));
  1103. }
  1104. __stl_assert(_S_min_len[__i] <= __insertee->_M_size);
  1105. __stl_assert(__forest[__i] == 0);
  1106. if (__i == _RopeRep::_S_max_rope_depth || 
  1107.       __insertee->_M_size < _S_min_len[__i+1]) {
  1108.     __forest[__i] = __insertee;
  1109.     // refcount is OK since __insertee is now dead.
  1110.     return;
  1111. }
  1112.     }
  1113. }
  1114. template <class _CharT, class _Alloc>
  1115. _CharT
  1116. rope<_CharT,_Alloc>::_S_fetch(_RopeRep* __r, size_type __i)
  1117. {
  1118.     __GC_CONST _CharT* __cstr = __r->_M_c_string;
  1119.     __stl_assert(__i < __r->_M_size);
  1120.     if (0 != __cstr) return __cstr[__i]; 
  1121.     for(;;) {
  1122.       switch(__r->_M_tag) {
  1123. case _RopeRep::_S_concat:
  1124.     {
  1125. _RopeConcatenation* __c = (_RopeConcatenation*)__r;
  1126. _RopeRep* __left = __c->_M_left;
  1127. size_t __left_len = __left->_M_size;
  1128. if (__i >= __left_len) {
  1129.     __i -= __left_len;
  1130.     __r = __c->_M_right;
  1131. } else {
  1132.     __r = __left;
  1133. }
  1134.     }
  1135.     break;
  1136. case _RopeRep::_S_leaf:
  1137.     {
  1138. _RopeLeaf* __l = (_RopeLeaf*)__r;
  1139. return __l->_M_data[__i];
  1140.     }
  1141. case _RopeRep::_S_function:
  1142. case _RopeRep::_S_substringfn:
  1143.     {
  1144. _RopeFunction* __f = (_RopeFunction*)__r;
  1145. _CharT __result;
  1146. (*(__f->_M_fn))(__i, 1, &__result);
  1147. return __result;
  1148.     }
  1149.       }
  1150.     }
  1151. }
  1152. # ifndef __GC
  1153. // Return a uniquely referenced character slot for the given
  1154. // position, or 0 if that's not possible.
  1155. template <class _CharT, class _Alloc>
  1156. _CharT*
  1157. rope<_CharT,_Alloc>::_S_fetch_ptr(_RopeRep* __r, size_type __i)
  1158. {
  1159.     _RopeRep* __clrstack[_RopeRep::_S_max_rope_depth];
  1160.     size_t __csptr = 0;
  1161.     for(;;) {
  1162.       if (__r->_M_refcount > 1) return 0;
  1163.       switch(__r->_M_tag) {
  1164. case _RopeRep::_S_concat:
  1165.     {
  1166. _RopeConcatenation* __c = (_RopeConcatenation*)__r;
  1167. _RopeRep* __left = __c->_M_left;
  1168. size_t __left_len = __left->_M_size;
  1169. if (__c->_M_c_string != 0) __clrstack[__csptr++] = __c;
  1170. if (__i >= __left_len) {
  1171.     __i -= __left_len;
  1172.     __r = __c->_M_right;
  1173. } else {
  1174.     __r = __left;
  1175. }
  1176.     }
  1177.     break;
  1178. case _RopeRep::_S_leaf:
  1179.     {
  1180. _RopeLeaf* __l = (_RopeLeaf*)__r;
  1181. if (__l->_M_c_string != __l->_M_data && __l->_M_c_string != 0)
  1182.     __clrstack[__csptr++] = __l;
  1183. while (__csptr > 0) {
  1184.     -- __csptr;
  1185.     _RopeRep* __d = __clrstack[__csptr];
  1186.     __d->_M_free_c_string();
  1187.     __d->_M_c_string = 0;
  1188. }
  1189. return __l->_M_data + __i;
  1190.     }
  1191. case _RopeRep::_S_function:
  1192. case _RopeRep::_S_substringfn:
  1193.     return 0;
  1194.       }
  1195.     }
  1196. }
  1197. # endif /* __GC */
  1198. // The following could be implemented trivially using
  1199. // lexicographical_compare_3way.
  1200. // We do a little more work to avoid dealing with rope iterators for
  1201. // flat strings.
  1202. template <class _CharT, class _Alloc>
  1203. int
  1204. rope<_CharT,_Alloc>::_S_compare (const _RopeRep* __left, 
  1205.                                  const _RopeRep* __right)
  1206. {
  1207.     size_t __left_len;
  1208.     size_t __right_len;
  1209.     if (0 == __right) return 0 != __left;
  1210.     if (0 == __left) return -1;
  1211.     __left_len = __left->_M_size;
  1212.     __right_len = __right->_M_size;
  1213.     if (_RopeRep::_S_leaf == __left->_M_tag) {
  1214. _RopeLeaf* __l = (_RopeLeaf*) __left;
  1215. if (_RopeRep::_S_leaf == __right->_M_tag) {
  1216.     _RopeLeaf* __r = (_RopeLeaf*) __right;
  1217.     return lexicographical_compare_3way(
  1218. __l->_M_data, __l->_M_data + __left_len,
  1219. __r->_M_data, __r->_M_data + __right_len);
  1220. } else {
  1221.     const_iterator __rstart(__right, 0);
  1222.     const_iterator __rend(__right, __right_len);
  1223.     return lexicographical_compare_3way(
  1224. __l->_M_data, __l->_M_data + __left_len,
  1225. __rstart, __rend);
  1226. }
  1227.     } else {
  1228. const_iterator __lstart(__left, 0);
  1229. const_iterator __lend(__left, __left_len);
  1230. if (_RopeRep::_S_leaf == __right->_M_tag) {
  1231.     _RopeLeaf* __r = (_RopeLeaf*) __right;
  1232.     return lexicographical_compare_3way(
  1233.    __lstart, __lend,
  1234.    __r->_M_data, __r->_M_data + __right_len);
  1235. } else {
  1236.     const_iterator __rstart(__right, 0);
  1237.     const_iterator __rend(__right, __right_len);
  1238.     return lexicographical_compare_3way(
  1239.    __lstart, __lend,
  1240.    __rstart, __rend);
  1241. }
  1242.     }
  1243. }
  1244. // Assignment to reference proxies.
  1245. template <class _CharT, class _Alloc>
  1246. _Rope_char_ref_proxy<_CharT, _Alloc>&
  1247. _Rope_char_ref_proxy<_CharT, _Alloc>::operator= (_CharT __c) {
  1248.     _RopeRep* __old = _M_root->_M_tree_ptr;
  1249. #   ifndef __GC
  1250. // First check for the case in which everything is uniquely
  1251. // referenced.  In that case we can do this destructively.
  1252. _CharT* __ptr = _My_rope::_S_fetch_ptr(__old, _M_pos);
  1253. if (0 != __ptr) {
  1254.     *__ptr = __c;
  1255.     return *this;
  1256. }
  1257. #   endif
  1258.     _Self_destruct_ptr __left(
  1259.       _My_rope::_S_substring(__old, 0, _M_pos));
  1260.     _Self_destruct_ptr __right(
  1261.       _My_rope::_S_substring(__old, _M_pos+1, __old->_M_size));
  1262.     _Self_destruct_ptr __result_left(
  1263.       _My_rope::_S_destr_concat_char_iter(__left, &__c, 1));
  1264. #   ifndef __GC
  1265.       __stl_assert(__left == __result_left || 1 == __result_left->_M_refcount);
  1266. #   endif
  1267.     _RopeRep* __result =
  1268. _My_rope::_S_concat(__result_left, __right);
  1269. #   ifndef __GC
  1270.       __stl_assert(1 <= __result->_M_refcount);
  1271.       _RopeRep::_S_unref(__old);
  1272. #   endif
  1273.     _M_root->_M_tree_ptr = __result;
  1274.     return *this;
  1275. }
  1276. template <class _CharT, class _Alloc>
  1277. inline _Rope_char_ref_proxy<_CharT, _Alloc>::operator _CharT () const
  1278. {
  1279.     if (_M_current_valid) {
  1280. return _M_current;
  1281.     } else {
  1282.         return _My_rope::_S_fetch(_M_root->_M_tree_ptr, _M_pos);
  1283.     }
  1284. }
  1285. template <class _CharT, class _Alloc>
  1286. _Rope_char_ptr_proxy<_CharT, _Alloc>
  1287. _Rope_char_ref_proxy<_CharT, _Alloc>::operator& () const {
  1288.     return _Rope_char_ptr_proxy<_CharT, _Alloc>(*this);
  1289. }
  1290. template <class _CharT, class _Alloc>
  1291. rope<_CharT, _Alloc>::rope(size_t __n, _CharT __c,
  1292.    const allocator_type& __a)
  1293. : _Base(__a)
  1294. {
  1295.     rope<_CharT,_Alloc> __result;
  1296.     const size_t __exponentiate_threshold = 32;
  1297.     size_t __exponent;
  1298.     size_t __rest;
  1299.     _CharT* __rest_buffer;
  1300.     _RopeRep* __remainder;
  1301.     rope<_CharT,_Alloc> __remainder_rope;
  1302.     if (0 == __n)
  1303.       return;
  1304.     
  1305.     __exponent = __n / __exponentiate_threshold;
  1306.     __rest = __n % __exponentiate_threshold;
  1307.     if (0 == __rest) {
  1308. __remainder = 0;
  1309.     } else {
  1310. __rest_buffer = _Data_allocate(_S_rounded_up_size(__rest));
  1311. uninitialized_fill_n(__rest_buffer, __rest, __c);
  1312. _S_cond_store_eos(__rest_buffer[__rest]);
  1313. __STL_TRY {
  1314.     __remainder = _S_new_RopeLeaf(__rest_buffer, __rest, __a);
  1315.         }
  1316. __STL_UNWIND(_RopeRep::__STL_FREE_STRING(__rest_buffer, __rest, __a))
  1317.     }
  1318.     __remainder_rope._M_tree_ptr = __remainder;
  1319.     if (__exponent != 0) {
  1320. _CharT* __base_buffer =
  1321.   _Data_allocate(_S_rounded_up_size(__exponentiate_threshold));
  1322. _RopeLeaf* __base_leaf;
  1323. rope __base_rope;
  1324. uninitialized_fill_n(__base_buffer, __exponentiate_threshold, __c);
  1325. _S_cond_store_eos(__base_buffer[__exponentiate_threshold]);
  1326. __STL_TRY {
  1327.           __base_leaf = _S_new_RopeLeaf(__base_buffer,
  1328.                                         __exponentiate_threshold, __a);
  1329.         }
  1330. __STL_UNWIND(_RopeRep::__STL_FREE_STRING(__base_buffer, 
  1331.                                          __exponentiate_threshold, __a))
  1332. __base_rope._M_tree_ptr = __base_leaf;
  1333.   if (1 == __exponent) {
  1334.   __result = __base_rope;
  1335. #         ifndef __GC
  1336.     __stl_assert(2 == __result._M_tree_ptr->_M_refcount);
  1337. // One each for base_rope and __result
  1338. #         endif
  1339. } else {
  1340.   // XXX what is power()?
  1341.   __result = power(__base_rope, __exponent, _Concat_fn());
  1342. }
  1343. if (0 != __remainder) {
  1344.   __result += __remainder_rope;
  1345. }
  1346.     } else {
  1347. __result = __remainder_rope;
  1348.     }
  1349.     _M_tree_ptr = __result._M_tree_ptr;
  1350.     _M_tree_ptr->_M_ref_nonnil();
  1351. }
  1352. template<class _CharT, class _Alloc>
  1353.   _CharT rope<_CharT,_Alloc>::_S_empty_c_str[1];
  1354. # ifdef _PTHREADS
  1355.     template<class _CharT, class _Alloc>
  1356.     pthread_mutex_t 
  1357.     rope<_CharT,_Alloc>::_S_swap_lock = PTHREAD_MUTEX_INITIALIZER;
  1358. # endif
  1359. template<class _CharT, class _Alloc>
  1360. const _CharT* rope<_CharT,_Alloc>::c_str() const {
  1361.     if (0 == _M_tree_ptr) {
  1362.         _S_empty_c_str[0] = _S_eos((_CharT*)0);  // Possibly redundant,
  1363.      // but probably fast.
  1364.         return _S_empty_c_str;
  1365.     }
  1366.     __GC_CONST _CharT* __old_c_string = _M_tree_ptr->_M_c_string;
  1367.     if (0 != __old_c_string) return(__old_c_string);
  1368.     size_t __s = size();
  1369.     _CharT* __result = _Data_allocate(__s + 1);
  1370.     _S_flatten(_M_tree_ptr, __result);
  1371.     __result[__s] = _S_eos((_CharT*)0);
  1372. #   ifdef __GC
  1373. _M_tree_ptr->_M_c_string = __result;
  1374. #   else
  1375.       if ((__old_c_string = 
  1376.              _S_atomic_swap(&(_M_tree_ptr->_M_c_string), __result)) != 0) {
  1377. // It must have been added in the interim.  Hence it had to have been
  1378. // separately allocated.  Deallocate the old copy, since we just
  1379. // replaced it.
  1380. destroy(__old_c_string, __old_c_string + __s + 1);
  1381. _Data_deallocate(__old_c_string, __s + 1);
  1382.       }
  1383. #   endif
  1384.     return(__result);
  1385. }
  1386. template<class _CharT, class _Alloc>
  1387. const _CharT* rope<_CharT,_Alloc>::replace_with_c_str() {
  1388.     if (0 == _M_tree_ptr) {
  1389.         _S_empty_c_str[0] = _S_eos((_CharT*)0);
  1390.         return _S_empty_c_str;
  1391.     }
  1392.     __GC_CONST _CharT* __old_c_string = _M_tree_ptr->_M_c_string;
  1393.     if (_RopeRep::_S_leaf == _M_tree_ptr->_M_tag && 0 != __old_c_string) {
  1394. return(__old_c_string);
  1395.     }
  1396.     size_t __s = size();
  1397.     _CharT* __result = _Data_allocate(_S_rounded_up_size(__s));
  1398.     _S_flatten(_M_tree_ptr, __result);
  1399.     __result[__s] = _S_eos((_CharT*)0);
  1400.     _M_tree_ptr->_M_unref_nonnil();
  1401.     _M_tree_ptr = _S_new_RopeLeaf(__result, __s, get_allocator());
  1402.     return(__result);
  1403. }
  1404. // Algorithm specializations.  More should be added.
  1405. #ifndef _MSC_VER
  1406. // I couldn't get this to work with VC++
  1407. template<class _CharT,class _Alloc>
  1408. void
  1409. _Rope_rotate(_Rope_iterator<_CharT,_Alloc> __first,
  1410.               _Rope_iterator<_CharT,_Alloc> __middle,
  1411.               _Rope_iterator<_CharT,_Alloc> __last)
  1412. {
  1413.     __stl_assert(__first.container() == __middle.container()
  1414.                  && __middle.container() == __last.container());
  1415.     rope<_CharT,_Alloc>& __r(__first.container());
  1416.     rope<_CharT,_Alloc> __prefix = __r.substr(0, __first.index());
  1417.     rope<_CharT,_Alloc> __suffix = 
  1418.       __r.substr(__last.index(), __r.size() - __last.index());
  1419.     rope<_CharT,_Alloc> __part1 = 
  1420.       __r.substr(__middle.index(), __last.index() - __middle.index());
  1421.     rope<_CharT,_Alloc> __part2 = 
  1422.       __r.substr(__first.index(), __middle.index() - __first.index());
  1423.     __r = __prefix;
  1424.     __r += __part1;
  1425.     __r += __part2;
  1426.     __r += __suffix;
  1427. }
  1428. #if !defined(__GNUC__)
  1429. // Appears to confuse g++
  1430. inline void rotate(_Rope_iterator<char,__STL_DEFAULT_ALLOCATOR(char)> __first,
  1431.                    _Rope_iterator<char,__STL_DEFAULT_ALLOCATOR(char)> __middle,
  1432.                    _Rope_iterator<char,__STL_DEFAULT_ALLOCATOR(char)> __last) {
  1433.     _Rope_rotate(__first, __middle, __last);
  1434. }
  1435. #endif
  1436. # if 0
  1437. // Probably not useful for several reasons:
  1438. // - for SGIs 7.1 compiler and probably some others,
  1439. //   this forces lots of rope<wchar_t, ...> instantiations, creating a
  1440. //   code bloat and compile time problem.  (Fixed in 7.2.)
  1441. // - wchar_t is 4 bytes wide on most UNIX platforms, making it unattractive
  1442. //   for unicode strings.  Unsigned short may be a better character
  1443. //   type.
  1444. inline void rotate(
  1445. _Rope_iterator<wchar_t,__STL_DEFAULT_ALLOCATOR(char)> __first,
  1446.                 _Rope_iterator<wchar_t,__STL_DEFAULT_ALLOCATOR(char)> __middle,
  1447.                 _Rope_iterator<wchar_t,__STL_DEFAULT_ALLOCATOR(char)> __last) {
  1448.     _Rope_rotate(__first, __middle, __last);
  1449. }
  1450. # endif
  1451. #endif /* _MSC_VER */
  1452. #if defined(__sgi) && !defined(__GNUC__) && (_MIPS_SIM != _MIPS_SIM_ABI32)
  1453. #pragma reset woff 1174
  1454. #endif
  1455. __STL_END_NAMESPACE
  1456. // Local Variables:
  1457. // mode:C++
  1458. // End: