longlong.h
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:69k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* longlong.h -- definitions for mixed size 32/64 bit arithmetic.
  2. Copyright 1991, 1992, 1993, 1994, 1996, 1997, 1999, 2000, 2001, 2002, 2003,
  3. 2004, 2005, 2007, 2008, 2009 Free Software Foundation, Inc.
  4. This file is free software; you can redistribute it and/or modify it under the
  5. terms of the GNU Lesser General Public License as published by the Free
  6. Software Foundation; either version 3 of the License, or (at your option) any
  7. later version.
  8. This file is distributed in the hope that it will be useful, but WITHOUT ANY
  9. WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A
  10. PARTICULAR PURPOSE.  See the GNU Lesser General Public License for more
  11. details.
  12. You should have received a copy of the GNU Lesser General Public License
  13. along with this file.  If not, see http://www.gnu.org/licenses/.  */
  14. /* You have to define the following before including this file:
  15.    UWtype -- An unsigned type, default type for operations (typically a "word")
  16.    UHWtype -- An unsigned type, at least half the size of UWtype
  17.    UDWtype -- An unsigned type, at least twice as large a UWtype
  18.    W_TYPE_SIZE -- size in bits of UWtype
  19.    SItype, USItype -- Signed and unsigned 32 bit types
  20.    DItype, UDItype -- Signed and unsigned 64 bit types
  21.    On a 32 bit machine UWtype should typically be USItype;
  22.    on a 64 bit machine, UWtype should typically be UDItype.
  23.    Optionally, define:
  24.    LONGLONG_STANDALONE -- Avoid code that needs machine-dependent support files
  25.    NO_ASM -- Disable inline asm
  26.    CAUTION!  Using this version of longlong.h outside of GMP is not safe.  You
  27.    need to include gmp.h and gmp-impl.h, or certain things might not work as
  28.    expected.
  29. */
  30. #define __BITS4 (W_TYPE_SIZE / 4)
  31. #define __ll_B ((UWtype) 1 << (W_TYPE_SIZE / 2))
  32. #define __ll_lowpart(t) ((UWtype) (t) & (__ll_B - 1))
  33. #define __ll_highpart(t) ((UWtype) (t) >> (W_TYPE_SIZE / 2))
  34. /* This is used to make sure no undesirable sharing between different libraries
  35.    that use this file takes place.  */
  36. #ifndef __MPN
  37. #define __MPN(x) __##x
  38. #endif
  39. #ifndef _PROTO
  40. #if (__STDC__-0) || defined (__cplusplus)
  41. #define _PROTO(x) x
  42. #else
  43. #define _PROTO(x) ()
  44. #endif
  45. #endif
  46. /* Define auxiliary asm macros.
  47.    1) umul_ppmm(high_prod, low_prod, multiplier, multiplicand) multiplies two
  48.    UWtype integers MULTIPLIER and MULTIPLICAND, and generates a two UWtype
  49.    word product in HIGH_PROD and LOW_PROD.
  50.    2) __umulsidi3(a,b) multiplies two UWtype integers A and B, and returns a
  51.    UDWtype product.  This is just a variant of umul_ppmm.
  52.    3) udiv_qrnnd(quotient, remainder, high_numerator, low_numerator,
  53.    denominator) divides a UDWtype, composed by the UWtype integers
  54.    HIGH_NUMERATOR and LOW_NUMERATOR, by DENOMINATOR and places the quotient
  55.    in QUOTIENT and the remainder in REMAINDER.  HIGH_NUMERATOR must be less
  56.    than DENOMINATOR for correct operation.  If, in addition, the most
  57.    significant bit of DENOMINATOR must be 1, then the pre-processor symbol
  58.    UDIV_NEEDS_NORMALIZATION is defined to 1.
  59.    4) sdiv_qrnnd(quotient, remainder, high_numerator, low_numerator,
  60.    denominator).  Like udiv_qrnnd but the numbers are signed.  The quotient
  61.    is rounded towards 0.
  62.    5) count_leading_zeros(count, x) counts the number of zero-bits from the
  63.    msb to the first non-zero bit in the UWtype X.  This is the number of
  64.    steps X needs to be shifted left to set the msb.  Undefined for X == 0,
  65.    unless the symbol COUNT_LEADING_ZEROS_0 is defined to some value.
  66.    6) count_trailing_zeros(count, x) like count_leading_zeros, but counts
  67.    from the least significant end.
  68.    7) add_ssaaaa(high_sum, low_sum, high_addend_1, low_addend_1,
  69.    high_addend_2, low_addend_2) adds two UWtype integers, composed by
  70.    HIGH_ADDEND_1 and LOW_ADDEND_1, and HIGH_ADDEND_2 and LOW_ADDEND_2
  71.    respectively.  The result is placed in HIGH_SUM and LOW_SUM.  Overflow
  72.    (i.e. carry out) is not stored anywhere, and is lost.
  73.    8) sub_ddmmss(high_difference, low_difference, high_minuend, low_minuend,
  74.    high_subtrahend, low_subtrahend) subtracts two two-word UWtype integers,
  75.    composed by HIGH_MINUEND_1 and LOW_MINUEND_1, and HIGH_SUBTRAHEND_2 and
  76.    LOW_SUBTRAHEND_2 respectively.  The result is placed in HIGH_DIFFERENCE
  77.    and LOW_DIFFERENCE.  Overflow (i.e. carry out) is not stored anywhere,
  78.    and is lost.
  79.    If any of these macros are left undefined for a particular CPU,
  80.    C macros are used.
  81.    Notes:
  82.    For add_ssaaaa the two high and two low addends can both commute, but
  83.    unfortunately gcc only supports one "%" commutative in each asm block.
  84.    This has always been so but is only documented in recent versions
  85.    (eg. pre-release 3.3).  Having two or more "%"s can cause an internal
  86.    compiler error in certain rare circumstances.
  87.    Apparently it was only the last "%" that was ever actually respected, so
  88.    the code has been updated to leave just that.  Clearly there's a free
  89.    choice whether high or low should get it, if there's a reason to favour
  90.    one over the other.  Also obviously when the constraints on the two
  91.    operands are identical there's no benefit to the reloader in any "%" at
  92.    all.
  93.    */
  94. /* The CPUs come in alphabetical order below.
  95.    Please add support for more CPUs here, or improve the current support
  96.    for the CPUs below!  */
  97. /* count_leading_zeros_gcc_clz is count_leading_zeros implemented with gcc
  98.    3.4 __builtin_clzl or __builtin_clzll, according to our limb size.
  99.    Similarly count_trailing_zeros_gcc_ctz using __builtin_ctzl or
  100.    __builtin_ctzll.
  101.    These builtins are only used when we check what code comes out, on some
  102.    chips they're merely libgcc calls, where we will instead want an inline
  103.    in that case (either asm or generic C).
  104.    These builtins are better than an asm block of the same insn, since an
  105.    asm block doesn't give gcc any information about scheduling or resource
  106.    usage.  We keep an asm block for use on prior versions of gcc though.
  107.    For reference, __builtin_ffs existed in gcc prior to __builtin_clz, but
  108.    it's not used (for count_leading_zeros) because it generally gives extra
  109.    code to ensure the result is 0 when the input is 0, which we don't need
  110.    or want.  */
  111. #ifdef _LONG_LONG_LIMB
  112. #define count_leading_zeros_gcc_clz(count,x)    
  113.   do {                                          
  114.     ASSERT ((x) != 0);                          
  115.     (count) = __builtin_clzll (x);              
  116.   } while (0)
  117. #else
  118. #define count_leading_zeros_gcc_clz(count,x)    
  119.   do {                                          
  120.     ASSERT ((x) != 0);                          
  121.     (count) = __builtin_clzl (x);               
  122.   } while (0)
  123. #endif
  124. #ifdef _LONG_LONG_LIMB
  125. #define count_trailing_zeros_gcc_ctz(count,x)   
  126.   do {                                          
  127.     ASSERT ((x) != 0);                          
  128.     (count) = __builtin_ctzll (x);              
  129.   } while (0)
  130. #else
  131. #define count_trailing_zeros_gcc_ctz(count,x)   
  132.   do {                                          
  133.     ASSERT ((x) != 0);                          
  134.     (count) = __builtin_ctzl (x);               
  135.   } while (0)
  136. #endif
  137. /* FIXME: The macros using external routines like __MPN(count_leading_zeros)
  138.    don't need to be under !NO_ASM */
  139. #if ! defined (NO_ASM)
  140. #if defined (__alpha) && W_TYPE_SIZE == 64
  141. /* Most alpha-based machines, except Cray systems. */
  142. #if defined (__GNUC__)
  143. #if __GMP_GNUC_PREREQ (3,3)
  144. #define umul_ppmm(ph, pl, m0, m1) 
  145.   do {
  146.     UDItype __m0 = (m0), __m1 = (m1);
  147.     (ph) = __builtin_alpha_umulh (__m0, __m1);
  148.     (pl) = __m0 * __m1;
  149.   } while (0)
  150. #else
  151. #define umul_ppmm(ph, pl, m0, m1) 
  152.   do {
  153.     UDItype __m0 = (m0), __m1 = (m1);
  154.     __asm__ ("umulh %r1,%2,%0"
  155.      : "=r" (ph)
  156.      : "%rJ" (m0), "rI" (m1));
  157.     (pl) = __m0 * __m1;
  158.   } while (0)
  159. #endif
  160. #define UMUL_TIME 18
  161. #else /* ! __GNUC__ */
  162. #include <machine/builtins.h>
  163. #define umul_ppmm(ph, pl, m0, m1) 
  164.   do {
  165.     UDItype __m0 = (m0), __m1 = (m1);
  166.     (ph) = __UMULH (m0, m1);
  167.     (pl) = __m0 * __m1;
  168.   } while (0)
  169. #endif
  170. #ifndef LONGLONG_STANDALONE
  171. #define udiv_qrnnd(q, r, n1, n0, d) 
  172.   do { UWtype __di;
  173.     __di = __MPN(invert_limb) (d);
  174.     udiv_qrnnd_preinv (q, r, n1, n0, d, __di);
  175.   } while (0)
  176. #define UDIV_PREINV_ALWAYS  1
  177. #define UDIV_NEEDS_NORMALIZATION 1
  178. #define UDIV_TIME 220
  179. #endif /* LONGLONG_STANDALONE */
  180. /* clz_tab is required in all configurations, since mpn/alpha/cntlz.asm
  181.    always goes into libgmp.so, even when not actually used.  */
  182. #define COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  183. #if defined (__GNUC__) && HAVE_HOST_CPU_alpha_CIX
  184. #define count_leading_zeros(COUNT,X) 
  185.   __asm__("ctlz %1,%0" : "=r"(COUNT) : "r"(X))
  186. #define count_trailing_zeros(COUNT,X) 
  187.   __asm__("cttz %1,%0" : "=r"(COUNT) : "r"(X))
  188. #endif /* clz/ctz using cix */
  189. #if ! defined (count_leading_zeros)                             
  190.   && defined (__GNUC__) && ! defined (LONGLONG_STANDALONE)
  191. /* ALPHA_CMPBGE_0 gives "cmpbge $31,src,dst", ie. test src bytes == 0.
  192.    "$31" is written explicitly in the asm, since an "r" constraint won't
  193.    select reg 31.  There seems no need to worry about "r31" syntax for cray,
  194.    since gcc itself (pre-release 3.4) emits just $31 in various places.  */
  195. #define ALPHA_CMPBGE_0(dst, src)                                        
  196.   do { asm ("cmpbge $31, %1, %0" : "=r" (dst) : "r" (src)); } while (0)
  197. /* Zero bytes are turned into bits with cmpbge, a __clz_tab lookup counts
  198.    them, locating the highest non-zero byte.  A second __clz_tab lookup
  199.    counts the leading zero bits in that byte, giving the result.  */
  200. #define count_leading_zeros(count, x)                                   
  201.   do {                                                                  
  202.     UWtype  __clz__b, __clz__c, __clz__x = (x);                         
  203.     ALPHA_CMPBGE_0 (__clz__b,  __clz__x);           /* zero bytes */    
  204.     __clz__b = __clz_tab [(__clz__b >> 1) ^ 0x7F];  /* 8 to 1 byte */   
  205.     __clz__b = __clz__b * 8 - 7;                    /* 57 to 1 shift */ 
  206.     __clz__x >>= __clz__b;                                              
  207.     __clz__c = __clz_tab [__clz__x];                /* 8 to 1 bit */    
  208.     __clz__b = 65 - __clz__b;                                           
  209.     (count) = __clz__b - __clz__c;                                      
  210.   } while (0)
  211. #define COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  212. #endif /* clz using cmpbge */
  213. #if ! defined (count_leading_zeros) && ! defined (LONGLONG_STANDALONE)
  214. #if HAVE_ATTRIBUTE_CONST
  215. long __MPN(count_leading_zeros) _PROTO ((UDItype)) __attribute__ ((const));
  216. #else
  217. long __MPN(count_leading_zeros) _PROTO ((UDItype));
  218. #endif
  219. #define count_leading_zeros(count, x) 
  220.   ((count) = __MPN(count_leading_zeros) (x))
  221. #endif /* clz using mpn */
  222. #endif /* __alpha */
  223. #if defined (_CRAY) && W_TYPE_SIZE == 64
  224. #include <intrinsics.h>
  225. #define UDIV_PREINV_ALWAYS  1
  226. #define UDIV_NEEDS_NORMALIZATION 1
  227. #define UDIV_TIME 220
  228. long __MPN(count_leading_zeros) _PROTO ((UDItype));
  229. #define count_leading_zeros(count, x) 
  230.   ((count) = _leadz ((UWtype) (x)))
  231. #if defined (_CRAYIEEE) /* I.e., Cray T90/ieee, T3D, and T3E */
  232. #define umul_ppmm(ph, pl, m0, m1) 
  233.   do {
  234.     UDItype __m0 = (m0), __m1 = (m1);
  235.     (ph) = _int_mult_upper (m0, m1);
  236.     (pl) = __m0 * __m1;
  237.   } while (0)
  238. #ifndef LONGLONG_STANDALONE
  239. #define udiv_qrnnd(q, r, n1, n0, d) 
  240.   do { UWtype __di;
  241.     __di = __MPN(invert_limb) (d);
  242.     udiv_qrnnd_preinv (q, r, n1, n0, d, __di);
  243.   } while (0)
  244. #endif /* LONGLONG_STANDALONE */
  245. #endif /* _CRAYIEEE */
  246. #endif /* _CRAY */
  247. #if defined (__ia64) && W_TYPE_SIZE == 64
  248. /* This form encourages gcc (pre-release 3.4 at least) to emit predicated
  249.    "sub r=r,r" and "sub r=r,r,1", giving a 2 cycle latency.  The generic
  250.    code using "al<bl" arithmetically comes out making an actual 0 or 1 in a
  251.    register, which takes an extra cycle.  */
  252. #define sub_ddmmss(sh, sl, ah, al, bh, bl)      
  253.   do {                                          
  254.     UWtype __x;                                 
  255.     __x = (al) - (bl);                          
  256.     if ((al) < (bl))                            
  257.       (sh) = (ah) - (bh) - 1;                   
  258.     else                                        
  259.       (sh) = (ah) - (bh);                       
  260.     (sl) = __x;                                 
  261.   } while (0)
  262. #if defined (__GNUC__) && ! defined (__INTEL_COMPILER)
  263. /* Do both product parts in assembly, since that gives better code with
  264.    all gcc versions.  Some callers will just use the upper part, and in
  265.    that situation we waste an instruction, but not any cycles.  */
  266. #define umul_ppmm(ph, pl, m0, m1) 
  267.     __asm__ ("xma.hu %0 = %2, %3, f0ntxma.l %1 = %2, %3, f0"
  268.      : "=&f" (ph), "=f" (pl)
  269.      : "f" (m0), "f" (m1))
  270. #define UMUL_TIME 14
  271. #define count_leading_zeros(count, x) 
  272.   do {
  273.     UWtype _x = (x), _y, _a, _c;
  274.     __asm__ ("mux1 %0 = %1, @rev" : "=r" (_y) : "r" (_x));
  275.     __asm__ ("czx1.l %0 = %1" : "=r" (_a) : "r" (-_y | _y));
  276.     _c = (_a - 1) << 3;
  277.     _x >>= _c;
  278.     if (_x >= 1 << 4)
  279.       _x >>= 4, _c += 4;
  280.     if (_x >= 1 << 2)
  281.       _x >>= 2, _c += 2;
  282.     _c += _x >> 1;
  283.     (count) =  W_TYPE_SIZE - 1 - _c;
  284.   } while (0)
  285. /* similar to what gcc does for __builtin_ffs, but 0 based rather than 1
  286.    based, and we don't need a special case for x==0 here */
  287. #define count_trailing_zeros(count, x)
  288.   do {
  289.     UWtype __ctz_x = (x);
  290.     __asm__ ("popcnt %0 = %1"
  291.      : "=r" (count)
  292.      : "r" ((__ctz_x-1) & ~__ctz_x));
  293.   } while (0)
  294. #endif
  295. #if defined (__INTEL_COMPILER)
  296. #include <ia64intrin.h>
  297. #define umul_ppmm(ph, pl, m0, m1)
  298.   do {
  299.     UWtype _m0 = (m0), _m1 = (m1);
  300.     ph = _m64_xmahu (_m0, _m1, 0);
  301.     pl = _m0 * _m1;
  302.   } while (0)
  303. #endif
  304. #ifndef LONGLONG_STANDALONE
  305. #define udiv_qrnnd(q, r, n1, n0, d) 
  306.   do { UWtype __di;
  307.     __di = __MPN(invert_limb) (d);
  308.     udiv_qrnnd_preinv (q, r, n1, n0, d, __di);
  309.   } while (0)
  310. #define UDIV_PREINV_ALWAYS  1
  311. #define UDIV_NEEDS_NORMALIZATION 1
  312. #endif
  313. #define UDIV_TIME 220
  314. #endif
  315. #if defined (__GNUC__)
  316. /* We sometimes need to clobber "cc" with gcc2, but that would not be
  317.    understood by gcc1.  Use cpp to avoid major code duplication.  */
  318. #if __GNUC__ < 2
  319. #define __CLOBBER_CC
  320. #define __AND_CLOBBER_CC
  321. #else /* __GNUC__ >= 2 */
  322. #define __CLOBBER_CC : "cc"
  323. #define __AND_CLOBBER_CC , "cc"
  324. #endif /* __GNUC__ < 2 */
  325. #if (defined (__a29k__) || defined (_AM29K)) && W_TYPE_SIZE == 32
  326. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  327.   __asm__ ("add %1,%4,%5ntaddc %0,%2,%3"
  328.    : "=r" (sh), "=&r" (sl)
  329.    : "r" (ah), "rI" (bh), "%r" (al), "rI" (bl))
  330. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  331.   __asm__ ("sub %1,%4,%5ntsubc %0,%2,%3"
  332.    : "=r" (sh), "=&r" (sl)
  333.    : "r" (ah), "rI" (bh), "r" (al), "rI" (bl))
  334. #define umul_ppmm(xh, xl, m0, m1) 
  335.   do {
  336.     USItype __m0 = (m0), __m1 = (m1);
  337.     __asm__ ("multiplu %0,%1,%2"
  338.      : "=r" (xl)
  339.      : "r" (__m0), "r" (__m1));
  340.     __asm__ ("multmu %0,%1,%2"
  341.      : "=r" (xh)
  342.      : "r" (__m0), "r" (__m1));
  343.   } while (0)
  344. #define udiv_qrnnd(q, r, n1, n0, d) 
  345.   __asm__ ("dividu %0,%3,%4"
  346.    : "=r" (q), "=q" (r)
  347.    : "1" (n1), "r" (n0), "r" (d))
  348. #define count_leading_zeros(count, x) 
  349.     __asm__ ("clz %0,%1"
  350.      : "=r" (count)
  351.      : "r" (x))
  352. #define COUNT_LEADING_ZEROS_0 32
  353. #endif /* __a29k__ */
  354. #if defined (__arc__)
  355. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  356.   __asm__ ("add.ft%1, %4, %5ntadct%0, %2, %3"
  357.    : "=r" (sh),
  358.      "=&r" (sl)
  359.    : "r"  ((USItype) (ah)),
  360.      "rIJ" ((USItype) (bh)),
  361.      "%r" ((USItype) (al)),
  362.      "rIJ" ((USItype) (bl)))
  363. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  364.   __asm__ ("sub.ft%1, %4, %5ntsbct%0, %2, %3"
  365.    : "=r" (sh),
  366.      "=&r" (sl)
  367.    : "r" ((USItype) (ah)),
  368.      "rIJ" ((USItype) (bh)),
  369.      "r" ((USItype) (al)),
  370.      "rIJ" ((USItype) (bl)))
  371. #endif
  372. #if defined (__arm__) && W_TYPE_SIZE == 32
  373. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  374.   __asm__ ("addst%1, %4, %5ntadct%0, %2, %3"
  375.    : "=r" (sh), "=&r" (sl)
  376.    : "r" (ah), "rI" (bh), "%r" (al), "rI" (bl) __CLOBBER_CC)
  377. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  378.   do {
  379.     if (__builtin_constant_p (al))
  380.       {
  381. if (__builtin_constant_p (ah))
  382.   __asm__ ("rsbst%1, %5, %4ntrsct%0, %3, %2"
  383.    : "=r" (sh), "=&r" (sl)
  384.    : "rI" (ah), "r" (bh), "rI" (al), "r" (bl) __CLOBBER_CC); 
  385. else
  386.   __asm__ ("rsbst%1, %5, %4ntsbct%0, %2, %3"
  387.    : "=r" (sh), "=&r" (sl)
  388.    : "r" (ah), "rI" (bh), "rI" (al), "r" (bl) __CLOBBER_CC); 
  389.       }
  390.     else if (__builtin_constant_p (ah))
  391.       {
  392. if (__builtin_constant_p (bl))
  393.   __asm__ ("subst%1, %4, %5ntrsct%0, %3, %2"
  394.    : "=r" (sh), "=&r" (sl)
  395.    : "rI" (ah), "r" (bh), "r" (al), "rI" (bl) __CLOBBER_CC); 
  396. else
  397.   __asm__ ("rsbst%1, %5, %4ntrsct%0, %3, %2"
  398.    : "=r" (sh), "=&r" (sl)
  399.    : "rI" (ah), "r" (bh), "rI" (al), "r" (bl) __CLOBBER_CC); 
  400.       }
  401.     else if (__builtin_constant_p (bl))
  402.       {
  403. if (__builtin_constant_p (bh))
  404.   __asm__ ("subst%1, %4, %5ntsbct%0, %2, %3"
  405.    : "=r" (sh), "=&r" (sl)
  406.    : "r" (ah), "rI" (bh), "r" (al), "rI" (bl) __CLOBBER_CC); 
  407. else
  408.   __asm__ ("subst%1, %4, %5ntrsct%0, %3, %2"
  409.    : "=r" (sh), "=&r" (sl)
  410.    : "rI" (ah), "r" (bh), "r" (al), "rI" (bl) __CLOBBER_CC); 
  411.       }
  412.     else /* only bh might be a constant */
  413.       __asm__ ("subst%1, %4, %5ntsbct%0, %2, %3"
  414.        : "=r" (sh), "=&r" (sl)
  415.        : "r" (ah), "rI" (bh), "r" (al), "rI" (bl) __CLOBBER_CC);
  416.     } while (0)
  417. #if 1 || defined (__arm_m__) /* `M' series has widening multiply support */
  418. #define umul_ppmm(xh, xl, a, b) 
  419.   __asm__ ("umull %0,%1,%2,%3" : "=&r" (xl), "=&r" (xh) : "r" (a), "r" (b))
  420. #define UMUL_TIME 5
  421. #define smul_ppmm(xh, xl, a, b) 
  422.   __asm__ ("smull %0,%1,%2,%3" : "=&r" (xl), "=&r" (xh) : "r" (a), "r" (b))
  423. #ifndef LONGLONG_STANDALONE
  424. #define udiv_qrnnd(q, r, n1, n0, d) 
  425.   do { UWtype __di;
  426.     __di = __MPN(invert_limb) (d);
  427.     udiv_qrnnd_preinv (q, r, n1, n0, d, __di);
  428.   } while (0)
  429. #define UDIV_PREINV_ALWAYS  1
  430. #define UDIV_NEEDS_NORMALIZATION 1
  431. #define UDIV_TIME 70
  432. #endif /* LONGLONG_STANDALONE */
  433. #else
  434. #define umul_ppmm(xh, xl, a, b) 
  435.   __asm__ ("%@ Inlined umul_ppmmn"
  436. " mov %|r0, %2, lsr #16n"
  437. " mov %|r2, %3, lsr #16n"
  438. " bic %|r1, %2, %|r0, lsl #16n"
  439. " bic %|r2, %3, %|r2, lsl #16n"
  440. " mul %1, %|r1, %|r2n"
  441. " mul %|r2, %|r0, %|r2n"
  442. " mul %|r1, %0, %|r1n"
  443. " mul %0, %|r0, %0n"
  444. " adds %|r1, %|r2, %|r1n"
  445. " addcs %0, %0, #65536n"
  446. " adds %1, %1, %|r1, lsl #16n"
  447. " adc %0, %0, %|r1, lsr #16"
  448.    : "=&r" (xh), "=r" (xl)
  449.    : "r" (a), "r" (b)
  450.    : "r0", "r1", "r2")
  451. #define UMUL_TIME 20
  452. #ifndef LONGLONG_STANDALONE
  453. #define udiv_qrnnd(q, r, n1, n0, d) 
  454.   do { UWtype __r;
  455.     (q) = __MPN(udiv_qrnnd) (&__r, (n1), (n0), (d));
  456.     (r) = __r;
  457.   } while (0)
  458. extern UWtype __MPN(udiv_qrnnd) _PROTO ((UWtype *, UWtype, UWtype, UWtype));
  459. #define UDIV_TIME 200
  460. #endif /* LONGLONG_STANDALONE */
  461. #endif
  462. #if defined (__ARM_ARCH_5__)
  463. /* This actually requires arm 5 */
  464. #define count_leading_zeros(count, x) 
  465.   __asm__ ("clzt%0, %1" : "=r" (count) : "r" (x))
  466. #define COUNT_LEADING_ZEROS_0 32
  467. #endif
  468. #endif /* __arm__ */
  469. #if defined (__clipper__) && W_TYPE_SIZE == 32
  470. #define umul_ppmm(w1, w0, u, v) 
  471.   ({union {UDItype __ll;
  472.    struct {USItype __l, __h;} __i;
  473.   } __x;
  474.   __asm__ ("mulwux %2,%0"
  475.    : "=r" (__x.__ll)
  476.    : "%0" ((USItype)(u)), "r" ((USItype)(v)));
  477.   (w1) = __x.__i.__h; (w0) = __x.__i.__l;})
  478. #define smul_ppmm(w1, w0, u, v) 
  479.   ({union {DItype __ll;
  480.    struct {SItype __l, __h;} __i;
  481.   } __x;
  482.   __asm__ ("mulwx %2,%0"
  483.    : "=r" (__x.__ll)
  484.    : "%0" ((SItype)(u)), "r" ((SItype)(v)));
  485.   (w1) = __x.__i.__h; (w0) = __x.__i.__l;})
  486. #define __umulsidi3(u, v) 
  487.   ({UDItype __w;
  488.     __asm__ ("mulwux %2,%0"
  489.      : "=r" (__w) : "%0" ((USItype)(u)), "r" ((USItype)(v)));
  490.     __w; })
  491. #endif /* __clipper__ */
  492. /* Fujitsu vector computers.  */
  493. #if defined (__uxp__) && W_TYPE_SIZE == 32
  494. #define umul_ppmm(ph, pl, u, v) 
  495.   do {
  496.     union {UDItype __ll;
  497.    struct {USItype __h, __l;} __i;
  498.   } __x;
  499.     __asm__ ("mult.lu %1,%2,%0" : "=r" (__x.__ll) : "%r" (u), "rK" (v));
  500.     (ph) = __x.__i.__h;
  501.     (pl) = __x.__i.__l;
  502.   } while (0)
  503. #define smul_ppmm(ph, pl, u, v) 
  504.   do {
  505.     union {UDItype __ll;
  506.    struct {USItype __h, __l;} __i;
  507.   } __x;
  508.     __asm__ ("mult.l %1,%2,%0" : "=r" (__x.__ll) : "%r" (u), "rK" (v));
  509.     (ph) = __x.__i.__h;
  510.     (pl) = __x.__i.__l;
  511.   } while (0)
  512. #endif
  513. #if defined (__gmicro__) && W_TYPE_SIZE == 32
  514. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  515.   __asm__ ("add.w %5,%1ntaddx %3,%0"
  516.    : "=g" (sh), "=&g" (sl)
  517.    : "0"  ((USItype)(ah)), "g" ((USItype)(bh)),
  518.      "%1" ((USItype)(al)), "g" ((USItype)(bl)))
  519. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  520.   __asm__ ("sub.w %5,%1ntsubx %3,%0"
  521.    : "=g" (sh), "=&g" (sl)
  522.    : "0" ((USItype)(ah)), "g" ((USItype)(bh)),
  523.      "1" ((USItype)(al)), "g" ((USItype)(bl)))
  524. #define umul_ppmm(ph, pl, m0, m1) 
  525.   __asm__ ("mulx %3,%0,%1"
  526.    : "=g" (ph), "=r" (pl)
  527.    : "%0" ((USItype)(m0)), "g" ((USItype)(m1)))
  528. #define udiv_qrnnd(q, r, nh, nl, d) 
  529.   __asm__ ("divx %4,%0,%1"
  530.    : "=g" (q), "=r" (r)
  531.    : "1" ((USItype)(nh)), "0" ((USItype)(nl)), "g" ((USItype)(d)))
  532. #define count_leading_zeros(count, x) 
  533.   __asm__ ("bsch/1 %1,%0"
  534.    : "=g" (count) : "g" ((USItype)(x)), "0" ((USItype)0))
  535. #endif
  536. #if defined (__hppa) && W_TYPE_SIZE == 32
  537. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  538.   __asm__ ("add%I5 %5,%r4,%1ntaddc %r2,%r3,%0"
  539.    : "=r" (sh), "=&r" (sl)
  540.    : "rM" (ah), "rM" (bh), "%rM" (al), "rI" (bl))
  541. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  542.   __asm__ ("sub%I4 %4,%r5,%1ntsubb %r2,%r3,%0"
  543.    : "=r" (sh), "=&r" (sl)
  544.    : "rM" (ah), "rM" (bh), "rI" (al), "rM" (bl))
  545. #if defined (_PA_RISC1_1)
  546. #define umul_ppmm(wh, wl, u, v) 
  547.   do {
  548.     union {UDItype __ll;
  549.    struct {USItype __h, __l;} __i;
  550.   } __x;
  551.     __asm__ ("xmpyu %1,%2,%0" : "=*f" (__x.__ll) : "*f" (u), "*f" (v));
  552.     (wh) = __x.__i.__h;
  553.     (wl) = __x.__i.__l;
  554.   } while (0)
  555. #define UMUL_TIME 8
  556. #define UDIV_TIME 60
  557. #else
  558. #define UMUL_TIME 40
  559. #define UDIV_TIME 80
  560. #endif
  561. #define count_leading_zeros(count, x) 
  562.   do {
  563.     USItype __tmp;
  564.     __asm__ (
  565.        "ldi 1,%0n"
  566. " extru,= %1,15,16,%%r0 ; Bits 31..16 zero?n"
  567. " extru,tr %1,15,16,%1 ; No.  Shift down, skip add.n"
  568. " ldo 16(%0),%0 ; Yes.  Perform add.n"
  569. " extru,= %1,23,8,%%r0 ; Bits 15..8 zero?n"
  570. " extru,tr %1,23,8,%1 ; No.  Shift down, skip add.n"
  571. " ldo 8(%0),%0 ; Yes.  Perform add.n"
  572. " extru,= %1,27,4,%%r0 ; Bits 7..4 zero?n"
  573. " extru,tr %1,27,4,%1 ; No.  Shift down, skip add.n"
  574. " ldo 4(%0),%0 ; Yes.  Perform add.n"
  575. " extru,= %1,29,2,%%r0 ; Bits 3..2 zero?n"
  576. " extru,tr %1,29,2,%1 ; No.  Shift down, skip add.n"
  577. " ldo 2(%0),%0 ; Yes.  Perform add.n"
  578. " extru %1,30,1,%1 ; Extract bit 1.n"
  579. " sub %0,%1,%0 ; Subtract it.n"
  580. : "=r" (count), "=r" (__tmp) : "1" (x));
  581.   } while (0)
  582. #endif /* hppa */
  583. /* These macros are for ABI=2.0w.  In ABI=2.0n they can't be used, since GCC
  584.    (3.2) puts longlong into two adjacent 32-bit registers.  Presumably this
  585.    is just a case of no direct support for 2.0n but treating it like 1.0. */
  586. #if defined (__hppa) && W_TYPE_SIZE == 64 && ! defined (_LONG_LONG_LIMB)
  587. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  588.   __asm__ ("add%I5 %5,%r4,%1ntadd,dc %r2,%r3,%0"
  589.    : "=r" (sh), "=&r" (sl)
  590.    : "rM" (ah), "rM" (bh), "%rM" (al), "rI" (bl))
  591. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  592.   __asm__ ("sub%I4 %4,%r5,%1ntsub,db %r2,%r3,%0"
  593.    : "=r" (sh), "=&r" (sl)
  594.    : "rM" (ah), "rM" (bh), "rI" (al), "rM" (bl))
  595. #endif /* hppa */
  596. #if (defined (__i370__) || defined (__s390__) || defined (__mvs__)) && W_TYPE_SIZE == 32
  597. #define smul_ppmm(xh, xl, m0, m1) 
  598.   do {
  599.     union {DItype __ll;
  600.    struct {USItype __h, __l;} __i;
  601.   } __x;
  602.     __asm__ ("lr %N0,%1ntmr %0,%2"
  603.      : "=&r" (__x.__ll)
  604.      : "r" (m0), "r" (m1));
  605.     (xh) = __x.__i.__h; (xl) = __x.__i.__l;
  606.   } while (0)
  607. #define sdiv_qrnnd(q, r, n1, n0, d) 
  608.   do {
  609.     union {DItype __ll;
  610.    struct {USItype __h, __l;} __i;
  611.   } __x;
  612.     __x.__i.__h = n1; __x.__i.__l = n0;
  613.     __asm__ ("dr %0,%2"
  614.      : "=r" (__x.__ll)
  615.      : "0" (__x.__ll), "r" (d));
  616.     (q) = __x.__i.__l; (r) = __x.__i.__h;
  617.   } while (0)
  618. #endif
  619. #if (defined (__i386__) || defined (__i486__)) && W_TYPE_SIZE == 32
  620. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  621.   __asm__ ("addl %5,%k1ntadcl %3,%k0"
  622.    : "=r" (sh), "=&r" (sl)
  623.    : "0"  ((USItype)(ah)), "g" ((USItype)(bh)),
  624.      "%1" ((USItype)(al)), "g" ((USItype)(bl)))
  625. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  626.   __asm__ ("subl %5,%k1ntsbbl %3,%k0"
  627.    : "=r" (sh), "=&r" (sl)
  628.    : "0" ((USItype)(ah)), "g" ((USItype)(bh)),
  629.      "1" ((USItype)(al)), "g" ((USItype)(bl)))
  630. #define umul_ppmm(w1, w0, u, v) 
  631.   __asm__ ("mull %3"
  632.    : "=a" (w0), "=d" (w1)
  633.    : "%0" ((USItype)(u)), "rm" ((USItype)(v)))
  634. #define udiv_qrnnd(q, r, n1, n0, dx) /* d renamed to dx avoiding "=d" */
  635.   __asm__ ("divl %4"      /* stringification in K&R C */
  636.    : "=a" (q), "=d" (r)
  637.    : "0" ((USItype)(n0)), "1" ((USItype)(n1)), "rm" ((USItype)(dx)))
  638. #if HAVE_HOST_CPU_i586 || HAVE_HOST_CPU_pentium || HAVE_HOST_CPU_pentiummmx
  639. /* Pentium bsrl takes between 10 and 72 cycles depending where the most
  640.    significant 1 bit is, hence the use of the following alternatives.  bsfl
  641.    is slow too, between 18 and 42 depending where the least significant 1
  642.    bit is, so let the generic count_trailing_zeros below make use of the
  643.    count_leading_zeros here too.  */
  644. #if HAVE_HOST_CPU_pentiummmx && ! defined (LONGLONG_STANDALONE)
  645. /* The following should be a fixed 14 or 15 cycles, but possibly plus an L1
  646.    cache miss reading from __clz_tab.  For P55 it's favoured over the float
  647.    below so as to avoid mixing MMX and x87, since the penalty for switching
  648.    between the two is about 100 cycles.
  649.    The asm block sets __shift to -3 if the high 24 bits are clear, -2 for
  650.    16, -1 for 8, or 0 otherwise.  This could be written equivalently as
  651.    follows, but as of gcc 2.95.2 it results in conditional jumps.
  652.        __shift = -(__n < 0x1000000);
  653.        __shift -= (__n < 0x10000);
  654.        __shift -= (__n < 0x100);
  655.    The middle two sbbl and cmpl's pair, and with luck something gcc
  656.    generates might pair with the first cmpl and the last sbbl.  The "32+1"
  657.    constant could be folded into __clz_tab[], but it doesn't seem worth
  658.    making a different table just for that.  */
  659. #define count_leading_zeros(c,n)
  660.   do {
  661.     USItype  __n = (n);
  662.     USItype  __shift;
  663.     __asm__ ("cmpl  $0x1000000, %1n"
  664.      "sbbl  %0, %0n"
  665.      "cmpl  $0x10000, %1n"
  666.      "sbbl  $0, %0n"
  667.      "cmpl  $0x100, %1n"
  668.      "sbbl  $0, %0n"
  669.      : "=&r" (__shift) : "r"  (__n));
  670.     __shift = __shift*8 + 24 + 1;
  671.     (c) = 32 + 1 - __shift - __clz_tab[__n >> __shift];
  672.   } while (0)
  673. #define COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  674. #define COUNT_LEADING_ZEROS_0   31   /* n==0 indistinguishable from n==1 */
  675. #else /* ! pentiummmx || LONGLONG_STANDALONE */
  676. /* The following should be a fixed 14 cycles or so.  Some scheduling
  677.    opportunities should be available between the float load/store too.  This
  678.    sort of code is used in gcc 3 for __builtin_ffs (with "n&-n") and is
  679.    apparently suggested by the Intel optimizing manual (don't know exactly
  680.    where).  gcc 2.95 or up will be best for this, so the "double" is
  681.    correctly aligned on the stack.  */
  682. #define count_leading_zeros(c,n)
  683.   do {
  684.     union {
  685.       double    d;
  686.       unsigned  a[2];
  687.     } __u;
  688.     ASSERT ((n) != 0);
  689.     __u.d = (UWtype) (n);
  690.     (c) = 0x3FF + 31 - (__u.a[1] >> 20);
  691.   } while (0)
  692. #define COUNT_LEADING_ZEROS_0   (0x3FF + 31)
  693. #endif /* pentiummx */
  694. #else /* ! pentium */
  695. #if __GMP_GNUC_PREREQ (3,4)  /* using bsrl */
  696. #define count_leading_zeros(count,x)  count_leading_zeros_gcc_clz(count,x)
  697. #endif /* gcc clz */
  698. /* On P6, gcc prior to 3.0 generates a partial register stall for
  699.    __cbtmp^31, due to using "xorb $31" instead of "xorl $31", the former
  700.    being 1 code byte smaller.  "31-__cbtmp" is a workaround, probably at the
  701.    cost of one extra instruction.  Do this for "i386" too, since that means
  702.    generic x86.  */
  703. #if ! defined (count_leading_zeros) && __GNUC__ < 3                     
  704.   && (HAVE_HOST_CPU_i386
  705.       || HAVE_HOST_CPU_i686
  706.       || HAVE_HOST_CPU_pentiumpro
  707.       || HAVE_HOST_CPU_pentium2
  708.       || HAVE_HOST_CPU_pentium3)
  709. #define count_leading_zeros(count, x)
  710.   do {
  711.     USItype __cbtmp;
  712.     ASSERT ((x) != 0);
  713.     __asm__ ("bsrl %1,%0" : "=r" (__cbtmp) : "rm" ((USItype)(x)));
  714.     (count) = 31 - __cbtmp;
  715.   } while (0)
  716. #endif /* gcc<3 asm bsrl */
  717. #ifndef count_leading_zeros
  718. #define count_leading_zeros(count, x)
  719.   do {
  720.     USItype __cbtmp;
  721.     ASSERT ((x) != 0);
  722.     __asm__ ("bsrl %1,%0" : "=r" (__cbtmp) : "rm" ((USItype)(x)));
  723.     (count) = __cbtmp ^ 31;
  724.   } while (0)
  725. #endif /* asm bsrl */
  726. #if __GMP_GNUC_PREREQ (3,4)  /* using bsfl */
  727. #define count_trailing_zeros(count,x)  count_trailing_zeros_gcc_ctz(count,x)
  728. #endif /* gcc ctz */
  729. #ifndef count_trailing_zeros
  730. #define count_trailing_zeros(count, x)
  731.   do {
  732.     ASSERT ((x) != 0);
  733.     __asm__ ("bsfl %1,%k0" : "=r" (count) : "rm" ((USItype)(x)));
  734.   } while (0)
  735. #endif /* asm bsfl */
  736. #endif /* ! pentium */
  737. #ifndef UMUL_TIME
  738. #define UMUL_TIME 10
  739. #endif
  740. #ifndef UDIV_TIME
  741. #define UDIV_TIME 40
  742. #endif
  743. #endif /* 80x86 */
  744. #if defined (__amd64__) && W_TYPE_SIZE == 64
  745. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  746.   __asm__ ("addq %5,%q1ntadcq %3,%q0"
  747.    : "=r" (sh), "=&r" (sl)
  748.    : "0"  ((UDItype)(ah)), "rme" ((UDItype)(bh)),
  749.      "%1" ((UDItype)(al)), "rme" ((UDItype)(bl)))
  750. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  751.   __asm__ ("subq %5,%q1ntsbbq %3,%q0"
  752.    : "=r" (sh), "=&r" (sl)
  753.    : "0" ((UDItype)(ah)), "rme" ((UDItype)(bh)),
  754.      "1" ((UDItype)(al)), "rme" ((UDItype)(bl)))
  755. #define umul_ppmm(w1, w0, u, v) 
  756.   __asm__ ("mulq %3"
  757.    : "=a" (w0), "=d" (w1)
  758.    : "%0" ((UDItype)(u)), "rm" ((UDItype)(v)))
  759. #define udiv_qrnnd(q, r, n1, n0, dx) /* d renamed to dx avoiding "=d" */
  760.   __asm__ ("divq %4"      /* stringification in K&R C */
  761.    : "=a" (q), "=d" (r)
  762.    : "0" ((UDItype)(n0)), "1" ((UDItype)(n1)), "rm" ((UDItype)(dx)))
  763. /* bsrq destination must be a 64-bit register, hence UDItype for __cbtmp. */
  764. #define count_leading_zeros(count, x)
  765.   do {
  766.     UDItype __cbtmp;
  767.     ASSERT ((x) != 0);
  768.     __asm__ ("bsrq %1,%0" : "=r" (__cbtmp) : "rm" ((UDItype)(x)));
  769.     (count) = __cbtmp ^ 63;
  770.   } while (0)
  771. /* bsfq destination must be a 64-bit register, "%q0" forces this in case
  772.    count is only an int. */
  773. #define count_trailing_zeros(count, x)
  774.   do {
  775.     ASSERT ((x) != 0);
  776.     __asm__ ("bsfq %1,%q0" : "=r" (count) : "rm" ((UDItype)(x)));
  777.   } while (0)
  778. #endif /* x86_64 */
  779. #if defined (__i860__) && W_TYPE_SIZE == 32
  780. #define rshift_rhlc(r,h,l,c) 
  781.   __asm__ ("shr %3,r0,r0;shrd %1,%2,%0"
  782.    "=r" (r) : "r" (h), "r" (l), "rn" (c))
  783. #endif /* i860 */
  784. #if defined (__i960__) && W_TYPE_SIZE == 32
  785. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  786.   __asm__ ("cmpo 1,0;addc %5,%4,%1;addc %3,%2,%0"
  787.    : "=r" (sh), "=&r" (sl)
  788.    : "dI" (ah), "dI" (bh), "%dI" (al), "dI" (bl))
  789. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  790.   __asm__ ("cmpo 0,0;subc %5,%4,%1;subc %3,%2,%0"
  791.    : "=r" (sh), "=&r" (sl)
  792.    : "dI" (ah), "dI" (bh), "dI" (al), "dI" (bl))
  793. #define umul_ppmm(w1, w0, u, v) 
  794.   ({union {UDItype __ll;
  795.    struct {USItype __l, __h;} __i;
  796.   } __x;
  797.   __asm__ ("emul %2,%1,%0"
  798.    : "=d" (__x.__ll) : "%dI" (u), "dI" (v));
  799.   (w1) = __x.__i.__h; (w0) = __x.__i.__l;})
  800. #define __umulsidi3(u, v) 
  801.   ({UDItype __w;
  802.     __asm__ ("emul %2,%1,%0" : "=d" (__w) : "%dI" (u), "dI" (v));
  803.     __w; })
  804. #define udiv_qrnnd(q, r, nh, nl, d) 
  805.   do {
  806.     union {UDItype __ll;
  807.    struct {USItype __l, __h;} __i;
  808.   } __nn;
  809.     __nn.__i.__h = (nh); __nn.__i.__l = (nl);
  810.     __asm__ ("ediv %d,%n,%0"
  811.    : "=d" (__rq.__ll) : "dI" (__nn.__ll), "dI" (d));
  812.     (r) = __rq.__i.__l; (q) = __rq.__i.__h;
  813.   } while (0)
  814. #define count_leading_zeros(count, x) 
  815.   do {
  816.     USItype __cbtmp;
  817.     __asm__ ("scanbit %1,%0" : "=r" (__cbtmp) : "r" (x));
  818.     (count) = __cbtmp ^ 31;
  819.   } while (0)
  820. #define COUNT_LEADING_ZEROS_0 (-32) /* sic */
  821. #if defined (__i960mx) /* what is the proper symbol to test??? */
  822. #define rshift_rhlc(r,h,l,c) 
  823.   do {
  824.     union {UDItype __ll;
  825.    struct {USItype __l, __h;} __i;
  826.   } __nn;
  827.     __nn.__i.__h = (h); __nn.__i.__l = (l);
  828.     __asm__ ("shre %2,%1,%0" : "=d" (r) : "dI" (__nn.__ll), "dI" (c));
  829.   }
  830. #endif /* i960mx */
  831. #endif /* i960 */
  832. #if (defined (__mc68000__) || defined (__mc68020__) || defined(mc68020) 
  833.      || defined (__m68k__) || defined (__mc5200__) || defined (__mc5206e__) 
  834.      || defined (__mc5307__)) && W_TYPE_SIZE == 32
  835. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  836.   __asm__ ("add%.l %5,%1ntaddx%.l %3,%0"
  837.    : "=d" (sh), "=&d" (sl)
  838.    : "0"  ((USItype)(ah)), "d" ((USItype)(bh)),
  839.      "%1" ((USItype)(al)), "g" ((USItype)(bl)))
  840. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  841.   __asm__ ("sub%.l %5,%1ntsubx%.l %3,%0"
  842.    : "=d" (sh), "=&d" (sl)
  843.    : "0" ((USItype)(ah)), "d" ((USItype)(bh)),
  844.      "1" ((USItype)(al)), "g" ((USItype)(bl)))
  845. /* The '020, '030, '040 and CPU32 have 32x32->64 and 64/32->32q-32r.  */
  846. #if defined (__mc68020__) || defined(mc68020) 
  847.      || defined (__mc68030__) || defined (mc68030) 
  848.      || defined (__mc68040__) || defined (mc68040) 
  849.      || defined (__mcpu32__) || defined (mcpu32) 
  850.      || defined (__NeXT__)
  851. #define umul_ppmm(w1, w0, u, v) 
  852.   __asm__ ("mulu%.l %3,%1:%0"
  853.    : "=d" (w0), "=d" (w1)
  854.    : "%0" ((USItype)(u)), "dmi" ((USItype)(v)))
  855. #define UMUL_TIME 45
  856. #define udiv_qrnnd(q, r, n1, n0, d) 
  857.   __asm__ ("divu%.l %4,%1:%0"
  858.    : "=d" (q), "=d" (r)
  859.    : "0" ((USItype)(n0)), "1" ((USItype)(n1)), "dmi" ((USItype)(d)))
  860. #define UDIV_TIME 90
  861. #define sdiv_qrnnd(q, r, n1, n0, d) 
  862.   __asm__ ("divs%.l %4,%1:%0"
  863.    : "=d" (q), "=d" (r)
  864.    : "0" ((USItype)(n0)), "1" ((USItype)(n1)), "dmi" ((USItype)(d)))
  865. #else /* for other 68k family members use 16x16->32 multiplication */
  866. #define umul_ppmm(xh, xl, a, b) 
  867.   do { USItype __umul_tmp1, __umul_tmp2;
  868. __asm__ ("| Inlined umul_ppmmn"
  869. " move%.l %5,%3n"
  870. " move%.l %2,%0n"
  871. " move%.w %3,%1n"
  872. " swap %3n"
  873. " swap %0n"
  874. " mulu%.w %2,%1n"
  875. " mulu%.w %3,%0n"
  876. " mulu%.w %2,%3n"
  877. " swap %2n"
  878. " mulu%.w %5,%2n"
  879. " add%.l %3,%2n"
  880. " jcc 1fn"
  881. " add%.l %#0x10000,%0n"
  882. "1: move%.l %2,%3n"
  883. " clr%.w %2n"
  884. " swap %2n"
  885. " swap %3n"
  886. " clr%.w %3n"
  887. " add%.l %3,%1n"
  888. " addx%.l %2,%0n"
  889. " | End inlined umul_ppmm"
  890.       : "=&d" (xh), "=&d" (xl),
  891. "=d" (__umul_tmp1), "=&d" (__umul_tmp2)
  892.       : "%2" ((USItype)(a)), "d" ((USItype)(b)));
  893.   } while (0)
  894. #define UMUL_TIME 100
  895. #define UDIV_TIME 400
  896. #endif /* not mc68020 */
  897. /* The '020, '030, '040 and '060 have bitfield insns.
  898.    GCC 3.4 defines __mc68020__ when in CPU32 mode, check for __mcpu32__ to
  899.    exclude bfffo on that chip (bitfield insns not available).  */
  900. #if (defined (__mc68020__) || defined (mc68020)    
  901.      || defined (__mc68030__) || defined (mc68030) 
  902.      || defined (__mc68040__) || defined (mc68040) 
  903.      || defined (__mc68060__) || defined (mc68060) 
  904.      || defined (__NeXT__))                        
  905.   && ! defined (__mcpu32__)
  906. #define count_leading_zeros(count, x) 
  907.   __asm__ ("bfffo %1{%b2:%b2},%0"
  908.    : "=d" (count)
  909.    : "od" ((USItype) (x)), "n" (0))
  910. #define COUNT_LEADING_ZEROS_0 32
  911. #endif
  912. #endif /* mc68000 */
  913. #if defined (__m88000__) && W_TYPE_SIZE == 32
  914. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  915.   __asm__ ("addu.co %1,%r4,%r5ntaddu.ci %0,%r2,%r3"
  916.    : "=r" (sh), "=&r" (sl)
  917.    : "rJ" (ah), "rJ" (bh), "%rJ" (al), "rJ" (bl))
  918. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  919.   __asm__ ("subu.co %1,%r4,%r5ntsubu.ci %0,%r2,%r3"
  920.    : "=r" (sh), "=&r" (sl)
  921.    : "rJ" (ah), "rJ" (bh), "rJ" (al), "rJ" (bl))
  922. #define count_leading_zeros(count, x) 
  923.   do {
  924.     USItype __cbtmp;
  925.     __asm__ ("ff1 %0,%1" : "=r" (__cbtmp) : "r" (x));
  926.     (count) = __cbtmp ^ 31;
  927.   } while (0)
  928. #define COUNT_LEADING_ZEROS_0 63 /* sic */
  929. #if defined (__m88110__)
  930. #define umul_ppmm(wh, wl, u, v) 
  931.   do {
  932.     union {UDItype __ll;
  933.    struct {USItype __h, __l;} __i;
  934.   } __x;
  935.     __asm__ ("mulu.d %0,%1,%2" : "=r" (__x.__ll) : "r" (u), "r" (v));
  936.     (wh) = __x.__i.__h;
  937.     (wl) = __x.__i.__l;
  938.   } while (0)
  939. #define udiv_qrnnd(q, r, n1, n0, d) 
  940.   ({union {UDItype __ll;
  941.    struct {USItype __h, __l;} __i;
  942.   } __x, __q;
  943.   __x.__i.__h = (n1); __x.__i.__l = (n0);
  944.   __asm__ ("divu.d %0,%1,%2"
  945.    : "=r" (__q.__ll) : "r" (__x.__ll), "r" (d));
  946.   (r) = (n0) - __q.__l * (d); (q) = __q.__l; })
  947. #define UMUL_TIME 5
  948. #define UDIV_TIME 25
  949. #else
  950. #define UMUL_TIME 17
  951. #define UDIV_TIME 150
  952. #endif /* __m88110__ */
  953. #endif /* __m88000__ */
  954. #if defined (__mips) && W_TYPE_SIZE == 32
  955. #if __GMP_GNUC_PREREQ (4,4)
  956. #define umul_ppmm(w1, w0, u, v) 
  957.   do {
  958.     UDItype __ll = (UDItype)(u) * (v);
  959.     w1 = __ll >> 32;
  960.     w0 = __ll;
  961.   } while (0)
  962. #endif
  963. #if !defined (umul_ppmm) && __GMP_GNUC_PREREQ (2,7)
  964. #define umul_ppmm(w1, w0, u, v) 
  965.   __asm__ ("multu %2,%3" : "=l" (w0), "=h" (w1) : "d" (u), "d" (v))
  966. #endif
  967. #if !defined (umul_ppmm)
  968. #define umul_ppmm(w1, w0, u, v) 
  969.   __asm__ ("multu %2,%3ntmflo %0ntmfhi %1"
  970.    : "=d" (w0), "=d" (w1) : "d" (u), "d" (v))
  971. #endif
  972. #define UMUL_TIME 10
  973. #define UDIV_TIME 100
  974. #endif /* __mips */
  975. #if (defined (__mips) && __mips >= 3) && W_TYPE_SIZE == 64
  976. #if __GMP_GNUC_PREREQ (4,4)
  977. #define umul_ppmm(w1, w0, u, v) 
  978.   do {
  979.     typedef unsigned int __ll_UTItype __attribute__((mode(TI)));
  980.     __ll_UTItype __ll = (__ll_UTItype)(u) * (v);
  981.     w1 = __ll >> 64;
  982.     w0 = __ll;
  983.   } while (0)
  984. #endif
  985. #if !defined (umul_ppmm) && __GMP_GNUC_PREREQ (2,7)
  986. #define umul_ppmm(w1, w0, u, v) 
  987.   __asm__ ("dmultu %2,%3" : "=l" (w0), "=h" (w1) : "d" (u), "d" (v))
  988. #endif
  989. #if !defined (umul_ppmm)
  990. #define umul_ppmm(w1, w0, u, v) 
  991.   __asm__ ("dmultu %2,%3ntmflo %0ntmfhi %1"
  992.    : "=d" (w0), "=d" (w1) : "d" (u), "d" (v))
  993. #endif
  994. #define UMUL_TIME 20
  995. #define UDIV_TIME 140
  996. #endif /* __mips */
  997. #if defined (__mmix__) && W_TYPE_SIZE == 64
  998. #define umul_ppmm(w1, w0, u, v) 
  999.   __asm__ ("MULU %0,%2,%3" : "=r" (w0), "=z" (w1) : "r" (u), "r" (v))
  1000. #endif
  1001. #if defined (__ns32000__) && W_TYPE_SIZE == 32
  1002. #define umul_ppmm(w1, w0, u, v) 
  1003.   ({union {UDItype __ll;
  1004.    struct {USItype __l, __h;} __i;
  1005.   } __x;
  1006.   __asm__ ("meid %2,%0"
  1007.    : "=g" (__x.__ll)
  1008.    : "%0" ((USItype)(u)), "g" ((USItype)(v)));
  1009.   (w1) = __x.__i.__h; (w0) = __x.__i.__l;})
  1010. #define __umulsidi3(u, v) 
  1011.   ({UDItype __w;
  1012.     __asm__ ("meid %2,%0"
  1013.      : "=g" (__w)
  1014.      : "%0" ((USItype)(u)), "g" ((USItype)(v)));
  1015.     __w; })
  1016. #define udiv_qrnnd(q, r, n1, n0, d) 
  1017.   ({union {UDItype __ll;
  1018.    struct {USItype __l, __h;} __i;
  1019.   } __x;
  1020.   __x.__i.__h = (n1); __x.__i.__l = (n0);
  1021.   __asm__ ("deid %2,%0"
  1022.    : "=g" (__x.__ll)
  1023.    : "0" (__x.__ll), "g" ((USItype)(d)));
  1024.   (r) = __x.__i.__l; (q) = __x.__i.__h; })
  1025. #define count_trailing_zeros(count,x) 
  1026.   do {
  1027.     __asm__ ("ffsd %2,%0"
  1028.      : "=r" (count)
  1029.      : "0" ((USItype) 0), "r" ((USItype) (x)));
  1030.   } while (0)
  1031. #endif /* __ns32000__ */
  1032. /* In the past we had a block of various #defines tested
  1033.        _ARCH_PPC    - AIX
  1034.        _ARCH_PWR    - AIX
  1035.        __powerpc__  - gcc
  1036.        __POWERPC__  - BEOS
  1037.        __ppc__      - Darwin
  1038.        PPC          - old gcc, GNU/Linux, SysV
  1039.    The plain PPC test was not good for vxWorks, since PPC is defined on all
  1040.    CPUs there (eg. m68k too), as a constant one is expected to compare
  1041.    CPU_FAMILY against.
  1042.    At any rate, this was pretty unattractive and a bit fragile.  The use of
  1043.    HAVE_HOST_CPU_FAMILY is designed to cut through it all and be sure of
  1044.    getting the desired effect.
  1045.    ENHANCE-ME: We should test _IBMR2 here when we add assembly support for
  1046.    the system vendor compilers.  (Is that vendor compilers with inline asm,
  1047.    or what?)  */
  1048. #if (HAVE_HOST_CPU_FAMILY_power || HAVE_HOST_CPU_FAMILY_powerpc)        
  1049.   && W_TYPE_SIZE == 32
  1050. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1051.   do {
  1052.     if (__builtin_constant_p (bh) && (bh) == 0)
  1053.       __asm__ ("{a%I4|add%I4c} %1,%3,%4nt{aze|addze} %0,%2"
  1054.      : "=r" (sh), "=&r" (sl) : "r" (ah), "%r" (al), "rI" (bl));
  1055.     else if (__builtin_constant_p (bh) && (bh) == ~(USItype) 0)
  1056.       __asm__ ("{a%I4|add%I4c} %1,%3,%4nt{ame|addme} %0,%2"
  1057.      : "=r" (sh), "=&r" (sl) : "r" (ah), "%r" (al), "rI" (bl));
  1058.     else
  1059.       __asm__ ("{a%I5|add%I5c} %1,%4,%5nt{ae|adde} %0,%2,%3"
  1060.      : "=r" (sh), "=&r" (sl)
  1061.      : "r" (ah), "r" (bh), "%r" (al), "rI" (bl));
  1062.   } while (0)
  1063. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1064.   do {
  1065.     if (__builtin_constant_p (ah) && (ah) == 0)
  1066.       __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{sfze|subfze} %0,%2"
  1067.        : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "r" (bl));
  1068.     else if (__builtin_constant_p (ah) && (ah) == ~(USItype) 0)
  1069.       __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{sfme|subfme} %0,%2"
  1070.        : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "r" (bl));
  1071.     else if (__builtin_constant_p (bh) && (bh) == 0)
  1072.       __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{ame|addme} %0,%2"
  1073.        : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "r" (bl));
  1074.     else if (__builtin_constant_p (bh) && (bh) == ~(USItype) 0)
  1075.       __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{aze|addze} %0,%2"
  1076.        : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "r" (bl));
  1077.     else
  1078.       __asm__ ("{sf%I4|subf%I4c} %1,%5,%4nt{sfe|subfe} %0,%3,%2"
  1079.        : "=r" (sh), "=&r" (sl)
  1080.        : "r" (ah), "r" (bh), "rI" (al), "r" (bl));
  1081.   } while (0)
  1082. #define count_leading_zeros(count, x) 
  1083.   __asm__ ("{cntlz|cntlzw} %0,%1" : "=r" (count) : "r" (x))
  1084. #define COUNT_LEADING_ZEROS_0 32
  1085. #if HAVE_HOST_CPU_FAMILY_powerpc
  1086. #if __GMP_GNUC_PREREQ (4,4)
  1087. #define umul_ppmm(w1, w0, u, v) 
  1088.   do {
  1089.     UDItype __ll = (UDItype)(u) * (v);
  1090.     w1 = __ll >> 32;
  1091.     w0 = __ll;
  1092.   } while (0)
  1093. #endif
  1094. #if !defined (umul_ppmm)
  1095. #define umul_ppmm(ph, pl, m0, m1) 
  1096.   do {
  1097.     USItype __m0 = (m0), __m1 = (m1);
  1098.     __asm__ ("mulhwu %0,%1,%2" : "=r" (ph) : "%r" (m0), "r" (m1));
  1099.     (pl) = __m0 * __m1;
  1100.   } while (0)
  1101. #endif
  1102. #define UMUL_TIME 15
  1103. #define smul_ppmm(ph, pl, m0, m1) 
  1104.   do {
  1105.     SItype __m0 = (m0), __m1 = (m1);
  1106.     __asm__ ("mulhw %0,%1,%2" : "=r" (ph) : "%r" (m0), "r" (m1));
  1107.     (pl) = __m0 * __m1;
  1108.   } while (0)
  1109. #define SMUL_TIME 14
  1110. #define UDIV_TIME 120
  1111. #else
  1112. #define UMUL_TIME 8
  1113. #define smul_ppmm(xh, xl, m0, m1) 
  1114.   __asm__ ("mul %0,%2,%3" : "=r" (xh), "=q" (xl) : "r" (m0), "r" (m1))
  1115. #define SMUL_TIME 4
  1116. #define sdiv_qrnnd(q, r, nh, nl, d) 
  1117.   __asm__ ("div %0,%2,%4" : "=r" (q), "=q" (r) : "r" (nh), "1" (nl), "r" (d))
  1118. #define UDIV_TIME 100
  1119. #endif
  1120. #endif /* 32-bit POWER architecture variants.  */
  1121. /* We should test _IBMR2 here when we add assembly support for the system
  1122.    vendor compilers.  */
  1123. #if HAVE_HOST_CPU_FAMILY_powerpc && W_TYPE_SIZE == 64
  1124. #if !defined (_LONG_LONG_LIMB)
  1125. /* _LONG_LONG_LIMB is ABI=mode32 where adde operates on 32-bit values.  So
  1126.    use adde etc only when not _LONG_LONG_LIMB.  */
  1127. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1128.   do {
  1129.     if (__builtin_constant_p (bh) && (bh) == 0)
  1130.       __asm__ ("{a%I4|add%I4c} %1,%3,%4nt{aze|addze} %0,%2"
  1131.      : "=r" (sh), "=&r" (sl) : "r" (ah), "%r" (al), "rI" (bl));
  1132.     else if (__builtin_constant_p (bh) && (bh) == ~(UDItype) 0)
  1133.       __asm__ ("{a%I4|add%I4c} %1,%3,%4nt{ame|addme} %0,%2"
  1134.      : "=r" (sh), "=&r" (sl) : "r" (ah), "%r" (al), "rI" (bl));
  1135.     else
  1136.       __asm__ ("{a%I5|add%I5c} %1,%4,%5nt{ae|adde} %0,%2,%3"
  1137.      : "=r" (sh), "=&r" (sl)
  1138.      : "r" (ah), "r" (bh), "%r" (al), "rI" (bl));
  1139.   } while (0)
  1140. /* We use "*rI" for the constant operand here, since with just "I", gcc barfs.
  1141.    This might seem strange, but gcc folds away the dead code late.  */
  1142. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1143.   do {       
  1144.     if (__builtin_constant_p (bl) && bl > -0x8000 && bl <= 0x8000) {       
  1145. if (__builtin_constant_p (ah) && (ah) == 0)       
  1146.   __asm__ ("{ai|addic} %1,%3,%4nt{sfze|subfze} %0,%2"       
  1147.    : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "*rI" (-bl)); 
  1148. else if (__builtin_constant_p (ah) && (ah) == ~(UDItype) 0)       
  1149.   __asm__ ("{ai|addic} %1,%3,%4nt{sfme|subfme} %0,%2"       
  1150.    : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "*rI" (-bl)); 
  1151. else if (__builtin_constant_p (bh) && (bh) == 0)       
  1152.   __asm__ ("{ai|addic} %1,%3,%4nt{ame|addme} %0,%2"       
  1153.    : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "*rI" (-bl)); 
  1154. else if (__builtin_constant_p (bh) && (bh) == ~(UDItype) 0)       
  1155.   __asm__ ("{ai|addic} %1,%3,%4nt{aze|addze} %0,%2"       
  1156.    : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "*rI" (-bl)); 
  1157. else       
  1158.   __asm__ ("{ai|addic} %1,%4,%5nt{sfe|subfe} %0,%3,%2"       
  1159.    : "=r" (sh), "=&r" (sl)       
  1160.    : "r" (ah), "r" (bh), "rI" (al), "*rI" (-bl));       
  1161.       } else {       
  1162. if (__builtin_constant_p (ah) && (ah) == 0)       
  1163.   __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{sfze|subfze} %0,%2"       
  1164.    : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "r" (bl));  
  1165. else if (__builtin_constant_p (ah) && (ah) == ~(UDItype) 0)       
  1166.   __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{sfme|subfme} %0,%2"       
  1167.    : "=r" (sh), "=&r" (sl) : "r" (bh), "rI" (al), "r" (bl));  
  1168. else if (__builtin_constant_p (bh) && (bh) == 0)       
  1169.   __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{ame|addme} %0,%2"       
  1170.    : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "r" (bl));  
  1171. else if (__builtin_constant_p (bh) && (bh) == ~(UDItype) 0)       
  1172.   __asm__ ("{sf%I3|subf%I3c} %1,%4,%3nt{aze|addze} %0,%2"       
  1173.    : "=r" (sh), "=&r" (sl) : "r" (ah), "rI" (al), "r" (bl));  
  1174. else       
  1175.   __asm__ ("{sf%I4|subf%I4c} %1,%5,%4nt{sfe|subfe} %0,%3,%2"       
  1176.    : "=r" (sh), "=&r" (sl)       
  1177.    : "r" (ah), "r" (bh), "rI" (al), "r" (bl));       
  1178.       }       
  1179.   } while (0)
  1180. #endif /* ! _LONG_LONG_LIMB */
  1181. #define count_leading_zeros(count, x) 
  1182.   __asm__ ("cntlzd %0,%1" : "=r" (count) : "r" (x))
  1183. #define COUNT_LEADING_ZEROS_0 64
  1184. #if __GMP_GNUC_PREREQ (4,4)
  1185. #define umul_ppmm(w1, w0, u, v) 
  1186.   do {
  1187.     typedef unsigned int __ll_UTItype __attribute__((mode(TI)));
  1188.     __ll_UTItype __ll = (__ll_UTItype)(u) * (v);
  1189.     w1 = __ll >> 64;
  1190.     w0 = __ll;
  1191.   } while (0)
  1192. #endif
  1193. #if !defined (umul_ppmm)
  1194. #define umul_ppmm(ph, pl, m0, m1) 
  1195.   do {
  1196.     UDItype __m0 = (m0), __m1 = (m1);
  1197.     __asm__ ("mulhdu %0,%1,%2" : "=r" (ph) : "%r" (m0), "r" (m1));
  1198.     (pl) = __m0 * __m1;
  1199.   } while (0)
  1200. #endif
  1201. #define UMUL_TIME 15
  1202. #define smul_ppmm(ph, pl, m0, m1) 
  1203.   do {
  1204.     DItype __m0 = (m0), __m1 = (m1);
  1205.     __asm__ ("mulhd %0,%1,%2" : "=r" (ph) : "%r" (m0), "r" (m1));
  1206.     (pl) = __m0 * __m1;
  1207.   } while (0)
  1208. #define SMUL_TIME 14  /* ??? */
  1209. #define UDIV_TIME 120 /* ??? */
  1210. #endif /* 64-bit PowerPC.  */
  1211. #if defined (__pyr__) && W_TYPE_SIZE == 32
  1212. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1213.   __asm__ ("addw %5,%1ntaddwc %3,%0"
  1214.    : "=r" (sh), "=&r" (sl)
  1215.    : "0"  ((USItype)(ah)), "g" ((USItype)(bh)),
  1216.      "%1" ((USItype)(al)), "g" ((USItype)(bl)))
  1217. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1218.   __asm__ ("subw %5,%1ntsubwb %3,%0"
  1219.    : "=r" (sh), "=&r" (sl)
  1220.    : "0" ((USItype)(ah)), "g" ((USItype)(bh)),
  1221.      "1" ((USItype)(al)), "g" ((USItype)(bl)))
  1222. /* This insn works on Pyramids with AP, XP, or MI CPUs, but not with SP.  */
  1223. #define umul_ppmm(w1, w0, u, v) 
  1224.   ({union {UDItype __ll;
  1225.    struct {USItype __h, __l;} __i;
  1226.   } __x;
  1227.   __asm__ ("movw %1,%R0ntuemul %2,%0"
  1228.    : "=&r" (__x.__ll)
  1229.    : "g" ((USItype) (u)), "g" ((USItype)(v)));
  1230.   (w1) = __x.__i.__h; (w0) = __x.__i.__l;})
  1231. #endif /* __pyr__ */
  1232. #if defined (__ibm032__) /* RT/ROMP */  && W_TYPE_SIZE == 32
  1233. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1234.   __asm__ ("a %1,%5ntae %0,%3"
  1235.    : "=r" (sh), "=&r" (sl)
  1236.    : "0"  ((USItype)(ah)), "r" ((USItype)(bh)),
  1237.      "%1" ((USItype)(al)), "r" ((USItype)(bl)))
  1238. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1239.   __asm__ ("s %1,%5ntse %0,%3"
  1240.    : "=r" (sh), "=&r" (sl)
  1241.    : "0" ((USItype)(ah)), "r" ((USItype)(bh)),
  1242.      "1" ((USItype)(al)), "r" ((USItype)(bl)))
  1243. #define smul_ppmm(ph, pl, m0, m1) 
  1244.   __asm__ (
  1245.        "s r2,r2n"
  1246. " mts r10,%2n"
  1247. " m r2,%3n"
  1248. " m r2,%3n"
  1249. " m r2,%3n"
  1250. " m r2,%3n"
  1251. " m r2,%3n"
  1252. " m r2,%3n"
  1253. " m r2,%3n"
  1254. " m r2,%3n"
  1255. " m r2,%3n"
  1256. " m r2,%3n"
  1257. " m r2,%3n"
  1258. " m r2,%3n"
  1259. " m r2,%3n"
  1260. " m r2,%3n"
  1261. " m r2,%3n"
  1262. " m r2,%3n"
  1263. " cas %0,r2,r0n"
  1264. " mfs r10,%1"
  1265.    : "=r" (ph), "=r" (pl)
  1266.    : "%r" ((USItype)(m0)), "r" ((USItype)(m1))
  1267.    : "r2")
  1268. #define UMUL_TIME 20
  1269. #define UDIV_TIME 200
  1270. #define count_leading_zeros(count, x) 
  1271.   do {
  1272.     if ((x) >= 0x10000)
  1273.       __asm__ ("clz %0,%1"
  1274.        : "=r" (count) : "r" ((USItype)(x) >> 16));
  1275.     else
  1276.       {
  1277. __asm__ ("clz %0,%1"
  1278.  : "=r" (count) : "r" ((USItype)(x)));
  1279. (count) += 16;
  1280.       }
  1281.   } while (0)
  1282. #endif /* RT/ROMP */
  1283. #if defined (__sh2__) && W_TYPE_SIZE == 32
  1284. #define umul_ppmm(w1, w0, u, v) 
  1285.   __asm__ ("dmulu.l %2,%3ntsts macl,%1ntsts mach,%0"
  1286.    : "=r" (w1), "=r" (w0) : "r" (u), "r" (v) : "macl", "mach")
  1287. #define UMUL_TIME 5
  1288. #endif
  1289. #if defined (__sparc__) && W_TYPE_SIZE == 32
  1290. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1291.   __asm__ ("addcc %r4,%5,%1ntaddx %r2,%3,%0"
  1292.    : "=r" (sh), "=&r" (sl)
  1293.    : "rJ" (ah), "rI" (bh),"%rJ" (al), "rI" (bl)
  1294.    __CLOBBER_CC)
  1295. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1296.   __asm__ ("subcc %r4,%5,%1ntsubx %r2,%3,%0"
  1297.    : "=r" (sh), "=&r" (sl)
  1298.    : "rJ" (ah), "rI" (bh), "rJ" (al), "rI" (bl)
  1299.    __CLOBBER_CC)
  1300. /* FIXME: When gcc -mcpu=v9 is used on solaris, gcc/config/sol2-sld-64.h
  1301.    doesn't define anything to indicate that to us, it only sets __sparcv8. */
  1302. #if defined (__sparc_v9__) || defined (__sparcv9)
  1303. /* Perhaps we should use floating-point operations here?  */
  1304. #if 0
  1305. /* Triggers a bug making mpz/tests/t-gcd.c fail.
  1306.    Perhaps we simply need explicitly zero-extend the inputs?  */
  1307. #define umul_ppmm(w1, w0, u, v) 
  1308.   __asm__ ("mulx %2,%3,%%g1; srl %%g1,0,%1; srlx %%g1,32,%0" :
  1309.    "=r" (w1), "=r" (w0) : "r" (u), "r" (v) : "g1")
  1310. #else
  1311. /* Use v8 umul until above bug is fixed.  */
  1312. #define umul_ppmm(w1, w0, u, v) 
  1313.   __asm__ ("umul %2,%3,%1;rd %%y,%0" : "=r" (w1), "=r" (w0) : "r" (u), "r" (v))
  1314. #endif
  1315. /* Use a plain v8 divide for v9.  */
  1316. #define udiv_qrnnd(q, r, n1, n0, d) 
  1317.   do {
  1318.     USItype __q;
  1319.     __asm__ ("mov %1,%%y;nop;nop;nop;udiv %2,%3,%0"
  1320.      : "=r" (__q) : "r" (n1), "r" (n0), "r" (d));
  1321.     (r) = (n0) - __q * (d);
  1322.     (q) = __q;
  1323.   } while (0)
  1324. #else
  1325. #if defined (__sparc_v8__)   /* gcc normal */
  1326.   || defined (__sparcv8)     /* gcc solaris */
  1327.   || HAVE_HOST_CPU_supersparc
  1328. /* Don't match immediate range because, 1) it is not often useful,
  1329.    2) the 'I' flag thinks of the range as a 13 bit signed interval,
  1330.    while we want to match a 13 bit interval, sign extended to 32 bits,
  1331.    but INTERPRETED AS UNSIGNED.  */
  1332. #define umul_ppmm(w1, w0, u, v) 
  1333.   __asm__ ("umul %2,%3,%1;rd %%y,%0" : "=r" (w1), "=r" (w0) : "r" (u), "r" (v))
  1334. #define UMUL_TIME 5
  1335. #if HAVE_HOST_CPU_supersparc
  1336. #define UDIV_TIME 60 /* SuperSPARC timing */
  1337. #else
  1338. /* Don't use this on SuperSPARC because its udiv only handles 53 bit
  1339.    dividends and will trap to the kernel for the rest. */
  1340. #define udiv_qrnnd(q, r, n1, n0, d) 
  1341.   do {
  1342.     USItype __q;
  1343.     __asm__ ("mov %1,%%y;nop;nop;nop;udiv %2,%3,%0"
  1344.      : "=r" (__q) : "r" (n1), "r" (n0), "r" (d));
  1345.     (r) = (n0) - __q * (d);
  1346.     (q) = __q;
  1347.   } while (0)
  1348. #define UDIV_TIME 25
  1349. #endif /* HAVE_HOST_CPU_supersparc */
  1350. #else /* ! __sparc_v8__ */
  1351. #if defined (__sparclite__)
  1352. /* This has hardware multiply but not divide.  It also has two additional
  1353.    instructions scan (ffs from high bit) and divscc.  */
  1354. #define umul_ppmm(w1, w0, u, v) 
  1355.   __asm__ ("umul %2,%3,%1;rd %%y,%0" : "=r" (w1), "=r" (w0) : "r" (u), "r" (v))
  1356. #define UMUL_TIME 5
  1357. #define udiv_qrnnd(q, r, n1, n0, d) 
  1358.   __asm__ ("! Inlined udiv_qrnndn"
  1359. " wr %%g0,%2,%%y ! Not a delayed write for sparcliten"
  1360. " tst %%g0n"
  1361. " divscc %3,%4,%%g1n"
  1362. " divscc %%g1,%4,%%g1n"
  1363. " divscc %%g1,%4,%%g1n"
  1364. " divscc %%g1,%4,%%g1n"
  1365. " divscc %%g1,%4,%%g1n"
  1366. " divscc %%g1,%4,%%g1n"
  1367. " divscc %%g1,%4,%%g1n"
  1368. " divscc %%g1,%4,%%g1n"
  1369. " divscc %%g1,%4,%%g1n"
  1370. " divscc %%g1,%4,%%g1n"
  1371. " divscc %%g1,%4,%%g1n"
  1372. " divscc %%g1,%4,%%g1n"
  1373. " divscc %%g1,%4,%%g1n"
  1374. " divscc %%g1,%4,%%g1n"
  1375. " divscc %%g1,%4,%%g1n"
  1376. " divscc %%g1,%4,%%g1n"
  1377. " divscc %%g1,%4,%%g1n"
  1378. " divscc %%g1,%4,%%g1n"
  1379. " divscc %%g1,%4,%%g1n"
  1380. " divscc %%g1,%4,%%g1n"
  1381. " divscc %%g1,%4,%%g1n"
  1382. " divscc %%g1,%4,%%g1n"
  1383. " divscc %%g1,%4,%%g1n"
  1384. " divscc %%g1,%4,%%g1n"
  1385. " divscc %%g1,%4,%%g1n"
  1386. " divscc %%g1,%4,%%g1n"
  1387. " divscc %%g1,%4,%%g1n"
  1388. " divscc %%g1,%4,%%g1n"
  1389. " divscc %%g1,%4,%%g1n"
  1390. " divscc %%g1,%4,%%g1n"
  1391. " divscc %%g1,%4,%%g1n"
  1392. " divscc %%g1,%4,%0n"
  1393. " rd %%y,%1n"
  1394. " bl,a 1fn"
  1395. " add %1,%4,%1n"
  1396. "1: ! End of inline udiv_qrnnd"
  1397.    : "=r" (q), "=r" (r) : "r" (n1), "r" (n0), "rI" (d)
  1398.    : "%g1" __AND_CLOBBER_CC)
  1399. #define UDIV_TIME 37
  1400. #define count_leading_zeros(count, x) 
  1401.   __asm__ ("scan %1,1,%0" : "=r" (count) : "r" (x))
  1402. /* Early sparclites return 63 for an argument of 0, but they warn that future
  1403.    implementations might change this.  Therefore, leave COUNT_LEADING_ZEROS_0
  1404.    undefined.  */
  1405. #endif /* __sparclite__ */
  1406. #endif /* __sparc_v8__ */
  1407. #endif /* __sparc_v9__ */
  1408. /* Default to sparc v7 versions of umul_ppmm and udiv_qrnnd.  */
  1409. #ifndef umul_ppmm
  1410. #define umul_ppmm(w1, w0, u, v) 
  1411.   __asm__ ("! Inlined umul_ppmmn"
  1412. " wr %%g0,%2,%%y ! SPARC has 0-3 delay insn after a wrn" 
  1413. " sra %3,31,%%g2 ! Don't move this insnn"
  1414. " and %2,%%g2,%%g2 ! Don't move this insnn"
  1415. " andcc %%g0,0,%%g1 ! Don't move this insnn"
  1416. " mulscc %%g1,%3,%%g1n"
  1417. " mulscc %%g1,%3,%%g1n"
  1418. " mulscc %%g1,%3,%%g1n"
  1419. " mulscc %%g1,%3,%%g1n"
  1420. " mulscc %%g1,%3,%%g1n"
  1421. " mulscc %%g1,%3,%%g1n"
  1422. " mulscc %%g1,%3,%%g1n"
  1423. " mulscc %%g1,%3,%%g1n"
  1424. " mulscc %%g1,%3,%%g1n"
  1425. " mulscc %%g1,%3,%%g1n"
  1426. " mulscc %%g1,%3,%%g1n"
  1427. " mulscc %%g1,%3,%%g1n"
  1428. " mulscc %%g1,%3,%%g1n"
  1429. " mulscc %%g1,%3,%%g1n"
  1430. " mulscc %%g1,%3,%%g1n"
  1431. " mulscc %%g1,%3,%%g1n"
  1432. " mulscc %%g1,%3,%%g1n"
  1433. " mulscc %%g1,%3,%%g1n"
  1434. " mulscc %%g1,%3,%%g1n"
  1435. " mulscc %%g1,%3,%%g1n"
  1436. " mulscc %%g1,%3,%%g1n"
  1437. " mulscc %%g1,%3,%%g1n"
  1438. " mulscc %%g1,%3,%%g1n"
  1439. " mulscc %%g1,%3,%%g1n"
  1440. " mulscc %%g1,%3,%%g1n"
  1441. " mulscc %%g1,%3,%%g1n"
  1442. " mulscc %%g1,%3,%%g1n"
  1443. " mulscc %%g1,%3,%%g1n"
  1444. " mulscc %%g1,%3,%%g1n"
  1445. " mulscc %%g1,%3,%%g1n"
  1446. " mulscc %%g1,%3,%%g1n"
  1447. " mulscc %%g1,%3,%%g1n"
  1448. " mulscc %%g1,0,%%g1n"
  1449. " add %%g1,%%g2,%0n"
  1450. " rd %%y,%1"
  1451.    : "=r" (w1), "=r" (w0) : "%rI" (u), "r" (v)
  1452.    : "%g1", "%g2" __AND_CLOBBER_CC)
  1453. #define UMUL_TIME 39 /* 39 instructions */
  1454. #endif
  1455. #ifndef udiv_qrnnd
  1456. #ifndef LONGLONG_STANDALONE
  1457. #define udiv_qrnnd(q, r, n1, n0, d) 
  1458.   do { UWtype __r;
  1459.     (q) = __MPN(udiv_qrnnd) (&__r, (n1), (n0), (d));
  1460.     (r) = __r;
  1461.   } while (0)
  1462. extern UWtype __MPN(udiv_qrnnd) _PROTO ((UWtype *, UWtype, UWtype, UWtype));
  1463. #ifndef UDIV_TIME
  1464. #define UDIV_TIME 140
  1465. #endif
  1466. #endif /* LONGLONG_STANDALONE */
  1467. #endif /* udiv_qrnnd */
  1468. #endif /* __sparc__ */
  1469. #if defined (__sparc__) && W_TYPE_SIZE == 64
  1470. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1471.   __asm__ (
  1472.        "addcc %r4,%5,%1n"
  1473.       " addccc %r6,%7,%%g0n"
  1474.       " addc %r2,%3,%0"
  1475.   : "=r" (sh), "=&r" (sl)
  1476.   : "rJ" (ah), "rI" (bh), "%rJ" (al), "rI" (bl),
  1477.     "%rJ" ((al) >> 32), "rI" ((bl) >> 32)
  1478.    __CLOBBER_CC)
  1479. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1480.   __asm__ (
  1481.        "subcc %r4,%5,%1n"
  1482.       " subccc %r6,%7,%%g0n"
  1483.       " subc %r2,%3,%0"
  1484.   : "=r" (sh), "=&r" (sl)
  1485.   : "rJ" (ah), "rI" (bh), "rJ" (al), "rI" (bl),
  1486.     "rJ" ((al) >> 32), "rI" ((bl) >> 32)
  1487.    __CLOBBER_CC)
  1488. #endif
  1489. #if defined (__vax__) && W_TYPE_SIZE == 32
  1490. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1491.   __asm__ ("addl2 %5,%1ntadwc %3,%0"
  1492.    : "=g" (sh), "=&g" (sl)
  1493.    : "0"  ((USItype)(ah)), "g" ((USItype)(bh)),
  1494.      "%1" ((USItype)(al)), "g" ((USItype)(bl)))
  1495. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1496.   __asm__ ("subl2 %5,%1ntsbwc %3,%0"
  1497.    : "=g" (sh), "=&g" (sl)
  1498.    : "0" ((USItype)(ah)), "g" ((USItype)(bh)),
  1499.      "1" ((USItype)(al)), "g" ((USItype)(bl)))
  1500. #define smul_ppmm(xh, xl, m0, m1) 
  1501.   do {
  1502.     union {UDItype __ll;
  1503.    struct {USItype __l, __h;} __i;
  1504.   } __x;
  1505.     USItype __m0 = (m0), __m1 = (m1);
  1506.     __asm__ ("emul %1,%2,$0,%0"
  1507.      : "=g" (__x.__ll) : "g" (__m0), "g" (__m1));
  1508.     (xh) = __x.__i.__h; (xl) = __x.__i.__l;
  1509.   } while (0)
  1510. #define sdiv_qrnnd(q, r, n1, n0, d) 
  1511.   do {
  1512.     union {DItype __ll;
  1513.    struct {SItype __l, __h;} __i;
  1514.   } __x;
  1515.     __x.__i.__h = n1; __x.__i.__l = n0;
  1516.     __asm__ ("ediv %3,%2,%0,%1"
  1517.      : "=g" (q), "=g" (r) : "g" (__x.__ll), "g" (d));
  1518.   } while (0)
  1519. #if 0
  1520. /* FIXME: This instruction appears to be unimplemented on some systems (vax
  1521.    8800 maybe). */
  1522. #define count_trailing_zeros(count,x)
  1523.   do {
  1524.     __asm__ ("ffs 0, 31, %1, %0"
  1525.      : "=g" (count)
  1526.      : "g" ((USItype) (x)));
  1527.   } while (0)
  1528. #endif
  1529. #endif /* __vax__ */
  1530. #if defined (__z8000__) && W_TYPE_SIZE == 16
  1531. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1532.   __asm__ ("add %H1,%H5ntadc %H0,%H3"
  1533.    : "=r" (sh), "=&r" (sl)
  1534.    : "0"  ((unsigned int)(ah)), "r" ((unsigned int)(bh)),
  1535.      "%1" ((unsigned int)(al)), "rQR" ((unsigned int)(bl)))
  1536. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1537.   __asm__ ("sub %H1,%H5ntsbc %H0,%H3"
  1538.    : "=r" (sh), "=&r" (sl)
  1539.    : "0" ((unsigned int)(ah)), "r" ((unsigned int)(bh)),
  1540.      "1" ((unsigned int)(al)), "rQR" ((unsigned int)(bl)))
  1541. #define umul_ppmm(xh, xl, m0, m1) 
  1542.   do {
  1543.     union {long int __ll;
  1544.    struct {unsigned int __h, __l;} __i;
  1545.   } __x;
  1546.     unsigned int __m0 = (m0), __m1 = (m1);
  1547.     __asm__ ("mult %S0,%H3"
  1548.      : "=r" (__x.__i.__h), "=r" (__x.__i.__l)
  1549.      : "%1" (m0), "rQR" (m1));
  1550.     (xh) = __x.__i.__h; (xl) = __x.__i.__l;
  1551.     (xh) += ((((signed int) __m0 >> 15) & __m1)
  1552.      + (((signed int) __m1 >> 15) & __m0));
  1553.   } while (0)
  1554. #endif /* __z8000__ */
  1555. #endif /* __GNUC__ */
  1556. #endif /* NO_ASM */
  1557. #if !defined (umul_ppmm) && defined (__umulsidi3)
  1558. #define umul_ppmm(ph, pl, m0, m1) 
  1559.   {
  1560.     UDWtype __ll = __umulsidi3 (m0, m1);
  1561.     ph = (UWtype) (__ll >> W_TYPE_SIZE);
  1562.     pl = (UWtype) __ll;
  1563.   }
  1564. #endif
  1565. #if !defined (__umulsidi3)
  1566. #define __umulsidi3(u, v) 
  1567.   ({UWtype __hi, __lo;
  1568.     umul_ppmm (__hi, __lo, u, v);
  1569.     ((UDWtype) __hi << W_TYPE_SIZE) | __lo; })
  1570. #endif
  1571. /* Use mpn_umul_ppmm or mpn_udiv_qrnnd functions, if they exist.  The "_r"
  1572.    forms have "reversed" arguments, meaning the pointer is last, which
  1573.    sometimes allows better parameter passing, in particular on 64-bit
  1574.    hppa. */
  1575. #define mpn_umul_ppmm  __MPN(umul_ppmm)
  1576. extern UWtype mpn_umul_ppmm _PROTO ((UWtype *, UWtype, UWtype));
  1577. #if ! defined (umul_ppmm) && HAVE_NATIVE_mpn_umul_ppmm  
  1578.   && ! defined (LONGLONG_STANDALONE)
  1579. #define umul_ppmm(wh, wl, u, v)       
  1580.   do {       
  1581.     UWtype __umul_ppmm__p0;       
  1582.     (wh) = mpn_umul_ppmm (&__umul_ppmm__p0, (UWtype) (u), (UWtype) (v));      
  1583.     (wl) = __umul_ppmm__p0;       
  1584.   } while (0)
  1585. #endif
  1586. #define mpn_umul_ppmm_r  __MPN(umul_ppmm_r)
  1587. extern UWtype mpn_umul_ppmm_r _PROTO ((UWtype, UWtype, UWtype *));
  1588. #if ! defined (umul_ppmm) && HAVE_NATIVE_mpn_umul_ppmm_r
  1589.   && ! defined (LONGLONG_STANDALONE)
  1590. #define umul_ppmm(wh, wl, u, v)       
  1591.   do {       
  1592.     UWtype __umul_ppmm__p0;       
  1593.     (wh) = mpn_umul_ppmm_r ((UWtype) (u), (UWtype) (v), &__umul_ppmm__p0);    
  1594.     (wl) = __umul_ppmm__p0;       
  1595.   } while (0)
  1596. #endif
  1597. #define mpn_udiv_qrnnd  __MPN(udiv_qrnnd)
  1598. extern UWtype mpn_udiv_qrnnd _PROTO ((UWtype *, UWtype, UWtype, UWtype));
  1599. #if ! defined (udiv_qrnnd) && HAVE_NATIVE_mpn_udiv_qrnnd
  1600.   && ! defined (LONGLONG_STANDALONE)
  1601. #define udiv_qrnnd(q, r, n1, n0, d)
  1602.   do {
  1603.     UWtype __udiv_qrnnd__r;
  1604.     (q) = mpn_udiv_qrnnd (&__udiv_qrnnd__r,
  1605.   (UWtype) (n1), (UWtype) (n0), (UWtype) d);
  1606.     (r) = __udiv_qrnnd__r;
  1607.   } while (0)
  1608. #endif
  1609. #define mpn_udiv_qrnnd_r  __MPN(udiv_qrnnd_r)
  1610. extern UWtype mpn_udiv_qrnnd_r _PROTO ((UWtype, UWtype, UWtype, UWtype *));
  1611. #if ! defined (udiv_qrnnd) && HAVE_NATIVE_mpn_udiv_qrnnd_r
  1612.   && ! defined (LONGLONG_STANDALONE)
  1613. #define udiv_qrnnd(q, r, n1, n0, d)
  1614.   do {
  1615.     UWtype __udiv_qrnnd__r;
  1616.     (q) = mpn_udiv_qrnnd_r ((UWtype) (n1), (UWtype) (n0), (UWtype) d,
  1617.     &__udiv_qrnnd__r);
  1618.     (r) = __udiv_qrnnd__r;
  1619.   } while (0)
  1620. #endif
  1621. /* If this machine has no inline assembler, use C macros.  */
  1622. #if !defined (add_ssaaaa)
  1623. #define add_ssaaaa(sh, sl, ah, al, bh, bl) 
  1624.   do {
  1625.     UWtype __x;
  1626.     __x = (al) + (bl);
  1627.     (sh) = (ah) + (bh) + (__x < (al));
  1628.     (sl) = __x;
  1629.   } while (0)
  1630. #endif
  1631. #if !defined (sub_ddmmss)
  1632. #define sub_ddmmss(sh, sl, ah, al, bh, bl) 
  1633.   do {
  1634.     UWtype __x;
  1635.     __x = (al) - (bl);
  1636.     (sh) = (ah) - (bh) - ((al) < (bl));                                 
  1637.     (sl) = __x;
  1638.   } while (0)
  1639. #endif
  1640. /* If we lack umul_ppmm but have smul_ppmm, define umul_ppmm in terms of
  1641.    smul_ppmm.  */
  1642. #if !defined (umul_ppmm) && defined (smul_ppmm)
  1643. #define umul_ppmm(w1, w0, u, v)
  1644.   do {
  1645.     UWtype __w1;
  1646.     UWtype __xm0 = (u), __xm1 = (v);
  1647.     smul_ppmm (__w1, w0, __xm0, __xm1);
  1648.     (w1) = __w1 + (-(__xm0 >> (W_TYPE_SIZE - 1)) & __xm1)
  1649. + (-(__xm1 >> (W_TYPE_SIZE - 1)) & __xm0);
  1650.   } while (0)
  1651. #endif
  1652. /* If we still don't have umul_ppmm, define it using plain C.
  1653.    For reference, when this code is used for squaring (ie. u and v identical
  1654.    expressions), gcc recognises __x1 and __x2 are the same and generates 3
  1655.    multiplies, not 4.  The subsequent additions could be optimized a bit,
  1656.    but the only place GMP currently uses such a square is mpn_sqr_basecase,
  1657.    and chips obliged to use this generic C umul will have plenty of worse
  1658.    performance problems than a couple of extra instructions on the diagonal
  1659.    of sqr_basecase.  */
  1660. #if !defined (umul_ppmm)
  1661. #define umul_ppmm(w1, w0, u, v)
  1662.   do {
  1663.     UWtype __x0, __x1, __x2, __x3;
  1664.     UHWtype __ul, __vl, __uh, __vh;
  1665.     UWtype __u = (u), __v = (v);
  1666.     __ul = __ll_lowpart (__u);
  1667.     __uh = __ll_highpart (__u);
  1668.     __vl = __ll_lowpart (__v);
  1669.     __vh = __ll_highpart (__v);
  1670.     __x0 = (UWtype) __ul * __vl;
  1671.     __x1 = (UWtype) __ul * __vh;
  1672.     __x2 = (UWtype) __uh * __vl;
  1673.     __x3 = (UWtype) __uh * __vh;
  1674.     __x1 += __ll_highpart (__x0);/* this can't give carry */
  1675.     __x1 += __x2; /* but this indeed can */
  1676.     if (__x1 < __x2) /* did we get it? */
  1677.       __x3 += __ll_B; /* yes, add it in the proper pos. */
  1678.     (w1) = __x3 + __ll_highpart (__x1);
  1679.     (w0) = (__x1 << W_TYPE_SIZE/2) + __ll_lowpart (__x0);
  1680.   } while (0)
  1681. #endif
  1682. /* If we don't have smul_ppmm, define it using umul_ppmm (which surely will
  1683.    exist in one form or another.  */
  1684. #if !defined (smul_ppmm)
  1685. #define smul_ppmm(w1, w0, u, v)
  1686.   do {
  1687.     UWtype __w1;
  1688.     UWtype __xm0 = (u), __xm1 = (v);
  1689.     umul_ppmm (__w1, w0, __xm0, __xm1);
  1690.     (w1) = __w1 - (-(__xm0 >> (W_TYPE_SIZE - 1)) & __xm1)
  1691. - (-(__xm1 >> (W_TYPE_SIZE - 1)) & __xm0);
  1692.   } while (0)
  1693. #endif
  1694. /* Define this unconditionally, so it can be used for debugging.  */
  1695. #define __udiv_qrnnd_c(q, r, n1, n0, d) 
  1696.   do {
  1697.     UWtype __d1, __d0, __q1, __q0, __r1, __r0, __m;
  1698.     ASSERT ((d) != 0);
  1699.     ASSERT ((n1) < (d));
  1700.     __d1 = __ll_highpart (d);
  1701.     __d0 = __ll_lowpart (d);
  1702.     __q1 = (n1) / __d1;
  1703.     __r1 = (n1) - __q1 * __d1;
  1704.     __m = __q1 * __d0;
  1705.     __r1 = __r1 * __ll_B | __ll_highpart (n0);
  1706.     if (__r1 < __m)
  1707.       {
  1708. __q1--, __r1 += (d);
  1709. if (__r1 >= (d)) /* i.e. we didn't get carry when adding to __r1 */
  1710.   if (__r1 < __m)
  1711.     __q1--, __r1 += (d);
  1712.       }
  1713.     __r1 -= __m;
  1714.     __q0 = __r1 / __d1;
  1715.     __r0 = __r1  - __q0 * __d1;
  1716.     __m = __q0 * __d0;
  1717.     __r0 = __r0 * __ll_B | __ll_lowpart (n0);
  1718.     if (__r0 < __m)
  1719.       {
  1720. __q0--, __r0 += (d);
  1721. if (__r0 >= (d))
  1722.   if (__r0 < __m)
  1723.     __q0--, __r0 += (d);
  1724.       }
  1725.     __r0 -= __m;
  1726.     (q) = __q1 * __ll_B | __q0;
  1727.     (r) = __r0;
  1728.   } while (0)
  1729. /* If the processor has no udiv_qrnnd but sdiv_qrnnd, go through
  1730.    __udiv_w_sdiv (defined in libgcc or elsewhere).  */
  1731. #if !defined (udiv_qrnnd) && defined (sdiv_qrnnd)
  1732. #define udiv_qrnnd(q, r, nh, nl, d) 
  1733.   do {
  1734.     UWtype __r;
  1735.     (q) = __MPN(udiv_w_sdiv) (&__r, nh, nl, d);
  1736.     (r) = __r;
  1737.   } while (0)
  1738. #endif
  1739. /* If udiv_qrnnd was not defined for this processor, use __udiv_qrnnd_c.  */
  1740. #if !defined (udiv_qrnnd)
  1741. #define UDIV_NEEDS_NORMALIZATION 1
  1742. #define udiv_qrnnd __udiv_qrnnd_c
  1743. #endif
  1744. #if !defined (count_leading_zeros)
  1745. #define count_leading_zeros(count, x) 
  1746.   do {
  1747.     UWtype __xr = (x);
  1748.     UWtype __a;
  1749.     if (W_TYPE_SIZE == 32)
  1750.       {
  1751. __a = __xr < ((UWtype) 1 << 2*__BITS4)
  1752.   ? (__xr < ((UWtype) 1 << __BITS4) ? 1 : __BITS4 + 1)
  1753.   : (__xr < ((UWtype) 1 << 3*__BITS4) ? 2*__BITS4 + 1
  1754.   : 3*__BITS4 + 1);
  1755.       }
  1756.     else
  1757.       {
  1758. for (__a = W_TYPE_SIZE - 8; __a > 0; __a -= 8)
  1759.   if (((__xr >> __a) & 0xff) != 0)
  1760.     break;
  1761. ++__a;
  1762.       }
  1763.     (count) = W_TYPE_SIZE + 1 - __a - __clz_tab[__xr >> __a];
  1764.   } while (0)
  1765. /* This version gives a well-defined value for zero. */
  1766. #define COUNT_LEADING_ZEROS_0 (W_TYPE_SIZE - 1)
  1767. #define COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  1768. #endif
  1769. /* clz_tab needed by mpn/x86/pentium/mod_1.asm in a fat binary */
  1770. #if HAVE_HOST_CPU_FAMILY_x86 && WANT_FAT_BINARY
  1771. #define COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  1772. #endif
  1773. #ifdef COUNT_LEADING_ZEROS_NEED_CLZ_TAB
  1774. extern const unsigned char __GMP_DECLSPEC __clz_tab[128];
  1775. #endif
  1776. #if !defined (count_trailing_zeros)
  1777. /* Define count_trailing_zeros using count_leading_zeros.  The latter might be
  1778.    defined in asm, but if it is not, the C version above is good enough.  */
  1779. #define count_trailing_zeros(count, x) 
  1780.   do {
  1781.     UWtype __ctz_x = (x);
  1782.     UWtype __ctz_c;
  1783.     ASSERT (__ctz_x != 0);
  1784.     count_leading_zeros (__ctz_c, __ctz_x & -__ctz_x);
  1785.     (count) = W_TYPE_SIZE - 1 - __ctz_c;
  1786.   } while (0)
  1787. #endif
  1788. #ifndef UDIV_NEEDS_NORMALIZATION
  1789. #define UDIV_NEEDS_NORMALIZATION 0
  1790. #endif
  1791. /* Whether udiv_qrnnd is actually implemented with udiv_qrnnd_preinv, and
  1792.    that hence the latter should always be used.  */
  1793. #ifndef UDIV_PREINV_ALWAYS
  1794. #define UDIV_PREINV_ALWAYS 0
  1795. #endif
  1796. /* Give defaults for UMUL_TIME and UDIV_TIME.  */
  1797. #ifndef UMUL_TIME
  1798. #define UMUL_TIME 1
  1799. #endif
  1800. #ifndef UDIV_TIME
  1801. #define UDIV_TIME UMUL_TIME
  1802. #endif