fac_ui.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:11k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpz_fac_ui(result, n) -- Set RESULT to N!.
  2. Copyright 1991, 1993, 1994, 1995, 2000, 2001, 2002, 2003 Free Software
  3. Foundation, Inc.
  4. This file is part of the GNU MP Library.
  5. The GNU MP Library is free software; you can redistribute it and/or modify
  6. it under the terms of the GNU Lesser General Public License as published by
  7. the Free Software Foundation; either version 3 of the License, or (at your
  8. option) any later version.
  9. The GNU MP Library is distributed in the hope that it will be useful, but
  10. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  11. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  12. License for more details.
  13. You should have received a copy of the GNU Lesser General Public License
  14. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  15. #include "gmp.h"
  16. #include "gmp-impl.h"
  17. #include "longlong.h"
  18. #include "fac_ui.h"
  19. static void odd_product __GMP_PROTO ((unsigned long, unsigned long, mpz_t *));
  20. static void ap_product_small __GMP_PROTO ((mpz_t, mp_limb_t, mp_limb_t, unsigned long, unsigned long));
  21. /* must be >=2 */
  22. #define APCONST 5
  23. /* for single non-zero limb */
  24. #define MPZ_SET_1_NZ(z,n)
  25.   do {
  26.     mpz_ptr  __z = (z);
  27.     ASSERT ((n) != 0);
  28.     PTR(__z)[0] = (n);
  29.     SIZ(__z) = 1;
  30.   } while (0)
  31. /* for src>0 and n>0 */
  32. #define MPZ_MUL_1_POS(dst,src,n)
  33.   do {
  34.     mpz_ptr    __dst = (dst);
  35.     mpz_srcptr __src = (src);
  36.     mp_size_t  __size = SIZ(__src);
  37.     mp_ptr     __dst_p;
  38.     mp_limb_t  __c;
  39.     ASSERT (__size > 0);
  40.     ASSERT ((n) != 0);
  41.     MPZ_REALLOC (__dst, __size+1);
  42.     __dst_p = PTR(__dst);
  43.     __c = mpn_mul_1 (__dst_p, PTR(__src), __size, n);
  44.     __dst_p[__size] = __c;
  45.     SIZ(__dst) = __size + (__c != 0);
  46.   } while (0)
  47. #if BITS_PER_ULONG == GMP_LIMB_BITS
  48. #define BSWAP_ULONG(x,y) BSWAP_LIMB(x,y)
  49. #endif
  50. /* We used to have a case here for limb==2*long, doing a BSWAP_LIMB followed
  51.    by a shift down to get the high part.  But it provoked incorrect code
  52.    from "HP aC++/ANSI C B3910B A.05.52 [Sep 05 2003]" in ILP32 mode.  This
  53.    case would have been nice for gcc ia64 where BSWAP_LIMB is a mux1, but we
  54.    can get that directly muxing a 4-byte ulong if it matters enough.  */
  55. #if ! defined (BSWAP_ULONG)
  56. #define BSWAP_ULONG(dst, src)
  57.   do {
  58.     unsigned long  __bswapl_src = (src);
  59.     unsigned long  __bswapl_dst = 0;
  60.     int        __i;
  61.     for (__i = 0; __i < sizeof(unsigned long); __i++)
  62.       {
  63. __bswapl_dst = (__bswapl_dst << 8) | (__bswapl_src & 0xFF);
  64. __bswapl_src >>= 8;
  65.       }
  66.     (dst) = __bswapl_dst;
  67.   } while (0)
  68. #endif
  69. /* x is bit reverse of y */
  70. /* Note the divides below are all exact */
  71. #define BITREV_ULONG(x,y)    
  72.   do {    
  73.    unsigned long __dst;    
  74.    BSWAP_ULONG(__dst,y);    
  75.    __dst = ((__dst>>4)&(ULONG_MAX/17)) | ((__dst<<4)&((ULONG_MAX/17)*16)); 
  76.    __dst = ((__dst>>2)&(ULONG_MAX/5) ) | ((__dst<<2)&((ULONG_MAX/5)*4)  ); 
  77.    __dst = ((__dst>>1)&(ULONG_MAX/3) ) | ((__dst<<1)&((ULONG_MAX/3)*2)  ); 
  78.    (x) = __dst;    
  79.   } while(0)
  80. /* above could be improved if cpu has a nibble/bit swap/muxing instruction */
  81. /* above code is serialized, possible to write as a big parallel expression */
  82. void
  83. mpz_fac_ui (mpz_ptr x, unsigned long n)
  84. {
  85.   unsigned long z, stt;
  86.   int i, j;
  87.   mpz_t t1, st[8 * sizeof (unsigned long) + 1 - APCONST];
  88.   mp_limb_t d[4];
  89.   static const mp_limb_t table[] = { ONE_LIMB_FACTORIAL_TABLE };
  90.   if (n < numberof (table))
  91.     {
  92.       MPZ_SET_1_NZ (x, table[n]);
  93.       return;
  94.     }
  95.   /*  NOTE : MUST have n>=3 here */
  96.   ASSERT (n >= 3);
  97.   /* for estimating the alloc sizes the calculation of these formula's is not
  98.      exact and also the formulas are only approximations, also we ignore
  99.      the few "side" calculations, correct allocation seems to speed up the
  100.      small sizes better, having very little effect on the large sizes */
  101.   /* estimate space for stack entries see below
  102.      number of bits for n! is
  103.      (1+log_2(2*pi)/2)-n*log_2(exp(1))+(n+1/2)*log_2(n)=
  104.      2.325748065-n*1.442695041+(n+0.5)*log_2(n)  */
  105.   umul_ppmm (d[1], d[0], (mp_limb_t) n, (mp_limb_t) FAC2OVERE);
  106.   /* d[1] is 2n/e, d[0] ignored        */
  107.   count_leading_zeros (z, d[1]);
  108.   z = GMP_LIMB_BITS - z - 1; /* z=floor(log_2(2n/e))   */
  109.   umul_ppmm (d[1], d[0], (mp_limb_t) n, (mp_limb_t) z);
  110.   /* d=n*floor(log_2(2n/e))   */
  111.   d[0] = (d[0] >> 2) | (d[1] << (GMP_LIMB_BITS - 2));
  112.   d[1] >>= 2;
  113.   /* d=n*floor(log_2(2n/e))/4   */
  114.   z = d[0] + 1; /* have to ignore any overflow */
  115.   /* so z is the number of bits wanted for st[0]    */
  116.   if (n <= ((unsigned long) 1) << (APCONST))
  117.     {
  118.       mpz_realloc2 (x, 4 * z);
  119.       ap_product_small (x, CNST_LIMB(2), CNST_LIMB(1), n - 1, 4L);
  120.       return;
  121.     }
  122.   if (n <= ((unsigned long) 1) << (APCONST + 1))
  123.     { /*  use n!=odd(1,n)*(n/2)!*2^(n/2)         */
  124.       mpz_init2 (t1, 2 * z);
  125.       mpz_realloc2 (x, 4 * z);
  126.       ap_product_small (x, CNST_LIMB(2), CNST_LIMB(1), n / 2 - 1, 4L);
  127.       ap_product_small (t1, CNST_LIMB(3), CNST_LIMB(2), (n - 1) / 2, 4L);
  128.       mpz_mul (x, x, t1);
  129.       mpz_clear (t1);
  130.       mpz_mul_2exp (x, x, n / 2);
  131.       return;
  132.     }
  133.   if (n <= ((unsigned long) 1) << (APCONST + 2))
  134.     {
  135.       /* use n!=C_2(1,n/2)^2*C_2(n/2,n)*(n/4)!*2^(n/2+n/4) all int divs
  136.  so need (BITS_IN_N-APCONST+1)=(APCONST+3-APCONST+1)=4 stack entries */
  137.       mpz_init2 (t1, 2 * z);
  138.       mpz_realloc2 (x, 4 * z);
  139.       for (i = 0; i < 4; i++)
  140. {
  141.   mpz_init2 (st[i], z);
  142.   z >>= 1;
  143. }
  144.       odd_product (1, n / 2, st);
  145.       mpz_set (x, st[0]);
  146.       odd_product (n / 2, n, st);
  147.       mpz_mul (x, x, x);
  148.       ASSERT (n / 4 <= FACMUL4 + 6);
  149.       ap_product_small (t1, CNST_LIMB(2), CNST_LIMB(1), n / 4 - 1, 4L);
  150.       /* must have 2^APCONST odd numbers max */
  151.       mpz_mul (t1, t1, st[0]);
  152.       for (i = 0; i < 4; i++)
  153. mpz_clear (st[i]);
  154.       mpz_mul (x, x, t1);
  155.       mpz_clear (t1);
  156.       mpz_mul_2exp (x, x, n / 2 + n / 4);
  157.       return;
  158.     }
  159.   count_leading_zeros (stt, (mp_limb_t) n);
  160.   stt = GMP_LIMB_BITS - stt + 1 - APCONST;
  161.   for (i = 0; i < (signed long) stt; i++)
  162.     {
  163.       mpz_init2 (st[i], z);
  164.       z >>= 1;
  165.     }
  166.   count_leading_zeros (z, (mp_limb_t) (n / 3));
  167.   /* find z st 2^z>n/3 range for z is 1 <= z <= 8 * sizeof(unsigned long)-1 */
  168.   z = GMP_LIMB_BITS - z;
  169.   /*
  170.      n! = 2^e * PRODUCT_{i=0}^{i=z-1} C_2( n/2^{i+1}, n/2^i )^{i+1}
  171.      where 2^e || n!   3.2^z>n   C_2(a,b)=PRODUCT of odd z such that a<z<=b
  172.    */
  173.   mpz_init_set_ui (t1, 1);
  174.   for (j = 8 * sizeof (unsigned long) / 2; j != 0; j >>= 1)
  175.     {
  176.       MPZ_SET_1_NZ (x, 1);
  177.       for (i = 8 * sizeof (unsigned long) - j; i >= j; i -= 2 * j)
  178. if ((signed long) z >= i)
  179.   {
  180.     odd_product (n >> i, n >> (i - 1), st);
  181.     /* largest odd product when j=i=1 then we have
  182.        odd_product(n/2,n,st) which is approx (2n/e)^(n/4)
  183.        so log_base2(largest oddproduct)=n*log_base2(2n/e)/4
  184.        number of bits is n*log_base2(2n/e)/4+1  */
  185.     if (i != j)
  186.       mpz_pow_ui (st[0], st[0], i / j);
  187.     mpz_mul (x, x, st[0]);
  188.   }
  189.       if ((signed long) z >= j && j != 1)
  190. {
  191.   mpz_mul (t1, t1, x);
  192.   mpz_mul (t1, t1, t1);
  193. }
  194.     }
  195.   for (i = 0; i < (signed long) stt; i++)
  196.     mpz_clear (st[i]);
  197.   mpz_mul (x, x, t1);
  198.   mpz_clear (t1);
  199.   popc_limb (i, (mp_limb_t) n);
  200.   mpz_mul_2exp (x, x, n - i);
  201.   return;
  202. }
  203. /* start,step are mp_limb_t although they will fit in unsigned long */
  204. static void
  205. ap_product_small (mpz_t ret, mp_limb_t start, mp_limb_t step,
  206.   unsigned long count, unsigned long nm)
  207. {
  208.   unsigned long a;
  209.   mp_limb_t b;
  210.   ASSERT (count <= (((unsigned long) 1) << APCONST));
  211. /* count can never be zero ? check this and remove test below */
  212.   if (count == 0)
  213.     {
  214.       MPZ_SET_1_NZ (ret, 1);
  215.       return;
  216.     }
  217.   if (count == 1)
  218.     {
  219.       MPZ_SET_1_NZ (ret, start);
  220.       return;
  221.     }
  222.   switch (nm)
  223.     {
  224.     case 1:
  225.       MPZ_SET_1_NZ (ret, start);
  226.       b = start + step;
  227.       for (a = 0; a < count - 1; b += step, a++)
  228. MPZ_MUL_1_POS (ret, ret, b);
  229.       return;
  230.     case 2:
  231.       MPZ_SET_1_NZ (ret, start * (start + step));
  232.       if (count == 2)
  233. return;
  234.       for (b = start + 2 * step, a = count / 2 - 1; a != 0;
  235.    a--, b += 2 * step)
  236. MPZ_MUL_1_POS (ret, ret, b * (b + step));
  237.       if (count % 2 == 1)
  238. MPZ_MUL_1_POS (ret, ret, b);
  239.       return;
  240.     case 3:
  241.       if (count == 2)
  242. {
  243.   MPZ_SET_1_NZ (ret, start * (start + step));
  244.   return;
  245. }
  246.       MPZ_SET_1_NZ (ret, start * (start + step) * (start + 2 * step));
  247.       if (count == 3)
  248. return;
  249.       for (b = start + 3 * step, a = count / 3 - 1; a != 0;
  250.    a--, b += 3 * step)
  251. MPZ_MUL_1_POS (ret, ret, b * (b + step) * (b + 2 * step));
  252.       if (count % 3 == 2)
  253. b = b * (b + step);
  254.       if (count % 3 != 0)
  255. MPZ_MUL_1_POS (ret, ret, b);
  256.       return;
  257.     default: /* ie nm=4      */
  258.       if (count == 2)
  259. {
  260.   MPZ_SET_1_NZ (ret, start * (start + step));
  261.   return;
  262. }
  263.       if (count == 3)
  264. {
  265.   MPZ_SET_1_NZ (ret, start * (start + step) * (start + 2 * step));
  266.   return;
  267. }
  268.       MPZ_SET_1_NZ (ret,
  269.     start * (start + step) * (start + 2 * step) * (start +
  270.    3 * step));
  271.       if (count == 4)
  272. return;
  273.       for (b = start + 4 * step, a = count / 4 - 1; a != 0;
  274.    a--, b += 4 * step)
  275. MPZ_MUL_1_POS (ret, ret,
  276.        b * (b + step) * (b + 2 * step) * (b + 3 * step));
  277.       if (count % 4 == 2)
  278. b = b * (b + step);
  279.       if (count % 4 == 3)
  280. b = b * (b + step) * (b + 2 * step);
  281.       if (count % 4 != 0)
  282. MPZ_MUL_1_POS (ret, ret, b);
  283.       return;
  284.     }
  285. }
  286. /* return value in st[0]
  287.    odd_product(l,h)=sqrt((h/e)^h/(l/e)^l) using Stirling approx and e=exp(1)
  288.    so st[0] needs enough bits for above, st[1] needs half these bits and
  289.    st[2] needs 1/4 of these bits etc */
  290. static void
  291. odd_product (unsigned long low, unsigned long high, mpz_t * st)
  292. {
  293.   unsigned long stc = 1, stn = 0, n, y, mask, a, nm = 1;
  294.   signed long z;
  295.   low++;
  296.   if (low % 2 == 0)
  297.     low++;
  298.   if (high == 0)
  299.     high = 1;
  300.   if (high % 2 == 0)
  301.     high--;
  302. /* must have high>=low ? check this and remove test below */
  303.   if (high < low)
  304.     {
  305.       MPZ_SET_1_NZ (st[0], 1);
  306.       return;
  307.     }
  308.   if (high == low)
  309.     {
  310.       MPZ_SET_1_NZ (st[0], low);
  311.       return;
  312.     }
  313.   if (high <= FACMUL2 + 2)
  314.     {
  315.       nm = 2;
  316.       if (high <= FACMUL3 + 4)
  317. {
  318.   nm = 3;
  319.   if (high <= FACMUL4 + 6)
  320.     nm = 4;
  321. }
  322.     }
  323.   high = (high - low) / 2 + 1; /* high is now count,high<=2^(BITS_PER_ULONG-1) */
  324.   if (high <= (((unsigned long) 1) << APCONST))
  325.     {
  326.       ap_product_small (st[0], (mp_limb_t) low, CNST_LIMB(2), high, nm);
  327.       return;
  328.     }
  329.   count_leading_zeros (n, (mp_limb_t) high);
  330. /* assumes clz above is LIMB based not NUMB based */
  331.   n = GMP_LIMB_BITS - n - APCONST;
  332.   mask = (((unsigned long) 1) << n);
  333.   a = mask << 1;
  334.   mask--;
  335. /* have 2^(BITS_IN_N-APCONST) iterations so need
  336.    (BITS_IN_N-APCONST+1) stack entries */
  337.   for (z = mask; z >= 0; z--)
  338.     {
  339.       BITREV_ULONG (y, z);
  340.       y >>= (BITS_PER_ULONG - n);
  341.       ap_product_small (st[stn],
  342. (mp_limb_t) (low + 2 * ((~y) & mask)), (mp_limb_t) a,
  343. (high + y) >> n, nm);
  344.       ASSERT (((high + y) >> n) <= (((unsigned long) 1) << APCONST));
  345.       stn++;
  346.       y = stc++;
  347.       while ((y & 1) == 0)
  348. {
  349.   mpz_mul (st[stn - 2], st[stn - 2], st[stn - 1]);
  350.   stn--;
  351.   y >>= 1;
  352. }
  353.     }
  354.   ASSERT (stn == 1);
  355.   return;
  356. }