invertappr.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:11k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpn_invertappr and helper functions.  Compute I such that
  2.    floor((B^{2n}-1)/U - 1 <= I + B^n <= floor((B^{2n}-1)/U.
  3.    Contributed to the GNU project by Marco Bodrato.
  4.    The algorithm used here was inspired by ApproximateReciprocal from "Modern
  5.    Computer Arithmetic", by Richard P. Brent and Paul Zimmermann.  Special
  6.    thanks to Paul Zimmermann for his very valuable suggestions on all the
  7.    theoretical aspects during the work on this code.
  8.    THE FUNCTIONS IN THIS FILE ARE INTERNAL WITH MUTABLE INTERFACES.  IT IS ONLY
  9.    SAFE TO REACH THEM THROUGH DOCUMENTED INTERFACES.  IN FACT, IT IS ALMOST
  10.    GUARANTEED THAT THEY WILL CHANGE OR DISAPPEAR IN A FUTURE GMP RELEASE.
  11. Copyright (C) 2007, 2009, 2010 Free Software Foundation, Inc.
  12. This file is part of the GNU MP Library.
  13. The GNU MP Library is free software; you can redistribute it and/or modify
  14. it under the terms of the GNU Lesser General Public License as published by
  15. the Free Software Foundation; either version 3 of the License, or (at your
  16. option) any later version.
  17. The GNU MP Library is distributed in the hope that it will be useful, but
  18. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  19. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  20. License for more details.
  21. You should have received a copy of the GNU Lesser General Public License
  22. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  23. /* FIXME: Remove NULL and TMP_*, as soon as all the callers properly
  24.    allocate and pass the scratch to the function. */
  25. #include <stdlib.h> /* for NULL */
  26. #include "gmp.h"
  27. #include "gmp-impl.h"
  28. #include "longlong.h"
  29. /* FIXME: The iterative version splits the operand in two slighty unbalanced
  30.    parts, the use of log_2 (or counting the bits) underestimate the maximum
  31.    number of iterations.  */
  32. /* This is intended for constant THRESHOLDs only, where the compiler
  33.    can completely fold the result.  */
  34. #define LOG2C(n) 
  35.  (((n) >=    0x1) + ((n) >=    0x2) + ((n) >=    0x4) + ((n) >=    0x8) + 
  36.   ((n) >=   0x10) + ((n) >=   0x20) + ((n) >=   0x40) + ((n) >=   0x80) + 
  37.   ((n) >=  0x100) + ((n) >=  0x200) + ((n) >=  0x400) + ((n) >=  0x800) + 
  38.   ((n) >= 0x1000) + ((n) >= 0x2000) + ((n) >= 0x4000) + ((n) >= 0x8000))
  39. #if TUNE_PROGRAM_BUILD
  40. #define NPOWS 
  41.  ((sizeof(mp_size_t) > 6 ? 48 : 8*sizeof(mp_size_t)))
  42. #define MAYBE_dcpi1_divappr   1
  43. #else
  44. #define NPOWS 
  45.  ((sizeof(mp_size_t) > 6 ? 48 : 8*sizeof(mp_size_t)) - LOG2C (INV_NEWTON_THRESHOLD))
  46. #define MAYBE_dcpi1_divappr 
  47.   (INV_NEWTON_THRESHOLD < DC_DIVAPPR_Q_THRESHOLD)
  48. #if (INV_NEWTON_THRESHOLD > INV_MULMOD_BNM1_THRESHOLD) && 
  49.     (INV_APPR_THRESHOLD > INV_MULMOD_BNM1_THRESHOLD)
  50. #undef  INV_MULMOD_BNM1_THRESHOLD
  51. #define INV_MULMOD_BNM1_THRESHOLD 0 /* always when Newton */
  52. #endif
  53. #endif
  54. /* All the three functions mpn{,_bc,_ni}_invertappr (ip, dp, n, scratch), take
  55.    the strictly normalised value {dp,n} (i.e., most significant bit must be set)
  56.    as an input, and compute {ip,n}: the approximate reciprocal of {dp,n}.
  57.    Let e = mpn*_invertappr (ip, dp, n, scratch) be the returned value; the
  58.    following conditions are satisfied by the output:
  59.      0 <= e <= 1;
  60.      {dp,n}*(B^n+{ip,n}) < B^{2n} <= {dp,n}*(B^n+{ip,n}+1+e) .
  61.    I.e. e=0 means that the result {ip,n} equals the one given by mpn_invert.
  62. e=1 means that the result _may_ be one less than expected.
  63.    The _bc version returns e=1 most of the time.
  64.    The _ni version should return e=0 most of the time; only about 1% of
  65.    possible random input should give e=1.
  66.    When the strict result is needed, i.e., e=0 in the relation above:
  67.      {dp,n}*(B^n+{ip,n}) < B^{2n} <= {dp,n}*(B^n+{ip,n}+1) ;
  68.    the function mpn_invert (ip, dp, n, scratch) should be used instead.  */
  69. /* Maximum scratch needed by this branch (at tp): 3*n + 2 */
  70. static mp_limb_t
  71. mpn_bc_invertappr (mp_ptr ip, mp_srcptr dp, mp_size_t n, mp_ptr tp)
  72. {
  73.   mp_ptr xp;
  74.   ASSERT (n > 0);
  75.   ASSERT (dp[n-1] & GMP_NUMB_HIGHBIT);
  76.   ASSERT (! MPN_OVERLAP_P (ip, n, dp, n));
  77.   ASSERT (! MPN_OVERLAP_P (ip, n, tp, mpn_invertappr_itch(n)));
  78.   ASSERT (! MPN_OVERLAP_P (dp, n, tp, mpn_invertappr_itch(n)));
  79.   /* Compute a base value of r limbs. */
  80.   if (n == 1)
  81.     invert_limb (*ip, *dp);
  82.   else {
  83.     mp_size_t i;
  84.     xp = tp + n + 2; /* 2 * n limbs */
  85.     for (i = n - 1; i >= 0; i--)
  86.       xp[i] = GMP_NUMB_MAX;
  87.     mpn_com (xp + n, dp, n);
  88.     /* Now xp contains B^2n - {dp,n}*B^n - 1 */
  89.     /* FIXME: if mpn_*pi1_divappr_q handles n==2, use it! */
  90.     if (n == 2) {
  91.       mpn_divrem_2 (ip, 0, xp, 4, dp);
  92.     } else {
  93.       gmp_pi1_t inv;
  94.       invert_pi1 (inv, dp[n-1], dp[n-2]);
  95.       if (! MAYBE_dcpi1_divappr
  96.   || BELOW_THRESHOLD (n, DC_DIVAPPR_Q_THRESHOLD))
  97. mpn_sbpi1_divappr_q (ip, xp, 2 * n, dp, n, inv.inv32);
  98.       else
  99. mpn_dcpi1_divappr_q (ip, xp, 2 * n, dp, n, &inv);
  100.       MPN_DECR_U(ip, n, 1);
  101.       return 1;
  102.     }
  103.   }
  104.   return 0;
  105. }
  106. /* mpn_ni_invertappr: computes the approximate reciprocal using Newton's
  107.    iterations (at least one).
  108.    Inspired by Algorithm "ApproximateReciprocal", published in "Modern Computer
  109.    Arithmetic" by Richard P. Brent and Paul Zimmermann, algorithm 3.5, page 121
  110.    in version 0.4 of the book.
  111.    Some adaptations were introduced, to allow product mod B^m-1 and return the
  112.    value e.
  113.    USE_MUL_N = 1 (default) introduces a correction in such a way that "the
  114.    value of B^{n+h}-T computed at step 8 cannot exceed B^n-1" (the book reads
  115.    "2B^n-1").  This correction should not require to modify the proof.
  116.    We use a wrapped product modulo B^m-1.  NOTE: is there any normalisation
  117.    problem for the [0] class?  It shouldn't: we compute 2*|A*X_h - B^{n+h}| <
  118.    B^m-1.  We may get [0] if and only if we get AX_h = B^{n+h}.  This can
  119.    happen only if A=B^{n}/2, but this implies X_h = B^{h}*2-1 i.e., AX_h =
  120.    B^{n+h} - A, then we get into the "negative" branch, where X_h is not
  121.    incremented (because A < B^n).
  122.    FIXME: the scratch for mulmod_bnm1 does not currently fit in the scratch, it
  123.    is allocated apart.  */
  124. #define USE_MUL_N 1
  125. mp_limb_t
  126. mpn_ni_invertappr (mp_ptr ip, mp_srcptr dp, mp_size_t n, mp_ptr scratch)
  127. {
  128.   mp_limb_t cy;
  129.   mp_ptr xp;
  130.   mp_size_t rn, mn;
  131.   mp_size_t sizes[NPOWS], *sizp;
  132.   mp_ptr tp;
  133.   TMP_DECL;
  134. #define rp scratch
  135.   ASSERT (n > 2);
  136.   ASSERT (dp[n-1] & GMP_NUMB_HIGHBIT);
  137.   ASSERT (! MPN_OVERLAP_P (ip, n, dp, n));
  138.   ASSERT (! MPN_OVERLAP_P (ip, n, scratch, mpn_invertappr_itch(n)));
  139.   ASSERT (! MPN_OVERLAP_P (dp, n, scratch, mpn_invertappr_itch(n)));
  140.   /* Compute the computation precisions from highest to lowest, leaving the
  141.      base case size in 'rn'.  */
  142.   sizp = sizes;
  143.   rn = n;
  144.   do {
  145.     *sizp = rn;
  146.     rn = ((rn) >> 1) + 1;
  147.     sizp ++;
  148.   } while (ABOVE_THRESHOLD (rn, INV_NEWTON_THRESHOLD));
  149.   /* We search the inverse of 0.{dp,n}, we compute it as 1.{ip,n} */
  150.   dp += n;
  151.   ip += n;
  152.   /* Compute a base value of rn limbs. */
  153.   mpn_bc_invertappr (ip - rn, dp - rn, rn, scratch);
  154.   TMP_MARK;
  155.   if (ABOVE_THRESHOLD (n, INV_MULMOD_BNM1_THRESHOLD))
  156.     {
  157.       mn = mpn_mulmod_bnm1_next_size (n + 1);
  158.       tp = TMP_ALLOC_LIMBS (mpn_mulmod_bnm1_itch (mn, n, (n >> 1) + 1));
  159.     }
  160.   /* Use Newton's iterations to get the desired precision.*/
  161.   /* define rp scratch; 2rn + 1 limbs <= 2(n>>1 + 1) + 1 <= n + 3  limbs */
  162.   /* Maximum scratch needed by this branch <= 3*n + 2 */
  163.   xp = scratch + n + 3; /*  n + rn limbs */
  164.   while (1) {
  165.     mp_limb_t method;
  166.     n = *--sizp;
  167.     /*
  168.       v    n  v
  169.       +----+--+
  170.       ^ rn ^
  171.     */
  172.     /* Compute i_jd . */
  173.     if (BELOW_THRESHOLD (n, INV_MULMOD_BNM1_THRESHOLD)
  174. || ((mn = mpn_mulmod_bnm1_next_size (n + 1)) > (n + rn))) {
  175.       /* FIXME: We do only need {xp,n+1}*/
  176.       mpn_mul (xp, dp - n, n, ip - rn, rn);
  177.       mpn_add_n (xp + rn, xp + rn, dp - n, n - rn + 1);
  178.       method = 1; /* Remember we used (truncated) product */
  179.       /* We computed cy.{xp,rn+n} <- 1.{ip,rn} * 0.{dp,n} */
  180.     } else { /* Use B^n-1 wraparound */
  181.       mpn_mulmod_bnm1 (xp, mn, dp - n, n, ip - rn, rn, tp);
  182.       /* We computed {xp,mn} <- {ip,rn} * {dp,n} mod (B^mn-1) */
  183.       /* We know that 2*|ip*dp + dp*B^rn - B^{rn+n}| < B^mn-1 */
  184.       /* Add dp*B^rn mod (B^mn-1) */
  185.       ASSERT (n >= mn - rn);
  186.       xp[mn] = 1 + mpn_add_n (xp + rn, xp + rn, dp - n, mn - rn);
  187.       cy = mpn_add_n (xp, xp, dp - (n - (mn - rn)), n - (mn - rn));
  188.       MPN_INCR_U (xp + n - (mn - rn), mn + 1 - n + (mn - rn), cy);
  189.       ASSERT (n + rn >=  mn);
  190.       /* Subtract B^{rn+n} */
  191.       MPN_DECR_U (xp + rn + n - mn, 2*mn + 1 - rn - n, 1);
  192.       if (xp[mn])
  193. MPN_INCR_U (xp, mn, xp[mn] - 1);
  194.       else
  195. MPN_DECR_U (xp, mn, 1);
  196.       method = 0; /* Remember we are working Mod B^m-1 */
  197.     }
  198.     if (xp[n] < 2) { /* "positive" residue class */
  199.       cy = 1;
  200.       while (xp[n] || mpn_cmp (xp, dp - n, n)>0) {
  201. xp[n] -= mpn_sub_n (xp, xp, dp - n, n);
  202. cy ++;
  203.       }
  204.       MPN_DECR_U(ip - rn, rn, cy);
  205.       ASSERT (cy <= 4); /* at most 3 cycles for the while above */
  206.       ASSERT_NOCARRY (mpn_sub_n (xp, dp - n, xp, n));
  207.       ASSERT (xp[n] == 0);
  208.     } else { /* "negative" residue class */
  209.       mpn_com (xp, xp, n + 1);
  210.       MPN_INCR_U(xp, n + 1, method);
  211.       ASSERT (xp[n] <= 1);
  212. #if USE_MUL_N
  213.       if (xp[n]) {
  214. MPN_INCR_U(ip - rn, rn, 1);
  215. ASSERT_CARRY (mpn_sub_n (xp, xp, dp - n, n));
  216.       }
  217. #endif
  218.     }
  219.     /* Compute x_ju_j. FIXME:We need {rp+rn,rn}, mulhi? */
  220. #if USE_MUL_N
  221.     mpn_mul_n (rp, xp + n - rn, ip - rn, rn);
  222. #else
  223.     rp[2*rn] = 0;
  224.     mpn_mul (rp, xp + n - rn, rn + xp[n], ip - rn, rn);
  225. #endif
  226.     /* We need _only_ the carry from the next addition  */
  227.     /* Anyway 2rn-n <= 2... we don't need to optimise.  */
  228.     cy = mpn_add_n (rp + rn, rp + rn, xp + n - rn, 2*rn - n);
  229.     cy = mpn_add_nc (ip - n, rp + 3*rn - n, xp + rn, n - rn, cy);
  230.     MPN_INCR_U (ip - rn, rn, cy + (1-USE_MUL_N)*(rp[2*rn] + xp[n]));
  231.     if (sizp == sizes) { /* Get out of the cycle */
  232.       /* Check for possible carry propagation from below. */
  233.       cy = rp[3*rn - n - 1] > GMP_NUMB_MAX - 7; /* Be conservative. */
  234. /*    cy = mpn_add_1 (rp + rn, rp + rn, 2*rn - n, 4); */
  235.       break;
  236.     }
  237.     rn = n;
  238.   }
  239.   TMP_FREE;
  240.   return cy;
  241. #undef rp
  242. }
  243. mp_limb_t
  244. mpn_invertappr (mp_ptr ip, mp_srcptr dp, mp_size_t n, mp_ptr scratch)
  245. {
  246.   mp_limb_t res;
  247.   TMP_DECL;
  248.   TMP_MARK;
  249.   if (scratch == NULL)
  250.     scratch = TMP_ALLOC_LIMBS (mpn_invertappr_itch (n));
  251.   ASSERT (n > 0);
  252.   ASSERT (dp[n-1] & GMP_NUMB_HIGHBIT);
  253.   ASSERT (! MPN_OVERLAP_P (ip, n, dp, n));
  254.   ASSERT (! MPN_OVERLAP_P (ip, n, scratch, mpn_invertappr_itch(n)));
  255.   ASSERT (! MPN_OVERLAP_P (dp, n, scratch, mpn_invertappr_itch(n)));
  256.   if (BELOW_THRESHOLD (n, INV_NEWTON_THRESHOLD))
  257.     res = mpn_bc_invertappr (ip, dp, n, scratch);
  258.   else
  259.     res = mpn_ni_invertappr (ip, dp, n, scratch);
  260.   TMP_FREE;
  261.   return res;
  262. }