mu_bdiv_qr.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:7k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpn_mu_bdiv_qr(qp,rp,np,nn,dp,dn,tp) -- Compute {np,nn} / {dp,dn} mod B^qn,
  2.    where qn = nn-dn, storing the result in {qp,qn}.  Overlap allowed between Q
  3.    and N; all other overlap disallowed.
  4.    Contributed to the GNU project by Torbjorn Granlund.
  5.    THE FUNCTIONS IN THIS FILE ARE INTERNAL WITH MUTABLE INTERFACES.  IT IS ONLY
  6.    SAFE TO REACH THEM THROUGH DOCUMENTED INTERFACES.  IN FACT, IT IS ALMOST
  7.    GUARANTEED THAT THEY WILL CHANGE OR DISAPPEAR IN A FUTURE GMP RELEASE.
  8. Copyright 2005, 2006, 2007, 2009, 2010 Free Software Foundation, Inc.
  9. This file is part of the GNU MP Library.
  10. The GNU MP Library is free software; you can redistribute it and/or modify
  11. it under the terms of the GNU Lesser General Public License as published by
  12. the Free Software Foundation; either version 3 of the License, or (at your
  13. option) any later version.
  14. The GNU MP Library is distributed in the hope that it will be useful, but
  15. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  16. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  17. License for more details.
  18. You should have received a copy of the GNU Lesser General Public License
  19. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  20. /*
  21.    The idea of the algorithm used herein is to compute a smaller inverted value
  22.    than used in the standard Barrett algorithm, and thus save time in the
  23.    Newton iterations, and pay just a small price when using the inverted value
  24.    for developing quotient bits.  This algorithm was presented at ICMS 2006.
  25. */
  26. #include "gmp.h"
  27. #include "gmp-impl.h"
  28. /* N = {np,nn}
  29.    D = {dp,dn}
  30.    Requirements: N >= D
  31.  D >= 1
  32.  D odd
  33.  dn >= 2
  34.  nn >= 2
  35.  scratch space as determined by mpn_mu_bdiv_qr_itch(nn,dn).
  36.    Write quotient to Q = {qp,nn-dn}.
  37.    FIXME: When iterating, perhaps do the small step before loop, not after.
  38.    FIXME: Try to avoid the scalar divisions when computing inverse size.
  39.    FIXME: Trim allocation for (qn > dn) case, 3*dn might be possible.  In
  40.   particular, when dn==in, tp and rp could use the same space.
  41. */
  42. mp_limb_t
  43. mpn_mu_bdiv_qr (mp_ptr qp,
  44. mp_ptr rp,
  45. mp_srcptr np, mp_size_t nn,
  46. mp_srcptr dp, mp_size_t dn,
  47. mp_ptr scratch)
  48. {
  49.   mp_size_t qn;
  50.   mp_size_t in;
  51.   mp_limb_t cy, c0;
  52.   int k;
  53.   mp_size_t tn, wn;
  54.   mp_size_t i;
  55.   qn = nn - dn;
  56.   ASSERT (dn >= 2);
  57.   ASSERT (qn >= 2);
  58.   if (qn > dn)
  59.     {
  60.       mp_size_t b;
  61.       /* |_______________________|   dividend
  62. |________|   divisor  */
  63. #define ip           scratch /* in */
  64. #define tp           (scratch + in) /* dn+in or next_size(dn) or rest >= binvert_itch(in) */
  65. #define scratch_out  (scratch + in + tn)/* mulmod_bnm1_itch(next_size(dn)) */
  66.       /* Compute an inverse size that is a nice partition of the quotient.  */
  67.       b = (qn - 1) / dn + 1; /* ceil(qn/dn), number of blocks */
  68.       in = (qn - 1) / b + 1; /* ceil(qn/b) = ceil(qn / ceil(qn/dn)) */
  69.       /* Some notes on allocation:
  70.  When in = dn, R dies when mpn_mullo returns, if in < dn the low in
  71.  limbs of R dies at that point.  We could save memory by letting T live
  72.  just under R, and let the upper part of T expand into R. These changes
  73.  should reduce itch to perhaps 3dn.
  74.        */
  75.       mpn_binvert (ip, dp, in, tp);
  76.       MPN_COPY (rp, np, dn);
  77.       np += dn;
  78.       cy = 0;
  79.       while (qn > in)
  80. {
  81.   mpn_mullo_n (qp, rp, ip, in);
  82.   if (BELOW_THRESHOLD (in, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  83.     mpn_mul (tp, dp, dn, qp, in); /* mulhi, need tp[dn+in-1...in] */
  84.   else
  85.     {
  86.       tn = mpn_mulmod_bnm1_next_size (dn);
  87.       mpn_mulmod_bnm1 (tp, tn, dp, dn, qp, in, scratch_out);
  88.       wn = dn + in - tn; /* number of wrapped limbs */
  89.       if (wn > 0)
  90. {
  91.   c0 = mpn_sub_n (tp + tn, tp, rp, wn);
  92.   mpn_decr_u (tp + wn, c0);
  93. }
  94.     }
  95.   qp += in;
  96.   qn -= in;
  97.   if (dn != in)
  98.     {
  99.       /* Subtract tp[dn-1...in] from partial remainder.  */
  100.       cy += mpn_sub_n (rp, rp + in, tp + in, dn - in);
  101.       if (cy == 2)
  102. {
  103.   mpn_incr_u (tp + dn, 1);
  104.   cy = 1;
  105. }
  106.     }
  107.   /* Subtract tp[dn+in-1...dn] from dividend.  */
  108.   cy = mpn_sub_nc (rp + dn - in, np, tp + dn, in, cy);
  109.   np += in;
  110. }
  111.       /* Generate last qn limbs.  */
  112.       mpn_mullo_n (qp, rp, ip, qn);
  113.       if (BELOW_THRESHOLD (qn, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  114. mpn_mul (tp, dp, dn, qp, qn); /* mulhi, need tp[qn+in-1...in] */
  115.       else
  116. {
  117.   tn = mpn_mulmod_bnm1_next_size (dn);
  118.   mpn_mulmod_bnm1 (tp, tn, dp, dn, qp, qn, scratch_out);
  119.   wn = dn + qn - tn; /* number of wrapped limbs */
  120.   if (wn > 0)
  121.     {
  122.       c0 = mpn_sub_n (tp + tn, tp, rp, wn);
  123.       mpn_decr_u (tp + wn, c0);
  124.     }
  125. }
  126.       if (dn != qn)
  127. {
  128.   cy += mpn_sub_n (rp, rp + qn, tp + qn, dn - qn);
  129.   if (cy == 2)
  130.     {
  131.       mpn_incr_u (tp + dn, 1);
  132.       cy = 1;
  133.     }
  134. }
  135.       return mpn_sub_nc (rp + dn - qn, np, tp + dn, qn, cy);
  136. #undef ip
  137. #undef tp
  138. #undef scratch_out
  139.     }
  140.   else
  141.     {
  142.       /* |_______________________|   dividend
  143. |________________|   divisor  */
  144. #define ip           scratch /* in */
  145. #define tp           (scratch + in) /* dn+in or next_size(dn) or rest >= binvert_itch(in) */
  146. #define scratch_out  (scratch + in + tn)/* mulmod_bnm1_itch(next_size(dn)) */
  147.       /* Compute half-sized inverse.  */
  148.       in = qn - (qn >> 1);
  149.       mpn_binvert (ip, dp, in, tp);
  150.       mpn_mullo_n (qp, np, ip, in); /* low `in' quotient limbs */
  151.       if (BELOW_THRESHOLD (in, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  152. mpn_mul (tp, dp, dn, qp, in); /* mulhigh */
  153.       else
  154. {
  155.   tn = mpn_mulmod_bnm1_next_size (dn);
  156.   mpn_mulmod_bnm1 (tp, tn, dp, dn, qp, in, scratch_out);
  157.   wn = dn + in - tn; /* number of wrapped limbs */
  158.   if (wn > 0)
  159.     {
  160.       c0 = mpn_sub_n (tp + tn, tp, np, wn);
  161.       mpn_decr_u (tp + wn, c0);
  162.     }
  163. }
  164.       qp += in;
  165.       qn -= in;
  166.       cy = mpn_sub_n (rp, np + in, tp + in, dn);
  167.       mpn_mullo_n (qp, rp, ip, qn); /* high qn quotient limbs */
  168.       if (BELOW_THRESHOLD (qn, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  169. mpn_mul (tp, dp, dn, qp, qn); /* mulhigh */
  170.       else
  171. {
  172.   tn = mpn_mulmod_bnm1_next_size (dn);
  173.   mpn_mulmod_bnm1 (tp, tn, dp, dn, qp, qn, scratch_out);
  174.   wn = dn + qn - tn; /* number of wrapped limbs */
  175.   if (wn > 0)
  176.     {
  177.       c0 = mpn_sub_n (tp + tn, tp, rp, wn);
  178.       mpn_decr_u (tp + wn, c0);
  179.     }
  180. }
  181.       cy += mpn_sub_n (rp, rp + qn, tp + qn, dn - qn);
  182.       if (cy == 2)
  183. {
  184.   mpn_incr_u (tp + dn, 1);
  185.   cy = 1;
  186. }
  187.       return mpn_sub_nc (rp + dn - qn, np + dn + in, tp + dn, qn, cy);
  188. #undef ip
  189. #undef tp
  190. #undef scratch_out
  191.     }
  192. }
  193. mp_size_t
  194. mpn_mu_bdiv_qr_itch (mp_size_t nn, mp_size_t dn)
  195. {
  196.   mp_size_t qn, in, tn, itch_binvert, itch_out, itches;
  197.   mp_size_t b;
  198.   qn = nn - dn;
  199.   if (qn > dn)
  200.     {
  201.       b = (qn - 1) / dn + 1; /* ceil(qn/dn), number of blocks */
  202.       in = (qn - 1) / b + 1; /* ceil(qn/b) = ceil(qn / ceil(qn/dn)) */
  203.       if (BELOW_THRESHOLD (in, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  204. {
  205.   tn = dn + in;
  206.   itch_out = 0;
  207. }
  208.       else
  209. {
  210.   tn = mpn_mulmod_bnm1_next_size (dn);
  211.   itch_out = mpn_mulmod_bnm1_itch (tn, dn, in);
  212. }
  213.       itch_binvert = mpn_binvert_itch (in);
  214.       itches = tn + itch_out;
  215.       return in + MAX (itches, itch_binvert);
  216.     }
  217.   else
  218.     {
  219.       in = qn - (qn >> 1);
  220.       if (BELOW_THRESHOLD (in, MUL_TO_MULMOD_BNM1_FOR_2NXN_THRESHOLD))
  221. {
  222.   tn = dn + in;
  223.   itch_out = 0;
  224. }
  225.       else
  226. {
  227.   tn = mpn_mulmod_bnm1_next_size (dn);
  228.   itch_out = mpn_mulmod_bnm1_itch (tn, dn, in);
  229. }
  230.     }
  231.   itch_binvert = mpn_binvert_itch (in);
  232.   itches = tn + itch_out;
  233.   return in + MAX (itches, itch_binvert);
  234. }