toom62_mul.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:8k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpn_toom62_mul -- Multiply {ap,an} and {bp,bn} where an is nominally 3 times
  2.    as large as bn.  Or more accurately, (5/2)bn < an < 6bn.
  3.    Contributed to the GNU project by Torbjorn Granlund and Marco Bodrato.
  4.    The idea of applying toom to unbalanced multiplication is due to Marco
  5.    Bodrato and Alberto Zanoni.
  6.    THE FUNCTION IN THIS FILE IS INTERNAL WITH A MUTABLE INTERFACE.  IT IS ONLY
  7.    SAFE TO REACH IT THROUGH DOCUMENTED INTERFACES.  IN FACT, IT IS ALMOST
  8.    GUARANTEED THAT IT WILL CHANGE OR DISAPPEAR IN A FUTURE GNU MP RELEASE.
  9. Copyright 2006, 2007, 2008 Free Software Foundation, Inc.
  10. This file is part of the GNU MP Library.
  11. The GNU MP Library is free software; you can redistribute it and/or modify
  12. it under the terms of the GNU Lesser General Public License as published by
  13. the Free Software Foundation; either version 3 of the License, or (at your
  14. option) any later version.
  15. The GNU MP Library is distributed in the hope that it will be useful, but
  16. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  17. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  18. License for more details.
  19. You should have received a copy of the GNU Lesser General Public License
  20. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  21. #include "gmp.h"
  22. #include "gmp-impl.h"
  23. /* Evaluate in:
  24.    0, +1, -1, +2, -2, 1/2, +inf
  25.   <-s-><--n--><--n--><--n--><--n--><--n-->
  26.    ___ ______ ______ ______ ______ ______
  27.   |a5_|___a4_|___a3_|___a2_|___a1_|___a0_|
  28.      |_b1_|___b0_|
  29.      <-t--><--n-->
  30.   v0  =    a0                       *   b0      #    A(0)*B(0)
  31.   v1  = (  a0+  a1+ a2+ a3+  a4+  a5)*( b0+ b1) #    A(1)*B(1)      ah  <= 5   bh <= 1
  32.   vm1 = (  a0-  a1+ a2- a3+  a4-  a5)*( b0- b1) #   A(-1)*B(-1)    |ah| <= 2   bh  = 0
  33.   v2  = (  a0+ 2a1+4a2+8a3+16a4+32a5)*( b0+2b1) #    A(2)*B(2)      ah  <= 62  bh <= 2
  34.   vm2 = (  a0- 2a1+4a2-8a3+16a4-32a5)*( b0-2b1) #   A(-2)*B(-2)    -41<=ah<=20 -1<=bh<=0
  35.   vh  = (32a0+16a1+8a2+4a3+ 2a4+  a5)*(2b0+ b1) #  A(1/2)*B(1/2)    ah  <= 62  bh <= 2
  36.   vinf=                           a5 *      b1  #  A(inf)*B(inf)
  37. */
  38. void
  39. mpn_toom62_mul (mp_ptr pp,
  40. mp_srcptr ap, mp_size_t an,
  41. mp_srcptr bp, mp_size_t bn,
  42. mp_ptr scratch)
  43. {
  44.   mp_size_t n, s, t;
  45.   mp_limb_t cy;
  46.   mp_ptr as1, asm1, as2, asm2, ash;
  47.   mp_ptr bs1, bsm1, bs2, bsm2, bsh;
  48.   mp_ptr gp;
  49.   enum toom7_flags aflags, bflags;
  50.   TMP_DECL;
  51. #define a0  ap
  52. #define a1  (ap + n)
  53. #define a2  (ap + 2*n)
  54. #define a3  (ap + 3*n)
  55. #define a4  (ap + 4*n)
  56. #define a5  (ap + 5*n)
  57. #define b0  bp
  58. #define b1  (bp + n)
  59.   n = 1 + (an >= 3 * bn ? (an - 1) / (size_t) 6 : (bn - 1) >> 1);
  60.   s = an - 5 * n;
  61.   t = bn - n;
  62.   ASSERT (0 < s && s <= n);
  63.   ASSERT (0 < t && t <= n);
  64.   TMP_MARK;
  65.   as1 = TMP_SALLOC_LIMBS (n + 1);
  66.   asm1 = TMP_SALLOC_LIMBS (n + 1);
  67.   as2 = TMP_SALLOC_LIMBS (n + 1);
  68.   asm2 = TMP_SALLOC_LIMBS (n + 1);
  69.   ash = TMP_SALLOC_LIMBS (n + 1);
  70.   bs1 = TMP_SALLOC_LIMBS (n + 1);
  71.   bsm1 = TMP_SALLOC_LIMBS (n);
  72.   bs2 = TMP_SALLOC_LIMBS (n + 1);
  73.   bsm2 = TMP_SALLOC_LIMBS (n + 1);
  74.   bsh = TMP_SALLOC_LIMBS (n + 1);
  75.   gp = pp;
  76.   /* Compute as1 and asm1.  */
  77.   aflags = toom7_w3_neg & mpn_toom_eval_pm1 (as1, asm1, 5, ap, n, s, gp);
  78.   /* Compute as2 and asm2. */
  79.   aflags |= toom7_w1_neg & mpn_toom_eval_pm2 (as2, asm2, 5, ap, n, s, gp);
  80.   /* Compute ash = 32 a0 + 16 a1 + 8 a2 + 4 a3 + 2 a4 + a5
  81.      = 2*(2*(2*(2*(2*a0 + a1) + a2) + a3) + a4) + a5  */
  82. #if HAVE_NATIVE_mpn_addlsh1_n
  83.   cy = mpn_addlsh1_n (ash, a1, a0, n);
  84.   cy = 2*cy + mpn_addlsh1_n (ash, a2, ash, n);
  85.   cy = 2*cy + mpn_addlsh1_n (ash, a3, ash, n);
  86.   cy = 2*cy + mpn_addlsh1_n (ash, a4, ash, n);
  87.   if (s < n)
  88.     {
  89.       mp_limb_t cy2;
  90.       cy2 = mpn_addlsh1_n (ash, a5, ash, s);
  91.       ash[n] = 2*cy + mpn_lshift (ash + s, ash + s, n - s, 1);
  92.       MPN_INCR_U (ash + s, n+1-s, cy2);
  93.     }
  94.   else
  95.     ash[n] = 2*cy + mpn_addlsh1_n (ash, a5, ash, n);
  96. #else
  97.   cy = mpn_lshift (ash, a0, n, 1);
  98.   cy += mpn_add_n (ash, ash, a1, n);
  99.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  100.   cy += mpn_add_n (ash, ash, a2, n);
  101.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  102.   cy += mpn_add_n (ash, ash, a3, n);
  103.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  104.   cy += mpn_add_n (ash, ash, a4, n);
  105.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  106.   ash[n] = cy + mpn_add (ash, ash, n, a5, s);
  107. #endif
  108.   /* Compute bs1 and bsm1.  */
  109.   if (t == n)
  110.     {
  111. #if HAVE_NATIVE_mpn_add_n_sub_n
  112.       if (mpn_cmp (b0, b1, n) < 0)
  113. {
  114.   cy = mpn_add_n_sub_n (bs1, bsm1, b1, b0, n);
  115.   bflags = toom7_w3_neg;
  116. }
  117.       else
  118. {
  119.   cy = mpn_add_n_sub_n (bs1, bsm1, b0, b1, n);
  120.   bflags = 0;
  121. }
  122.       bs1[n] = cy >> 1;
  123. #else
  124.       bs1[n] = mpn_add_n (bs1, b0, b1, n);
  125.       if (mpn_cmp (b0, b1, n) < 0)
  126. {
  127.   mpn_sub_n (bsm1, b1, b0, n);
  128.   bflags = toom7_w3_neg;
  129. }
  130.       else
  131. {
  132.   mpn_sub_n (bsm1, b0, b1, n);
  133.   bflags = 0;
  134. }
  135. #endif
  136.     }
  137.   else
  138.     {
  139.       bs1[n] = mpn_add (bs1, b0, n, b1, t);
  140.       if (mpn_zero_p (b0 + t, n - t) && mpn_cmp (b0, b1, t) < 0)
  141. {
  142.   mpn_sub_n (bsm1, b1, b0, t);
  143.   MPN_ZERO (bsm1 + t, n - t);
  144.   bflags = toom7_w3_neg;
  145. }
  146.       else
  147. {
  148.   mpn_sub (bsm1, b0, n, b1, t);
  149.   bflags = 0;
  150. }
  151.     }
  152.   /* Compute bs2 and bsm2. Recycling bs1 and bsm1; bs2=bs1+b1, bsm2 =
  153.      bsm1 - b1 */
  154.   mpn_add (bs2, bs1, n + 1, b1, t);
  155.   if (bflags & toom7_w3_neg)
  156.     {
  157.       bsm2[n] = mpn_add (bsm2, bsm1, n, b1, t);
  158.       bflags |= toom7_w1_neg;
  159.     }
  160.   else
  161.     {
  162.       /* FIXME: Simplify this logic? */
  163.       if (t < n)
  164. {
  165.   if (mpn_zero_p (bsm1 + t, n - t) && mpn_cmp (bsm1, b1, t) < 0)
  166.     {
  167.       ASSERT_NOCARRY (mpn_sub_n (bsm2, b1, bsm1, t));
  168.       MPN_ZERO (bsm2 + t, n + 1 - t);
  169.       bflags |= toom7_w1_neg;
  170.     }
  171.   else
  172.     {
  173.       ASSERT_NOCARRY (mpn_sub (bsm2, bsm1, n, b1, t));
  174.       bsm2[n] = 0;
  175.     }
  176. }
  177.       else
  178. {
  179.   if (mpn_cmp (bsm1, b1, n) < 0)
  180.     {
  181.       ASSERT_NOCARRY (mpn_sub_n (bsm2, b1, bsm1, n));
  182.       bflags |= toom7_w1_neg;
  183.     }
  184.   else
  185.     {
  186.       ASSERT_NOCARRY (mpn_sub (bsm2, bsm1, n, b1, n));
  187.     }
  188.   bsm2[n] = 0;
  189. }
  190.     }
  191.   /* Compute bsh, recycling bs1 and bsm1. bsh=bs1+b0;  */
  192.   mpn_add (bsh, bs1, n + 1, b0, n);
  193.   ASSERT (as1[n] <= 5);
  194.   ASSERT (bs1[n] <= 1);
  195.   ASSERT (asm1[n] <= 2);
  196.   ASSERT (as2[n] <= 62);
  197.   ASSERT (bs2[n] <= 2);
  198.   ASSERT (asm2[n] <= 41);
  199.   ASSERT (bsm2[n] <= 1);
  200.   ASSERT (ash[n] <= 62);
  201.   ASSERT (bsh[n] <= 2);
  202. #define v0    pp /* 2n */
  203. #define v1    (pp + 2 * n) /* 2n+1 */
  204. #define vinf  (pp + 6 * n) /* s+t */
  205. #define v2    scratch /* 2n+1 */
  206. #define vm2   (scratch + 2 * n + 1) /* 2n+1 */
  207. #define vh    (scratch + 4 * n + 2) /* 2n+1 */
  208. #define vm1   (scratch + 6 * n + 3) /* 2n+1 */
  209. #define scratch_out (scratch + 8 * n + 4) /* 2n+1 */
  210.   /* Total scratch need: 10*n+5 */
  211.   /* Must be in allocation order, as they overwrite one limb beyond
  212.    * 2n+1. */
  213.   mpn_mul_n (v2, as2, bs2, n + 1); /* v2, 2n+1 limbs */
  214.   mpn_mul_n (vm2, asm2, bsm2, n + 1); /* vm2, 2n+1 limbs */
  215.   mpn_mul_n (vh, ash, bsh, n + 1); /* vh, 2n+1 limbs */
  216.   /* vm1, 2n+1 limbs */
  217.   mpn_mul_n (vm1, asm1, bsm1, n);
  218.   cy = 0;
  219.   if (asm1[n] == 1)
  220.     {
  221.       cy = mpn_add_n (vm1 + n, vm1 + n, bsm1, n);
  222.     }
  223.   else if (asm1[n] == 2)
  224.     {
  225. #if HAVE_NATIVE_mpn_addlsh1_n
  226.       cy = mpn_addlsh1_n (vm1 + n, vm1 + n, bsm1, n);
  227. #else
  228.       cy = mpn_addmul_1 (vm1 + n, bsm1, n, CNST_LIMB(2));
  229. #endif
  230.     }
  231.   vm1[2 * n] = cy;
  232.   /* v1, 2n+1 limbs */
  233.   mpn_mul_n (v1, as1, bs1, n);
  234.   if (as1[n] == 1)
  235.     {
  236.       cy = bs1[n] + mpn_add_n (v1 + n, v1 + n, bs1, n);
  237.     }
  238.   else if (as1[n] == 2)
  239.     {
  240. #if HAVE_NATIVE_mpn_addlsh1_n
  241.       cy = 2 * bs1[n] + mpn_addlsh1_n (v1 + n, v1 + n, bs1, n);
  242. #else
  243.       cy = 2 * bs1[n] + mpn_addmul_1 (v1 + n, bs1, n, CNST_LIMB(2));
  244. #endif
  245.     }
  246.   else if (as1[n] != 0)
  247.     {
  248.       cy = as1[n] * bs1[n] + mpn_addmul_1 (v1 + n, bs1, n, as1[n]);
  249.     }
  250.   else
  251.     cy = 0;
  252.   if (bs1[n] != 0)
  253.     cy += mpn_add_n (v1 + n, v1 + n, as1, n);
  254.   v1[2 * n] = cy;
  255.   mpn_mul_n (v0, a0, b0, n); /* v0, 2n limbs */
  256.   /* vinf, s+t limbs */
  257.   if (s > t)  mpn_mul (vinf, a5, s, b1, t);
  258.   else        mpn_mul (vinf, b1, t, a5, s);
  259.   mpn_toom_interpolate_7pts (pp, n, aflags ^ bflags,
  260.      vm2, vm1, v2, vh, s + t, scratch_out);
  261.   TMP_FREE;
  262. }