toom53_mul.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:9k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpn_toom53_mul -- Multiply {ap,an} and {bp,bn} where an is nominally 5/3
  2.    times as large as bn.  Or more accurately, (4/3)bn < an < (5/2)bn.
  3.    Contributed to the GNU project by Torbjorn Granlund and Marco Bodrato.
  4.    The idea of applying toom to unbalanced multiplication is due to Marco
  5.    Bodrato and Alberto Zanoni.
  6.    THE FUNCTION IN THIS FILE IS INTERNAL WITH A MUTABLE INTERFACE.  IT IS ONLY
  7.    SAFE TO REACH IT THROUGH DOCUMENTED INTERFACES.  IN FACT, IT IS ALMOST
  8.    GUARANTEED THAT IT WILL CHANGE OR DISAPPEAR IN A FUTURE GNU MP RELEASE.
  9. Copyright 2006, 2007, 2008 Free Software Foundation, Inc.
  10. This file is part of the GNU MP Library.
  11. The GNU MP Library is free software; you can redistribute it and/or modify
  12. it under the terms of the GNU Lesser General Public License as published by
  13. the Free Software Foundation; either version 3 of the License, or (at your
  14. option) any later version.
  15. The GNU MP Library is distributed in the hope that it will be useful, but
  16. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  17. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  18. License for more details.
  19. You should have received a copy of the GNU Lesser General Public License
  20. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  21. #include "gmp.h"
  22. #include "gmp-impl.h"
  23. /* Evaluate in: 0, +1, -1, +2, -2, 1/2, +inf
  24.   <-s-><--n--><--n--><--n--><--n-->
  25.    ___ ______ ______ ______ ______
  26.   |a4_|___a3_|___a2_|___a1_|___a0_|
  27.        |__b2|___b1_|___b0_|
  28.        <-t--><--n--><--n-->
  29.   v0  =    a0                  *  b0          #    A(0)*B(0)
  30.   v1  = (  a0+ a1+ a2+ a3+  a4)*( b0+ b1+ b2) #    A(1)*B(1)      ah  <= 4   bh <= 2
  31.   vm1 = (  a0- a1+ a2- a3+  a4)*( b0- b1+ b2) #   A(-1)*B(-1)    |ah| <= 2   bh <= 1
  32.   v2  = (  a0+2a1+4a2+8a3+16a4)*( b0+2b1+4b2) #    A(2)*B(2)      ah  <= 30  bh <= 6
  33.   vm2 = (  a0-2a1+4a2-8a3+16a4)*( b0-2b1+4b2) #    A(2)*B(2)     -9<=ah<=20 -1<=bh<=4
  34.   vh  = (16a0+8a1+4a2+2a3+  a4)*(4b0+2b1+ b2) #  A(1/2)*B(1/2)    ah  <= 30  bh <= 6
  35.   vinf=                     a4 *          b2  #  A(inf)*B(inf)
  36. */
  37. void
  38. mpn_toom53_mul (mp_ptr pp,
  39. mp_srcptr ap, mp_size_t an,
  40. mp_srcptr bp, mp_size_t bn,
  41. mp_ptr scratch)
  42. {
  43.   mp_size_t n, s, t;
  44.   mp_limb_t cy;
  45.   mp_ptr gp;
  46.   mp_ptr as1, asm1, as2, asm2, ash;
  47.   mp_ptr bs1, bsm1, bs2, bsm2, bsh;
  48.   enum toom7_flags flags;
  49.   TMP_DECL;
  50. #define a0  ap
  51. #define a1  (ap + n)
  52. #define a2  (ap + 2*n)
  53. #define a3  (ap + 3*n)
  54. #define a4  (ap + 4*n)
  55. #define b0  bp
  56. #define b1  (bp + n)
  57. #define b2  (bp + 2*n)
  58.   n = 1 + (3 * an >= 5 * bn ? (an - 1) / (size_t) 5 : (bn - 1) / (size_t) 3);
  59.   s = an - 4 * n;
  60.   t = bn - 2 * n;
  61.   ASSERT (0 < s && s <= n);
  62.   ASSERT (0 < t && t <= n);
  63.   TMP_MARK;
  64.   as1  = TMP_SALLOC_LIMBS (n + 1);
  65.   asm1 = TMP_SALLOC_LIMBS (n + 1);
  66.   as2  = TMP_SALLOC_LIMBS (n + 1);
  67.   asm2 = TMP_SALLOC_LIMBS (n + 1);
  68.   ash  = TMP_SALLOC_LIMBS (n + 1);
  69.   bs1  = TMP_SALLOC_LIMBS (n + 1);
  70.   bsm1 = TMP_SALLOC_LIMBS (n + 1);
  71.   bs2  = TMP_SALLOC_LIMBS (n + 1);
  72.   bsm2 = TMP_SALLOC_LIMBS (n + 1);
  73.   bsh  = TMP_SALLOC_LIMBS (n + 1);
  74.   gp = pp;
  75.   /* Compute as1 and asm1.  */
  76.   flags = toom7_w3_neg & mpn_toom_eval_pm1 (as1, asm1, 4, ap, n, s, gp);
  77.   /* Compute as2 and asm2. */
  78.   flags |= toom7_w1_neg & mpn_toom_eval_pm2 (as2, asm2, 4, ap, n, s, gp);
  79.   /* Compute ash = 16 a0 + 8 a1 + 4 a2 + 2 a3 + a4
  80.      = 2*(2*(2*(2*a0 + a1) + a2) + a3) + a4  */
  81. #if HAVE_NATIVE_mpn_addlsh1_n
  82.   cy = mpn_addlsh1_n (ash, a1, a0, n);
  83.   cy = 2*cy + mpn_addlsh1_n (ash, a2, ash, n);
  84.   cy = 2*cy + mpn_addlsh1_n (ash, a3, ash, n);
  85.   if (s < n)
  86.     {
  87.       mp_limb_t cy2;
  88.       cy2 = mpn_addlsh1_n (ash, a4, ash, s);
  89.       ash[n] = 2*cy + mpn_lshift (ash + s, ash + s, n - s, 1);
  90.       MPN_INCR_U (ash + s, n+1-s, cy2);
  91.     }
  92.   else
  93.     ash[n] = 2*cy + mpn_addlsh1_n (ash, a4, ash, n);
  94. #else
  95.   cy = mpn_lshift (ash, a0, n, 1);
  96.   cy += mpn_add_n (ash, ash, a1, n);
  97.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  98.   cy += mpn_add_n (ash, ash, a2, n);
  99.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  100.   cy += mpn_add_n (ash, ash, a3, n);
  101.   cy = 2*cy + mpn_lshift (ash, ash, n, 1);
  102.   ash[n] = cy + mpn_add (ash, ash, n, a4, s);
  103. #endif
  104.   /* Compute bs1 and bsm1.  */
  105.   bs1[n] = mpn_add (bs1, b0, n, b2, t); /* b0 + b2 */
  106. #if HAVE_NATIVE_mpn_add_n_sub_n
  107.   if (bs1[n] == 0 && mpn_cmp (bs1, b1, n) < 0)
  108.     {
  109.       bs1[n] = mpn_add_n_sub_n (bs1, bsm1, b1, bs1, n) >> 1;
  110.       bsm1[n] = 0;
  111.       flags ^= toom7_w3_neg;
  112.     }
  113.   else
  114.     {
  115.       cy = mpn_add_n_sub_n (bs1, bsm1, bs1, b1, n);
  116.       bsm1[n] = bs1[n] - (cy & 1);
  117.       bs1[n] += (cy >> 1);
  118.     }
  119. #else
  120.   if (bs1[n] == 0 && mpn_cmp (bs1, b1, n) < 0)
  121.     {
  122.       mpn_sub_n (bsm1, b1, bs1, n);
  123.       bsm1[n] = 0;
  124.       flags ^= toom7_w3_neg;
  125.     }
  126.   else
  127.     {
  128.       bsm1[n] = bs1[n] - mpn_sub_n (bsm1, bs1, b1, n);
  129.     }
  130.   bs1[n] += mpn_add_n (bs1, bs1, b1, n);  /* b0+b1+b2 */
  131. #endif
  132.   /* Compute bs2 and bsm2. */
  133. #if HAVE_NATIVE_mpn_addlsh_n || HAVE_NATIVE_mpn_addlsh2_n
  134. #if HAVE_NATIVE_mpn_addlsh2_n
  135.   cy = mpn_addlsh2_n (bs2, b0, b2, t);
  136. #else /* HAVE_NATIVE_mpn_addlsh_n */
  137.   cy = mpn_addlsh_n (bs2, b0, b2, t, 2);
  138. #endif
  139.   if (t < n)
  140.     cy = mpn_add_1 (bs2 + t, b0 + t, n - t, cy);
  141.   bs2[n] = cy;
  142. #else
  143.   cy = mpn_lshift (gp, b2, t, 2);
  144.   bs2[n] = mpn_add (bs2, b0, n, gp, t);
  145.   MPN_INCR_U (bs2 + t, n+1-t, cy);
  146. #endif
  147.   gp[n] = mpn_lshift (gp, b1, n, 1);
  148. #if HAVE_NATIVE_mpn_add_n_sub_n
  149.   if (mpn_cmp (bs2, gp, n+1) < 0)
  150.     {
  151.       ASSERT_NOCARRY (mpn_add_n_sub_n (bs2, bsm2, gp, bs2, n+1));
  152.       flags ^= toom7_w1_neg;
  153.     }
  154.   else
  155.     {
  156.       ASSERT_NOCARRY (mpn_add_n_sub_n (bs2, bsm2, bs2, gp, n+1));
  157.     }
  158. #else
  159.   if (mpn_cmp (bs2, gp, n+1) < 0)
  160.     {
  161.       ASSERT_NOCARRY (mpn_sub_n (bsm2, gp, bs2, n+1));
  162.       flags ^= toom7_w1_neg;
  163.     }
  164.   else
  165.     {
  166.       ASSERT_NOCARRY (mpn_sub_n (bsm2, bs2, gp, n+1));
  167.     }
  168.   mpn_add_n (bs2, bs2, gp, n+1);
  169. #endif
  170.   /* Compute bsh = 4 b0 + 2 b1 + b0 = 2*(2*b0 + b1)+b0.  */
  171. #if HAVE_NATIVE_mpn_addlsh1_n
  172.   cy = mpn_addlsh1_n (bsh, b1, b0, n);
  173.   if (t < n)
  174.     {
  175.       mp_limb_t cy2;
  176.       cy2 = mpn_addlsh1_n (bsh, b2, bsh, t);
  177.       bsh[n] = 2*cy + mpn_lshift (bsh + t, bsh + t, n - t, 1);
  178.       MPN_INCR_U (bsh + t, n+1-t, cy2);
  179.     }
  180.   else
  181.     bsh[n] = 2*cy + mpn_addlsh1_n (bsh, b2, bsh, n);
  182. #else
  183.   cy = mpn_lshift (bsh, b0, n, 1);
  184.   cy += mpn_add_n (bsh, bsh, b1, n);
  185.   cy = 2*cy + mpn_lshift (bsh, bsh, n, 1);
  186.   bsh[n] = cy + mpn_add (bsh, bsh, n, b2, t);
  187. #endif
  188.   ASSERT (as1[n] <= 4);
  189.   ASSERT (bs1[n] <= 2);
  190.   ASSERT (asm1[n] <= 2);
  191.   ASSERT (bsm1[n] <= 1);
  192.   ASSERT (as2[n] <= 30);
  193.   ASSERT (bs2[n] <= 6);
  194.   ASSERT (asm2[n] <= 20);
  195.   ASSERT (bsm2[n] <= 4);
  196.   ASSERT (ash[n] <= 30);
  197.   ASSERT (bsh[n] <= 6);
  198. #define v0    pp /* 2n */
  199. #define v1    (pp + 2 * n) /* 2n+1 */
  200. #define vinf  (pp + 6 * n) /* s+t */
  201. #define v2    scratch /* 2n+1 */
  202. #define vm2   (scratch + 2 * n + 1) /* 2n+1 */
  203. #define vh    (scratch + 4 * n + 2) /* 2n+1 */
  204. #define vm1   (scratch + 6 * n + 3) /* 2n+1 */
  205. #define scratch_out (scratch + 8 * n + 4) /* 2n+1 */
  206.   /* Total scratch need: 10*n+5 */
  207.   /* Must be in allocation order, as they overwrite one limb beyond
  208.    * 2n+1. */
  209.   mpn_mul_n (v2, as2, bs2, n + 1); /* v2, 2n+1 limbs */
  210.   mpn_mul_n (vm2, asm2, bsm2, n + 1); /* vm2, 2n+1 limbs */
  211.   mpn_mul_n (vh, ash, bsh, n + 1); /* vh, 2n+1 limbs */
  212.   /* vm1, 2n+1 limbs */
  213. #ifdef SMALLER_RECURSION
  214.   mpn_mul_n (vm1, asm1, bsm1, n);
  215.   if (asm1[n] == 1)
  216.     {
  217.       cy = bsm1[n] + mpn_add_n (vm1 + n, vm1 + n, bsm1, n);
  218.     }
  219.   else if (asm1[n] == 2)
  220.     {
  221. #if HAVE_NATIVE_mpn_addlsh1_n
  222.       cy = 2 * bsm1[n] + mpn_addlsh1_n (vm1 + n, vm1 + n, bsm1, n);
  223. #else
  224.       cy = 2 * bsm1[n] + mpn_addmul_1 (vm1 + n, bsm1, n, CNST_LIMB(2));
  225. #endif
  226.     }
  227.   else
  228.     cy = 0;
  229.   if (bsm1[n] != 0)
  230.     cy += mpn_add_n (vm1 + n, vm1 + n, asm1, n);
  231.   vm1[2 * n] = cy;
  232. #else /* SMALLER_RECURSION */
  233.   vm1[2 * n] = 0;
  234.   mpn_mul_n (vm1, asm1, bsm1, n + ((asm1[n] | bsm1[n]) != 0));
  235. #endif /* SMALLER_RECURSION */
  236.   /* v1, 2n+1 limbs */
  237. #ifdef SMALLER_RECURSION
  238.   mpn_mul_n (v1, as1, bs1, n);
  239.   if (as1[n] == 1)
  240.     {
  241.       cy = bs1[n] + mpn_add_n (v1 + n, v1 + n, bs1, n);
  242.     }
  243.   else if (as1[n] == 2)
  244.     {
  245. #if HAVE_NATIVE_mpn_addlsh1_n
  246.       cy = 2 * bs1[n] + mpn_addlsh1_n (v1 + n, v1 + n, bs1, n);
  247. #else
  248.       cy = 2 * bs1[n] + mpn_addmul_1 (v1 + n, bs1, n, CNST_LIMB(2));
  249. #endif
  250.     }
  251.   else if (as1[n] != 0)
  252.     {
  253.       cy = as1[n] * bs1[n] + mpn_addmul_1 (v1 + n, bs1, n, as1[n]);
  254.     }
  255.   else
  256.     cy = 0;
  257.   if (bs1[n] == 1)
  258.     {
  259.       cy += mpn_add_n (v1 + n, v1 + n, as1, n);
  260.     }
  261.   else if (bs1[n] == 2)
  262.     {
  263. #if HAVE_NATIVE_mpn_addlsh1_n
  264.       cy += mpn_addlsh1_n (v1 + n, v1 + n, as1, n);
  265. #else
  266.       cy += mpn_addmul_1 (v1 + n, as1, n, CNST_LIMB(2));
  267. #endif
  268.     }
  269.   v1[2 * n] = cy;
  270. #else /* SMALLER_RECURSION */
  271.   v1[2 * n] = 0;
  272.   mpn_mul_n (v1, as1, bs1, n + ((as1[n] | bs1[n]) != 0));
  273. #endif /* SMALLER_RECURSION */
  274.   mpn_mul_n (v0, a0, b0, n); /* v0, 2n limbs */
  275.   /* vinf, s+t limbs */
  276.   if (s > t)  mpn_mul (vinf, a4, s, b2, t);
  277.   else        mpn_mul (vinf, b2, t, a4, s);
  278.   mpn_toom_interpolate_7pts (pp, n, flags, vm2, vm1, v2, vh, s + t,
  279.      scratch_out);
  280.   TMP_FREE;
  281. }