sub.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:9k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpf_sub -- Subtract two floats.
  2. Copyright 1993, 1994, 1995, 1996, 1999, 2000, 2001, 2002, 2004, 2005 Free
  3. Software Foundation, Inc.
  4. This file is part of the GNU MP Library.
  5. The GNU MP Library is free software; you can redistribute it and/or modify
  6. it under the terms of the GNU Lesser General Public License as published by
  7. the Free Software Foundation; either version 3 of the License, or (at your
  8. option) any later version.
  9. The GNU MP Library is distributed in the hope that it will be useful, but
  10. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  11. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  12. License for more details.
  13. You should have received a copy of the GNU Lesser General Public License
  14. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  15. #include "gmp.h"
  16. #include "gmp-impl.h"
  17. void
  18. mpf_sub (mpf_ptr r, mpf_srcptr u, mpf_srcptr v)
  19. {
  20.   mp_srcptr up, vp;
  21.   mp_ptr rp, tp;
  22.   mp_size_t usize, vsize, rsize;
  23.   mp_size_t prec;
  24.   mp_exp_t exp;
  25.   mp_size_t ediff;
  26.   int negate;
  27.   TMP_DECL;
  28.   usize = u->_mp_size;
  29.   vsize = v->_mp_size;
  30.   /* Handle special cases that don't work in generic code below.  */
  31.   if (usize == 0)
  32.     {
  33.       mpf_neg (r, v);
  34.       return;
  35.     }
  36.   if (vsize == 0)
  37.     {
  38.       if (r != u)
  39.         mpf_set (r, u);
  40.       return;
  41.     }
  42.   /* If signs of U and V are different, perform addition.  */
  43.   if ((usize ^ vsize) < 0)
  44.     {
  45.       __mpf_struct v_negated;
  46.       v_negated._mp_size = -vsize;
  47.       v_negated._mp_exp = v->_mp_exp;
  48.       v_negated._mp_d = v->_mp_d;
  49.       mpf_add (r, u, &v_negated);
  50.       return;
  51.     }
  52.   TMP_MARK;
  53.   /* Signs are now known to be the same.  */
  54.   negate = usize < 0;
  55.   /* Make U be the operand with the largest exponent.  */
  56.   if (u->_mp_exp < v->_mp_exp)
  57.     {
  58.       mpf_srcptr t;
  59.       t = u; u = v; v = t;
  60.       negate ^= 1;
  61.       usize = u->_mp_size;
  62.       vsize = v->_mp_size;
  63.     }
  64.   usize = ABS (usize);
  65.   vsize = ABS (vsize);
  66.   up = u->_mp_d;
  67.   vp = v->_mp_d;
  68.   rp = r->_mp_d;
  69.   prec = r->_mp_prec + 1;
  70.   exp = u->_mp_exp;
  71.   ediff = u->_mp_exp - v->_mp_exp;
  72.   /* If ediff is 0 or 1, we might have a situation where the operands are
  73.      extremely close.  We need to scan the operands from the most significant
  74.      end ignore the initial parts that are equal.  */
  75.   if (ediff <= 1)
  76.     {
  77.       if (ediff == 0)
  78. {
  79.   /* Skip leading limbs in U and V that are equal.  */
  80.   if (up[usize - 1] == vp[vsize - 1])
  81.     {
  82.       /* This loop normally exits immediately.  Optimize for that.  */
  83.       do
  84. {
  85.   usize--;
  86.   vsize--;
  87.   exp--;
  88.   if (usize == 0)
  89.     {
  90.                       /* u cancels high limbs of v, result is rest of v */
  91.       negate ^= 1;
  92.                     cancellation:
  93.                       /* strip high zeros before truncating to prec */
  94.                       while (vsize != 0 && vp[vsize - 1] == 0)
  95.                         {
  96.                           vsize--;
  97.                           exp--;
  98.                         }
  99.       if (vsize > prec)
  100. {
  101.   vp += vsize - prec;
  102.   vsize = prec;
  103. }
  104.                       MPN_COPY_INCR (rp, vp, vsize);
  105.                       rsize = vsize;
  106.                       goto done;
  107.     }
  108.   if (vsize == 0)
  109.     {
  110.                       vp = up;
  111.                       vsize = usize;
  112.                       goto cancellation;
  113.     }
  114. }
  115.       while (up[usize - 1] == vp[vsize - 1]);
  116.     }
  117.   if (up[usize - 1] < vp[vsize - 1])
  118.     {
  119.       /* For simplicity, swap U and V.  Note that since the loop above
  120.  wouldn't have exited unless up[usize - 1] and vp[vsize - 1]
  121.  were non-equal, this if-statement catches all cases where U
  122.  is smaller than V.  */
  123.       MPN_SRCPTR_SWAP (up,usize, vp,vsize);
  124.       negate ^= 1;
  125.       /* negating ediff not necessary since it is 0.  */
  126.     }
  127.   /* Check for
  128.      x+1 00000000 ...
  129.       x  ffffffff ... */
  130.   if (up[usize - 1] != vp[vsize - 1] + 1)
  131.     goto general_case;
  132.   usize--;
  133.   vsize--;
  134.   exp--;
  135. }
  136.       else /* ediff == 1 */
  137. {
  138.   /* Check for
  139.      1 00000000 ...
  140.      0 ffffffff ... */
  141.   if (up[usize - 1] != 1 || vp[vsize - 1] != GMP_NUMB_MAX
  142.       || (usize >= 2 && up[usize - 2] != 0))
  143.     goto general_case;
  144.   usize--;
  145.   exp--;
  146. }
  147.       /* Skip sequences of 00000000/ffffffff */
  148.       while (vsize != 0 && usize != 0 && up[usize - 1] == 0
  149.      && vp[vsize - 1] == GMP_NUMB_MAX)
  150. {
  151.   usize--;
  152.   vsize--;
  153.   exp--;
  154. }
  155.       if (usize == 0)
  156. {
  157.   while (vsize != 0 && vp[vsize - 1] == GMP_NUMB_MAX)
  158.     {
  159.       vsize--;
  160.       exp--;
  161.     }
  162. }
  163.       if (usize > prec - 1)
  164. {
  165.   up += usize - (prec - 1);
  166.   usize = prec - 1;
  167. }
  168.       if (vsize > prec - 1)
  169. {
  170.   vp += vsize - (prec - 1);
  171.   vsize = prec - 1;
  172. }
  173.       tp = TMP_ALLOC_LIMBS (prec);
  174.       {
  175. mp_limb_t cy_limb;
  176. if (vsize == 0)
  177.   {
  178.     mp_size_t size, i;
  179.     size = usize;
  180.     for (i = 0; i < size; i++)
  181.       tp[i] = up[i];
  182.     tp[size] = 1;
  183.     rsize = size + 1;
  184.     exp++;
  185.     goto normalize;
  186.   }
  187. if (usize == 0)
  188.   {
  189.     mp_size_t size, i;
  190.     size = vsize;
  191.     for (i = 0; i < size; i++)
  192.       tp[i] = ~vp[i] & GMP_NUMB_MASK;
  193.     cy_limb = 1 - mpn_add_1 (tp, tp, vsize, (mp_limb_t) 1);
  194.     rsize = vsize;
  195.     if (cy_limb == 0)
  196.       {
  197. tp[rsize] = 1;
  198. rsize++;
  199. exp++;
  200.       }
  201.     goto normalize;
  202.   }
  203. if (usize >= vsize)
  204.   {
  205.     /* uuuu     */
  206.     /* vv       */
  207.     mp_size_t size;
  208.     size = usize - vsize;
  209.     MPN_COPY (tp, up, size);
  210.     cy_limb = mpn_sub_n (tp + size, up + size, vp, vsize);
  211.     rsize = usize;
  212.   }
  213. else /* (usize < vsize) */
  214.   {
  215.     /* uuuu     */
  216.     /* vvvvvvv  */
  217.     mp_size_t size, i;
  218.     size = vsize - usize;
  219.     for (i = 0; i < size; i++)
  220.       tp[i] = ~vp[i] & GMP_NUMB_MASK;
  221.     cy_limb = mpn_sub_n (tp + size, up, vp + size, usize);
  222.     cy_limb+= mpn_sub_1 (tp + size, tp + size, usize, (mp_limb_t) 1);
  223.     cy_limb-= mpn_add_1 (tp, tp, vsize, (mp_limb_t) 1);
  224.     rsize = vsize;
  225.   }
  226. if (cy_limb == 0)
  227.   {
  228.     tp[rsize] = 1;
  229.     rsize++;
  230.     exp++;
  231.   }
  232. goto normalize;
  233.       }
  234.     }
  235. general_case:
  236.   /* If U extends beyond PREC, ignore the part that does.  */
  237.   if (usize > prec)
  238.     {
  239.       up += usize - prec;
  240.       usize = prec;
  241.     }
  242.   /* If V extends beyond PREC, ignore the part that does.
  243.      Note that this may make vsize negative.  */
  244.   if (vsize + ediff > prec)
  245.     {
  246.       vp += vsize + ediff - prec;
  247.       vsize = prec - ediff;
  248.     }
  249.   /* Allocate temp space for the result.  Allocate
  250.      just vsize + ediff later???  */
  251.   tp = TMP_ALLOC_LIMBS (prec);
  252.   if (ediff >= prec)
  253.     {
  254.       /* V completely cancelled.  */
  255.       if (tp != up)
  256. MPN_COPY (rp, up, usize);
  257.       rsize = usize;
  258.     }
  259.   else
  260.     {
  261.       /* Locate the least significant non-zero limb in (the needed
  262.  parts of) U and V, to simplify the code below.  */
  263.       for (;;)
  264. {
  265.   if (vsize == 0)
  266.     {
  267.       MPN_COPY (rp, up, usize);
  268.       rsize = usize;
  269.       goto done;
  270.     }
  271.   if (vp[0] != 0)
  272.     break;
  273.   vp++, vsize--;
  274. }
  275.       for (;;)
  276. {
  277.   if (usize == 0)
  278.     {
  279.       MPN_COPY (rp, vp, vsize);
  280.       rsize = vsize;
  281.       negate ^= 1;
  282.       goto done;
  283.     }
  284.   if (up[0] != 0)
  285.     break;
  286.   up++, usize--;
  287. }
  288.       /* uuuu     |  uuuu     |  uuuu     |  uuuu     |  uuuu    */
  289.       /* vvvvvvv  |  vv       |    vvvvv  |    v      |       vv */
  290.       if (usize > ediff)
  291. {
  292.   /* U and V partially overlaps.  */
  293.   if (ediff == 0)
  294.     {
  295.       /* Have to compare the leading limbs of u and v
  296.  to determine whether to compute u - v or v - u.  */
  297.       if (usize >= vsize)
  298. {
  299.   /* uuuu     */
  300.   /* vv       */
  301.   mp_size_t size;
  302.   size = usize - vsize;
  303.   MPN_COPY (tp, up, size);
  304.   mpn_sub_n (tp + size, up + size, vp, vsize);
  305.   rsize = usize;
  306. }
  307.       else /* (usize < vsize) */
  308. {
  309.   /* uuuu     */
  310.   /* vvvvvvv  */
  311.   mp_size_t size, i;
  312.   size = vsize - usize;
  313.   tp[0] = -vp[0] & GMP_NUMB_MASK;
  314.   for (i = 1; i < size; i++)
  315.     tp[i] = ~vp[i] & GMP_NUMB_MASK;
  316.   mpn_sub_n (tp + size, up, vp + size, usize);
  317.   mpn_sub_1 (tp + size, tp + size, usize, (mp_limb_t) 1);
  318.   rsize = vsize;
  319. }
  320.     }
  321.   else
  322.     {
  323.       if (vsize + ediff <= usize)
  324. {
  325.   /* uuuu     */
  326.   /*   v      */
  327.   mp_size_t size;
  328.   size = usize - ediff - vsize;
  329.   MPN_COPY (tp, up, size);
  330.   mpn_sub (tp + size, up + size, usize - size, vp, vsize);
  331.   rsize = usize;
  332. }
  333.       else
  334. {
  335.   /* uuuu     */
  336.   /*   vvvvv  */
  337.   mp_size_t size, i;
  338.   size = vsize + ediff - usize;
  339.   tp[0] = -vp[0] & GMP_NUMB_MASK;
  340.   for (i = 1; i < size; i++)
  341.     tp[i] = ~vp[i] & GMP_NUMB_MASK;
  342.   mpn_sub (tp + size, up, usize, vp + size, usize - ediff);
  343.   mpn_sub_1 (tp + size, tp + size, usize, (mp_limb_t) 1);
  344.   rsize = vsize + ediff;
  345. }
  346.     }
  347. }
  348.       else
  349. {
  350.   /* uuuu     */
  351.   /*      vv  */
  352.   mp_size_t size, i;
  353.   size = vsize + ediff - usize;
  354.   tp[0] = -vp[0] & GMP_NUMB_MASK;
  355.   for (i = 1; i < vsize; i++)
  356.     tp[i] = ~vp[i] & GMP_NUMB_MASK;
  357.   for (i = vsize; i < size; i++)
  358.     tp[i] = GMP_NUMB_MAX;
  359.   mpn_sub_1 (tp + size, up, usize, (mp_limb_t) 1);
  360.   rsize = size + usize;
  361. }
  362.     normalize:
  363.       /* Full normalize.  Optimize later.  */
  364.       while (rsize != 0 && tp[rsize - 1] == 0)
  365. {
  366.   rsize--;
  367.   exp--;
  368. }
  369.       MPN_COPY (rp, tp, rsize);
  370.     }
  371.  done:
  372.   r->_mp_size = negate ? -rsize : rsize;
  373.   if (rsize == 0)
  374.     exp = 0;
  375.   r->_mp_exp = exp;
  376.   TMP_FREE;
  377. }