mul_2exp.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:4k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* mpf_mul_2exp -- Multiply a float by 2^n.
  2. Copyright 1993, 1994, 1996, 2000, 2001, 2002, 2004 Free Software Foundation,
  3. Inc.
  4. This file is part of the GNU MP Library.
  5. The GNU MP Library is free software; you can redistribute it and/or modify
  6. it under the terms of the GNU Lesser General Public License as published by
  7. the Free Software Foundation; either version 3 of the License, or (at your
  8. option) any later version.
  9. The GNU MP Library is distributed in the hope that it will be useful, but
  10. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  11. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  12. License for more details.
  13. You should have received a copy of the GNU Lesser General Public License
  14. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  15. #include "gmp.h"
  16. #include "gmp-impl.h"
  17. /* Multiples of GMP_NUMB_BITS in exp simply mean an amount added to EXP(u)
  18.    to set EXP(r).  The remainder exp%GMP_NUMB_BITS is then a left shift for
  19.    the limb data.
  20.    If exp%GMP_NUMB_BITS == 0 then there's no shifting, we effectively just
  21.    do an mpz_set with changed EXP(r).  Like mpz_set we take prec+1 limbs in
  22.    this case.  Although just prec would suffice, it's nice to have
  23.    mpf_mul_2exp with exp==0 come out the same as mpz_set.
  24.    When shifting we take up to prec many limbs from the input.  Our shift is
  25.    cy = mpn_lshift (PTR(r), PTR(u)+k, size, ...), where k is the number of
  26.    low limbs dropped from u, and the carry out is stored to PTR(r)[size].
  27.    It may be noted that the low limb PTR(r)[0] doesn't incorporate bits from
  28.    PTR(u)[k-1] (when k>=1 makes that limb available).  Taking just prec
  29.    limbs from the input (with the high non-zero) is enough bits for the
  30.    application requested precision, there's no need for extra work.
  31.    If r==u the shift will have overlapping operands.  When k==0 (ie. when
  32.    usize <= prec), the overlap is supported by lshift (ie. dst == src).
  33.    But when r==u and k>=1 (ie. usize > prec), we would have an invalid
  34.    overlap (ie. mpn_lshift (rp, rp+k, ...)).  In this case we must instead
  35.    use mpn_rshift (PTR(r)+1, PTR(u)+k, size, NUMB-shift) with the carry out
  36.    stored to PTR(r)[0].  An rshift by NUMB-shift bits like this gives
  37.    identical data, it's just its overlap restrictions which differ.
  38.    Enhancements:
  39.    The way mpn_lshift is used means successive mpf_mul_2exp calls on the
  40.    same operand will accumulate low zero limbs, until prec+1 limbs is
  41.    reached.  This is wasteful for subsequent operations.  When abs_usize <=
  42.    prec, we should test the low exp%GMP_NUMB_BITS many bits of PTR(u)[0],
  43.    ie. those which would be shifted out by an mpn_rshift.  If they're zero
  44.    then use that mpn_rshift.  */
  45. void
  46. mpf_mul_2exp (mpf_ptr r, mpf_srcptr u, mp_bitcnt_t exp)
  47. {
  48.   mp_srcptr up;
  49.   mp_ptr rp = r->_mp_d;
  50.   mp_size_t usize;
  51.   mp_size_t abs_usize;
  52.   mp_size_t prec = r->_mp_prec;
  53.   mp_exp_t uexp = u->_mp_exp;
  54.   usize = u->_mp_size;
  55.   if (UNLIKELY (usize == 0))
  56.     {
  57.       r->_mp_size = 0;
  58.       r->_mp_exp = 0;
  59.       return;
  60.     }
  61.   abs_usize = ABS (usize);
  62.   up = u->_mp_d;
  63.   if (exp % GMP_NUMB_BITS == 0)
  64.     {
  65.       prec++; /* retain more precision here as we don't need
  66.    to account for carry-out here */
  67.       if (abs_usize > prec)
  68. {
  69.   up += abs_usize - prec;
  70.   abs_usize = prec;
  71. }
  72.       if (rp != up)
  73. MPN_COPY_INCR (rp, up, abs_usize);
  74.       r->_mp_exp = uexp + exp / GMP_NUMB_BITS;
  75.     }
  76.   else
  77.     {
  78.       mp_limb_t cy_limb;
  79.       mp_size_t adj;
  80.       if (abs_usize > prec)
  81. {
  82.   up += abs_usize - prec;
  83.   abs_usize = prec;
  84.   /* Use mpn_rshift since mpn_lshift operates downwards, and we
  85.      therefore would clobber part of U before using that part, in case
  86.      R is the same variable as U.  */
  87.   cy_limb = mpn_rshift (rp + 1, up, abs_usize,
  88. GMP_NUMB_BITS - exp % GMP_NUMB_BITS);
  89.   rp[0] = cy_limb;
  90.   adj = rp[abs_usize] != 0;
  91. }
  92.       else
  93. {
  94.   cy_limb = mpn_lshift (rp, up, abs_usize, exp % GMP_NUMB_BITS);
  95.   rp[abs_usize] = cy_limb;
  96.   adj = cy_limb != 0;
  97. }
  98.       abs_usize += adj;
  99.       r->_mp_exp = uexp + exp / GMP_NUMB_BITS + adj;
  100.     }
  101.   r->_mp_size = usize >= 0 ? abs_usize : -abs_usize;
  102. }