mode1o.c
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:5k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. /* UltraSPARC 64 mpn_modexact_1c_odd -- mpn by limb exact style remainder.
  2.    THE FUNCTIONS IN THIS FILE ARE FOR INTERNAL USE ONLY.  THEY'RE ALMOST
  3.    CERTAIN TO BE SUBJECT TO INCOMPATIBLE CHANGES OR DISAPPEAR COMPLETELY IN
  4.    FUTURE GNU MP RELEASES.
  5. Copyright 2000, 2001, 2002, 2003 Free Software Foundation, Inc.
  6. This file is part of the GNU MP Library.
  7. The GNU MP Library is free software; you can redistribute it and/or modify
  8. it under the terms of the GNU Lesser General Public License as published by
  9. the Free Software Foundation; either version 3 of the License, or (at your
  10. option) any later version.
  11. The GNU MP Library is distributed in the hope that it will be useful, but
  12. WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  13. or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  14. License for more details.
  15. You should have received a copy of the GNU Lesser General Public License
  16. along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.  */
  17. #include "gmp.h"
  18. #include "gmp-impl.h"
  19. #include "longlong.h"
  20. #include "mpn/sparc64/sparc64.h"
  21. /*                 64-bit divisor   32-bit divisor
  22.                     cycles/limb      cycles/limb
  23.                      (approx)         (approx)
  24.    Ultrasparc 2i:       ?                ?
  25. */
  26. /* This implementation reduces the number of multiplies done, knowing that
  27.    on ultrasparc 1 and 2 the mulx instruction stalls the whole chip.
  28.    The key idea is to use the fact that the low limb of q*d equals l, this
  29.    being the whole purpose of the q calculated.  It means there's no need to
  30.    calculate the lowest 32x32->64 part of the q*d, instead it can be
  31.    inferred from l and the other three 32x32->64 parts.  See sparc64.h for
  32.    details.
  33.    When d is 32-bits, the same applies, but in this case there's only one
  34.    other 32x32->64 part (ie. HIGH(q)*d).
  35.    The net effect is that for 64-bit divisor each limb is 4 mulx, or for
  36.    32-bit divisor each is 2 mulx.
  37.    Enhancements:
  38.    No doubt this could be done in assembler, if that helped the scheduling,
  39.    or perhaps guaranteed good code irrespective of the compiler.
  40.    Alternatives:
  41.    It might be possibly to use floating point.  The loop is dominated by
  42.    multiply latency, so not sure if floats would improve that.  One
  43.    possibility would be to take two limbs at a time, with a 128 bit inverse,
  44.    if there's enough registers, which could effectively use float throughput
  45.    to reduce total latency across two limbs.  */
  46. #define ASSERT_RETVAL(r)                
  47.   ASSERT (orig_c < d ? r < d : r <= d)
  48. mp_limb_t
  49. mpn_modexact_1c_odd (mp_srcptr src, mp_size_t size, mp_limb_t d, mp_limb_t orig_c)
  50. {
  51.   mp_limb_t  c = orig_c;
  52.   mp_limb_t  s, l, q, h, inverse;
  53.   ASSERT (size >= 1);
  54.   ASSERT (d & 1);
  55.   ASSERT_MPN (src, size);
  56.   ASSERT_LIMB (d);
  57.   ASSERT_LIMB (c);
  58.   /* udivx is faster than 10 or 12 mulx's for one limb via an inverse */
  59.   if (size == 1)
  60.     {
  61.       s = src[0];
  62.       if (s > c)
  63. {
  64.   l = s-c;
  65.   h = l % d;
  66.   if (h != 0)
  67.     h = d - h;
  68. }
  69.       else
  70. {
  71.   l = c-s;
  72.   h = l % d;
  73. }
  74.       return h;
  75.     }
  76.   binvert_limb (inverse, d);
  77.   if (d <= 0xFFFFFFFF)
  78.     {
  79.       s = *src++;
  80.       size--;
  81.       do
  82.         {
  83.           SUBC_LIMB (c, l, s, c);
  84.           s = *src++;
  85.           q = l * inverse;
  86.           umul_ppmm_half_lowequal (h, q, d, l);
  87.           c += h;
  88.           size--;
  89.         }
  90.       while (size != 0);
  91.       if (s <= d)
  92.         {
  93.           /* With high s <= d the final step can be a subtract and addback.
  94.              If c==0 then the addback will restore to l>=0.  If c==d then
  95.              will get l==d if s==0, but that's ok per the function
  96.              definition.  */
  97.           l = c - s;
  98.           l += (l > c ? d : 0);
  99.           ASSERT_RETVAL (l);
  100.           return l;
  101.         }
  102.       else
  103.         {
  104.           /* Can't skip a divide, just do the loop code once more. */
  105.           SUBC_LIMB (c, l, s, c);
  106.           q = l * inverse;
  107.           umul_ppmm_half_lowequal (h, q, d, l);
  108.           c += h;
  109.           ASSERT_RETVAL (c);
  110.           return c;
  111.         }
  112.     }
  113.   else
  114.     {
  115.       mp_limb_t  dl = LOW32 (d);
  116.       mp_limb_t  dh = HIGH32 (d);
  117.       long i;
  118.       s = *src++;
  119.       size--;
  120.       do
  121.         {
  122.           SUBC_LIMB (c, l, s, c);
  123.           s = *src++;
  124.           q = l * inverse;
  125.           umul_ppmm_lowequal (h, q, d, dh, dl, l);
  126.           c += h;
  127.           size--;
  128.         }
  129.       while (size != 0);
  130.       if (s <= d)
  131.         {
  132.           /* With high s <= d the final step can be a subtract and addback.
  133.              If c==0 then the addback will restore to l>=0.  If c==d then
  134.              will get l==d if s==0, but that's ok per the function
  135.              definition.  */
  136.           l = c - s;
  137.           l += (l > c ? d : 0);
  138.           ASSERT_RETVAL (l);
  139.           return l;
  140.         }
  141.       else
  142.         {
  143.           /* Can't skip a divide, just do the loop code once more. */
  144.           SUBC_LIMB (c, l, s, c);
  145.           q = l * inverse;
  146.           umul_ppmm_lowequal (h, q, d, dh, dl, l);
  147.           c += h;
  148.           ASSERT_RETVAL (c);
  149.           return c;
  150.         }
  151.     }
  152. }