sub_n.S
上传用户:qaz666999
上传日期:2022-08-06
资源大小:2570k
文件大小:6k
源码类别:

数学计算

开发平台:

Unix_Linux

  1. ; mc88110 __gmpn_sub_n -- Subtract two limb vectors of the same length > 0 and
  2. ; store difference in a third limb vector.
  3. ; Copyright 1995, 1996, 2000 Free Software Foundation, Inc.
  4. ; This file is part of the GNU MP Library.
  5. ; The GNU MP Library is free software; you can redistribute it and/or modify
  6. ; it under the terms of the GNU Lesser General Public License as published by
  7. ; the Free Software Foundation; either version 3 of the License, or (at your
  8. ; option) any later version.
  9. ; The GNU MP Library is distributed in the hope that it will be useful, but
  10. ; WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
  11. ; or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
  12. ; License for more details.
  13. ; You should have received a copy of the GNU Lesser General Public License
  14. ; along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.
  15. ; INPUT PARAMETERS
  16. #define res_ptr r2
  17. #define s1_ptr r3
  18. #define s2_ptr r4
  19. #define size r5
  20. #include "sysdep.h"
  21. text
  22. align 16
  23. global C_SYMBOL_NAME(__gmpn_sub_n)
  24. C_SYMBOL_NAME(__gmpn_sub_n):
  25. subu.co  r0,r0,r0 ; set cy flag
  26. xor  r12,s2_ptr,res_ptr
  27. bb1  2,r12,L1
  28. ; **  V1a  **
  29. L0: bb0  2,res_ptr,L_v1 ; branch if res_ptr is aligned
  30. /* Add least significant limb separately to align res_ptr and s2_ptr */
  31. ld  r10,s1_ptr,0
  32. addu  s1_ptr,s1_ptr,4
  33. ld  r8,s2_ptr,0
  34. addu  s2_ptr,s2_ptr,4
  35. subu  size,size,1
  36. subu.co  r6,r10,r8
  37. st  r6,res_ptr,0
  38. addu  res_ptr,res_ptr,4
  39. L_v1: cmp  r12,size,2
  40. bb1  lt,r12,Lend2
  41. ld  r10,s1_ptr,0
  42. ld  r12,s1_ptr,4
  43. ld.d  r8,s2_ptr,0
  44. subu  size,size,10
  45. bcnd  lt0,size,Lfin1
  46. /* Add blocks of 8 limbs until less than 8 limbs remain */
  47. align  8
  48. Loop1: subu  size,size,8
  49. subu.cio r6,r10,r8
  50. ld  r10,s1_ptr,8
  51. subu.cio r7,r12,r9
  52. ld  r12,s1_ptr,12
  53. ld.d  r8,s2_ptr,8
  54. st.d  r6,res_ptr,0
  55. subu.cio r6,r10,r8
  56. ld  r10,s1_ptr,16
  57. subu.cio r7,r12,r9
  58. ld  r12,s1_ptr,20
  59. ld.d  r8,s2_ptr,16
  60. st.d  r6,res_ptr,8
  61. subu.cio r6,r10,r8
  62. ld  r10,s1_ptr,24
  63. subu.cio r7,r12,r9
  64. ld  r12,s1_ptr,28
  65. ld.d  r8,s2_ptr,24
  66. st.d  r6,res_ptr,16
  67. subu.cio r6,r10,r8
  68. ld  r10,s1_ptr,32
  69. subu.cio r7,r12,r9
  70. ld  r12,s1_ptr,36
  71. addu  s1_ptr,s1_ptr,32
  72. ld.d  r8,s2_ptr,32
  73. addu  s2_ptr,s2_ptr,32
  74. st.d  r6,res_ptr,24
  75. addu  res_ptr,res_ptr,32
  76. bcnd  ge0,size,Loop1
  77. Lfin1: addu  size,size,8-2
  78. bcnd  lt0,size,Lend1
  79. /* Add blocks of 2 limbs until less than 2 limbs remain */
  80. Loope1: subu.cio r6,r10,r8
  81. ld  r10,s1_ptr,8
  82. subu.cio r7,r12,r9
  83. ld  r12,s1_ptr,12
  84. ld.d  r8,s2_ptr,8
  85. st.d  r6,res_ptr,0
  86. subu  size,size,2
  87. addu  s1_ptr,s1_ptr,8
  88. addu  s2_ptr,s2_ptr,8
  89. addu  res_ptr,res_ptr,8
  90. bcnd  ge0,size,Loope1
  91. Lend1: subu.cio r6,r10,r8
  92. subu.cio r7,r12,r9
  93. st.d  r6,res_ptr,0
  94. bb0  0,size,Lret1
  95. /* Add last limb */
  96. ld  r10,s1_ptr,8
  97. ld  r8,s2_ptr,8
  98. subu.cio r6,r10,r8
  99. st  r6,res_ptr,8
  100. Lret1: addu.ci r2,r0,r0 ; return carry-out from most sign. limb
  101. jmp.n  r1
  102.  xor r2,r2,1
  103. L1: xor  r12,s1_ptr,res_ptr
  104. bb1  2,r12,L2
  105. ; **  V1b  **
  106. bb0  2,res_ptr,L_v1b ; branch if res_ptr is aligned
  107. /* Add least significant limb separately to align res_ptr and s1_ptr */
  108. ld  r10,s2_ptr,0
  109. addu  s2_ptr,s2_ptr,4
  110. ld  r8,s1_ptr,0
  111. addu  s1_ptr,s1_ptr,4
  112. subu  size,size,1
  113. subu.co  r6,r8,r10
  114. st  r6,res_ptr,0
  115. addu  res_ptr,res_ptr,4
  116. L_v1b: cmp  r12,size,2
  117. bb1  lt,r12,Lend2
  118. ld  r10,s2_ptr,0
  119. ld  r12,s2_ptr,4
  120. ld.d  r8,s1_ptr,0
  121. subu  size,size,10
  122. bcnd  lt0,size,Lfin1b
  123. /* Add blocks of 8 limbs until less than 8 limbs remain */
  124. align  8
  125. Loop1b: subu  size,size,8
  126. subu.cio r6,r8,r10
  127. ld  r10,s2_ptr,8
  128. subu.cio r7,r9,r12
  129. ld  r12,s2_ptr,12
  130. ld.d  r8,s1_ptr,8
  131. st.d  r6,res_ptr,0
  132. subu.cio r6,r8,r10
  133. ld  r10,s2_ptr,16
  134. subu.cio r7,r9,r12
  135. ld  r12,s2_ptr,20
  136. ld.d  r8,s1_ptr,16
  137. st.d  r6,res_ptr,8
  138. subu.cio r6,r8,r10
  139. ld  r10,s2_ptr,24
  140. subu.cio r7,r9,r12
  141. ld  r12,s2_ptr,28
  142. ld.d  r8,s1_ptr,24
  143. st.d  r6,res_ptr,16
  144. subu.cio r6,r8,r10
  145. ld  r10,s2_ptr,32
  146. subu.cio r7,r9,r12
  147. ld  r12,s2_ptr,36
  148. addu  s2_ptr,s2_ptr,32
  149. ld.d  r8,s1_ptr,32
  150. addu  s1_ptr,s1_ptr,32
  151. st.d  r6,res_ptr,24
  152. addu  res_ptr,res_ptr,32
  153. bcnd  ge0,size,Loop1b
  154. Lfin1b: addu  size,size,8-2
  155. bcnd  lt0,size,Lend1b
  156. /* Add blocks of 2 limbs until less than 2 limbs remain */
  157. Loope1b:subu.cio r6,r8,r10
  158. ld  r10,s2_ptr,8
  159. subu.cio r7,r9,r12
  160. ld  r12,s2_ptr,12
  161. ld.d  r8,s1_ptr,8
  162. st.d  r6,res_ptr,0
  163. subu  size,size,2
  164. addu  s1_ptr,s1_ptr,8
  165. addu  s2_ptr,s2_ptr,8
  166. addu  res_ptr,res_ptr,8
  167. bcnd  ge0,size,Loope1b
  168. Lend1b: subu.cio r6,r8,r10
  169. subu.cio r7,r9,r12
  170. st.d  r6,res_ptr,0
  171. bb0  0,size,Lret1b
  172. /* Add last limb */
  173. ld  r10,s2_ptr,8
  174. ld  r8,s1_ptr,8
  175. subu.cio r6,r8,r10
  176. st  r6,res_ptr,8
  177. Lret1b: addu.ci r2,r0,r0 ; return carry-out from most sign. limb
  178. jmp.n  r1
  179.  xor r2,r2,1
  180. ; **  V2  **
  181. /* If we come here, the alignment of s1_ptr and res_ptr as well as the
  182.    alignment of s2_ptr and res_ptr differ.  Since there are only two ways
  183.    things can be aligned (that we care about) we now know that the alignment
  184.    of s1_ptr and s2_ptr are the same.  */
  185. L2: cmp  r12,size,1
  186. bb1  eq,r12,Ljone
  187. bb0  2,s1_ptr,L_v2 ; branch if s1_ptr is aligned
  188. /* Add least significant limb separately to align res_ptr and s2_ptr */
  189. ld  r10,s1_ptr,0
  190. addu  s1_ptr,s1_ptr,4
  191. ld  r8,s2_ptr,0
  192. addu  s2_ptr,s2_ptr,4
  193. subu  size,size,1
  194. subu.co  r6,r10,r8
  195. st  r6,res_ptr,0
  196. addu  res_ptr,res_ptr,4
  197. L_v2: subu  size,size,8
  198. bcnd  lt0,size,Lfin2
  199. /* Add blocks of 8 limbs until less than 8 limbs remain */
  200. align  8
  201. Loop2: subu  size,size,8
  202. ld.d  r8,s1_ptr,0
  203. ld.d  r6,s2_ptr,0
  204. subu.cio r8,r8,r6
  205. st  r8,res_ptr,0
  206. subu.cio r9,r9,r7
  207. st  r9,res_ptr,4
  208. ld.d  r8,s1_ptr,8
  209. ld.d  r6,s2_ptr,8
  210. subu.cio r8,r8,r6
  211. st  r8,res_ptr,8
  212. subu.cio r9,r9,r7
  213. st  r9,res_ptr,12
  214. ld.d  r8,s1_ptr,16
  215. ld.d  r6,s2_ptr,16
  216. subu.cio r8,r8,r6
  217. st  r8,res_ptr,16
  218. subu.cio r9,r9,r7
  219. st  r9,res_ptr,20
  220. ld.d  r8,s1_ptr,24
  221. ld.d  r6,s2_ptr,24
  222. subu.cio r8,r8,r6
  223. st  r8,res_ptr,24
  224. subu.cio r9,r9,r7
  225. st  r9,res_ptr,28
  226. addu  s1_ptr,s1_ptr,32
  227. addu  s2_ptr,s2_ptr,32
  228. addu  res_ptr,res_ptr,32
  229. bcnd  ge0,size,Loop2
  230. Lfin2: addu  size,size,8-2
  231. bcnd  lt0,size,Lend2
  232. Loope2: ld.d  r8,s1_ptr,0
  233. ld.d  r6,s2_ptr,0
  234. subu.cio r8,r8,r6
  235. st  r8,res_ptr,0
  236. subu.cio r9,r9,r7
  237. st  r9,res_ptr,4
  238. subu  size,size,2
  239. addu  s1_ptr,s1_ptr,8
  240. addu  s2_ptr,s2_ptr,8
  241. addu  res_ptr,res_ptr,8
  242. bcnd  ge0,size,Loope2
  243. Lend2: bb0  0,size,Lret2
  244. /* Add last limb */
  245. Ljone: ld  r10,s1_ptr,0
  246. ld  r8,s2_ptr,0
  247. subu.cio r6,r10,r8
  248. st  r6,res_ptr,0
  249. Lret2: addu.ci r2,r0,r0 ; return carry-out from most sign. limb
  250. jmp.n  r1
  251.  xor r2,r2,1