VIScsumcopy.S
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:35k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* $Id: VIScsumcopy.S,v 1.8 2000/02/20 23:21:39 davem Exp $
  2.  * VIScsumcopy.S: High bandwidth IP checksumming with simultaneous
  3.  *            copying utilizing the UltraSparc Visual Instruction Set.
  4.  *
  5.  * Copyright (C) 1997, 1999 Jakub Jelinek (jj@ultra.linux.cz)
  6.  *
  7.  * Based on older sparc32/sparc64 checksum.S, which is:
  8.  *
  9.  *      Copyright(C) 1995 Linus Torvalds
  10.  *      Copyright(C) 1995 Miguel de Icaza
  11.  *      Copyright(C) 1996,1997 David S. Miller
  12.  *    derived from:
  13.  *   Linux/Alpha checksum c-code
  14.  *        Linux/ix86 inline checksum assembly
  15.  *        RFC1071 Computing the Internet Checksum (esp. Jacobsons m68k code)
  16.  *   David Mosberger-Tang for optimized reference c-code
  17.  *   BSD4.4 portable checksum routine
  18.  */
  19. #ifdef __sparc_v9__
  20. #define STACKOFF 0x7ff+128
  21. #else
  22. #define STACKOFF 64
  23. #endif
  24. #ifdef __KERNEL__
  25. #include <asm/head.h>
  26. #include <asm/asi.h>
  27. #include <asm/page.h>
  28. #include <asm/visasm.h>
  29. #define ASI_BLK_XOR 0
  30. #define ASI_BLK_XOR1 (ASI_BLK_P ^ (ASI_BLK_P >> 3) ^ ASI_P)
  31. #define ASI_BLK_OR (ASI_BLK_P & ~ASI_P)
  32. #else
  33. #define ASI_P 0x80
  34. #define ASI_BLK_P 0xf0
  35. #define FRPS_FEF 0x04
  36. #define FPRS_DU 0x02
  37. #define FPRS_DL 0x01
  38. #define ASI_BLK_XOR (ASI_BLK_P ^ ASI_P)
  39. #endif
  40. #define src o0
  41. #define dst o1
  42. #define len o2
  43. #define sum o3
  44. #define x1 g1
  45. #define x2 g2
  46. #define x3 o4
  47. #define x4 g4
  48. #define x5 g5
  49. #define x6 g7
  50. #define x7 g3
  51. #define x8 o5
  52. /* Dobrou noc, SunSoft engineers. Spete sladce.
  53.  * This has a couple of tricks in and those
  54.  * tricks are UltraLinux trade secrets :))
  55.  * Once AGAIN, the SunSoft engineers are caught
  56.  * asleep at the keyboard :)).
  57.  * The main loop does about 20 superscalar cycles
  58.  * per 64bytes checksummed/copied.
  59.  */
  60. #define LDBLK(O0)
  61. ldda [%src] %asi, %O0  /*  Load Group */
  62. #define STBLK
  63. stda %f48, [%dst] ASI_BLK_P /*  Store */
  64. #define ST(fx,off)
  65. std %fx, [%dst + off] /*  Store */
  66. #define SYNC
  67. membar #Sync
  68. #define DO_THE_TRICK(f0,f2,f4,f6,f8,f10,f12,f14,F0,F2,F4,F6,F8,F10,F12,F14,DUMMY1,A0,A2,A4,A6,A8,A10,A12,A14,B14,DUMMY2,LOAD,STORE1,STORE2,STORE3,STORE4,STORE5,STORE6,STORE7,STORE8,DUMMY3,BRANCH...)
  69. LOAD /*  Load (Group) */;
  70. faligndata %A14, %F0, %A14 /*  FPA Group */;
  71. inc %x5 /*  IEU0 */;
  72. STORE1 /*  Store (optional) */;
  73. faligndata %F0, %F2, %A0 /*  FPA Group */;
  74. srl %x5, 1, %x5 /*  IEU0 */;
  75. add %sum, %x4, %sum /*  IEU1 */;
  76. fpadd32 %F0, %f0, %F0 /*  FPA Group */;
  77. inc %x6 /*  IEU0 */;
  78. STORE2 /*  Store (optional) */;
  79. faligndata %F2, %F4, %A2 /*  FPA Group */;
  80. srl %x6, 1, %x6 /*  IEU0 */;
  81. add %sum, %x5, %sum /*  IEU1 */;
  82. fpadd32 %F2, %f2, %F2 /*  FPA Group */;
  83. add %src, 64, %src /*  IEU0 */;
  84. fcmpgt32 %f0, %F0, %x1 /*  FPM */;
  85. add %dst, 64, %dst /*  IEU1 Group */;
  86. inc %x7 /*  IEU0 */;
  87. STORE3 /*  Store (optional) */;
  88. faligndata %F4, %F6, %A4 /*  FPA */;
  89. fpadd32 %F4, %f4, %F4 /*  FPA Group */;
  90. add %sum, %x6, %sum /*  IEU1 */;
  91. fcmpgt32 %f2, %F2, %x2 /*  FPM */;
  92. srl %x7, 1, %x7 /*  IEU0 Group */;
  93. inc %x8 /*  IEU1 */;
  94. STORE4 /*  Store (optional) */;
  95. faligndata %F6, %F8, %A6 /*  FPA */;
  96. fpadd32 %F6, %f6, %F6 /*  FPA Group */;
  97. srl %x8, 1, %x8 /*  IEU0 */;
  98. fcmpgt32 %f4, %F4, %x3 /*  FPM */;
  99. add %sum, %x7, %sum /*  IEU0 Group */;
  100. inc %x1 /*  IEU1 */;
  101. STORE5 /*  Store (optional) */;
  102. faligndata %F8, %F10, %A8 /*  FPA */;
  103. fpadd32 %F8, %f8, %F8 /*  FPA Group */;
  104. srl %x1, 1, %x1 /*  IEU0 */;
  105. fcmpgt32 %f6, %F6, %x4 /*  FPM */;
  106. add %sum, %x8, %sum /*  IEU0 Group */;
  107. inc %x2 /*  IEU1 */;
  108. STORE6 /*  Store (optional) */;
  109. faligndata %F10, %F12, %A10 /*  FPA */;
  110. fpadd32 %F10, %f10, %F10 /*  FPA Group */;
  111. srl %x2, 1, %x2 /*  IEU0 */;
  112. fcmpgt32 %f8, %F8, %x5 /*  FPM */;
  113. add %sum, %x1, %sum /*  IEU0 Group */;
  114. inc %x3 /*  IEU1 */;
  115. STORE7 /*  Store (optional) */;
  116. faligndata %F12, %F14, %A12 /*  FPA */;
  117. fpadd32 %F12, %f12, %F12 /*  FPA Group */;
  118. srl %x3, 1, %x3 /*  IEU0 */;
  119. fcmpgt32 %f10, %F10, %x6 /*  FPM */;
  120. add %sum, %x2, %sum /*  IEU0 Group */;
  121. inc %x4 /*  IEU1 */;
  122. STORE8 /*  Store (optional) */;
  123. fmovd %F14, %B14 /*  FPA */;
  124. fpadd32 %F14, %f14, %F14 /*  FPA Group */;
  125. srl %x4, 1, %x4 /*  IEU0 */;
  126. fcmpgt32 %f12, %F12, %x7 /*  FPM */;
  127. add %sum, %x3, %sum /*  IEU0 Group */;
  128. subcc %len, 64, %len /*  IEU1 */;
  129. BRANCH /*  CTI */;
  130. fcmpgt32 %f14, %F14, %x8 /*  FPM Group */;
  131. #define END_THE_TRICK(f0,f2,f4,f6,f8,f10,f12,f14,FA,FB,S0,S1,S2,S3,T0,T1,U0,fz) 
  132. inc %x5 /*  IEU0 Group */;
  133. fpadd32 %f2, %f0, %S0 /*  FPA */;
  134. add %sum, %x4, %sum /*  IEU1 */;
  135. srl %x5, 1, %x5 /*  IEU0 Group */;
  136. fpadd32 %f6, %f4, %S1 /*  FPA */;
  137. inc %x6 /*  IEU1 */;
  138. fpadd32 %f10, %f8, %S2 /*  FPA Group */;
  139. add %sum, %x5, %sum /*  IEU0 */;
  140. fcmpgt32 %f0, %S0, %x1 /*  FPM */;
  141. fpadd32 %f14, %f12, %S3 /*  FPA Group */;
  142. srl %x6, 1, %x6 /*  IEU0 */;
  143. fcmpgt32 %f4, %S1, %x2 /*  FPM */;
  144. add %sum, %x6, %sum /*  IEU0 Group */;
  145. fzero %fz /*  FPA */;
  146. fcmpgt32 %f8, %S2, %x3 /*  FPM */;
  147. inc %x7 /*  IEU0 Group */;
  148. inc %x8 /*  IEU1 */;
  149. srl %x7, 1, %x7 /*  IEU0 Group */;
  150. inc %x1 /*  IEU1 */;
  151. fpadd32 %S0, %S1, %T0 /*  FPA */;
  152. fpadd32 %S2, %S3, %T1 /*  FPA Group */;
  153. add %sum, %x7, %sum /*  IEU0 */;
  154. fcmpgt32 %f12, %S3, %x4 /*  FPM */;
  155. srl %x8, 1, %x8 /*  IEU0 Group */;
  156. inc %x2 /*  IEU1 */;
  157. srl %x1, 1, %x1 /*  IEU0 Group */;
  158. add %sum, %x8, %sum /*  IEU1 */;
  159. add %sum, %x1, %sum /*  IEU0 Group */;
  160. fcmpgt32 %S0, %T0, %x5 /*  FPM */;
  161. srl %x2, 1, %x2 /*  IEU0 Group */;
  162. fcmpgt32 %S2, %T1, %x6 /*  FPM */;
  163. inc %x3 /*  IEU0 Group */;
  164. add %sum, %x2, %sum /*  IEU1 */;
  165. srl %x3, 1, %x3 /*  IEU0 Group */;
  166. inc %x4 /*  IEU1 */;
  167. fpadd32 %T0, %T1, %U0 /*  FPA Group */;
  168. add %sum, %x3, %sum /*  IEU0 */;
  169. fcmpgt32 %fz, %f2, %x7 /*  FPM */;
  170. srl %x4, 1, %x4 /*  IEU0 Group */;
  171. fcmpgt32 %fz, %f6, %x8 /*  FPM */;
  172. inc %x5 /*  IEU0 Group */;
  173. add %sum, %x4, %sum /*  IEU1 */;
  174. srl %x5, 1, %x5 /*  IEU0 Group */;
  175. fcmpgt32 %fz, %f10, %x1 /*  FPM */;
  176. inc %x6 /*  IEU0 Group */;
  177. add %sum, %x5, %sum /*  IEU1 */;
  178. fmovd %FA, %FB /*  FPA Group */;
  179. fcmpgt32 %fz, %f14, %x2 /*  FPM */;
  180. srl %x6, 1, %x6 /*  IEU0 Group */;
  181. ba,pt %xcc, ett /*  CTI */;
  182.  inc %x7 /*  IEU1 */;
  183. #define END_THE_TRICK1(f0,f2,f4,f6,f8,f10,f12,f14,FA,FB) 
  184. END_THE_TRICK(f0,f2,f4,f6,f8,f10,f12,f14,FA,FB,f48,f50,f52,f54,f56,f58,f60,f62)
  185. #define END_THE_TRICK2(S0,S1,S2,S3,T0,T1,U0,U1,V0,fz) 
  186. fpadd32 %U0, %U1, %V0 /*  FPA Group */;
  187. srl %x7, 1, %x7 /*  IEU0 */;
  188. add %sum, %x6, %sum /*  IEU1 */;
  189. std %V0, [%sp + STACKOFF] /*  Store Group */;
  190. inc %x8 /*  IEU0 */;
  191. sub %sum, %x7, %sum /*  IEU1 */;
  192. srl %x8, 1, %x8 /*  IEU0 Group */;
  193. fcmpgt32 %fz, %S1, %x3 /*  FPM */;
  194. inc %x1 /*  IEU0 Group */;
  195. fcmpgt32 %fz, %S3, %x4 /*  FPM */;
  196. srl %x1, 1, %x1 /*  IEU0 Group */;
  197. sub %sum, %x8, %sum /*  IEU1 */;
  198. ldx [%sp + STACKOFF], %x8 /*  Load Group */;
  199. inc %x2 /*  IEU0 */;
  200. sub %sum, %x1, %sum /*  IEU1 */;
  201. srl %x2, 1, %x2 /*  IEU0 Group */;
  202. fcmpgt32 %fz, %T1, %x5 /*  FPM */;
  203. inc %x3 /*  IEU0 Group */;
  204. fcmpgt32 %T0, %U0, %x6 /*  FPM */;
  205. srl %x3, 1, %x3 /*  IEU0 Group */;
  206. sub %sum, %x2, %sum /*  IEU1 */;
  207. inc %x4 /*  IEU0 Group */;
  208. sub %sum, %x3, %sum /*  IEU1 */;
  209. srl %x4, 1, %x4 /*  IEU0 Group */;
  210. fcmpgt32 %fz, %U1, %x7 /*  FPM */;
  211. inc %x5 /*  IEU0 Group */;
  212. fcmpgt32 %U0, %V0, %x1 /*  FPM */;
  213. srl %x5, 1, %x5 /*  IEU0 Group */;
  214. sub %sum, %x4, %sum /*  IEU1 */;
  215. sub %sum, %x5, %sum /*  IEU0 Group */;
  216. fcmpgt32 %fz, %V0, %x2 /*  FPM */;
  217. inc %x6 /*  IEU0 Group */;
  218. inc %x7 /*  IEU1 */;
  219. srl %x6, 1, %x6 /*  IEU0 Group */;
  220. inc %x1 /*  IEU1 */;
  221. srl %x7, 1, %x7 /*  IEU0 Group */;
  222. add %sum, %x6, %sum /*  IEU1 */;
  223. srl %x1, 1, %x1 /*  IEU0 Group */;
  224. sub %sum, %x7, %sum /*  IEU1 */;
  225. inc %x2 /*  IEU0 Group */;
  226. add %sum, %x1, %sum /*  IEU1 */;
  227. srl %x2, 1, %x2 /*  IEU0 Group */;
  228. sub %sum, %x2, %sum /*  IEU0 Group */;
  229. addcc %sum, %x8, %sum /*  IEU1 Group */;
  230. bcs,a,pn %xcc, 33f /*  CTI */;
  231.  add %sum, 1, %sum /*  IEU0 (Group) */;
  232. 33: /*  That's it */;
  233. .text
  234. .globl csum_partial_copy_vis
  235. .align 32
  236. /* %asi should be either ASI_P or ASI_AIUS for csum_partial_copy resp.
  237.  * csum_partial_copy_from_user
  238.  * This assumes that !((%src^%dst)&3) && !((%src|%dst)&1) && %len >= 256
  239.  */
  240. csum_partial_copy_vis:
  241. andcc %dst, 7, %g0 /*  IEU1 Group */
  242. be,pt %icc, 4f /*  CTI */
  243.  and %dst, 0x38, %o4 /*  IEU0 */
  244. mov 1, %g5 /*  IEU0 Group */
  245. andcc %dst, 2, %g0 /*  IEU1 */
  246. be,pt %icc, 1f /*  CTI */
  247.  and %dst, 4, %g7 /*  IEU0 Group */
  248. lduha [%src] %asi, %g2 /*  Load */
  249. sub %len, 2, %len /*  IEU0 Group */
  250. add %dst, 2, %dst /*  IEU1 */
  251. andcc %dst, 4, %g7 /*  IEU1 Group */
  252. sll %g5, 16, %g5 /*  IEU0 */
  253. sth %g2, [%dst - 2] /*  Store Group */
  254. sll %g2, 16, %g2 /*  IEU0   */
  255. add %src, 2, %src /*  IEU1 */
  256. addcc %g2, %sum, %sum /*  IEU1 Group */
  257. bcs,a,pn %icc, 1f /*  CTI */
  258.  add %sum, %g5, %sum /*  IEU0 */
  259. 1: lduwa [%src] %asi, %g2 /*  Load */
  260. brz,a,pn %g7, 4f /*  CTI+IEU1 Group */
  261.  and %dst, 0x38, %o4 /*  IEU0 */
  262. add %dst, 4, %dst /*  IEU0 Group */
  263. sub %len, 4, %len /*  IEU1 */
  264. addcc %g2, %sum, %sum /*  IEU1 Group */
  265. bcs,a,pn %icc, 1f /*  CTI */
  266.  add %sum, 1, %sum /*  IEU0 */
  267. 1: and %dst, 0x38, %o4 /*  IEU0 Group */
  268. stw %g2, [%dst - 4] /*  Store */
  269. add %src, 4, %src /*  IEU1 */
  270. 4:
  271. #ifdef __KERNEL__
  272. VISEntry
  273. #endif
  274. mov %src, %g7 /*  IEU1 Group */
  275. fzero %f48 /*  FPA */
  276. alignaddr %src, %g0, %src /*  Single Group */
  277. subcc %g7, %src, %g7 /*  IEU1 Group */
  278. be,pt %xcc, 1f /*  CTI */
  279.  mov 0x40, %g1 /*  IEU0 */
  280. lduwa [%src] %asi, %g2 /*  Load Group */
  281. subcc %sum, %g2, %sum /*  IEU1 Group+load stall*/
  282. bcs,a,pn %icc, 1f /*  CTI */
  283.  sub %sum, 1, %sum /*  IEU0 */
  284. 1: srl %sum, 0, %sum /*  IEU0 Group */
  285. clr %g5 /*  IEU1 */
  286. brz,pn %o4, 3f /*  CTI+IEU1 Group */
  287.  sub %g1, %o4, %g1 /*  IEU0 */
  288. ldda [%src] %asi, %f0 /*  Load */
  289. clr %o4 /*  IEU0 Group */
  290. andcc %dst, 8, %g0 /*  IEU1 */
  291. be,pn %icc, 1f /*  CTI */
  292.  ldda [%src + 8] %asi, %f2 /*  Load Group */
  293. add %src, 8, %src /*  IEU0 */
  294. sub %len, 8, %len /*  IEU1 */
  295. fpadd32 %f0, %f48, %f50 /*  FPA */
  296. addcc %dst, 8, %dst /*  IEU1 Group */
  297. faligndata %f0, %f2, %f16 /*  FPA */
  298. fcmpgt32 %f48, %f50, %o4 /*  FPM Group */
  299. fmovd %f2, %f0 /*  FPA Group */
  300. ldda [%src + 8] %asi, %f2 /*  Load */
  301. std %f16, [%dst - 8] /*  Store */
  302. fmovd %f50, %f48 /*  FPA */
  303. 1: andcc %g1, 0x10, %g0 /*  IEU1 Group */
  304. be,pn %icc, 1f /*  CTI */
  305.  and %g1, 0x20, %g1 /*  IEU0 */
  306. fpadd32 %f0, %f48, %f50 /*  FPA */
  307. ldda [%src + 16] %asi, %f4 /*  Load Group */
  308. add %src, 16, %src /*  IEU0 */
  309. add %dst, 16, %dst /*  IEU1 */
  310. faligndata %f0, %f2, %f16 /*  FPA */
  311. fcmpgt32 %f48, %f50, %g5 /*  FPM Group */
  312. sub %len, 16, %len /*  IEU0 */
  313. inc %o4 /*  IEU1 */
  314. std %f16, [%dst - 16] /*  Store Group */
  315. fpadd32 %f2, %f50, %f48 /*  FPA */
  316. srl %o4, 1, %o5 /*  IEU0 */
  317. faligndata %f2, %f4, %f18 /*  FPA Group */
  318. std %f18, [%dst - 8] /*  Store */
  319. fcmpgt32 %f50, %f48, %o4 /*  FPM Group */
  320. add %o5, %sum, %sum /*  IEU0 */
  321. ldda [%src + 8] %asi, %f2 /*  Load */
  322. fmovd %f4, %f0 /*  FPA */
  323. 1: brz,a,pn %g1, 4f /*  CTI+IEU1 Group */
  324.  rd %asi, %g2 /*  LSU Group + 4 bubbles*/
  325. inc %g5 /*  IEU0 */
  326. fpadd32 %f0, %f48, %f50 /*  FPA */
  327. ldda [%src + 16] %asi, %f4 /*  Load Group */
  328. srl %g5, 1, %g5 /*  IEU0 */
  329. add %dst, 32, %dst /*  IEU1 */
  330. faligndata %f0, %f2, %f16 /*  FPA */
  331. fcmpgt32 %f48, %f50, %o5 /*  FPM Group */
  332. inc %o4 /*  IEU0 */
  333. ldda [%src + 24] %asi, %f6 /*  Load */
  334. srl %o4, 1, %o4 /*  IEU0 Group */
  335. add %g5, %sum, %sum /*  IEU1 */
  336. ldda [%src + 32] %asi, %f8 /*  Load */
  337. fpadd32 %f2, %f50, %f48 /*  FPA */
  338. faligndata %f2, %f4, %f18 /*  FPA Group */
  339. sub %len, 32, %len /*  IEU0 */
  340. std %f16, [%dst - 32] /*  Store */
  341. fcmpgt32 %f50, %f48, %g3 /*  FPM Group */
  342. inc %o5 /*  IEU0 */
  343. add %o4, %sum, %sum /*  IEU1 */
  344. fpadd32 %f4, %f48, %f50 /*  FPA */
  345. faligndata %f4, %f6, %f20 /*  FPA Group */
  346. srl %o5, 1, %o5 /*  IEU0 */
  347. fcmpgt32 %f48, %f50, %g5 /*  FPM Group */
  348. add %o5, %sum, %sum /*  IEU0 */
  349. std %f18, [%dst - 24] /*  Store */
  350. fpadd32 %f6, %f50, %f48 /*  FPA */
  351. inc %g3 /*  IEU0 Group */
  352. std %f20, [%dst - 16] /*  Store */
  353. add %src, 32, %src /*  IEU1 */
  354. faligndata %f6, %f8, %f22 /*  FPA */
  355. fcmpgt32 %f50, %f48, %o4 /*  FPM Group */
  356. srl %g3, 1, %g3 /*  IEU0 */
  357. std %f22, [%dst - 8] /*  Store */
  358. add %g3, %sum, %sum /*  IEU0 Group */
  359. 3: rd %asi, %g2 /*  LSU Group + 4 bubbles*/
  360. #ifdef __KERNEL__
  361. 4: sethi %hi(vis0s), %g7 /*  IEU0 Group */
  362. or %g2, ASI_BLK_OR, %g2 /*  IEU1 */
  363. #else
  364. 4: rd %pc, %g7 /*  LSU Group + 4 bubbles*/
  365. #endif
  366. inc %g5 /*  IEU0 Group */
  367. and %src, 0x38, %g3 /*  IEU1 */
  368. membar #StoreLoad /*  LSU Group */
  369. srl %g5, 1, %g5 /*  IEU0 */
  370. inc %o4 /*  IEU1 */
  371. sll %g3, 8, %g3 /*  IEU0 Group */
  372. sub %len, 0xc0, %len /*  IEU1 */
  373. addcc %g5, %sum, %sum /*  IEU1 Group */
  374. srl %o4, 1, %o4 /*  IEU0 */
  375. add %g7, %g3, %g7 /*  IEU0 Group */
  376. add %o4, %sum, %sum /*  IEU1 */
  377. #ifdef __KERNEL__
  378. jmpl %g7 + %lo(vis0s), %g0 /*  CTI+IEU1 Group */
  379. #else
  380. jmpl %g7 + (vis0s - 4b), %g0 /*  CTI+IEU1 Group */
  381. #endif
  382.  fzero %f32 /*  FPA */
  383. .align 2048
  384. vis0s: wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  385. add %src, 128, %src /*  IEU0 Group */
  386. ldda [%src-128] %asi, %f0 /*  Load Group */
  387. ldda [%src-64] %asi, %f16 /*  Load Group */
  388. fmovd %f48, %f62 /*  FPA Group f0 available*/
  389. faligndata %f0, %f2, %f48 /*  FPA Group f2 available*/
  390. fcmpgt32 %f32, %f2, %x1 /*  FPM Group f4 available*/
  391. fpadd32 %f0, %f62, %f0 /*  FPA */
  392. fcmpgt32 %f32, %f4, %x2 /*  FPM Group f6 available*/
  393. faligndata %f2, %f4, %f50 /*  FPA */
  394. fcmpgt32 %f62, %f0, %x3 /*  FPM Group f8 available*/
  395. faligndata %f4, %f6, %f52 /*  FPA */
  396. fcmpgt32 %f32, %f6, %x4 /*  FPM Group f10 available*/
  397. inc %x1 /*  IEU0 */
  398. faligndata %f6, %f8, %f54 /*  FPA */
  399. fcmpgt32 %f32, %f8, %x5 /*  FPM Group f12 available*/
  400. srl %x1, 1, %x1 /*  IEU0 */
  401. inc %x2 /*  IEU1 */
  402. faligndata %f8, %f10, %f56 /*  FPA */
  403. fcmpgt32 %f32, %f10, %x6 /*  FPM Group f14 available*/
  404. srl %x2, 1, %x2 /*  IEU0 */
  405. add %sum, %x1, %sum /*  IEU1 */
  406. faligndata %f10, %f12, %f58 /*  FPA */
  407. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  408. inc %x3 /*  IEU0 */
  409. add %sum, %x2, %sum /*  IEU1 */
  410. faligndata %f12, %f14, %f60 /*  FPA */
  411. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  412. srl %x3, 1, %x3 /*  IEU0 */
  413. inc %x4 /*  IEU1 */
  414. fmovd %f14, %f62 /*  FPA */
  415. srl %x4, 1, %x4 /*  IEU0 Group */
  416. add %sum, %x3, %sum /*  IEU1 */
  417. vis0: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  418. ,f48,f50,f52,f54,f56,f58,f60,f62,f62,
  419. ,LDBLK(f32), STBLK,,,,,,,,
  420. ,bcs,pn %icc, vis0e1)
  421. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  422. ,f48,f50,f52,f54,f56,f58,f60,f62,f62,
  423. ,LDBLK(f0), STBLK,,,,,,,,
  424. ,bcs,pn %icc, vis0e2)
  425. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  426. ,f48,f50,f52,f54,f56,f58,f60,f62,f62,
  427. ,LDBLK(f16), STBLK,,,,,,,,
  428. ,bcc,pt %icc, vis0)
  429. vis0e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  430. ,f48,f50,f52,f54,f56,f58,f60,f62,f32,
  431. ,SYNC, STBLK,ST(f48,64),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),ST(f60,48),
  432. ,add %dst, 56, %dst; add %len, 192 - 8*8, %len; ba,pt %icc, e2)
  433. vis0e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  434. ,f48,f50,f52,f54,f56,f58,f60,f62,f0,
  435. ,SYNC, STBLK,ST(f48,64),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),ST(f60,48),
  436. ,add %dst, 56, %dst; add %len, 192 - 8*8, %len; ba,pt %icc, e3)
  437. vis0e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  438. ,f48,f50,f52,f54,f56,f58,f60,f62,f16,
  439. ,SYNC, STBLK,ST(f48,64),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),ST(f60,48),
  440. ,add %dst, 56, %dst; add %len, 192 - 8*8, %len; ba,pt %icc, e1)
  441. .align 2048
  442. vis1s: wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  443. add %src, 128 - 8, %src /*  IEU0 Group */
  444. ldda [%src-128] %asi, %f0 /*  Load Group */
  445. ldda [%src-64] %asi, %f16 /*  Load Group */
  446. fmovd %f0, %f58 /*  FPA Group */
  447. fmovd %f48, %f0 /*  FPA Group */
  448. fcmpgt32 %f32, %f2, %x2 /*  FPM Group */
  449. faligndata %f2, %f4, %f48 /*  FPA */
  450. fcmpgt32 %f32, %f4, %x3 /*  FPM Group */
  451. faligndata %f4, %f6, %f50 /*  FPA */
  452. fcmpgt32 %f32, %f6, %x4 /*  FPM Group */
  453. faligndata %f6, %f8, %f52 /*  FPA */
  454. fcmpgt32 %f32, %f8, %x5 /*  FPM Group */
  455. inc %x2 /*  IEU1 */
  456. faligndata %f8, %f10, %f54 /*  FPA */
  457. fcmpgt32 %f32, %f10, %x6 /*  FPM Group */
  458. srl %x2, 1, %x2 /*  IEU0 */
  459. faligndata %f10, %f12, %f56 /*  FPA */
  460. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  461. inc %x3 /*  IEU0 */
  462. add %sum, %x2, %sum /*  IEU1 */
  463. faligndata %f12, %f14, %f58 /*  FPA */
  464. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  465. srl %x3, 1, %x3 /*  IEU0 */
  466. inc %x4 /*  IEU1 */
  467. fmovd %f14, %f60 /*  FPA */
  468. srl %x4, 1, %x4 /*  IEU0 Group */
  469. add %sum, %x3, %sum /*  IEU1 */
  470. vis1: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  471. ,f62,f48,f50,f52,f54,f56,f58,f60,f60,
  472. ,LDBLK(f32), ,STBLK,,,,,,,
  473. ,bcs,pn %icc, vis1e1)
  474. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  475. ,f62,f48,f50,f52,f54,f56,f58,f60,f60,
  476. ,LDBLK(f0), ,STBLK,,,,,,,
  477. ,bcs,pn %icc, vis1e2)
  478. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  479. ,f62,f48,f50,f52,f54,f56,f58,f60,f60,
  480. ,LDBLK(f16), ,STBLK,,,,,,,
  481. ,bcc,pt %icc, vis1)
  482. vis1e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  483. ,f62,f48,f50,f52,f54,f56,f58,f60,f32,
  484. ,SYNC, ,STBLK,ST(f48,0),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),
  485. ,add %dst, 48, %dst; add %len, 192 - 7*8, %len; ba,pt %icc, e2)
  486. vis1e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  487. ,f62,f48,f50,f52,f54,f56,f58,f60,f0,
  488. ,SYNC, ,STBLK,ST(f48,0),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),
  489. ,add %dst, 48, %dst; add %len, 192 - 7*8, %len; ba,pt %icc, e3)
  490. vis1e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  491. ,f62,f48,f50,f52,f54,f56,f58,f60,f16,
  492. ,SYNC, ,STBLK,ST(f48,0),ST(f50,8),ST(f52,16),ST(f54,24),ST(f56,32),ST(f58,40),
  493. ,add %dst, 48, %dst; add %len, 192 - 7*8, %len; ba,pt %icc, e1)
  494. .align 2048
  495. vis2s: wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  496. add %src, 128 - 16, %src /*  IEU0 Group */
  497. ldda [%src-128] %asi, %f0 /*  Load Group */
  498. ldda [%src-64] %asi, %f16 /*  Load Group */
  499. fmovd %f0, %f56 /*  FPA Group */
  500. fmovd %f48, %f0 /*  FPA Group */
  501. sub %dst, 64, %dst /*  IEU0 */
  502. fpsub32 %f2, %f2, %f2 /*  FPA Group */
  503. fcmpgt32 %f32, %f4, %x3 /*  FPM Group */
  504. faligndata %f4, %f6, %f48 /*  FPA */
  505. fcmpgt32 %f32, %f6, %x4 /*  FPM Group */
  506. faligndata %f6, %f8, %f50 /*  FPA */
  507. fcmpgt32 %f32, %f8, %x5 /*  FPM Group */
  508. faligndata %f8, %f10, %f52 /*  FPA */
  509. fcmpgt32 %f32, %f10, %x6 /*  FPM Group */
  510. faligndata %f10, %f12, %f54 /*  FPA */
  511. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  512. inc %x3 /*  IEU0 */
  513. faligndata %f12, %f14, %f56 /*  FPA */
  514. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  515. srl %x3, 1, %x3 /*  IEU0 */
  516. inc %x4 /*  IEU1 */
  517. fmovd %f14, %f58 /*  FPA */
  518. srl %x4, 1, %x4 /*  IEU0 Group */
  519. add %sum, %x3, %sum /*  IEU1 */
  520. vis2: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  521. ,f60,f62,f48,f50,f52,f54,f56,f58,f58,
  522. ,LDBLK(f32), ,,STBLK,,,,,,
  523. ,bcs,pn %icc, vis2e1)
  524. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  525. ,f60,f62,f48,f50,f52,f54,f56,f58,f58,
  526. ,LDBLK(f0), ,,STBLK,,,,,,
  527. ,bcs,pn %icc, vis2e2)
  528. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  529. ,f60,f62,f48,f50,f52,f54,f56,f58,f58,
  530. ,LDBLK(f16), ,,STBLK,,,,,,
  531. ,bcc,pt %icc, vis2)
  532. vis2e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  533. ,f60,f62,f48,f50,f52,f54,f56,f58,f32,
  534. ,SYNC, ,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),ST(f56,96),
  535. ,add %dst, 104, %dst; add %len, 192 - 6*8, %len; ba,pt %icc, e2)
  536. vis2e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  537. ,f60,f62,f48,f50,f52,f54,f56,f58,f0,
  538. ,SYNC, ,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),ST(f56,96),
  539. ,add %dst, 104, %dst; add %len, 192 - 6*8, %len; ba,pt %icc, e3)
  540. vis2e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  541. ,f60,f62,f48,f50,f52,f54,f56,f58,f16,
  542. ,SYNC, ,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),ST(f56,96),
  543. ,add %dst, 104, %dst; add %len, 192 - 6*8, %len; ba,pt %icc, e1)
  544. .align 2048
  545. vis3s: wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  546. add %src, 128 - 24, %src /*  IEU0 Group */
  547. ldda [%src-128] %asi, %f0 /*  Load Group */
  548. ldda [%src-64] %asi, %f16 /*  Load Group */
  549. fmovd %f0, %f54 /*  FPA Group */
  550. fmovd %f48, %f0 /*  FPA Group */
  551. sub %dst, 64, %dst /*  IEU0 */
  552. fpsub32 %f2, %f2, %f2 /*  FPA Group */
  553. fpsub32 %f4, %f4, %f4 /*  FPA Group */
  554. fcmpgt32 %f32, %f6, %x4 /*  FPM Group */
  555. faligndata %f6, %f8, %f48 /*  FPA */
  556. fcmpgt32 %f32, %f8, %x5 /*  FPM Group */
  557. faligndata %f8, %f10, %f50 /*  FPA */
  558. fcmpgt32 %f32, %f10, %x6 /*  FPM Group */
  559. faligndata %f10, %f12, %f52 /*  FPA */
  560. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  561. faligndata %f12, %f14, %f54 /*  FPA */
  562. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  563. fmovd %f14, %f56 /*  FPA */
  564. inc %x4 /*  IEU0 */
  565. srl %x4, 1, %x4 /*  IEU0 Group */
  566. vis3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  567. ,f58,f60,f62,f48,f50,f52,f54,f56,f56,
  568. ,LDBLK(f32), ,,,STBLK,,,,,
  569. ,bcs,pn %icc, vis3e1)
  570. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  571. ,f58,f60,f62,f48,f50,f52,f54,f56,f56,
  572. ,LDBLK(f0), ,,,STBLK,,,,,
  573. ,bcs,pn %icc, vis3e2)
  574. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  575. ,f58,f60,f62,f48,f50,f52,f54,f56,f56,
  576. ,LDBLK(f16), ,,,STBLK,,,,,
  577. ,bcc,pt %icc, vis3)
  578. vis3e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  579. ,f58,f60,f62,f48,f50,f52,f54,f56,f32,
  580. ,SYNC, ,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),
  581. ,add %dst, 96, %dst; add %len, 192 - 5*8, %len; ba,pt %icc, e2)
  582. vis3e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  583. ,f58,f60,f62,f48,f50,f52,f54,f56,f0,
  584. ,SYNC, ,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),
  585. ,add %dst, 96, %dst; add %len, 192 - 5*8, %len; ba,pt %icc, e3)
  586. vis3e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  587. ,f58,f60,f62,f48,f50,f52,f54,f56,f16,
  588. ,SYNC, ,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),ST(f54,88),
  589. ,add %dst, 96, %dst; add %len, 192 - 5*8, %len; ba,pt %icc, e1)
  590. .align 2048
  591. vis4s: wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  592. add %src, 128 - 32, %src /*  IEU0 Group */
  593. ldda [%src-128] %asi, %f0 /*  Load Group */
  594. ldda [%src-64] %asi, %f16 /*  Load Group */
  595. fmovd %f0, %f52 /*  FPA Group */
  596. fmovd %f48, %f0 /*  FPA Group */
  597. sub %dst, 64, %dst /*  IEU0 */
  598. fpsub32 %f2, %f2, %f2 /*  FPA Group */
  599. fpsub32 %f4, %f4, %f4 /*  FPA Group */
  600. fpsub32 %f6, %f6, %f6 /*  FPA Group */
  601. clr %x4 /*  IEU0 */
  602. fcmpgt32 %f32, %f8, %x5 /*  FPM Group */
  603. faligndata %f8, %f10, %f48 /*  FPA */
  604. fcmpgt32 %f32, %f10, %x6 /*  FPM Group */
  605. faligndata %f10, %f12, %f50 /*  FPA */
  606. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  607. faligndata %f12, %f14, %f52 /*  FPA */
  608. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  609. fmovd %f14, %f54 /*  FPA */
  610. vis4: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  611. ,f56,f58,f60,f62,f48,f50,f52,f54,f54,
  612. ,LDBLK(f32), ,,,,STBLK,,,,
  613. ,bcs,pn %icc, vis4e1)
  614. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  615. ,f56,f58,f60,f62,f48,f50,f52,f54,f54,
  616. ,LDBLK(f0), ,,,,STBLK,,,,
  617. ,bcs,pn %icc, vis4e2)
  618. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  619. ,f56,f58,f60,f62,f48,f50,f52,f54,f54,
  620. ,LDBLK(f16), ,,,,STBLK,,,,
  621. ,bcc,pt %icc, vis4)
  622. vis4e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  623. ,f56,f58,f60,f62,f48,f50,f52,f54,f32,
  624. ,SYNC, ,,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),
  625. ,add %dst, 88, %dst; add %len, 192 - 4*8, %len; ba,pt %icc, e2)
  626. vis4e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  627. ,f56,f58,f60,f62,f48,f50,f52,f54,f0,
  628. ,SYNC, ,,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),
  629. ,add %dst, 88, %dst; add %len, 192 - 4*8, %len; ba,pt %icc, e3)
  630. vis4e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  631. ,f56,f58,f60,f62,f48,f50,f52,f54,f16,
  632. ,SYNC, ,,,,STBLK,ST(f48,64),ST(f50,72),ST(f52,80),
  633. ,add %dst, 88, %dst; add %len, 192 - 4*8, %len; ba,pt %icc, e1)
  634. .align 2048
  635. vis5s: add %src, 128 - 40, %src /*  IEU0 Group */
  636. ldda [%src-88] %asi, %f10 /*  Load Group */
  637. ldda [%src-80] %asi, %f12 /*  Load Group */
  638. ldda [%src-72] %asi, %f14 /*  Load Group */
  639. wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  640. ldda [%src-64] %asi, %f16 /*  Load Group */
  641. fmovd %f48, %f0 /*  FPA Group */
  642. fmuld %f32, %f32, %f2 /*  FPM */
  643. clr %x4 /*  IEU0 */
  644. faddd %f32, %f32, %f4 /*  FPA Group */
  645. fmuld %f32, %f32, %f6 /*  FPM */
  646. clr %x5 /*  IEU0 */
  647. faddd %f32, %f32, %f8 /*  FPA Group */
  648. fcmpgt32 %f32, %f10, %x6 /*  FPM Group */
  649. sub %dst, 64, %dst /*  IEU0 */
  650. faligndata %f10, %f12, %f48 /*  FPA */
  651. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  652. faligndata %f12, %f14, %f50 /*  FPA */
  653. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  654. fmovd %f14, %f52 /*  FPA */
  655. vis5: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  656. ,f54,f56,f58,f60,f62,f48,f50,f52,f52,
  657. ,LDBLK(f32), ,,,,,STBLK,,,
  658. ,bcs,pn %icc, vis5e1)
  659. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  660. ,f54,f56,f58,f60,f62,f48,f50,f52,f52,
  661. ,LDBLK(f0), ,,,,,STBLK,,,
  662. ,bcs,pn %icc, vis5e2)
  663. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  664. ,f54,f56,f58,f60,f62,f48,f50,f52,f52,
  665. ,LDBLK(f16), ,,,,,STBLK,,,
  666. ,bcc,pt %icc, vis5)
  667. vis5e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  668. ,f54,f56,f58,f60,f62,f48,f50,f52,f32,
  669. ,SYNC, ,,,,,STBLK,ST(f48,64),ST(f50,72),
  670. ,add %dst, 80, %dst; add %len, 192 - 3*8, %len; ba,pt %icc, e2)
  671. vis5e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  672. ,f54,f56,f58,f60,f62,f48,f50,f52,f0,
  673. ,SYNC, ,,,,,STBLK,ST(f48,64),ST(f50,72),
  674. ,add %dst, 80, %dst; add %len, 192 - 3*8, %len; ba,pt %icc, e3)
  675. vis5e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  676. ,f54,f56,f58,f60,f62,f48,f50,f52,f16,
  677. ,SYNC, ,,,,,STBLK,ST(f48,64),ST(f50,72),
  678. ,add %dst, 80, %dst; add %len, 192 - 3*8, %len; ba,pt %icc, e1)
  679. .align 2048
  680. vis6s: add %src, 128 - 48, %src /*  IEU0 Group */
  681. ldda [%src-80] %asi, %f12 /*  Load Group */
  682. ldda [%src-72] %asi, %f14 /*  Load Group */
  683. wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  684. ldda [%src-64] %asi, %f16 /*  Load Group */
  685. fmovd %f48, %f0 /*  FPA Group */
  686. fmuld %f32, %f32, %f2 /*  FPM */
  687. clr %x4 /*  IEU0 */
  688. faddd %f32, %f32, %f4 /*  FPA Group */
  689. fmuld %f32, %f32, %f6 /*  FPM */
  690. clr %x5 /*  IEU0 */
  691. faddd %f32, %f32, %f8 /*  FPA Group */
  692. fmuld %f32, %f32, %f10 /*  FPM */
  693. clr %x6 /*  IEU0 */
  694. fcmpgt32 %f32, %f12, %x7 /*  FPM Group */
  695. sub %dst, 64, %dst /*  IEU0 */
  696. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  697. faligndata %f12, %f14, %f48 /*  FPA */
  698. fmovd %f14, %f50 /*  FPA Group */
  699. vis6: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  700. ,f52,f54,f56,f58,f60,f62,f48,f50,f50,
  701. ,LDBLK(f32), ,,,,,,STBLK,,
  702. ,bcs,pn %icc, vis6e1)
  703. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  704. ,f52,f54,f56,f58,f60,f62,f48,f50,f50,
  705. ,LDBLK(f0), ,,,,,,STBLK,,
  706. ,bcs,pn %icc, vis6e2)
  707. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  708. ,f52,f54,f56,f58,f60,f62,f48,f50,f50,
  709. ,LDBLK(f16), ,,,,,,STBLK,,
  710. ,bcc,pt %icc, vis6)
  711. vis6e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  712. ,f52,f54,f56,f58,f60,f62,f48,f50,f32,
  713. ,SYNC, ,,,,,,STBLK,ST(f48,64),
  714. ,add %dst, 72, %dst; add %len, 192 - 2*8, %len; ba,pt %icc, e2)
  715. vis6e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  716. ,f52,f54,f56,f58,f60,f62,f48,f50,f0,
  717. ,SYNC, ,,,,,,STBLK,ST(f48,64),
  718. ,add %dst, 72, %dst; add %len, 192 - 2*8, %len; ba,pt %icc, e3)
  719. vis6e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  720. ,f52,f54,f56,f58,f60,f62,f48,f50,f16,
  721. ,SYNC, ,,,,,,STBLK,ST(f48,64),
  722. ,add %dst, 72, %dst; add %len, 192 - 2*8, %len; ba,pt %icc, e1)
  723. .align 2048
  724. vis7s: add %src, 128 - 56, %src /*  IEU0 Group */
  725. ldda [%src-72] %asi, %f14 /*  Load Group */
  726. wr %g2, ASI_BLK_XOR, %asi /*  LSU Group */
  727. ldda [%src-64] %asi, %f16 /*  Load Group */
  728. fmovd %f48, %f0 /*  FPA Group */
  729. fmuld %f32, %f32, %f2 /*  FPM */
  730. clr %x4 /*  IEU0 */
  731. faddd %f32, %f32, %f4 /*  FPA Group */
  732. fmuld %f32, %f32, %f6 /*  FPM */
  733. clr %x5 /*  IEU0 */
  734. faddd %f32, %f32, %f8 /*  FPA Group */
  735. fmuld %f32, %f32, %f10 /*  FPM */
  736. clr %x6 /*  IEU0 */
  737. faddd %f32, %f32, %f12 /*  FPA Group */
  738. clr %x7 /*  IEU0 */
  739. fcmpgt32 %f32, %f14, %x8 /*  FPM Group */
  740. sub %dst, 64, %dst /*  IEU0 */
  741. fmovd %f14, %f48 /*  FPA */
  742. vis7: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  743. ,f50,f52,f54,f56,f58,f60,f62,f48,f48,
  744. ,LDBLK(f32), ,,,,,,,STBLK,
  745. ,bcs,pn %icc, vis7e1)
  746. DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  747. ,f50,f52,f54,f56,f58,f60,f62,f48,f48,
  748. ,LDBLK(f0), ,,,,,,,STBLK,
  749. ,bcs,pn %icc, vis7e2)
  750. DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  751. ,f50,f52,f54,f56,f58,f60,f62,f48,f48,
  752. ,LDBLK(f16), ,,,,,,,STBLK,
  753. ,bcc,pt %icc, vis7)
  754. vis7e3: DO_THE_TRICK( f0,f2,f4,f6,f8,f10,f12,f14,f16,f18,f20,f22,f24,f26,f28,f30,
  755. ,f50,f52,f54,f56,f58,f60,f62,f48,f32,
  756. ,SYNC, ,,,,,,,STBLK,
  757. ,add %dst, 64, %dst; add %len, 192 - 1*8, %len; ba,pt %icc, e2)
  758. vis7e1: DO_THE_TRICK( f16,f18,f20,f22,f24,f26,f28,f30,f32,f34,f36,f38,f40,f42,f44,f46,
  759. ,f50,f52,f54,f56,f58,f60,f62,f48,f0,
  760. ,SYNC, ,,,,,,,STBLK,
  761. ,add %dst, 64, %dst; add %len, 192 - 1*8, %len; ba,pt %icc, e3)
  762. vis7e2: DO_THE_TRICK( f32,f34,f36,f38,f40,f42,f44,f46,f0,f2,f4,f6,f8,f10,f12,f14,
  763. ,f50,f52,f54,f56,f58,f60,f62,f48,f16,
  764. ,SYNC, ,,,,,,,STBLK,
  765. ,add %dst, 64, %dst; add %len, 192 - 1*8, %len; ba,pt %icc, e1)
  766. e1: END_THE_TRICK1( f0,f2,f4,f6,f8,f10,f12,f14,f16,f6)
  767. e2: END_THE_TRICK1( f16,f18,f20,f22,f24,f26,f28,f30,f32,f6)
  768. e3: END_THE_TRICK1( f32,f34,f36,f38,f40,f42,f44,f46,f0,f6)
  769. ett: rd %asi, %x4 /*  LSU Group+4bubbles */
  770. rd %gsr, %x3 /*  LSU Group+4bubbles */
  771. #ifdef __KERNEL__
  772. srl %x4, 3, %x5 /*  IEU0 Group */
  773. xor %x4, ASI_BLK_XOR1, %x4 /*  IEU1 */
  774. wr %x4, %x5, %asi /*  LSU Group+4bubbles */
  775. #else
  776. wr %x4, ASI_BLK_XOR, %asi /*  LSU Group+4bubbles */
  777. #endif
  778. andcc %x3, 7, %x3 /*  IEU1 Group */
  779. add %dst, 8, %dst /*  IEU0 */
  780. bne,pn %icc, 1f /*  CTI */
  781.  fzero %f10 /*  FPA */
  782. brz,a,pn %len, 2f /*  CTI+IEU1 Group */
  783.  std %f6, [%dst - 8] /*  Store */
  784. 1: cmp %len, 8 /*  IEU1 */
  785. blu,pn %icc, 3f /*  CTI */
  786.  sub %src, 64, %src /*  IEU0 Group */
  787. 1: ldda [%src] %asi, %f2 /*  Load Group */
  788. fpadd32 %f10, %f2, %f12 /*  FPA Group+load stall*/
  789. add %src, 8, %src /*  IEU0 */
  790. add %dst, 8, %dst /*  IEU1 */
  791. faligndata %f6, %f2, %f14 /*  FPA Group */
  792. fcmpgt32 %f10, %f12, %x5 /*  FPM Group */
  793. std %f14, [%dst - 16] /*  Store */
  794. fmovd %f2, %f6 /*  FPA */
  795. fmovd %f12, %f10 /*  FPA Group */
  796. sub %len, 8, %len /*  IEU1 */
  797. fzero %f16 /*  FPA Group - FPU nop */
  798. fzero %f18 /*  FPA Group - FPU nop */
  799. inc %x5 /*  IEU0 */
  800. srl %x5, 1, %x5 /*  IEU0 Group (regdep) */
  801. cmp %len, 8 /*  IEU1 */
  802. bgeu,pt %icc, 1b /*  CTI */
  803.  add %x5, %sum, %sum /*  IEU0 Group */
  804. 3: brz,a,pt %x3, 2f /*  CTI+IEU1 */
  805.  std %f6, [%dst - 8] /*  Store Group */
  806. st %f7, [%dst - 8] /*  Store Group */
  807. sub %dst, 4, %dst /*  IEU0 */
  808. add %len, 4, %len /*  IEU1 */
  809. 2:
  810. #ifdef __KERNEL__
  811. sub %sp, 8, %sp /*  IEU0 Group */
  812. #endif
  813. END_THE_TRICK2( f48,f50,f52,f54,f56,f58,f60,f10,f12,f62)
  814. membar #Sync /*  LSU Group */
  815. #ifdef __KERNEL__
  816. VISExit
  817. add %sp, 8, %sp /*  IEU0 Group */
  818. #endif
  819. 23: brnz,pn %len, 26f /*  CTI+IEU1 Group */
  820. 24:  sllx %sum, 32, %g1 /*  IEU0 */
  821. 25: addcc %sum, %g1, %src /*  IEU1 Group */
  822. srlx %src, 32, %src /*  IEU0 Group (regdep) */
  823. bcs,a,pn %xcc, 1f /*  CTI */
  824.  add %src, 1, %src /*  IEU1 */
  825. #ifndef __KERNEL__
  826. 1: retl /*  CTI Group brk forced*/
  827.  srl %src, 0, %src /*  IEU0 */
  828. #else
  829. 1: sethi %uhi(PAGE_OFFSET), %g4 /*  IEU0 Group */
  830. retl /*  CTI Group brk forced*/
  831.  sllx %g4, 32, %g4 /*  IEU0 */
  832. #endif
  833. 26: andcc %len, 8, %g0 /*  IEU1 Group */
  834. be,pn %icc, 1f /*  CTI */
  835.  lduwa [%src] %asi, %o4 /*  Load */
  836. lduwa [%src+4] %asi, %g2 /*  Load Group */
  837. add %src, 8, %src /*  IEU0 */
  838. add %dst, 8, %dst /*  IEU1 */
  839. sllx %o4, 32, %g5 /*  IEU0 Group */
  840. stw %o4, [%dst - 8] /*  Store */
  841. or %g5, %g2, %g5 /*  IEU0 Group */
  842. stw %g2, [%dst - 4] /*  Store */
  843. addcc %g5, %sum, %sum /*  IEU1 Group */
  844. bcs,a,pn %xcc, 1f /*  CTI */
  845.  add %sum, 1, %sum /*  IEU0 */
  846. 1: andcc %len, 4, %g0 /*  IEU1 Group */
  847. be,a,pn %icc, 1f /*  CTI */
  848.  clr %g2 /*  IEU0 */
  849. lduwa [%src] %asi, %g7 /*  Load */
  850. add %src, 4, %src /*  IEU0 Group */
  851. add %dst, 4, %dst /*  IEU1 */
  852. sllx %g7, 32, %g2 /*  IEU0 Group */
  853. stw %g7, [%dst - 4] /*  Store */
  854. 1: andcc %len, 2, %g0 /*  IEU1 */
  855. be,a,pn %icc, 1f /*  CTI */
  856.  clr %g3 /*  IEU0 Group */
  857. lduha [%src] %asi, %g7 /*  Load */
  858. add %src, 2, %src /*  IEU1 */
  859. add %dst, 2, %dst /*  IEU0 Group */
  860. sll %g7, 16, %g3 /*  IEU0 Group */
  861. sth %g7, [%dst - 2] /*  Store */
  862. 1: andcc %len, 1, %g0 /*  IEU1 */
  863. be,a,pn %icc, 1f /*  CTI */
  864.  clr %o5 /*  IEU0 Group */
  865. lduba [%src] %asi, %g7 /*  Load */
  866. sll %g7, 8, %o5 /*  IEU0 Group */
  867. stb %g7, [%dst] /*  Store */
  868. 1: or %g2, %g3, %g3 /*  IEU1 */
  869. or %o5, %g3, %g3 /*  IEU0 Group (regdep) */
  870. addcc %g3, %sum, %sum /*  IEU1 Group (regdep) */
  871. bcs,a,pn %xcc, 1f /*  CTI */
  872.  add %sum, 1, %sum /*  IEU0 */
  873. 1: ba,pt %xcc, 25b /*  CTI Group */
  874.  sllx %sum, 32, %g1 /*  IEU0 */
  875. #ifdef __KERNEL__
  876. end:
  877. .section __ex_table
  878. .align 4
  879. .word csum_partial_copy_vis, 0, end, cpc_handler
  880. #endif