VIScopy.S
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:38k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* $Id: VIScopy.S,v 1.26 2001/09/27 04:36:24 kanoj Exp $
  2.  * VIScopy.S: High speed copy operations utilizing the UltraSparc
  3.  *            Visual Instruction Set.
  4.  *
  5.  * Copyright (C) 1997 David S. Miller (davem@caip.rutgers.edu)
  6.  * Copyright (C) 1996, 1997, 1998, 1999 Jakub Jelinek (jj@ultra.linux.cz)
  7.  */
  8. #include "VIS.h"
  9. /* VIS code can be used for numerous copy/set operation variants.
  10.  * It can be made to work in the kernel, one single instance,
  11.  * for all of memcpy, copy_to_user, and copy_from_user by setting
  12.  * the ASI src/dest globals correctly.  Furthermore it can
  13.  * be used for kernel-->kernel page copies as well, a hook label
  14.  * is put in here just for this purpose.
  15.  *
  16.  * For userland, compiling this without __KERNEL__ defined makes
  17.  * it work just fine as a generic libc bcopy and memcpy.
  18.  * If for userland it is compiled with a 32bit gcc (but you need
  19.  * -Wa,-Av9a for as), the code will just rely on lower 32bits of
  20.  * IEU registers, if you compile it with 64bit gcc (ie. define
  21.  * __sparc_v9__), the code will use full 64bit.
  22.  */
  23.  
  24. #ifdef __KERNEL__
  25. #include <asm/visasm.h>
  26. #include <asm/asm_offsets.h>
  27. #define FPU_CLEAN_RETL
  28. ldub [%g6 + AOFF_task_thread + AOFF_thread_current_ds], %o1;
  29. VISExit
  30. clr %o0;
  31. retl;
  32.  wr %o1, %g0, %asi;
  33. #define FPU_RETL
  34. ldub [%g6 + AOFF_task_thread + AOFF_thread_current_ds], %o1;
  35. VISExit
  36. clr %o0;
  37. retl;
  38.  wr %o1, %g0, %asi;
  39. #define NORMAL_RETL
  40. ldub [%g6 + AOFF_task_thread + AOFF_thread_current_ds], %o1;
  41. clr %o0;
  42. retl;
  43.  wr %o1, %g0, %asi;
  44. #define EX(x,y,a,b) 
  45. 98:  x,y;
  46. .section .fixup;
  47. .align 4;
  48. 99: ba VIScopyfixup_ret;
  49.  a, b, %o1;
  50. .section __ex_table;
  51. .align 4;
  52. .word 98b, 99b;
  53. .text;
  54. .align 4;
  55. #define EX2(x,y,c,d,e,a,b) 
  56. 98:  x,y;
  57. .section .fixup;
  58. .align 4;
  59. 99: c, d, e;
  60. ba VIScopyfixup_ret;
  61.  a, b, %o1;
  62. .section __ex_table;
  63. .align 4;
  64. .word 98b, 99b;
  65. .text;
  66. .align 4;
  67. #define EXO2(x,y) 
  68. 98:  x,y;
  69. .section __ex_table;
  70. .align 4;
  71. .word 98b, VIScopyfixup_reto2;
  72. .text;
  73. .align 4;
  74. #define EXVISN(x,y,n) 
  75. 98:  x,y;
  76. .section __ex_table;
  77. .align 4;
  78. .word 98b, VIScopyfixup_vis##n;
  79. .text;
  80. .align 4;
  81. #define EXT(start,end,handler) 
  82. .section __ex_table;
  83. .align 4;
  84. .word start, 0, end, handler;
  85. .text;
  86. .align 4;
  87. #else
  88. #ifdef REGS_64BIT
  89. #define FPU_CLEAN_RETL
  90. retl;
  91.  mov %g6, %o0;
  92. #define FPU_RETL
  93. retl;
  94.  mov %g6, %o0;
  95. #else
  96. #define FPU_CLEAN_RETL
  97. wr %g0, FPRS_FEF, %fprs;
  98. retl;
  99.  mov %g6, %o0;
  100. #define FPU_RETL
  101. wr %g0, FPRS_FEF, %fprs;
  102. retl;
  103.  mov %g6, %o0;
  104. #endif
  105. #define NORMAL_RETL
  106. retl;
  107.  mov %g6, %o0;
  108. #define EX(x,y,a,b) x,y
  109. #define EX2(x,y,c,d,e,a,b) x,y
  110. #define EXO2(x,y) x,y
  111. #define EXVISN(x,y,n) x,y
  112. #define EXT(a,b,c)
  113. #endif
  114. #define EXVIS(x,y) EXVISN(x,y,0)
  115. #define EXVIS1(x,y) EXVISN(x,y,1)
  116. #define EXVIS2(x,y) EXVISN(x,y,2)
  117. #define EXVIS3(x,y) EXVISN(x,y,3)
  118. #define EXVIS4(x,y) EXVISN(x,y,4)
  119. #define EXVIS5(x,y) EXVISN(x,y,5)
  120. #define FREG_FROB(f1, f2, f3, f4, f5, f6, f7, f8, f9)
  121. faligndata %f1, %f2, %f48;
  122. faligndata %f2, %f3, %f50;
  123. faligndata %f3, %f4, %f52;
  124. faligndata %f4, %f5, %f54;
  125. faligndata %f5, %f6, %f56;
  126. faligndata %f6, %f7, %f58;
  127. faligndata %f7, %f8, %f60;
  128. faligndata %f8, %f9, %f62;
  129. #define MAIN_LOOP_CHUNK(src, dest, fdest, fsrc, len, jmptgt)
  130. EXVIS(LDBLK [%src] ASIBLK, %fdest);
  131. ASI_SETDST_BLK
  132. EXVIS2(STBLK %fsrc, [%dest] ASIBLK);
  133. add %src, 0x40, %src;
  134. subcc %len, 0x40, %len;
  135. be,pn %xcc, jmptgt;
  136.  add %dest, 0x40, %dest;
  137. ASI_SETSRC_BLK
  138. #define LOOP_CHUNK1(src, dest, len, branch_dest)
  139. MAIN_LOOP_CHUNK(src, dest, f0,  f48, len, branch_dest)
  140. #define LOOP_CHUNK2(src, dest, len, branch_dest)
  141. MAIN_LOOP_CHUNK(src, dest, f16, f48, len, branch_dest)
  142. #define LOOP_CHUNK3(src, dest, len, branch_dest)
  143. MAIN_LOOP_CHUNK(src, dest, f32, f48, len, branch_dest)
  144. #define STORE_SYNC(dest, fsrc)
  145. EXVIS(STBLK %fsrc, [%dest] ASIBLK);
  146. add %dest, 0x40, %dest;
  147. #ifdef __KERNEL__
  148. #define STORE_JUMP(dest, fsrc, target)
  149. srl asi_dest, 3, %g5;
  150. EXVIS3(STBLK %fsrc, [%dest] ASIBLK);
  151. xor        asi_dest, ASI_BLK_XOR1, asi_dest;
  152. add %dest, 0x40, %dest;
  153. xor asi_dest, %g5, asi_dest;
  154. ba,pt %xcc, target;
  155. #else
  156. #define STORE_JUMP(dest, fsrc, target)
  157. EXVIS3(STBLK %fsrc, [%dest] ASIBLK);
  158. add %dest, 0x40, %dest;
  159. ba,pt %xcc, target;
  160. #endif
  161. #ifndef __KERNEL__
  162. #define VISLOOP_PAD nop; nop; nop; nop; 
  163.     nop; nop; nop; nop; 
  164.     nop; nop; nop; nop; 
  165.     nop; nop; nop;
  166. #else
  167. #define VISLOOP_PAD
  168. #endif
  169. #define FINISH_VISCHUNK(dest, f0, f1, left)
  170. ASI_SETDST_NOBLK
  171. subcc %left, 8, %left;
  172. bl,pn %xcc, vis_out;
  173.  faligndata %f0, %f1, %f48;
  174. EXVIS4(STDF %f48, [%dest] ASINORMAL);
  175. add %dest, 8, %dest;
  176. #define UNEVEN_VISCHUNK_LAST(dest, f0, f1, left)
  177. subcc %left, 8, %left;
  178. bl,pn %xcc, vis_out;
  179.  fsrc1 %f0, %f1;
  180. #define UNEVEN_VISCHUNK(dest, f0, f1, left)
  181. UNEVEN_VISCHUNK_LAST(dest, f0, f1, left)
  182. ba,a,pt %xcc, vis_out_slk;
  183. /* Macros for non-VIS memcpy code. */
  184. #ifdef REGS_64BIT
  185. #define MOVE_BIGCHUNK(src, dst, offset, t0, t1, t2, t3)
  186. ASI_SETSRC_NOBLK
  187. LDX [%src + offset + 0x00] ASINORMAL, %t0; 
  188. LDX [%src + offset + 0x08] ASINORMAL, %t1; 
  189. LDX [%src + offset + 0x10] ASINORMAL, %t2; 
  190. LDX [%src + offset + 0x18] ASINORMAL, %t3; 
  191. ASI_SETDST_NOBLK
  192. STW %t0, [%dst + offset + 0x04] ASINORMAL; 
  193. srlx %t0, 32, %t0;
  194. STW %t0, [%dst + offset + 0x00] ASINORMAL; 
  195. STW %t1, [%dst + offset + 0x0c] ASINORMAL; 
  196. srlx %t1, 32, %t1;
  197. STW %t1, [%dst + offset + 0x08] ASINORMAL; 
  198. STW %t2, [%dst + offset + 0x14] ASINORMAL; 
  199. srlx %t2, 32, %t2;
  200. STW %t2, [%dst + offset + 0x10] ASINORMAL; 
  201. STW %t3, [%dst + offset + 0x1c] ASINORMAL;
  202. srlx %t3, 32, %t3;
  203. STW %t3, [%dst + offset + 0x18] ASINORMAL;
  204. #define MOVE_BIGALIGNCHUNK(src, dst, offset, t0, t1, t2, t3)
  205. ASI_SETSRC_NOBLK
  206. LDX [%src + offset + 0x00] ASINORMAL, %t0; 
  207. LDX [%src + offset + 0x08] ASINORMAL, %t1; 
  208. LDX [%src + offset + 0x10] ASINORMAL, %t2; 
  209. LDX [%src + offset + 0x18] ASINORMAL, %t3; 
  210. ASI_SETDST_NOBLK
  211. STX %t0, [%dst + offset + 0x00] ASINORMAL; 
  212. STX %t1, [%dst + offset + 0x08] ASINORMAL; 
  213. STX %t2, [%dst + offset + 0x10] ASINORMAL; 
  214. STX %t3, [%dst + offset + 0x18] ASINORMAL; 
  215. ASI_SETSRC_NOBLK
  216. LDX [%src + offset + 0x20] ASINORMAL, %t0; 
  217. LDX [%src + offset + 0x28] ASINORMAL, %t1; 
  218. LDX [%src + offset + 0x30] ASINORMAL, %t2; 
  219. LDX [%src + offset + 0x38] ASINORMAL, %t3; 
  220. ASI_SETDST_NOBLK
  221. STX %t0, [%dst + offset + 0x20] ASINORMAL; 
  222. STX %t1, [%dst + offset + 0x28] ASINORMAL; 
  223. STX %t2, [%dst + offset + 0x30] ASINORMAL; 
  224. STX %t3, [%dst + offset + 0x38] ASINORMAL;
  225. #define MOVE_LASTCHUNK(src, dst, offset, t0, t1, t2, t3)
  226. ASI_SETSRC_NOBLK
  227. LDX [%src - offset - 0x10] ASINORMAL, %t0;
  228. LDX [%src - offset - 0x08] ASINORMAL, %t1; 
  229. ASI_SETDST_NOBLK
  230. STW %t0, [%dst - offset - 0x0c] ASINORMAL; 
  231. srlx %t0, 32, %t2;
  232. STW %t2, [%dst - offset - 0x10] ASINORMAL; 
  233. STW %t1, [%dst - offset - 0x04] ASINORMAL; 
  234. srlx %t1, 32, %t3;
  235. STW %t3, [%dst - offset - 0x08] ASINORMAL;
  236. #define MOVE_LASTALIGNCHUNK(src, dst, offset, t0, t1)
  237. ASI_SETSRC_NOBLK
  238. LDX [%src - offset - 0x10] ASINORMAL, %t0; 
  239. LDX [%src - offset - 0x08] ASINORMAL, %t1; 
  240. ASI_SETDST_NOBLK
  241. STX %t0, [%dst - offset - 0x10] ASINORMAL; 
  242. STX %t1, [%dst - offset - 0x08] ASINORMAL;
  243. #else /* !REGS_64BIT */
  244. #define MOVE_BIGCHUNK(src, dst, offset, t0, t1, t2, t3)
  245. lduw [%src + offset + 0x00], %t0; 
  246. lduw [%src + offset + 0x04], %t1; 
  247. lduw [%src + offset + 0x08], %t2; 
  248. lduw [%src + offset + 0x0c], %t3; 
  249. stw %t0, [%dst + offset + 0x00]; 
  250. stw %t1, [%dst + offset + 0x04]; 
  251. stw %t2, [%dst + offset + 0x08]; 
  252. stw %t3, [%dst + offset + 0x0c]; 
  253. lduw [%src + offset + 0x10], %t0; 
  254. lduw [%src + offset + 0x14], %t1; 
  255. lduw [%src + offset + 0x18], %t2; 
  256. lduw [%src + offset + 0x1c], %t3; 
  257. stw %t0, [%dst + offset + 0x10]; 
  258. stw %t1, [%dst + offset + 0x14]; 
  259. stw %t2, [%dst + offset + 0x18]; 
  260. stw %t3, [%dst + offset + 0x1c];
  261. #define MOVE_LASTCHUNK(src, dst, offset, t0, t1, t2, t3)
  262. lduw [%src - offset - 0x10], %t0; 
  263. lduw [%src - offset - 0x0c], %t1; 
  264. lduw [%src - offset - 0x08], %t2; 
  265. lduw [%src - offset - 0x04], %t3; 
  266. stw %t0, [%dst - offset - 0x10]; 
  267. stw %t1, [%dst - offset - 0x0c]; 
  268. stw %t2, [%dst - offset - 0x08]; 
  269. stw %t3, [%dst - offset - 0x04];
  270. #endif /* !REGS_64BIT */
  271. #ifdef __KERNEL__
  272. .section __ex_table,#alloc
  273. .section .fixup,#alloc,#execinstr
  274. #endif
  275. .text
  276. .align 32
  277. .globl memcpy
  278. .type memcpy,@function
  279. .globl bcopy
  280. .type bcopy,@function
  281. #ifdef __KERNEL__
  282. .globl __memcpy_begin
  283. __memcpy_begin:
  284. .globl __memcpy
  285. .type __memcpy,@function
  286. memcpy_private:
  287. __memcpy:
  288. memcpy: mov ASI_P, asi_src ! IEU0 Group
  289. brnz,pt %o2, __memcpy_entry ! CTI
  290.  mov ASI_P, asi_dest ! IEU1
  291. retl
  292.  clr %o0
  293. .align 32
  294. .globl __copy_from_user
  295. .type __copy_from_user,@function
  296. __copy_from_user:rd %asi, asi_src ! IEU0 Group
  297. brnz,pt %o2, __memcpy_entry ! CTI
  298.  mov ASI_P, asi_dest ! IEU1
  299. .globl __copy_to_user
  300. .type __copy_to_user,@function
  301. __copy_to_user: mov ASI_P, asi_src ! IEU0 Group
  302. brnz,pt %o2, __memcpy_entry ! CTI
  303.  rd %asi, asi_dest ! IEU1
  304. retl ! CTI Group
  305.  clr %o0 ! IEU0 Group
  306. .globl __copy_in_user
  307. .type __copy_in_user,@function
  308. __copy_in_user: rd %asi, asi_src ! IEU0 Group
  309. brnz,pt %o2, __memcpy_entry ! CTI
  310.  mov asi_src, asi_dest ! IEU1
  311. retl ! CTI Group
  312.  clr %o0 ! IEU0 Group
  313. #endif
  314. bcopy: or %o0, 0, %g3 ! IEU0 Group
  315. addcc %o1, 0, %o0 ! IEU1
  316. brgez,pt %o2, memcpy_private ! CTI
  317.  or %g3, 0, %o1 ! IEU0 Group
  318. retl ! CTI Group brk forced
  319.  clr %o0 ! IEU0
  320. #ifdef __KERNEL__
  321. #define BRANCH_ALWAYS 0x10680000
  322. #define NOP 0x01000000
  323. #define ULTRA3_DO_PATCH(OLD, NEW)
  324. sethi %hi(NEW), %g1; 
  325. or %g1, %lo(NEW), %g1; 
  326. sethi %hi(OLD), %g2; 
  327. or %g2, %lo(OLD), %g2; 
  328. sub %g1, %g2, %g1; 
  329. sethi %hi(BRANCH_ALWAYS), %g3; 
  330. srl %g1, 2, %g1; 
  331. or %g3, %lo(BRANCH_ALWAYS), %g3; 
  332. or %g3, %g1, %g3; 
  333. stw %g3, [%g2]; 
  334. sethi %hi(NOP), %g3; 
  335. or %g3, %lo(NOP), %g3; 
  336. stw %g3, [%g2 + 0x4]; 
  337. flush %g2;
  338. #define ULTRA3_PCACHE_DO_NOP(symbol)
  339. sethi %hi(symbol##_nop_1_6), %g1; 
  340. or %g1, %lo(symbol##_nop_1_6), %g1; 
  341. sethi %hi(NOP), %g2; 
  342. stw %g2, [%g1 + 0x00]; 
  343. stw %g2, [%g1 + 0x04]; 
  344. flush %g1 + 0x00; 
  345. stw %g2, [%g1 + 0x08]; 
  346. stw %g2, [%g1 + 0x0c]; 
  347. flush %g1 + 0x08; 
  348. stw %g2, [%g1 + 0x10]; 
  349. stw %g2, [%g1 + 0x04]; 
  350. flush %g1 + 0x10; 
  351. sethi %hi(symbol##_nop_2_3), %g1; 
  352. or %g1, %lo(symbol##_nop_2_3), %g1; 
  353. stw %g2, [%g1 + 0x00]; 
  354. stw %g2, [%g1 + 0x04]; 
  355. flush %g1 + 0x00; 
  356. stw %g2, [%g1 + 0x08]; 
  357. flush %g1 + 0x08;
  358. #include <asm/dcu.h>
  359. .globl cheetah_patch_copyops
  360. cheetah_patch_copyops:
  361. ULTRA3_DO_PATCH(memcpy, U3memcpy)
  362. ULTRA3_DO_PATCH(__copy_from_user, U3copy_from_user)
  363. ULTRA3_DO_PATCH(__copy_to_user, U3copy_to_user)
  364. ULTRA3_DO_PATCH(__copy_in_user, U3copy_in_user)
  365. #if 0 /* Causes data corruption, nop out the optimization
  366.        * for now -DaveM
  367.        */
  368. ldxa [%g0] ASI_DCU_CONTROL_REG, %g3
  369. sethi %uhi(DCU_PE), %o3
  370. sllx %o3, 32, %o3
  371. andcc %g3, %o3, %g0
  372. be,pn %xcc, pcache_disabled
  373.  nop
  374. #endif
  375. ULTRA3_PCACHE_DO_NOP(U3memcpy)
  376. ULTRA3_PCACHE_DO_NOP(U3copy_from_user)
  377. ULTRA3_PCACHE_DO_NOP(U3copy_to_user)
  378. ULTRA3_PCACHE_DO_NOP(cheetah_copy_user_page)
  379. #if 0
  380. pcache_disabled:
  381. #endif
  382. retl
  383.  nop
  384. #undef BRANCH_ALWAYS
  385. #undef NOP
  386. #undef ULTRA3_DO_PATCH
  387. #endif /* __KERNEL__ */
  388. .align 32
  389. #ifdef __KERNEL__
  390. andcc %o0, 7, %g2 ! IEU1 Group
  391. #endif
  392. VIS_enter:
  393. be,pt %xcc, dest_is_8byte_aligned ! CTI
  394. #ifdef __KERNEL__
  395.  nop ! IEU0 Group
  396. #else
  397.  andcc %o0, 0x38, %g5 ! IEU1 Group
  398. #endif
  399. do_dest_8byte_align:
  400. mov 8, %g1 ! IEU0
  401. sub %g1, %g2, %g2 ! IEU0 Group
  402. andcc %o0, 1, %g0 ! IEU1
  403. be,pt %icc, 2f ! CTI
  404.  sub %o2, %g2, %o2 ! IEU0 Group
  405. 1: ASI_SETSRC_NOBLK ! LSU Group
  406. EX(LDUB [%o1] ASINORMAL, %o5, 
  407. add %o2, %g2) ! Load Group
  408. add %o1, 1, %o1 ! IEU0
  409. add %o0, 1, %o0 ! IEU1
  410. ASI_SETDST_NOBLK ! LSU Group
  411. subcc %g2, 1, %g2 ! IEU1 Group
  412. be,pn %xcc, 3f ! CTI
  413.  EX2(STB %o5, [%o0 - 1] ASINORMAL,
  414. add %g2, 1, %g2,
  415. add %o2, %g2) ! Store
  416. 2: ASI_SETSRC_NOBLK ! LSU Group
  417. EX(LDUB [%o1] ASINORMAL, %o5, 
  418. add %o2, %g2) ! Load Group
  419. add %o0, 2, %o0 ! IEU0
  420. EX2(LDUB [%o1 + 1] ASINORMAL, %g3,
  421. sub %o0, 2, %o0,
  422. add %o2, %g2) ! Load Group
  423. ASI_SETDST_NOBLK ! LSU Group
  424. subcc %g2, 2, %g2 ! IEU1 Group
  425. EX2(STB %o5, [%o0 - 2] ASINORMAL,
  426. add %g2, 2, %g2,
  427. add %o2, %g2) ! Store
  428. add %o1, 2, %o1 ! IEU0
  429. bne,pt %xcc, 2b ! CTI Group
  430.  EX2(STB %g3, [%o0 - 1] ASINORMAL,
  431. add %g2, 1, %g2,
  432. add %o2, %g2) ! Store
  433. #ifdef __KERNEL__
  434. 3:
  435. dest_is_8byte_aligned:
  436. VISEntry
  437. andcc %o0, 0x38, %g5 ! IEU1 Group
  438. #else
  439. 3: andcc %o0, 0x38, %g5 ! IEU1 Group
  440. dest_is_8byte_aligned:
  441. #endif
  442. be,pt %icc, dest_is_64byte_aligned ! CTI
  443.  mov 64, %g1 ! IEU0
  444. fmovd %f0, %f2 ! FPU
  445. sub %g1, %g5, %g5 ! IEU0 Group
  446. ASI_SETSRC_NOBLK ! LSU Group
  447. alignaddr %o1, %g0, %g1 ! GRU Group
  448. EXO2(LDDF [%g1] ASINORMAL, %f4) ! Load Group
  449. sub %o2, %g5, %o2 ! IEU0
  450. 1: EX(LDDF [%g1 + 0x8] ASINORMAL, %f6,
  451. add %o2, %g5) ! Load Group
  452. add %g1, 0x8, %g1 ! IEU0 Group
  453. subcc %g5, 8, %g5 ! IEU1
  454. ASI_SETDST_NOBLK ! LSU Group
  455. faligndata %f4, %f6, %f0 ! GRU Group
  456. EX2(STDF %f0, [%o0] ASINORMAL,
  457. add %g5, 8, %g5,
  458. add %o2, %g5) ! Store
  459. add %o1, 8, %o1 ! IEU0 Group
  460. be,pn %xcc, dest_is_64byte_aligned ! CTI
  461.  add %o0, 8, %o0 ! IEU1
  462. ASI_SETSRC_NOBLK ! LSU Group
  463. EX(LDDF [%g1 + 0x8] ASINORMAL, %f4,
  464. add %o2, %g5) ! Load Group
  465. add %g1, 8, %g1 ! IEU0
  466. subcc %g5, 8, %g5 ! IEU1
  467. ASI_SETDST_NOBLK ! LSU Group
  468. faligndata %f6, %f4, %f0 ! GRU Group
  469. EX2(STDF %f0, [%o0] ASINORMAL,
  470. add %g5, 8, %g5,
  471. add %o2, %g5) ! Store
  472. add %o1, 8, %o1 ! IEU0
  473. ASI_SETSRC_NOBLK ! LSU Group
  474. bne,pt %xcc, 1b ! CTI Group
  475.  add %o0, 8, %o0 ! IEU0
  476. dest_is_64byte_aligned:
  477. membar   #LoadStore | #StoreStore | #StoreLoad ! LSU Group
  478. #ifndef __KERNEL__
  479. wr %g0, ASI_BLK_P, %asi ! LSU Group
  480. #endif
  481. subcc %o2, 0x40, %g7 ! IEU1 Group
  482. mov %o1, %g1 ! IEU0
  483. andncc %g7, (0x40 - 1), %g7 ! IEU1 Group
  484. srl %g1, 3, %g2 ! IEU0
  485. sub %o2, %g7, %g3 ! IEU0 Group
  486. andn %o1, (0x40 - 1), %o1 ! IEU1
  487. and %g2, 7, %g2 ! IEU0 Group
  488. andncc %g3, 0x7, %g3 ! IEU1
  489. fmovd %f0, %f2 ! FPU
  490. sub %g3, 0x10, %g3 ! IEU0 Group
  491. sub %o2, %g7, %o2 ! IEU1
  492. #ifdef __KERNEL__
  493. or asi_src, ASI_BLK_OR, asi_src ! IEU0 Group
  494. or asi_dest, ASI_BLK_OR, asi_dest ! IEU1
  495. #endif
  496. alignaddr %g1, %g0, %g0 ! GRU Group
  497. add %g1, %g7, %g1 ! IEU0 Group
  498. subcc %o2, %g3, %o2 ! IEU1
  499. ASI_SETSRC_BLK ! LSU Group
  500. EXVIS1(LDBLK [%o1 + 0x00] ASIBLK, %f0) ! LSU Group
  501. add %g1, %g3, %g1 ! IEU0
  502. EXVIS1(LDBLK [%o1 + 0x40] ASIBLK, %f16) ! LSU Group
  503. sub %g7, 0x80, %g7 ! IEU0
  504. EXVIS(LDBLK [%o1 + 0x80] ASIBLK, %f32) ! LSU Group
  505. #ifdef __KERNEL__
  506. vispc: sll %g2, 9, %g2 ! IEU0 Group
  507. sethi %hi(vis00), %g5 ! IEU1
  508. or %g5, %lo(vis00), %g5 ! IEU0 Group
  509. jmpl %g5 + %g2, %g0 ! CTI Group brk forced
  510.  addcc %o1, 0xc0, %o1 ! IEU1 Group
  511. #else
  512. ! Clk1 Group 8-(
  513. ! Clk2 Group 8-(
  514. ! Clk3 Group 8-(
  515. ! Clk4 Group 8-(
  516. vispc: rd %pc, %g5 ! PDU Group 8-(
  517. addcc %g5, %lo(vis00 - vispc), %g5 ! IEU1 Group
  518. sll %g2, 9, %g2 ! IEU0
  519. jmpl %g5 + %g2, %g0 ! CTI Group brk forced
  520.  addcc %o1, 0xc0, %o1 ! IEU1 Group
  521. #endif
  522. .align 512 /* OK, here comes the fun part... */
  523. vis00:FREG_FROB(f0, f2, f4, f6, f8, f10,f12,f14,f16) LOOP_CHUNK1(o1, o0, g7, vis01)
  524.       FREG_FROB(f16,f18,f20,f22,f24,f26,f28,f30,f32) LOOP_CHUNK2(o1, o0, g7, vis02)
  525.       FREG_FROB(f32,f34,f36,f38,f40,f42,f44,f46,f0)  LOOP_CHUNK3(o1, o0, g7, vis03)
  526.       b,pt %xcc, vis00+4; faligndata %f0, %f2, %f48
  527. vis01:FREG_FROB(f16,f18,f20,f22,f24,f26,f28,f30,f32) STORE_SYNC(o0, f48) membar #Sync
  528.       FREG_FROB(f32,f34,f36,f38,f40,f42,f44,f46,f0)  STORE_JUMP(o0, f48, finish_f0) membar #Sync
  529. vis02:FREG_FROB(f32,f34,f36,f38,f40,f42,f44,f46,f0)  STORE_SYNC(o0, f48) membar #Sync
  530.       FREG_FROB(f0, f2, f4, f6, f8, f10,f12,f14,f16) STORE_JUMP(o0, f48, finish_f16) membar #Sync
  531. vis03:FREG_FROB(f0, f2, f4, f6, f8, f10,f12,f14,f16) STORE_SYNC(o0, f48) membar #Sync
  532.       FREG_FROB(f16,f18,f20,f22,f24,f26,f28,f30,f32) STORE_JUMP(o0, f48, finish_f32) membar #Sync
  533.       VISLOOP_PAD
  534. vis10:FREG_FROB(f2, f4, f6, f8, f10,f12,f14,f16,f18) LOOP_CHUNK1(o1, o0, g7, vis11)
  535.       FREG_FROB(f18,f20,f22,f24,f26,f28,f30,f32,f34) LOOP_CHUNK2(o1, o0, g7, vis12)
  536.       FREG_FROB(f34,f36,f38,f40,f42,f44,f46,f0, f2)  LOOP_CHUNK3(o1, o0, g7, vis13)
  537.       b,pt %xcc, vis10+4; faligndata %f2, %f4, %f48
  538. vis11:FREG_FROB(f18,f20,f22,f24,f26,f28,f30,f32,f34) STORE_SYNC(o0, f48) membar #Sync
  539.       FREG_FROB(f34,f36,f38,f40,f42,f44,f46,f0, f2)  STORE_JUMP(o0, f48, finish_f2) membar #Sync
  540. vis12:FREG_FROB(f34,f36,f38,f40,f42,f44,f46,f0, f2)  STORE_SYNC(o0, f48) membar #Sync
  541.       FREG_FROB(f2, f4, f6, f8, f10,f12,f14,f16,f18) STORE_JUMP(o0, f48, finish_f18) membar #Sync
  542. vis13:FREG_FROB(f2, f4, f6, f8, f10,f12,f14,f16,f18) STORE_SYNC(o0, f48) membar #Sync
  543.       FREG_FROB(f18,f20,f22,f24,f26,f28,f30,f32,f34) STORE_JUMP(o0, f48, finish_f34) membar #Sync
  544.       VISLOOP_PAD
  545. vis20:FREG_FROB(f4, f6, f8, f10,f12,f14,f16,f18,f20) LOOP_CHUNK1(o1, o0, g7, vis21)
  546.       FREG_FROB(f20,f22,f24,f26,f28,f30,f32,f34,f36) LOOP_CHUNK2(o1, o0, g7, vis22)
  547.       FREG_FROB(f36,f38,f40,f42,f44,f46,f0, f2, f4)  LOOP_CHUNK3(o1, o0, g7, vis23)
  548.       b,pt %xcc, vis20+4; faligndata %f4, %f6, %f48
  549. vis21:FREG_FROB(f20,f22,f24,f26,f28,f30,f32,f34,f36) STORE_SYNC(o0, f48) membar #Sync
  550.       FREG_FROB(f36,f38,f40,f42,f44,f46,f0, f2, f4)  STORE_JUMP(o0, f48, finish_f4) membar #Sync
  551. vis22:FREG_FROB(f36,f38,f40,f42,f44,f46,f0, f2, f4)  STORE_SYNC(o0, f48) membar #Sync
  552.       FREG_FROB(f4, f6, f8, f10,f12,f14,f16,f18,f20) STORE_JUMP(o0, f48, finish_f20) membar #Sync
  553. vis23:FREG_FROB(f4, f6, f8, f10,f12,f14,f16,f18,f20) STORE_SYNC(o0, f48) membar #Sync
  554.       FREG_FROB(f20,f22,f24,f26,f28,f30,f32,f34,f36) STORE_JUMP(o0, f48, finish_f36) membar #Sync
  555.       VISLOOP_PAD
  556. vis30:FREG_FROB(f6, f8, f10,f12,f14,f16,f18,f20,f22) LOOP_CHUNK1(o1, o0, g7, vis31)
  557.       FREG_FROB(f22,f24,f26,f28,f30,f32,f34,f36,f38) LOOP_CHUNK2(o1, o0, g7, vis32)
  558.       FREG_FROB(f38,f40,f42,f44,f46,f0, f2, f4, f6)  LOOP_CHUNK3(o1, o0, g7, vis33)
  559.       b,pt %xcc, vis30+4; faligndata %f6, %f8, %f48
  560. vis31:FREG_FROB(f22,f24,f26,f28,f30,f32,f34,f36,f38) STORE_SYNC(o0, f48) membar #Sync
  561.       FREG_FROB(f38,f40,f42,f44,f46,f0, f2, f4, f6)  STORE_JUMP(o0, f48, finish_f6) membar #Sync
  562. vis32:FREG_FROB(f38,f40,f42,f44,f46,f0, f2, f4, f6)  STORE_SYNC(o0, f48) membar #Sync
  563.       FREG_FROB(f6, f8, f10,f12,f14,f16,f18,f20,f22) STORE_JUMP(o0, f48, finish_f22) membar #Sync
  564. vis33:FREG_FROB(f6, f8, f10,f12,f14,f16,f18,f20,f22) STORE_SYNC(o0, f48) membar #Sync
  565.       FREG_FROB(f22,f24,f26,f28,f30,f32,f34,f36,f38) STORE_JUMP(o0, f48, finish_f38) membar #Sync
  566.       VISLOOP_PAD
  567. vis40:FREG_FROB(f8, f10,f12,f14,f16,f18,f20,f22,f24) LOOP_CHUNK1(o1, o0, g7, vis41)
  568.       FREG_FROB(f24,f26,f28,f30,f32,f34,f36,f38,f40) LOOP_CHUNK2(o1, o0, g7, vis42)
  569.       FREG_FROB(f40,f42,f44,f46,f0, f2, f4, f6, f8)  LOOP_CHUNK3(o1, o0, g7, vis43)
  570.       b,pt %xcc, vis40+4; faligndata %f8, %f10, %f48
  571. vis41:FREG_FROB(f24,f26,f28,f30,f32,f34,f36,f38,f40) STORE_SYNC(o0, f48) membar #Sync
  572.       FREG_FROB(f40,f42,f44,f46,f0, f2, f4, f6, f8)  STORE_JUMP(o0, f48, finish_f8) membar #Sync
  573. vis42:FREG_FROB(f40,f42,f44,f46,f0, f2, f4, f6, f8)  STORE_SYNC(o0, f48) membar #Sync
  574.       FREG_FROB(f8, f10,f12,f14,f16,f18,f20,f22,f24) STORE_JUMP(o0, f48, finish_f24) membar #Sync
  575. vis43:FREG_FROB(f8, f10,f12,f14,f16,f18,f20,f22,f24) STORE_SYNC(o0, f48) membar #Sync
  576.       FREG_FROB(f24,f26,f28,f30,f32,f34,f36,f38,f40) STORE_JUMP(o0, f48, finish_f40) membar #Sync
  577.       VISLOOP_PAD
  578. vis50:FREG_FROB(f10,f12,f14,f16,f18,f20,f22,f24,f26) LOOP_CHUNK1(o1, o0, g7, vis51)
  579.       FREG_FROB(f26,f28,f30,f32,f34,f36,f38,f40,f42) LOOP_CHUNK2(o1, o0, g7, vis52)
  580.       FREG_FROB(f42,f44,f46,f0, f2, f4, f6, f8, f10) LOOP_CHUNK3(o1, o0, g7, vis53)
  581.       b,pt %xcc, vis50+4; faligndata %f10, %f12, %f48
  582. vis51:FREG_FROB(f26,f28,f30,f32,f34,f36,f38,f40,f42) STORE_SYNC(o0, f48) membar #Sync
  583.       FREG_FROB(f42,f44,f46,f0, f2, f4, f6, f8, f10) STORE_JUMP(o0, f48, finish_f10) membar #Sync
  584. vis52:FREG_FROB(f42,f44,f46,f0, f2, f4, f6, f8, f10) STORE_SYNC(o0, f48) membar #Sync
  585.       FREG_FROB(f10,f12,f14,f16,f18,f20,f22,f24,f26) STORE_JUMP(o0, f48, finish_f26) membar #Sync
  586. vis53:FREG_FROB(f10,f12,f14,f16,f18,f20,f22,f24,f26) STORE_SYNC(o0, f48) membar #Sync
  587.       FREG_FROB(f26,f28,f30,f32,f34,f36,f38,f40,f42) STORE_JUMP(o0, f48, finish_f42) membar #Sync
  588.       VISLOOP_PAD
  589. vis60:FREG_FROB(f12,f14,f16,f18,f20,f22,f24,f26,f28) LOOP_CHUNK1(o1, o0, g7, vis61)
  590.       FREG_FROB(f28,f30,f32,f34,f36,f38,f40,f42,f44) LOOP_CHUNK2(o1, o0, g7, vis62)
  591.       FREG_FROB(f44,f46,f0, f2, f4, f6, f8, f10,f12) LOOP_CHUNK3(o1, o0, g7, vis63)
  592.       b,pt %xcc, vis60+4; faligndata %f12, %f14, %f48
  593. vis61:FREG_FROB(f28,f30,f32,f34,f36,f38,f40,f42,f44) STORE_SYNC(o0, f48) membar #Sync
  594.       FREG_FROB(f44,f46,f0, f2, f4, f6, f8, f10,f12) STORE_JUMP(o0, f48, finish_f12) membar #Sync
  595. vis62:FREG_FROB(f44,f46,f0, f2, f4, f6, f8, f10,f12) STORE_SYNC(o0, f48) membar #Sync
  596.       FREG_FROB(f12,f14,f16,f18,f20,f22,f24,f26,f28) STORE_JUMP(o0, f48, finish_f28) membar #Sync
  597. vis63:FREG_FROB(f12,f14,f16,f18,f20,f22,f24,f26,f28) STORE_SYNC(o0, f48) membar #Sync
  598.       FREG_FROB(f28,f30,f32,f34,f36,f38,f40,f42,f44) STORE_JUMP(o0, f48, finish_f44) membar #Sync
  599.       VISLOOP_PAD
  600. vis70:FREG_FROB(f14,f16,f18,f20,f22,f24,f26,f28,f30) LOOP_CHUNK1(o1, o0, g7, vis71)
  601.       FREG_FROB(f30,f32,f34,f36,f38,f40,f42,f44,f46) LOOP_CHUNK2(o1, o0, g7, vis72)
  602.       FREG_FROB(f46,f0, f2, f4, f6, f8, f10,f12,f14) LOOP_CHUNK3(o1, o0, g7, vis73)
  603.       b,pt %xcc, vis70+4; faligndata %f14, %f16, %f48
  604. vis71:FREG_FROB(f30,f32,f34,f36,f38,f40,f42,f44,f46) STORE_SYNC(o0, f48) membar #Sync
  605.       FREG_FROB(f46,f0, f2, f4, f6, f8, f10,f12,f14) STORE_JUMP(o0, f48, finish_f14) membar #Sync
  606. vis72:FREG_FROB(f46,f0, f2, f4, f6, f8, f10,f12,f14) STORE_SYNC(o0, f48) membar #Sync
  607.       FREG_FROB(f14,f16,f18,f20,f22,f24,f26,f28,f30) STORE_JUMP(o0, f48, finish_f30) membar #Sync
  608. vis73:FREG_FROB(f14,f16,f18,f20,f22,f24,f26,f28,f30) STORE_SYNC(o0, f48) membar #Sync
  609.       FREG_FROB(f30,f32,f34,f36,f38,f40,f42,f44,f46) STORE_JUMP(o0, f48, finish_f46) membar #Sync
  610.       VISLOOP_PAD
  611. finish_f0: FINISH_VISCHUNK(o0, f0,  f2,  g3)
  612. finish_f2: FINISH_VISCHUNK(o0, f2,  f4,  g3)
  613. finish_f4: FINISH_VISCHUNK(o0, f4,  f6,  g3)
  614. finish_f6: FINISH_VISCHUNK(o0, f6,  f8,  g3)
  615. finish_f8: FINISH_VISCHUNK(o0, f8,  f10, g3)
  616. finish_f10: FINISH_VISCHUNK(o0, f10, f12, g3)
  617. finish_f12: FINISH_VISCHUNK(o0, f12, f14, g3)
  618. finish_f14: UNEVEN_VISCHUNK(o0, f14, f0,  g3)
  619. finish_f16: FINISH_VISCHUNK(o0, f16, f18, g3)
  620. finish_f18: FINISH_VISCHUNK(o0, f18, f20, g3)
  621. finish_f20: FINISH_VISCHUNK(o0, f20, f22, g3)
  622. finish_f22: FINISH_VISCHUNK(o0, f22, f24, g3)
  623. finish_f24: FINISH_VISCHUNK(o0, f24, f26, g3)
  624. finish_f26: FINISH_VISCHUNK(o0, f26, f28, g3)
  625. finish_f28: FINISH_VISCHUNK(o0, f28, f30, g3)
  626. finish_f30: UNEVEN_VISCHUNK(o0, f30, f0,  g3)
  627. finish_f32: FINISH_VISCHUNK(o0, f32, f34, g3)
  628. finish_f34: FINISH_VISCHUNK(o0, f34, f36, g3)
  629. finish_f36: FINISH_VISCHUNK(o0, f36, f38, g3)
  630. finish_f38: FINISH_VISCHUNK(o0, f38, f40, g3)
  631. finish_f40: FINISH_VISCHUNK(o0, f40, f42, g3)
  632. finish_f42: FINISH_VISCHUNK(o0, f42, f44, g3)
  633. finish_f44: FINISH_VISCHUNK(o0, f44, f46, g3)
  634. finish_f46: UNEVEN_VISCHUNK_LAST(o0, f46, f0,  g3)
  635. vis_out_slk:
  636. #ifdef __KERNEL__
  637. srl asi_src, 3, %g5 ! IEU0 Group
  638. xor asi_src, ASI_BLK_XOR1, asi_src ! IEU1
  639. xor asi_src, %g5, asi_src ! IEU0 Group
  640. #endif
  641. vis_slk:ASI_SETSRC_NOBLK ! LSU Group
  642. EXVIS4(LDDF [%o1] ASINORMAL, %f2) ! Load Group
  643. add %o1, 8, %o1 ! IEU0
  644. subcc %g3, 8, %g3 ! IEU1
  645. ASI_SETDST_NOBLK ! LSU Group
  646. faligndata %f0, %f2, %f8 ! GRU Group
  647. EXVIS5(STDF %f8, [%o0] ASINORMAL) ! Store
  648. bl,pn %xcc, vis_out_slp ! CTI
  649.  add %o0, 8, %o0 ! IEU0 Group
  650. ASI_SETSRC_NOBLK ! LSU Group
  651. EXVIS4(LDDF [%o1] ASINORMAL, %f0) ! Load Group
  652. add %o1, 8, %o1 ! IEU0
  653. subcc %g3, 8, %g3 ! IEU1
  654. ASI_SETDST_NOBLK ! LSU Group
  655. faligndata %f2, %f0, %f8 ! GRU Group
  656. EXVIS5(STDF %f8, [%o0] ASINORMAL) ! Store
  657. bge,pt %xcc, vis_slk ! CTI
  658.  add %o0, 8, %o0 ! IEU0 Group
  659. vis_out_slp:
  660. #ifdef __KERNEL__
  661. brz,pt %o2, vis_ret ! CTI Group
  662.  mov %g1, %o1 ! IEU0
  663. ba,pt %xcc, vis_slp+4 ! CTI Group
  664.  ASI_SETSRC_NOBLK ! LSU Group
  665. #endif
  666. vis_out:brz,pt %o2, vis_ret ! CTI Group
  667.  mov %g1, %o1 ! IEU0
  668. #ifdef __KERNEL__
  669. srl asi_src, 3, %g5 ! IEU0 Group
  670. xor asi_src, ASI_BLK_XOR1, asi_src ! IEU1
  671. xor asi_src, %g5, asi_src ! IEU0 Group
  672. #endif
  673. vis_slp:ASI_SETSRC_NOBLK ! LSU Group
  674. EXO2(LDUB [%o1] ASINORMAL, %g5) ! LOAD
  675. add %o1, 1, %o1 ! IEU0
  676. add %o0, 1, %o0 ! IEU1
  677. ASI_SETDST_NOBLK ! LSU Group
  678. subcc %o2, 1, %o2 ! IEU1
  679. bne,pt %xcc, vis_slp ! CTI
  680.  EX(STB %g5, [%o0 - 1] ASINORMAL,
  681. add %o2, 1) ! Store Group
  682. vis_ret:membar #StoreLoad | #StoreStore ! LSU Group
  683. FPU_CLEAN_RETL
  684. __memcpy_short:
  685. andcc %o2, 1, %g0 ! IEU1 Group
  686. be,pt %icc, 2f ! CTI
  687. 1:  ASI_SETSRC_NOBLK ! LSU Group
  688. EXO2(LDUB [%o1] ASINORMAL, %g5) ! LOAD Group
  689. add %o1, 1, %o1 ! IEU0
  690. add %o0, 1, %o0 ! IEU1
  691. ASI_SETDST_NOBLK ! LSU Group
  692. subcc %o2, 1, %o2 ! IEU1 Group
  693. be,pn %xcc, short_ret ! CTI
  694.  EX(STB %g5, [%o0 - 1] ASINORMAL,
  695. add %o2, 1) ! Store
  696. 2: ASI_SETSRC_NOBLK ! LSU Group
  697. EXO2(LDUB [%o1] ASINORMAL, %g5) ! LOAD Group
  698. add %o0, 2, %o0 ! IEU0
  699. EX2(LDUB [%o1 + 1] ASINORMAL, %o5,
  700. sub %o0, 2, %o0,
  701. add %o2, %g0) ! LOAD Group
  702. add %o1, 2, %o1 ! IEU0
  703. ASI_SETDST_NOBLK ! LSU Group
  704. subcc %o2, 2, %o2 ! IEU1 Group
  705. EX(STB %g5, [%o0 - 2] ASINORMAL,
  706. add %o2, 2) ! Store
  707. bne,pt %xcc, 2b ! CTI
  708.  EX(STB %o5, [%o0 - 1] ASINORMAL,
  709. add %o2, 1) ! Store
  710. short_ret:
  711. NORMAL_RETL
  712. #ifndef __KERNEL__
  713. memcpy_private:
  714. memcpy:
  715. #ifndef REGS_64BIT
  716. srl %o2, 0, %o2 ! IEU1 Group
  717. #endif
  718. brz,pn %o2, short_ret ! CTI Group
  719.  mov %o0, %g6 ! IEU0
  720. #endif
  721. __memcpy_entry:
  722. cmp %o2, 15 ! IEU1 Group
  723. bleu,pn %xcc, __memcpy_short ! CTI
  724.  cmp %o2, (64 * 6) ! IEU1 Group
  725. bgeu,pn %xcc, VIS_enter ! CTI
  726.  andcc %o0, 7, %g2 ! IEU1 Group
  727. sub %o0, %o1, %g5 ! IEU0
  728. andcc %g5, 3, %o5 ! IEU1 Group
  729. bne,pn %xcc, memcpy_noVIS_misaligned ! CTI
  730.  andcc %o1, 3, %g0 ! IEU1 Group
  731. #ifdef REGS_64BIT
  732. be,a,pt %xcc, 3f ! CTI
  733.  andcc %o1, 4, %g0 ! IEU1 Group
  734. andcc %o1, 1, %g0 ! IEU1 Group
  735. #else /* !REGS_64BIT */
  736. be,pt %xcc, 5f ! CTI
  737.  andcc %o1, 1, %g0 ! IEU1 Group
  738. #endif /* !REGS_64BIT */
  739. be,pn %xcc, 4f ! CTI
  740.  andcc %o1, 2, %g0 ! IEU1 Group
  741. ASI_SETSRC_NOBLK ! LSU Group
  742. EXO2(LDUB [%o1] ASINORMAL, %g2) ! Load Group
  743. add %o1, 1, %o1 ! IEU0
  744. add %o0, 1, %o0 ! IEU1
  745. sub %o2, 1, %o2 ! IEU0 Group
  746. ASI_SETDST_NOBLK ! LSU Group
  747. bne,pn %xcc, 5f ! CTI Group
  748.  EX(STB %g2, [%o0 - 1] ASINORMAL,
  749. add %o2, 1) ! Store
  750. 4: ASI_SETSRC_NOBLK ! LSU Group
  751. EXO2(LDUH [%o1] ASINORMAL, %g2) ! Load Group
  752. add %o1, 2, %o1 ! IEU0
  753. add %o0, 2, %o0 ! IEU1
  754. ASI_SETDST_NOBLK ! LSU Group
  755. sub %o2, 2, %o2 ! IEU0
  756. EX(STH %g2, [%o0 - 2] ASINORMAL,
  757. add %o2, 2) ! Store Group + bubble
  758. #ifdef REGS_64BIT
  759. 5: andcc %o1, 4, %g0 ! IEU1
  760. 3: be,a,pn %xcc, 2f ! CTI
  761.  andcc %o2, -128, %g7 ! IEU1 Group
  762. ASI_SETSRC_NOBLK ! LSU Group
  763. EXO2(LDUW [%o1] ASINORMAL, %g5) ! Load Group
  764. add %o1, 4, %o1 ! IEU0
  765. add %o0, 4, %o0 ! IEU1
  766. ASI_SETDST_NOBLK ! LSU Group
  767. sub %o2, 4, %o2 ! IEU0 Group
  768. EX(STW %g5, [%o0 - 4] ASINORMAL,
  769. add %o2, 4) ! Store
  770. andcc %o2, -128, %g7 ! IEU1 Group
  771. 2: be,pn %xcc, 3f ! CTI
  772.  andcc %o0, 4, %g0 ! IEU1 Group
  773. be,pn %xcc, 82f + 4 ! CTI Group
  774. #else /* !REGS_64BIT */
  775. 5: andcc %o2, -128, %g7 ! IEU1
  776. be,a,pn %xcc, 41f ! CTI
  777.  andcc %o2, 0x70, %g7 ! IEU1 Group
  778. #endif /* !REGS_64BIT */
  779. 5: MOVE_BIGCHUNK(o1, o0, 0x00, g1, g3, g5, o5)
  780. MOVE_BIGCHUNK(o1, o0, 0x20, g1, g3, g5, o5)
  781. MOVE_BIGCHUNK(o1, o0, 0x40, g1, g3, g5, o5)
  782. MOVE_BIGCHUNK(o1, o0, 0x60, g1, g3, g5, o5)
  783. EXT(5b,35f,VIScopyfixup1)
  784. 35: subcc %g7, 128, %g7 ! IEU1 Group
  785. add %o1, 128, %o1 ! IEU0
  786. bne,pt %xcc, 5b ! CTI
  787.  add %o0, 128, %o0 ! IEU0 Group
  788. 3: andcc %o2, 0x70, %g7 ! IEU1 Group
  789. 41: be,pn %xcc, 80f ! CTI
  790.  andcc %o2, 8, %g0 ! IEU1 Group
  791. #ifdef __KERNEL__
  792. 79: sethi %hi(80f), %o5 ! IEU0
  793. sll %g7, 1, %g5 ! IEU0 Group
  794. add %o1, %g7, %o1 ! IEU1
  795. srl %g7, 1, %g2 ! IEU0  Group
  796. sub %o5, %g5, %o5 ! IEU1
  797. sub %o5, %g2, %o5 ! IEU0  Group
  798. jmpl %o5 + %lo(80f), %g0 ! CTI Group brk forced
  799.  add %o0, %g7, %o0 ! IEU0 Group
  800. #else
  801. ! Clk1 8-(
  802. ! Clk2 8-(
  803. ! Clk3 8-(
  804. ! Clk4 8-(
  805. 79: rd %pc, %o5 ! PDU Group
  806. sll %g7, 1, %g5 ! IEU0 Group
  807. add %o1, %g7, %o1 ! IEU1
  808. sub %o5, %g5, %o5 ! IEU0  Group
  809. jmpl %o5 + %lo(80f - 79b), %g0 ! CTI Group brk forced
  810.  add %o0, %g7, %o0 ! IEU0 Group
  811. #endif
  812. 36: MOVE_LASTCHUNK(o1, o0, 0x60, g2, g3, g5, o5)
  813. MOVE_LASTCHUNK(o1, o0, 0x50, g2, g3, g5, o5)
  814. MOVE_LASTCHUNK(o1, o0, 0x40, g2, g3, g5, o5)
  815. MOVE_LASTCHUNK(o1, o0, 0x30, g2, g3, g5, o5)
  816. MOVE_LASTCHUNK(o1, o0, 0x20, g2, g3, g5, o5)
  817. MOVE_LASTCHUNK(o1, o0, 0x10, g2, g3, g5, o5)
  818. MOVE_LASTCHUNK(o1, o0, 0x00, g2, g3, g5, o5)
  819. EXT(36b,80f,VIScopyfixup2)
  820. 80: be,pt %xcc, 81f ! CTI
  821.  andcc %o2, 4, %g0 ! IEU1
  822. #ifdef REGS_64BIT
  823. ASI_SETSRC_NOBLK ! LSU Group
  824. EX(LDX [%o1] ASINORMAL, %g2,
  825. and %o2, 0xf) ! Load Group
  826. add %o0, 8, %o0 ! IEU0
  827. ASI_SETDST_NOBLK ! LSU Group
  828. EX(STW %g2, [%o0 - 0x4] ASINORMAL,
  829. and %o2, 0xf) ! Store Group
  830. add %o1, 8, %o1 ! IEU1
  831. srlx %g2, 32, %g2 ! IEU0 Group
  832. EX2(STW %g2, [%o0 - 0x8] ASINORMAL,
  833. and %o2, 0xf, %o2,
  834. sub %o2, 4) ! Store
  835. #else /* !REGS_64BIT */
  836. lduw [%o1], %g2 ! Load Group
  837. add %o0, 8, %o0 ! IEU0
  838. lduw [%o1 + 0x4], %g3 ! Load Group
  839. add %o1, 8, %o1 ! IEU0
  840. stw %g2, [%o0 - 0x8] ! Store Group
  841. stw %g3, [%o0 - 0x4] ! Store Group
  842. #endif /* !REGS_64BIT */
  843. 81: be,pt %xcc, 1f ! CTI
  844.  andcc %o2, 2, %g0 ! IEU1 Group
  845. ASI_SETSRC_NOBLK ! LSU Group
  846. EX(LDUW [%o1] ASINORMAL, %g2,
  847. and %o2, 0x7) ! Load Group
  848. add %o1, 4, %o1 ! IEU0
  849. ASI_SETDST_NOBLK ! LSU Group
  850. EX(STW %g2, [%o0] ASINORMAL,
  851. and %o2, 0x7) ! Store Group
  852. add %o0, 4, %o0 ! IEU0
  853. 1: be,pt %xcc, 1f ! CTI
  854.  andcc %o2, 1, %g0 ! IEU1 Group
  855. ASI_SETSRC_NOBLK ! LSU Group
  856. EX(LDUH [%o1] ASINORMAL, %g2,
  857. and %o2, 0x3) ! Load Group
  858. add %o1, 2, %o1 ! IEU0
  859. ASI_SETDST_NOBLK ! LSU Group
  860. EX(STH %g2, [%o0] ASINORMAL,
  861. and %o2, 0x3) ! Store Group
  862. add %o0, 2, %o0 ! IEU0
  863. 1: be,pt %xcc, normal_retl ! CTI
  864.  nop ! IEU1
  865. ASI_SETSRC_NOBLK ! LSU Group
  866. EX(LDUB [%o1] ASINORMAL, %g2,
  867. add %g0, 1) ! Load Group
  868. ASI_SETDST_NOBLK ! LSU Group
  869. EX(STB %g2, [%o0] ASINORMAL,
  870. add %g0, 1) ! Store Group + bubble
  871. normal_retl:
  872. NORMAL_RETL
  873. #ifdef REGS_64BIT
  874. 82: MOVE_BIGALIGNCHUNK(o1, o0, 0x00, g1, g3, g5, o5)
  875. MOVE_BIGALIGNCHUNK(o1, o0, 0x40, g1, g3, g5, o5)
  876. EXT(82b,37f,VIScopyfixup3)
  877. 37: subcc %g7, 128, %g7 ! IEU1 Group
  878. add %o1, 128, %o1 ! IEU0
  879. bne,pt %xcc, 82b ! CTI
  880.  add %o0, 128, %o0 ! IEU0 Group
  881. andcc %o2, 0x70, %g7 ! IEU1
  882. be,pn %xcc, 84f ! CTI
  883.  andcc %o2, 8, %g0 ! IEU1 Group
  884. #ifdef __KERNEL__
  885. 83: srl %g7, 1, %g5 ! IEU0
  886. sethi %hi(84f), %o5 ! IEU0 Group
  887. add %g7, %g5, %g5 ! IEU1
  888. add %o1, %g7, %o1 ! IEU0 Group
  889. sub %o5, %g5, %o5 ! IEU1
  890. jmpl %o5 + %lo(84f), %g0 ! CTI Group brk forced
  891.  add %o0, %g7, %o0 ! IEU0 Group
  892. #else
  893. ! Clk1 8-(
  894. ! Clk2 8-(
  895. ! Clk3 8-(
  896. ! Clk4 8-(
  897. 83: rd %pc, %o5 ! PDU Group
  898. add %o1, %g7, %o1 ! IEU0 Group
  899. sub %o5, %g7, %o5 ! IEU1
  900. jmpl %o5 + %lo(84f - 83b), %g0 ! CTI Group brk forced
  901.  add %o0, %g7, %o0 ! IEU0 Group
  902. #endif
  903. 38: MOVE_LASTALIGNCHUNK(o1, o0, 0x60, g2, g3)
  904. MOVE_LASTALIGNCHUNK(o1, o0, 0x50, g2, g3)
  905. MOVE_LASTALIGNCHUNK(o1, o0, 0x40, g2, g3)
  906. MOVE_LASTALIGNCHUNK(o1, o0, 0x30, g2, g3)
  907. MOVE_LASTALIGNCHUNK(o1, o0, 0x20, g2, g3)
  908. MOVE_LASTALIGNCHUNK(o1, o0, 0x10, g2, g3)
  909. MOVE_LASTALIGNCHUNK(o1, o0, 0x00, g2, g3)
  910. EXT(38b,84f,VIScopyfixup4)
  911. 84: be,pt %xcc, 85f ! CTI Group
  912.  andcc %o2, 4, %g0 ! IEU1
  913. ASI_SETSRC_NOBLK ! LSU Group
  914. EX(LDX [%o1] ASINORMAL, %g2,
  915. and %o2, 0xf) ! Load Group
  916. add %o0, 8, %o0 ! IEU0
  917. ASI_SETDST_NOBLK ! LSU Group
  918. add %o1, 8, %o1 ! IEU0 Group
  919. EX(STX %g2, [%o0 - 0x8] ASINORMAL,
  920. and %o2, 0xf) ! Store
  921. 85: be,pt %xcc, 1f ! CTI
  922.  andcc %o2, 2, %g0 ! IEU1 Group
  923. ASI_SETSRC_NOBLK ! LSU Group
  924. EX(LDUW [%o1] ASINORMAL, %g2,
  925. and %o2, 0x7) ! Load Group
  926. add %o0, 4, %o0 ! IEU0
  927. ASI_SETDST_NOBLK ! LSU Group
  928. add %o1, 4, %o1 ! IEU0 Group
  929. EX(STW %g2, [%o0 - 0x4] ASINORMAL,
  930. and %o2, 0x7) ! Store
  931. 1: be,pt %xcc, 1f ! CTI
  932.  andcc %o2, 1, %g0 ! IEU1 Group
  933. ASI_SETSRC_NOBLK ! LSU Group
  934. EX(LDUH [%o1] ASINORMAL, %g2,
  935. and %o2, 0x3) ! Load Group
  936. add %o0, 2, %o0 ! IEU0
  937. ASI_SETDST_NOBLK ! LSU Group
  938. add %o1, 2, %o1 ! IEU0 Group
  939. EX(STH %g2, [%o0 - 0x2] ASINORMAL,
  940. and %o2, 0x3) ! Store
  941. 1: be,pt %xcc, 1f ! CTI
  942.  nop ! IEU0 Group
  943. ASI_SETSRC_NOBLK ! LSU Group
  944. EX(LDUB [%o1] ASINORMAL, %g2,
  945. add %g0, 1) ! Load Group
  946. ASI_SETDST_NOBLK ! LSU Group
  947. EX(STB %g2, [%o0] ASINORMAL,
  948. add %g0, 1) ! Store Group + bubble
  949. 1: NORMAL_RETL
  950. #endif /* REGS_64BIT */
  951. memcpy_noVIS_misaligned:
  952. brz,pt %g2, 2f ! CTI Group
  953.  mov 8, %g1 ! IEU0
  954. sub %g1, %g2, %g2 ! IEU0 Group
  955. sub %o2, %g2, %o2 ! IEU0 Group
  956. 1: ASI_SETSRC_NOBLK ! LSU Group
  957. EX(LDUB [%o1] ASINORMAL, %g5,
  958. add %o2, %g2) ! Load Group
  959. add %o1, 1, %o1 ! IEU0
  960. add %o0, 1, %o0 ! IEU1
  961. ASI_SETDST_NOBLK ! LSU Group
  962. subcc %g2, 1, %g2 ! IEU1 Group
  963. bne,pt %xcc, 1b ! CTI
  964.  EX2(STB %g5, [%o0 - 1] ASINORMAL,
  965. add %o2, %g2, %o2,
  966. add %o2, 1) ! Store
  967. 2:
  968. #ifdef __KERNEL__
  969. VISEntry
  970. #endif
  971. andn %o2, 7, %g5  ! IEU0 Group
  972. and %o2, 7, %o2 ! IEU1
  973. fmovd %f0, %f2 ! FPU
  974. ASI_SETSRC_NOBLK ! LSU Group
  975. alignaddr %o1, %g0, %g1 ! GRU Group
  976. EXO2(LDDF [%g1] ASINORMAL, %f4) ! Load Group
  977. 1: EX(LDDF [%g1 + 0x8] ASINORMAL, %f6,
  978. add %o2, %g5) ! Load Group
  979. add %g1, 0x8, %g1 ! IEU0 Group
  980. subcc %g5, 8, %g5 ! IEU1
  981. ASI_SETDST_NOBLK ! LSU Group
  982. faligndata %f4, %f6, %f0 ! GRU Group
  983. EX2(STDF %f0, [%o0] ASINORMAL,
  984. add %o2, %g5, %o2,
  985. add %o2, 8) ! Store
  986. add %o1, 8, %o1 ! IEU0 Group
  987. be,pn %xcc, end_cruft ! CTI
  988.  add %o0, 8, %o0 ! IEU1
  989. ASI_SETSRC_NOBLK ! LSU Group
  990. EX(LDDF [%g1 + 0x8] ASINORMAL, %f4,
  991. add %o2, %g5) ! Load Group
  992. add %g1, 8, %g1 ! IEU0
  993. subcc %g5, 8, %g5 ! IEU1
  994. ASI_SETDST_NOBLK ! LSU Group
  995. faligndata %f6, %f4, %f0 ! GRU Group
  996. EX2(STDF %f0, [%o0] ASINORMAL,
  997. add %o2, %g5, %o2,
  998. add %o2, 8) ! Store
  999. add %o1, 8, %o1 ! IEU0
  1000. ASI_SETSRC_NOBLK ! LSU Group
  1001. bne,pn %xcc, 1b ! CTI Group
  1002.  add %o0, 8, %o0 ! IEU0
  1003. end_cruft:
  1004. brz,pn %o2, fpu_retl ! CTI Group
  1005. #ifndef __KERNEL__
  1006.  nop ! IEU0
  1007. #else
  1008.  ASI_SETSRC_NOBLK ! LSU Group
  1009. #endif
  1010. EXO2(LDUB [%o1] ASINORMAL, %g5) ! LOAD
  1011. add %o1, 1, %o1 ! IEU0
  1012. add %o0, 1, %o0 ! IEU1
  1013. ASI_SETDST_NOBLK ! LSU Group
  1014. subcc %o2, 1, %o2 ! IEU1
  1015. bne,pt %xcc, vis_slp ! CTI
  1016.  EX(STB %g5, [%o0 - 1] ASINORMAL,
  1017. add %o2, 1) ! Store Group
  1018. fpu_retl:
  1019. FPU_RETL
  1020. #ifdef __KERNEL__
  1021. .globl __memcpy_end
  1022. __memcpy_end:
  1023. .section .fixup
  1024. .align 4
  1025. VIScopyfixup_reto2:
  1026. mov %o2, %o1
  1027. VIScopyfixup_ret:
  1028. /* If this is copy_from_user(), zero out the rest of the
  1029.  * kernel buffer.
  1030.  */
  1031. ldub [%g6 + AOFF_task_thread + AOFF_thread_current_ds], %o4
  1032. andcc asi_src, 0x1, %g0
  1033. be,pt %icc, 1f
  1034.  VISExit
  1035. andcc asi_dest, 0x1, %g0
  1036. bne,pn %icc, 1f
  1037.  nop
  1038. save %sp, -160, %sp
  1039. mov %i0, %o0
  1040. call __bzero
  1041.  mov %i1, %o1
  1042. restore
  1043. 1: mov %o1, %o0
  1044. retl
  1045.  wr %o4, %g0, %asi
  1046. VIScopyfixup1: subcc %g2, 18, %g2
  1047. add %o0, 32, %o0
  1048. bgeu,a,pt %icc, VIScopyfixup1
  1049.  sub %g7, 32, %g7
  1050. sub %o0, 32, %o0
  1051. rd %pc, %g5
  1052. add %g2, (18 + 16), %g2
  1053. ldub [%g5 + %g2], %g2
  1054. ba,a,pt %xcc, 2f
  1055. .byte 0, 0, 0, 0, 0, 0, 0, 4, 4, 8, 12, 12, 16, 20, 20, 24, 28, 28
  1056. .align 4
  1057. VIScopyfixup2: mov (7 * 16), %g7
  1058. 1: subcc %g2, 10, %g2
  1059. bgeu,a,pt %icc, 1b
  1060.  sub %g7, 16, %g7
  1061. sub %o0, %g7, %o0
  1062. rd %pc, %g5
  1063. add %g2, (10 + 16), %g2
  1064. ldub [%g5 + %g2], %g2
  1065. ba,a,pt %xcc, 4f
  1066. .byte 0, 0, 0, 0, 0, 4, 4, 8, 12, 12
  1067. .align 4
  1068. VIScopyfixup3: subcc %g2, 10, %g2
  1069. add %o0, 32, %o0
  1070. bgeu,a,pt %icc, VIScopyfixup3
  1071.  sub %g7, 32, %g7
  1072. sub %o0, 32, %o0
  1073. rd %pc, %g5
  1074. add %g2, (10 + 16), %g2
  1075. ldub [%g5 + %g2], %g2
  1076. ba,a,pt %xcc, 2f
  1077. .byte 0, 0, 0, 0, 0, 0, 0, 8, 16, 24
  1078. .align 4
  1079. 2: and %o2, 0x7f, %o2
  1080. sub %g7, %g2, %g7
  1081. ba,pt %xcc, VIScopyfixup_ret
  1082.  add %g7, %o2, %o1
  1083. VIScopyfixup4: mov (7 * 16), %g7
  1084. 3: subcc %g2, 6, %g2
  1085. bgeu,a,pt %icc, 3b
  1086.  sub %g7, 16, %g7
  1087. sub %o0, %g7, %o0
  1088. rd %pc, %g5
  1089. add %g2, (6 + 16), %g2
  1090. ldub [%g5 + %g2], %g2
  1091. ba,a,pt %xcc, 4f
  1092. .byte 0, 0, 0, 0, 0, 8
  1093. .align 4
  1094. 4: and %o2, 0xf, %o2
  1095. sub %g7, %g2, %g7
  1096. ba,pt %xcc, VIScopyfixup_ret
  1097.  add %g7, %o2, %o1
  1098. VIScopyfixup_vis3:
  1099. sub %o2, 0x80, %o2
  1100. VIScopyfixup_vis2:
  1101. add %o2, 0x40, %o2
  1102. VIScopyfixup_vis0:
  1103. add %o2, 0x80, %o2
  1104. VIScopyfixup_vis1:
  1105. add %g7, %g3, %g7
  1106. ba,pt %xcc, VIScopyfixup_ret
  1107.  add %o2, %g7, %o1
  1108. VIScopyfixup_vis5:
  1109. add %g3, 8, %g3
  1110. VIScopyfixup_vis4:
  1111. add %g3, 8, %g3
  1112. ba,pt %xcc, VIScopyfixup_ret
  1113.  add %o2, %g3, %o1
  1114. #endif
  1115. #ifdef __KERNEL__
  1116. .text
  1117. .align 32
  1118. .globl __memmove
  1119. .type __memmove,@function
  1120. .globl memmove
  1121. .type memmove,@function
  1122. memmove:
  1123. __memmove: cmp %o0, %o1
  1124. blu,pt %xcc, memcpy_private
  1125.  sub %o0, %o1, %g5
  1126. add %o1, %o2, %g3
  1127. cmp %g3, %o0
  1128. bleu,pt %xcc, memcpy_private
  1129.  add %o1, %o2, %g5
  1130. add %o0, %o2, %o5
  1131. sub %g5, 1, %o1
  1132. sub %o5, 1, %o0
  1133. 1: ldub [%o1], %g5
  1134. subcc %o2, 1, %o2
  1135. sub %o1, 1, %o1
  1136. stb %g5, [%o0]
  1137. bne,pt %icc, 1b
  1138.  sub %o0, 1, %o0
  1139. retl
  1140.  clr %o0
  1141. #endif