winfixup.S
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:14k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* $Id: winfixup.S,v 1.29 2000/03/26 09:13:48 davem Exp $
  2.  *
  3.  * winfixup.S: Handle cases where user stack pointer is found to be bogus.
  4.  *
  5.  * Copyright (C) 1997 David S. Miller (davem@caip.rutgers.edu)
  6.  */
  7. #include <asm/asi.h>
  8. #include <asm/head.h>
  9. #include <asm/page.h>
  10. #include <asm/ptrace.h>
  11. #include <asm/processor.h>
  12. #include <asm/spitfire.h>
  13. #include <asm/asm_offsets.h>
  14. .text
  15. .align 32
  16. /* Here are the rules, pay attention.
  17.  *
  18.  * The kernel is disallowed from touching user space while
  19.  * the trap level is greater than zero, except for from within
  20.  * the window spill/fill handlers.  This must be followed
  21.  * so that we can easily detect the case where we tried to
  22.  * spill/fill with a bogus (or unmapped) user stack pointer.
  23.  *
  24.  * These are layed out in a special way for cache reasons,
  25.  * don't touch...
  26.  */
  27. .globl fill_fixup, spill_fixup
  28. fill_fixup:
  29. rdpr %tstate, %g1
  30. andcc %g1, TSTATE_PRIV, %g0
  31. or %g4, FAULT_CODE_WINFIXUP, %g4
  32. be,pt %xcc, window_scheisse_from_user_common
  33.  and %g1, TSTATE_CWP, %g1
  34. /* This is the extremely complex case, but it does happen from
  35.  * time to time if things are just right.  Essentially the restore
  36.  * done in rtrap right before going back to user mode, with tl=1
  37.  * and that levels trap stack registers all setup, took a fill trap,
  38.  * the user stack was not mapped in the tlb, and tlb miss occurred,
  39.  * the pte found was not valid, and a simple ref bit watch update
  40.  * could not satisfy the miss, so we got here.
  41.  *
  42.  * We must carefully unwind the state so we get back to tl=0, preserve
  43.  * all the register values we were going to give to the user.  Luckily
  44.  * most things are where they need to be, we also have the address
  45.  * which triggered the fault handy as well.
  46.  *
  47.  * Also note that we must preserve %l5 and %l6.  If the user was
  48.  * returning from a system call, we must make it look this way
  49.  * after we process the fill fault on the users stack.
  50.  *
  51.  * First, get into the window where the original restore was executed.
  52.  */
  53. rdpr %wstate, %g2 ! Grab user mode wstate.
  54. wrpr %g1, %cwp ! Get into the right window.
  55. sll %g2, 3, %g2 ! NORMAL-->OTHER
  56. wrpr %g0, 0x0, %canrestore ! Standard etrap stuff.
  57. wrpr %g2, 0x0, %wstate ! This must be consistant.
  58. wrpr %g0, 0x0, %otherwin ! We know this.
  59. mov PRIMARY_CONTEXT, %g1 ! Change contexts...
  60. stxa %g0, [%g1] ASI_DMMU ! Back into the nucleus.
  61. flush %g6 ! Flush instruction buffers
  62. rdpr %pstate, %l1 ! Prepare to change globals.
  63. mov %g6, %o7 ! Get current.
  64. andn %l1, PSTATE_MM, %l1 ! We want to be in RMO
  65. stb %g4, [%g6 + AOFF_task_thread + AOFF_thread_fault_code]
  66. stx %g5, [%g6 + AOFF_task_thread + AOFF_thread_fault_address]
  67. wrpr %g0, 0x0, %tl ! Out of trap levels.
  68. wrpr %l1, (PSTATE_IE | PSTATE_AG | PSTATE_RMO), %pstate
  69. sethi %uhi(PAGE_OFFSET), %g4 ! Prepare page_offset global reg
  70. mov %o7, %g6
  71. sllx %g4, 32, %g4 ! and finish it...
  72. /* This is the same as below, except we handle this a bit special
  73.  * since we must preserve %l5 and %l6, see comment above.
  74.  */
  75. call do_sparc64_fault
  76.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  77. ba,pt %xcc, rtrap
  78.  nop ! yes, nop is correct
  79. /* Be very careful about usage of the alternate globals here.
  80.  * You cannot touch %g4/%g5 as that has the fault information
  81.  * should this be from usermode.  Also be careful for the case
  82.  * where we get here from the save instruction in etrap.S when
  83.  * coming from either user or kernel (does not matter which, it
  84.  * is the same problem in both cases).  Essentially this means
  85.  * do not touch %g7 or %g2 so we handle the two cases fine.
  86.  */
  87. spill_fixup:
  88. ldub [%g6 + AOFF_task_thread + AOFF_thread_flags], %g1
  89. andcc %g1, SPARC_FLAG_32BIT, %g0
  90. ldub [%g6 + AOFF_task_thread + AOFF_thread_w_saved], %g1
  91. sll %g1, 3, %g3
  92. add %g6, %g3, %g3
  93. stx %sp, [%g3 + AOFF_task_thread + AOFF_thread_rwbuf_stkptrs]
  94. sll %g1, 7, %g3
  95. bne,pt %xcc, 1f
  96.  add %g6, %g3, %g3
  97. stx %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  98. stx %l1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  99. stx %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  100. stx %l3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  101. stx %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  102. stx %l5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  103. stx %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  104. stx %l7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  105. stx %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x40]
  106. stx %i1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x48]
  107. stx %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x50]
  108. stx %i3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x58]
  109. stx %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x60]
  110. stx %i5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x68]
  111. stx %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x70]
  112. b,pt %xcc, 2f
  113.  stx %i7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x78]
  114. 1: stw %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  115. stw %l1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x04]
  116. stw %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  117. stw %l3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x0c]
  118. stw %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  119. stw %l5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x14]
  120. stw %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  121. stw %l7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x1c]
  122. stw %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  123. stw %i1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x24]
  124. stw %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  125. stw %i3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x2c]
  126. stw %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  127. stw %i5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x34]
  128. stw %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  129. stw %i7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x3c]
  130. 2: add %g1, 1, %g1
  131. stb %g1, [%g6 + AOFF_task_thread + AOFF_thread_w_saved]
  132. rdpr %tstate, %g1
  133. andcc %g1, TSTATE_PRIV, %g0
  134. saved
  135. and %g1, TSTATE_CWP, %g1
  136. be,pn %xcc, window_scheisse_from_user_common
  137.  mov FAULT_CODE_WRITE | FAULT_CODE_DTLB | FAULT_CODE_WINFIXUP, %g4
  138. retry
  139. window_scheisse_from_user_common:
  140. stb %g4, [%g6 + AOFF_task_thread + AOFF_thread_fault_code]
  141. stx %g5, [%g6 + AOFF_task_thread + AOFF_thread_fault_address]
  142. wrpr %g1, %cwp
  143. ba,pt %xcc, etrap
  144.  rd %pc, %g7
  145. call do_sparc64_fault
  146.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  147. ba,a,pt %xcc, rtrap_clr_l6
  148. .globl winfix_mna, fill_fixup_mna, spill_fixup_mna
  149. winfix_mna:
  150. andn %g3, 0x7f, %g3
  151. add %g3, 0x78, %g3
  152. wrpr %g3, %tnpc
  153. done
  154. fill_fixup_mna:
  155. rdpr %tstate, %g1
  156. andcc %g1, TSTATE_PRIV, %g0
  157. be,pt %xcc, window_mna_from_user_common
  158.  and %g1, TSTATE_CWP, %g1
  159. /* Please, see fill_fixup commentary about why we must preserve
  160.  * %l5 and %l6 to preserve absolute correct semantics.
  161.  */
  162. rdpr %wstate, %g2 ! Grab user mode wstate.
  163. wrpr %g1, %cwp ! Get into the right window.
  164. sll %g2, 3, %g2 ! NORMAL-->OTHER
  165. wrpr %g0, 0x0, %canrestore ! Standard etrap stuff.
  166. wrpr %g2, 0x0, %wstate ! This must be consistant.
  167. wrpr %g0, 0x0, %otherwin ! We know this.
  168. mov PRIMARY_CONTEXT, %g1 ! Change contexts...
  169. stxa %g0, [%g1] ASI_DMMU ! Back into the nucleus.
  170. flush %g6 ! Flush instruction buffers
  171. rdpr %pstate, %l1 ! Prepare to change globals.
  172. mov %g4, %o2 ! Setup args for
  173. mov %g5, %o1 ! final call to mem_address_unaligned.
  174. andn %l1, PSTATE_MM, %l1 ! We want to be in RMO
  175. mov %g6, %o7 ! Stash away current.
  176. wrpr %g0, 0x0, %tl ! Out of trap levels.
  177. wrpr %l1, (PSTATE_IE | PSTATE_AG | PSTATE_RMO), %pstate
  178. sethi %uhi(PAGE_OFFSET), %g4 ! Set page_offset global reg.
  179. mov %o7, %g6 ! Get current back.
  180. sllx %g4, 32, %g4 ! Finish it.
  181. call mem_address_unaligned
  182.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  183. b,pt %xcc, rtrap
  184.  nop ! yes, the nop is correct
  185. spill_fixup_mna:
  186. ldub [%g6 + AOFF_task_thread + AOFF_thread_flags], %g1
  187. andcc %g1, SPARC_FLAG_32BIT, %g0
  188. ldub [%g6 + AOFF_task_thread + AOFF_thread_w_saved], %g1
  189. sll %g1, 3, %g3
  190. add %g6, %g3, %g3
  191. stx %sp, [%g3 + AOFF_task_thread + AOFF_thread_rwbuf_stkptrs]
  192. sll %g1, 7, %g3
  193. bne,pt %xcc, 1f
  194.  add %g6, %g3, %g3
  195. stx %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  196. stx %l1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  197. stx %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  198. stx %l3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  199. stx %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  200. stx %l5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  201. stx %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  202. stx %l7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  203. stx %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x40]
  204. stx %i1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x48]
  205. stx %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x50]
  206. stx %i3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x58]
  207. stx %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x60]
  208. stx %i5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x68]
  209. stx %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x70]
  210. stx %i7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x78]
  211. b,pt %xcc, 2f
  212.  add %g1, 1, %g1
  213. 1: std %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  214. std %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  215. std %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  216. std %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  217. std %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  218. std %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  219. std %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  220. std %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  221. add %g1, 1, %g1
  222. 2: stb %g1, [%g6 + AOFF_task_thread + AOFF_thread_w_saved]
  223. rdpr %tstate, %g1
  224. andcc %g1, TSTATE_PRIV, %g0
  225. saved
  226. be,pn %xcc, window_mna_from_user_common
  227.  and %g1, TSTATE_CWP, %g1
  228. retry
  229. window_mna_from_user_common:
  230. wrpr %g1, %cwp
  231. sethi %hi(109f), %g7
  232. ba,pt %xcc, etrap
  233. 109:  or %g7, %lo(109b), %g7
  234. mov %l4, %o2
  235. mov %l5, %o1
  236. call mem_address_unaligned
  237.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  238. ba,pt %xcc, rtrap
  239.  clr %l6
  240. /* These are only needed for 64-bit mode processes which
  241.  * put their stack pointer into the VPTE area and there
  242.  * happens to be a VPTE tlb entry mapped there during
  243.  * a spill/fill trap to that stack frame.
  244.  */
  245. .globl winfix_dax, fill_fixup_dax, spill_fixup_dax
  246. winfix_dax:
  247. andn %g3, 0x7f, %g3
  248. add %g3, 0x74, %g3
  249. wrpr %g3, %tnpc
  250. done
  251. fill_fixup_dax:
  252. rdpr %tstate, %g1
  253. andcc %g1, TSTATE_PRIV, %g0
  254. be,pt %xcc, window_dax_from_user_common
  255.  and %g1, TSTATE_CWP, %g1
  256. /* Please, see fill_fixup commentary about why we must preserve
  257.  * %l5 and %l6 to preserve absolute correct semantics.
  258.  */
  259. rdpr %wstate, %g2 ! Grab user mode wstate.
  260. wrpr %g1, %cwp ! Get into the right window.
  261. sll %g2, 3, %g2 ! NORMAL-->OTHER
  262. wrpr %g0, 0x0, %canrestore ! Standard etrap stuff.
  263. wrpr %g2, 0x0, %wstate ! This must be consistant.
  264. wrpr %g0, 0x0, %otherwin ! We know this.
  265. mov PRIMARY_CONTEXT, %g1 ! Change contexts...
  266. stxa %g0, [%g1] ASI_DMMU ! Back into the nucleus.
  267. flush %g6 ! Flush instruction buffers
  268. rdpr %pstate, %l1 ! Prepare to change globals.
  269. mov %g4, %o1 ! Setup args for
  270. mov %g5, %o2 ! final call to data_access_exception.
  271. andn %l1, PSTATE_MM, %l1 ! We want to be in RMO
  272. mov %g6, %o7 ! Stash away current.
  273. wrpr %g0, 0x0, %tl ! Out of trap levels.
  274. wrpr %l1, (PSTATE_IE | PSTATE_AG | PSTATE_RMO), %pstate
  275. sethi %uhi(PAGE_OFFSET), %g4 ! Set page_offset global reg.
  276. mov %o7, %g6 ! Get current back.
  277. sllx %g4, 32, %g4 ! Finish it.
  278. call data_access_exception
  279.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  280. b,pt %xcc, rtrap
  281.  nop ! yes, the nop is correct
  282. spill_fixup_dax:
  283. ldub [%g6 + AOFF_task_thread + AOFF_thread_flags], %g1
  284. andcc %g1, SPARC_FLAG_32BIT, %g0
  285. ldub [%g6 + AOFF_task_thread + AOFF_thread_w_saved], %g1
  286. sll %g1, 3, %g3
  287. add %g6, %g3, %g3
  288. stx %sp, [%g3 + AOFF_task_thread + AOFF_thread_rwbuf_stkptrs]
  289. sll %g1, 7, %g3
  290. bne,pt %xcc, 1f
  291.  add %g6, %g3, %g3
  292. stx %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  293. stx %l1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  294. stx %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  295. stx %l3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  296. stx %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  297. stx %l5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  298. stx %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  299. stx %l7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  300. stx %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x40]
  301. stx %i1, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x48]
  302. stx %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x50]
  303. stx %i3, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x58]
  304. stx %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x60]
  305. stx %i5, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x68]
  306. stx %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x70]
  307. stx %i7, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x78]
  308. b,pt %xcc, 2f
  309.  add %g1, 1, %g1
  310. 1: std %l0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x00]
  311. std %l2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x08]
  312. std %l4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x10]
  313. std %l6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x18]
  314. std %i0, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x20]
  315. std %i2, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x28]
  316. std %i4, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x30]
  317. std %i6, [%g3 + AOFF_task_thread + AOFF_thread_reg_window + 0x38]
  318. add %g1, 1, %g1
  319. 2: stb %g1, [%g6 + AOFF_task_thread + AOFF_thread_w_saved]
  320. rdpr %tstate, %g1
  321. andcc %g1, TSTATE_PRIV, %g0
  322. saved
  323. be,pn %xcc, window_dax_from_user_common
  324.  and %g1, TSTATE_CWP, %g1
  325. retry
  326. window_dax_from_user_common:
  327. wrpr %g1, %cwp
  328. sethi %hi(109f), %g7
  329. ba,pt %xcc, etrap
  330. 109:  or %g7, %lo(109b), %g7
  331. mov %l4, %o1
  332. mov %l5, %o2
  333. call data_access_exception
  334.  add %sp, STACK_BIAS + REGWIN_SZ, %o0
  335. ba,pt %xcc, rtrap
  336.  clr %l6