head_8xx.S
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:25k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * BK Id: %F% %I% %G% %U% %#%
  3.  */
  4. /*
  5.  *  arch/ppc/kernel/except_8xx.S
  6.  *
  7.  *  PowerPC version 
  8.  *    Copyright (C) 1995-1996 Gary Thomas (gdt@linuxppc.org)
  9.  *  Rewritten by Cort Dougan (cort@cs.nmt.edu) for PReP
  10.  *    Copyright (C) 1996 Cort Dougan <cort@cs.nmt.edu>
  11.  *  Low-level exception handlers and MMU support
  12.  *  rewritten by Paul Mackerras.
  13.  *    Copyright (C) 1996 Paul Mackerras.
  14.  *  MPC8xx modifications by Dan Malek
  15.  *    Copyright (C) 1997 Dan Malek (dmalek@jlc.net).
  16.  *
  17.  *  This file contains low-level support and setup for PowerPC 8xx
  18.  *  embedded processors, including trap and interrupt dispatch.
  19.  *
  20.  *  This program is free software; you can redistribute it and/or
  21.  *  modify it under the terms of the GNU General Public License
  22.  *  as published by the Free Software Foundation; either version
  23.  *  2 of the License, or (at your option) any later version.
  24.  *
  25.  */
  26. #include <asm/processor.h>
  27. #include <asm/page.h>
  28. #include <linux/config.h>
  29. #include <asm/mmu.h>
  30. #include <asm/cache.h>
  31. #include <asm/pgtable.h>
  32. #include <asm/cputable.h>
  33. #include <asm/ppc_asm.h>
  34. #include "ppc_defs.h"
  35. .text
  36. .globl _stext
  37. _stext:
  38. /*
  39.  * _start is defined this way because the XCOFF loader in the OpenFirmware
  40.  * on the powermac expects the entry point to be a procedure descriptor.
  41.  */
  42. .text
  43. .globl _start
  44. _start:
  45. /* MPC8xx
  46.  * This port was done on an MBX board with an 860.  Right now I only
  47.  * support an ELF compressed (zImage) boot from EPPC-Bug because the
  48.  * code there loads up some registers before calling us:
  49.  *   r3: ptr to board info data
  50.  *   r4: initrd_start or if no initrd then 0
  51.  *   r5: initrd_end - unused if r4 is 0
  52.  *   r6: Start of command line string
  53.  *   r7: End of command line string
  54.  *
  55.  * I decided to use conditional compilation instead of checking PVR and
  56.  * adding more processor specific branches around code I don't need.
  57.  * Since this is an embedded processor, I also appreciate any memory
  58.  * savings I can get.
  59.  *
  60.  * The MPC8xx does not have any BATs, but it supports large page sizes.
  61.  * We first initialize the MMU to support 8M byte pages, then load one
  62.  * entry into each of the instruction and data TLBs to map the first
  63.  * 8M 1:1.  I also mapped an additional I/O space 1:1 so we can get to
  64.  * the "internal" processor registers before MMU_init is called.
  65.  *
  66.  * The TLB code currently contains a major hack.  Since I use the condition
  67.  * code register, I have to save and restore it.  I am out of registers, so
  68.  * I just store it in memory location 0 (the TLB handlers are not reentrant).
  69.  * To avoid making any decisions, I need to use the "segment" valid bit
  70.  * in the first level table, but that would require many changes to the
  71.  * Linux page directory/table functions that I don't want to do right now.
  72.  *
  73.  * I used to use SPRG2 for a temporary register in the TLB handler, but it
  74.  * has since been put to other uses.  I now use a hack to save a register
  75.  * and the CCR at memory location 0.....Someday I'll fix this.....
  76.  * -- Dan
  77.  */
  78. .globl __start
  79. __start:
  80. mr r31,r3 /* save parameters */
  81. mr r30,r4
  82. mr r29,r5
  83. mr r28,r6
  84. mr r27,r7
  85. li r24,0 /* cpu # */
  86. /* We have to turn on the MMU right away so we get cache modes
  87.  * set correctly.
  88.  */
  89. bl initial_mmu
  90. /* We now have the lower 8 Meg mapped into TLB entries, and the caches
  91.  * ready to work.
  92.  */
  93. turn_on_mmu:
  94. mfmsr r0
  95. ori r0,r0,MSR_DR|MSR_IR
  96. mtspr SRR1,r0
  97. lis r0,start_here@h
  98. ori r0,r0,start_here@l
  99. mtspr SRR0,r0
  100. SYNC
  101. rfi /* enables MMU */
  102. /*
  103.  * Exception entry code.  This code runs with address translation
  104.  * turned off, i.e. using physical addresses.
  105.  * We assume sprg3 has the physical address of the current
  106.  * task's thread_struct.
  107.  */
  108. #define EXCEPTION_PROLOG
  109. mtspr SPRG0,r20;
  110. mtspr SPRG1,r21;
  111. mfcr r20;
  112. mfspr r21,SPRG2; /* exception stack to use from */ 
  113. cmpwi 0,r21,0; /* user mode or RTAS */ 
  114. bne 1f;
  115. tophys(r21,r1); /* use tophys(kernel sp) otherwise */ 
  116. subi r21,r21,INT_FRAME_SIZE; /* alloc exc. frame */
  117. 1: stw r20,_CCR(r21); /* save registers */ 
  118. stw r22,GPR22(r21);
  119. stw r23,GPR23(r21);
  120. mfspr r20,SPRG0;
  121. stw r20,GPR20(r21);
  122. mfspr r22,SPRG1;
  123. stw r22,GPR21(r21);
  124. mflr r20;
  125. stw r20,_LINK(r21);
  126. mfctr r22;
  127. stw r22,_CTR(r21);
  128. mfspr r20,XER;
  129. stw r20,_XER(r21);
  130. mfspr r22,SRR0;
  131. mfspr r23,SRR1;
  132. stw r0,GPR0(r21);
  133. stw r1,GPR1(r21);
  134. stw r2,GPR2(r21);
  135. stw r1,0(r21);
  136. tovirt(r1,r21); /* set new kernel sp */
  137. SAVE_4GPRS(3, r21);
  138. SAVE_GPR(7, r21);
  139. /*
  140.  * Note: code which follows this uses cr0.eq (set if from kernel),
  141.  * r21, r22 (SRR0), and r23 (SRR1).
  142.  */
  143. /*
  144.  * Exception vectors.
  145.  */
  146. #define FINISH_EXCEPTION(func)
  147. bl transfer_to_handler;
  148. .long func;
  149. .long ret_from_except
  150. #define STD_EXCEPTION(n, label, hdlr)
  151. . = n;
  152. label:
  153. EXCEPTION_PROLOG;
  154. addi r3,r1,STACK_FRAME_OVERHEAD;
  155. li r20,MSR_KERNEL;
  156. FINISH_EXCEPTION(hdlr)
  157. /* System reset */
  158. STD_EXCEPTION(0x100, Reset, UnknownException)
  159. /* Machine check */
  160. STD_EXCEPTION(0x200, MachineCheck, MachineCheckException)
  161. /* Data access exception.
  162.  * This is "never generated" by the MPC8xx.  We jump to it for other
  163.  * translation errors.
  164.  */
  165. . = 0x300
  166. DataAccess:
  167. EXCEPTION_PROLOG
  168. mfspr r20,DSISR
  169. stw r20,_DSISR(r21)
  170. mr r5,r20
  171. mfspr r4,DAR
  172. stw r4,_DAR(r21)
  173. addi r3,r1,STACK_FRAME_OVERHEAD
  174. li r20,MSR_KERNEL
  175. rlwimi r20,r23,0,16,16 /* copy EE bit from saved MSR */
  176. FINISH_EXCEPTION(do_page_fault)
  177. /* Instruction access exception.
  178.  * This is "never generated" by the MPC8xx.  We jump to it for other
  179.  * translation errors.
  180.  */
  181. . = 0x400
  182. InstructionAccess:
  183. EXCEPTION_PROLOG
  184. addi r3,r1,STACK_FRAME_OVERHEAD
  185. mr r4,r22
  186. mr r5,r23
  187. li r20,MSR_KERNEL
  188. rlwimi r20,r23,0,16,16 /* copy EE bit from saved MSR */
  189. FINISH_EXCEPTION(do_page_fault)
  190. /* External interrupt */
  191. . = 0x500;
  192. HardwareInterrupt:
  193. EXCEPTION_PROLOG;
  194. addi r3,r1,STACK_FRAME_OVERHEAD
  195. li r20,MSR_KERNEL
  196. li r4,0
  197. bl transfer_to_handler
  198. .globl do_IRQ_intercept
  199. do_IRQ_intercept:
  200. .long do_IRQ;
  201. .long ret_from_intercept
  202. /* Alignment exception */
  203. . = 0x600
  204. Alignment:
  205. EXCEPTION_PROLOG
  206. mfspr r4,DAR
  207. stw r4,_DAR(r21)
  208. mfspr r5,DSISR
  209. stw r5,_DSISR(r21)
  210. addi r3,r1,STACK_FRAME_OVERHEAD
  211. li r20,MSR_KERNEL
  212. rlwimi r20,r23,0,16,16 /* copy EE bit from saved MSR */
  213. FINISH_EXCEPTION(AlignmentException)
  214. /* Program check exception */
  215. . = 0x700
  216. ProgramCheck:
  217. EXCEPTION_PROLOG
  218. addi r3,r1,STACK_FRAME_OVERHEAD
  219. li r20,MSR_KERNEL
  220. rlwimi r20,r23,0,16,16 /* copy EE bit from saved MSR */
  221. FINISH_EXCEPTION(ProgramCheckException)
  222. /* No FPU on MPC8xx.  This exception is not supposed to happen.
  223. */
  224. STD_EXCEPTION(0x800, FPUnavailable, UnknownException)
  225. . = 0x900
  226. Decrementer:
  227. EXCEPTION_PROLOG
  228. addi r3,r1,STACK_FRAME_OVERHEAD
  229. li r20,MSR_KERNEL
  230. bl transfer_to_handler
  231. .globl timer_interrupt_intercept
  232. timer_interrupt_intercept:
  233. .long timer_interrupt
  234. .long ret_from_intercept
  235. STD_EXCEPTION(0xa00, Trap_0a, UnknownException)
  236. STD_EXCEPTION(0xb00, Trap_0b, UnknownException)
  237. /* System call */
  238. . = 0xc00
  239. SystemCall:
  240. EXCEPTION_PROLOG
  241. stw r3,ORIG_GPR3(r21)
  242. li r20,MSR_KERNEL
  243. rlwimi r20,r23,0,16,16 /* copy EE bit from saved MSR */
  244. FINISH_EXCEPTION(DoSyscall)
  245. /* Single step - not used on 601 */
  246. STD_EXCEPTION(0xd00, SingleStep, SingleStepException)
  247. STD_EXCEPTION(0xe00, Trap_0e, UnknownException)
  248. STD_EXCEPTION(0xf00, Trap_0f, UnknownException)
  249. /* On the MPC8xx, this is a software emulation interrupt.  It occurs
  250.  * for all unimplemented and illegal instructions.
  251.  */
  252. STD_EXCEPTION(0x1000, SoftEmu, SoftwareEmulation)
  253. . = 0x1100
  254. /*
  255.  * For the MPC8xx, this is a software tablewalk to load the instruction
  256.  * TLB.  It is modelled after the example in the Motorola manual.  The task
  257.  * switch loads the M_TWB register with the pointer to the first level table.
  258.  * If we discover there is no second level table (the value is zero), the
  259.  * plan was to load that into the TLB, which causes another fault into the
  260.  * TLB Error interrupt where we can handle such problems.  However, that did
  261.  * not work, so if we discover there is no second level table, we restore
  262.  * registers and branch to the error exception.  We have to use the MD_xxx
  263.  * registers for the tablewalk because the equivalent MI_xxx registers
  264.  * only perform the attribute functions.
  265.  */
  266. InstructionTLBMiss:
  267. #ifdef CONFIG_8xx_CPU6
  268. stw r3, 8(r0)
  269. li r3, 0x3f80
  270. stw r3, 12(r0)
  271. lwz r3, 12(r0)
  272. #endif
  273. mtspr M_TW, r20 /* Save a couple of working registers */
  274. mfcr r20
  275. stw r20, 0(r0)
  276. stw r21, 4(r0)
  277. mfspr r20, SRR0 /* Get effective address of fault */
  278. #ifdef CONFIG_8xx_CPU6
  279. li r3, 0x3780
  280. stw r3, 12(r0)
  281. lwz r3, 12(r0)
  282. #endif
  283. mtspr MD_EPN, r20 /* Have to use MD_EPN for walk, MI_EPN can't */
  284. mfspr r20, M_TWB /* Get level 1 table entry address */
  285. /* If we are faulting a kernel address, we have to use the
  286.  * kernel page tables.
  287.  */
  288. andi. r21, r20, 0x0800 /* Address >= 0x80000000 */
  289. beq 3f
  290. lis r21, swapper_pg_dir@h
  291. ori r21, r21, swapper_pg_dir@l
  292. rlwimi r20, r21, 0, 2, 19
  293. 3:
  294. lwz r21, 0(r20) /* Get the level 1 entry */
  295. rlwinm. r20, r21,0,0,19 /* Extract page descriptor page address */
  296. beq 2f /* If zero, don't try to find a pte */
  297. /* We have a pte table, so load the MI_TWC with the attributes
  298.  * for this page, which has only bit 31 set.
  299.  */
  300. tophys(r21,r21)
  301. ori r21,r21,1 /* Set valid bit */
  302. #ifdef CONFIG_8xx_CPU6
  303. li r3, 0x2b80
  304. stw r3, 12(r0)
  305. lwz r3, 12(r0)
  306. #endif
  307. mtspr MI_TWC, r21 /* Set page attributes */
  308. #ifdef CONFIG_8xx_CPU6
  309. li r3, 0x3b80
  310. stw r3, 12(r0)
  311. lwz r3, 12(r0)
  312. #endif
  313. mtspr MD_TWC, r21 /* Load pte table base address */
  314. mfspr r21, MD_TWC /* ....and get the pte address */
  315. lwz r20, 0(r21) /* Get the pte */
  316. ori r20, r20, _PAGE_ACCESSED
  317. stw r20, 0(r21)
  318. /* The Linux PTE won't go exactly into the MMU TLB.
  319.  * Software indicator bits 21, 22 and 28 must be clear.
  320.  * Software indicator bits 24, 25, 26, and 27 must be
  321.  * set.  All other Linux PTE bits control the behavior
  322.  * of the MMU.
  323.  */
  324. li r21, 0x0600
  325. andc r20, r20, r21 /* Clear 21, 22 */
  326. li r21, 0x00f0
  327. rlwimi r20, r21, 0, 24, 28 /* Set 24-27, clear 28 */
  328. #ifdef CONFIG_8xx_CPU6
  329. li r3, 0x2d80
  330. stw r3, 12(r0)
  331. lwz r3, 12(r0)
  332. #endif
  333. mtspr MI_RPN, r20 /* Update TLB entry */
  334. mfspr r20, M_TW /* Restore registers */
  335. lwz r21, 0(r0)
  336. mtcr r21
  337. lwz r21, 4(r0)
  338. #ifdef CONFIG_8xx_CPU6
  339. lwz r3, 8(r0)
  340. #endif
  341. rfi
  342. 2: mfspr r20, M_TW /* Restore registers */
  343. lwz r21, 0(r0)
  344. mtcr r21
  345. lwz r21, 4(r0)
  346. #ifdef CONFIG_8xx_CPU6
  347. lwz r3, 8(r0)
  348. #endif
  349. b InstructionAccess
  350. . = 0x1200
  351. DataStoreTLBMiss:
  352. #ifdef CONFIG_8xx_CPU6
  353. stw r3, 8(r0)
  354. li r3, 0x3f80
  355. stw r3, 12(r0)
  356. lwz r3, 12(r0)
  357. #endif
  358. mtspr M_TW, r20 /* Save a couple of working registers */
  359. mfcr r20
  360. stw r20, 0(r0)
  361. stw r21, 4(r0)
  362. mfspr r20, M_TWB /* Get level 1 table entry address */
  363. /* If we are faulting a kernel address, we have to use the
  364.  * kernel page tables.
  365.  */
  366. andi. r21, r20, 0x0800
  367. beq 3f
  368. lis r21, swapper_pg_dir@h
  369. ori r21, r21, swapper_pg_dir@l
  370. rlwimi r20, r21, 0, 2, 19
  371. 3:
  372. lwz r21, 0(r20) /* Get the level 1 entry */
  373. rlwinm. r20, r21,0,0,19 /* Extract page descriptor page address */
  374. beq 2f /* If zero, don't try to find a pte */
  375. /* We have a pte table, so load fetch the pte from the table.
  376.  */
  377. tophys(r21, r21)
  378. ori r21, r21, 1 /* Set valid bit in physical L2 page */
  379. #ifdef CONFIG_8xx_CPU6
  380. li r3, 0x3b80
  381. stw r3, 12(r0)
  382. lwz r3, 12(r0)
  383. #endif
  384. mtspr MD_TWC, r21 /* Load pte table base address */
  385. mfspr r20, MD_TWC /* ....and get the pte address */
  386. lwz r20, 0(r20) /* Get the pte */
  387. /* Insert the Guarded flag into the TWC from the Linux PTE.
  388.  * It is bit 27 of both the Linux PTE and the TWC (at least
  389.  * I got that right :-).  It will be better when we can put
  390.  * this into the Linux pgd/pmd and load it in the operation
  391.  * above.
  392.  */
  393. rlwimi r21, r20, 0, 27, 27
  394. #ifdef CONFIG_8xx_CPU6
  395. li r3, 0x3b80
  396. stw r3, 12(r0)
  397. lwz r3, 12(r0)
  398. #endif
  399. mtspr MD_TWC, r21
  400. mfspr r21, MD_TWC /* get the pte address again */
  401. ori r20, r20, _PAGE_ACCESSED
  402. stw r20, 0(r21)
  403. /* The Linux PTE won't go exactly into the MMU TLB.
  404.  * Software indicator bits 21, 22 and 28 must be clear.
  405.  * Software indicator bits 24, 25, 26, and 27 must be
  406.  * set.  All other Linux PTE bits control the behavior
  407.  * of the MMU.
  408.  */
  409. li r21, 0x0600
  410. andc r20, r20, r21 /* Clear 21, 22 */
  411. li r21, 0x00f0
  412. rlwimi r20, r21, 0, 24, 28 /* Set 24-27, clear 28 */
  413. #ifdef CONFIG_8xx_CPU6
  414. li r3, 0x3d80
  415. stw r3, 12(r0)
  416. lwz r3, 12(r0)
  417. #endif
  418. mtspr MD_RPN, r20 /* Update TLB entry */
  419. mfspr r20, M_TW /* Restore registers */
  420. lwz r21, 0(r0)
  421. mtcr r21
  422. lwz r21, 4(r0)
  423. #ifdef CONFIG_8xx_CPU6
  424. lwz r3, 8(r0)
  425. #endif
  426. rfi
  427. 2: mfspr r20, M_TW /* Restore registers */
  428. lwz r21, 0(r0)
  429. mtcr r21
  430. lwz r21, 4(r0)
  431. #ifdef CONFIG_8xx_CPU6
  432. lwz r3, 8(r0)
  433. #endif
  434. b DataAccess
  435. /* This is an instruction TLB error on the MPC8xx.  This could be due
  436.  * to many reasons, such as executing guarded memory or illegal instruction
  437.  * addresses.  There is nothing to do but handle a big time error fault.
  438.  */
  439. . = 0x1300
  440. InstructionTLBError:
  441. b InstructionAccess
  442. /* This is the data TLB error on the MPC8xx.  This could be due to
  443.  * many reasons, including a dirty update to a pte.  We can catch that
  444.  * one here, but anything else is an error.  First, we track down the
  445.  * Linux pte.  If it is valid, write access is allowed, but the
  446.  * page dirty bit is not set, we will set it and reload the TLB.  For
  447.  * any other case, we bail out to a higher level function that can
  448.  * handle it.
  449.  */
  450. . = 0x1400
  451. DataTLBError:
  452. #ifdef CONFIG_8xx_CPU6
  453. stw r3, 8(r0)
  454. li r3, 0x3f80
  455. stw r3, 12(r0)
  456. lwz r3, 12(r0)
  457. #endif
  458. mtspr M_TW, r20 /* Save a couple of working registers */
  459. mfcr r20
  460. stw r20, 0(r0)
  461. stw r21, 4(r0)
  462. /* First, make sure this was a store operation.
  463. */
  464. mfspr r20, DSISR
  465. andis. r21, r20, 0x0200 /* If set, indicates store op */
  466. beq 2f
  467. /* The EA of a data TLB miss is automatically stored in the MD_EPN 
  468.  * register.  The EA of a data TLB error is automatically stored in 
  469.  * the DAR, but not the MD_EPN register.  We must copy the 20 most 
  470.  * significant bits of the EA from the DAR to MD_EPN before we 
  471.  * start walking the page tables.  We also need to copy the CASID 
  472.  * value from the M_CASID register.
  473.  * Addendum:  The EA of a data TLB error is _supposed_ to be stored 
  474.  * in DAR, but it seems that this doesn't happen in some cases, such 
  475.  * as when the error is due to a dcbi instruction to a page with a 
  476.  * TLB that doesn't have the changed bit set.  In such cases, there 
  477.  * does not appear to be any way  to recover the EA of the error 
  478.  * since it is neither in DAR nor MD_EPN.  As a workaround, the 
  479.  * _PAGE_HWWRITE bit is set for all kernel data pages when the PTEs 
  480.  * are initialized in mapin_ram().  This will avoid the problem, 
  481.  * assuming we only use the dcbi instruction on kernel addresses.
  482.  */
  483. mfspr r20, DAR
  484. rlwinm r21, r20, 0, 0, 19
  485. ori r21, r21, MD_EVALID
  486. mfspr r20, M_CASID
  487. rlwimi r21, r20, 0, 28, 31
  488. #ifdef CONFIG_8xx_CPU6
  489. li r3, 0x3780
  490. stw r3, 12(r0)
  491. lwz r3, 12(r0)
  492. #endif
  493. mtspr MD_EPN, r21
  494. mfspr r20, M_TWB /* Get level 1 table entry address */
  495. /* If we are faulting a kernel address, we have to use the
  496.  * kernel page tables.
  497.  */
  498. andi. r21, r20, 0x0800
  499. beq 3f
  500. lis r21, swapper_pg_dir@h
  501. ori r21, r21, swapper_pg_dir@l
  502. rlwimi r20, r21, 0, 2, 19
  503. 3:
  504. lwz r21, 0(r20) /* Get the level 1 entry */
  505. rlwinm. r20, r21,0,0,19 /* Extract page descriptor page address */
  506. beq 2f /* If zero, bail */
  507. /* We have a pte table, so fetch the pte from the table.
  508.  */
  509. tophys(r21, r21)
  510. ori r21, r21, 1 /* Set valid bit in physical L2 page */
  511. #ifdef CONFIG_8xx_CPU6
  512. li r3, 0x3b80
  513. stw r3, 12(r0)
  514. lwz r3, 12(r0)
  515. #endif
  516. mtspr MD_TWC, r21 /* Load pte table base address */
  517. mfspr r21, MD_TWC /* ....and get the pte address */
  518. lwz r20, 0(r21) /* Get the pte */
  519. andi. r21, r20, _PAGE_RW /* Is it writeable? */
  520. beq 2f /* Bail out if not */
  521. /* Update 'changed', among others.
  522. */
  523. ori r20, r20, _PAGE_DIRTY|_PAGE_ACCESSED|_PAGE_HWWRITE
  524. mfspr r21, MD_TWC /* Get pte address again */
  525. stw r20, 0(r21) /* and update pte in table */
  526. /* The Linux PTE won't go exactly into the MMU TLB.
  527.  * Software indicator bits 21, 22 and 28 must be clear.
  528.  * Software indicator bits 24, 25, 26, and 27 must be
  529.  * set.  All other Linux PTE bits control the behavior
  530.  * of the MMU.
  531.  */
  532. li r21, 0x0600
  533. andc r20, r20, r21 /* Clear 21, 22 */
  534. li r21, 0x00f0
  535. rlwimi r20, r21, 0, 24, 28 /* Set 24-27, clear 28 */
  536. #ifdef CONFIG_8xx_CPU6
  537. li r3, 0x3d80
  538. stw r3, 12(r0)
  539. lwz r3, 12(r0)
  540. #endif
  541. mtspr MD_RPN, r20 /* Update TLB entry */
  542. mfspr r20, M_TW /* Restore registers */
  543. lwz r21, 0(r0)
  544. mtcr r21
  545. lwz r21, 4(r0)
  546. #ifdef CONFIG_8xx_CPU6
  547. lwz r3, 8(r0)
  548. #endif
  549. rfi
  550. 2:
  551. mfspr r20, M_TW /* Restore registers */
  552. lwz r21, 0(r0)
  553. mtcr r21
  554. lwz r21, 4(r0)
  555. #ifdef CONFIG_8xx_CPU6
  556. lwz r3, 8(r0)
  557. #endif
  558. b DataAccess
  559. STD_EXCEPTION(0x1500, Trap_15, UnknownException)
  560. STD_EXCEPTION(0x1600, Trap_16, UnknownException)
  561. STD_EXCEPTION(0x1700, Trap_17, TAUException)
  562. STD_EXCEPTION(0x1800, Trap_18, UnknownException)
  563. STD_EXCEPTION(0x1900, Trap_19, UnknownException)
  564. STD_EXCEPTION(0x1a00, Trap_1a, UnknownException)
  565. STD_EXCEPTION(0x1b00, Trap_1b, UnknownException)
  566. /* On the MPC8xx, these next four traps are used for development
  567.  * support of breakpoints and such.  Someday I will get around to
  568.  * using them.
  569.  */
  570. STD_EXCEPTION(0x1c00, Trap_1c, UnknownException)
  571. STD_EXCEPTION(0x1d00, Trap_1d, UnknownException)
  572. STD_EXCEPTION(0x1e00, Trap_1e, UnknownException)
  573. STD_EXCEPTION(0x1f00, Trap_1f, UnknownException)
  574. . = 0x2000
  575. /*
  576.  * This code finishes saving the registers to the exception frame
  577.  * and jumps to the appropriate handler for the exception, turning
  578.  * on address translation.
  579.  */
  580. .globl transfer_to_handler
  581. transfer_to_handler:
  582. stw r22,_NIP(r21)
  583. lis r22,MSR_POW@h
  584. andc r23,r23,r22
  585. stw r23,_MSR(r21)
  586. SAVE_4GPRS(8, r21)
  587. SAVE_8GPRS(12, r21)
  588. SAVE_8GPRS(24, r21)
  589. andi. r23,r23,MSR_PR
  590. mfspr r23,SPRG3 /* if from user, fix up THREAD.regs */
  591. beq 2f
  592. addi r24,r1,STACK_FRAME_OVERHEAD
  593. stw r24,PT_REGS(r23)
  594. 2: addi r2,r23,-THREAD /* set r2 to current */
  595. tovirt(r2,r2)
  596. mflr r23
  597. andi. r24,r23,0x3f00 /* get vector offset */
  598. stw r24,TRAP(r21)
  599. li r22,0
  600. stw r22,RESULT(r21)
  601. mtspr SPRG2,r22 /* r1 is now kernel sp */
  602. addi r24,r2,TASK_STRUCT_SIZE /* check for kernel stack overflow */
  603. cmplw 0,r1,r2
  604. cmplw 1,r1,r24
  605. crand 1,1,4
  606. bgt- stack_ovf /* if r2 < r1 < r2+TASK_STRUCT_SIZE */
  607. lwz r24,0(r23) /* virtual address of handler */
  608. lwz r23,4(r23) /* where to go when done */
  609. mtspr SRR0,r24
  610. mtspr SRR1,r20
  611. mtlr r23
  612. SYNC
  613. rfi /* jump to handler, enable MMU */
  614. /*
  615.  * On kernel stack overflow, load up an initial stack pointer
  616.  * and call StackOverflow(regs), which should not return.
  617.  */
  618. stack_ovf:
  619. addi r3,r1,STACK_FRAME_OVERHEAD
  620. lis r1,init_task_union@ha
  621. addi r1,r1,init_task_union@l
  622. addi r1,r1,TASK_UNION_SIZE-STACK_FRAME_OVERHEAD
  623. lis r24,StackOverflow@ha
  624. addi r24,r24,StackOverflow@l
  625. li r20,MSR_KERNEL
  626. mtspr SRR0,r24
  627. mtspr SRR1,r20
  628. SYNC
  629. rfi
  630. .globl giveup_fpu
  631. giveup_fpu:
  632. blr
  633. /* Maybe someday.......
  634. */
  635. _GLOBAL(__setup_cpu_8xx)
  636. blr
  637. /*
  638.  * This is where the main kernel code starts.
  639.  */
  640. start_here:
  641. /* ptr to current */
  642. lis r2,init_task_union@h
  643. ori r2,r2,init_task_union@l
  644. /* ptr to phys current thread */
  645. tophys(r4,r2)
  646. addi r4,r4,THREAD /* init task's THREAD */
  647. mtspr SPRG3,r4
  648. li r3,0
  649. mtspr SPRG2,r3 /* 0 => r1 has kernel sp */
  650. /* stack */
  651. addi r1,r2,TASK_UNION_SIZE
  652. li r0,0
  653. stwu r0,-STACK_FRAME_OVERHEAD(r1)
  654. bl early_init /* We have to do this with MMU on */
  655. /*
  656.  * Decide what sort of machine this is and initialize the MMU.
  657.  */
  658. mr r3,r31
  659. mr r4,r30
  660. mr r5,r29
  661. mr r6,r28
  662. mr r7,r27
  663. bl machine_init
  664. bl MMU_init
  665. /*
  666.  * Go back to running unmapped so we can load up new values
  667.  * and change to using our exception vectors.
  668.  * On the 8xx, all we have to do is invalidate the TLB to clear
  669.  * the old 8M byte TLB mappings and load the page table base register.
  670.  */
  671. /* The right way to do this would be to track it down through
  672.  * init's THREAD like the context switch code does, but this is
  673.  * easier......until someone changes init's static structures.
  674.  */
  675. lis r6, swapper_pg_dir@h
  676. ori r6, r6, swapper_pg_dir@l
  677. tophys(r6,r6)
  678. #ifdef CONFIG_8xx_CPU6
  679. lis r4, cpu6_errata_word@h
  680. ori r4, r4, cpu6_errata_word@l
  681. li r3, 0x3980
  682. stw r3, 12(r4)
  683. lwz r3, 12(r4)
  684. #endif
  685. mtspr M_TWB, r6
  686. lis r4,2f@h
  687. ori r4,r4,2f@l
  688. tophys(r4,r4)
  689. li r3,MSR_KERNEL & ~(MSR_IR|MSR_DR)
  690. mtspr SRR0,r4
  691. mtspr SRR1,r3
  692. rfi
  693. /* Load up the kernel context */
  694. 2:
  695. SYNC /* Force all PTE updates to finish */
  696. tlbia /* Clear all TLB entries */
  697. sync /* wait for tlbia/tlbie to finish */
  698. TLBSYNC /* ... on all CPUs */
  699. #ifdef CONFIG_BDI_SWITCH
  700. /* Add helper information for the Abatron bdiGDB debugger.
  701.  * We do this here because we know the mmu is disabled, and
  702.  * will be enabled for real in just a few instructions.
  703.  */
  704. tovirt(r6,r6)
  705. lis r5, abatron_pteptrs@h
  706. ori r5, r5, abatron_pteptrs@l
  707. stw r5, 0xf0(r0) /* Must match your Abatron config file */
  708. tophys(r5,r5)
  709. stw r6, 0(r5)
  710. #endif
  711. /* Now turn on the MMU for real! */
  712. li r4,MSR_KERNEL
  713. lis r3,start_kernel@h
  714. ori r3,r3,start_kernel@l
  715. mtspr SRR0,r3
  716. mtspr SRR1,r4
  717. rfi /* enable MMU and jump to start_kernel */
  718. /* Set up the initial MMU state so we can do the first level of
  719.  * kernel initialization.  This maps the first 8 MBytes of memory 1:1
  720.  * virtual to physical.  Also, set the cache mode since that is defined
  721.  * by TLB entries and perform any additional mapping (like of the IMMR).
  722.  */
  723. initial_mmu:
  724. tlbia /* Invalidate all TLB entries */
  725. li r8, 0
  726. mtspr MI_CTR, r8 /* Set instruction control to zero */
  727. lis r8, MD_RESETVAL@h
  728. #ifndef CONFIG_8xx_COPYBACK
  729. oris r8, r8, MD_WTDEF@h
  730. #endif
  731. mtspr MD_CTR, r8 /* Set data TLB control */
  732. /* Now map the lower 8 Meg into the TLBs.  For this quick hack,
  733.  * we can load the instruction and data TLB registers with the
  734.  * same values.
  735.  */
  736. lis r8, KERNELBASE@h /* Create vaddr for TLB */
  737. ori r8, r8, MI_EVALID /* Mark it valid */
  738. mtspr MI_EPN, r8
  739. mtspr MD_EPN, r8
  740. li r8, MI_PS8MEG /* Set 8M byte page */
  741. ori r8, r8, MI_SVALID /* Make it valid */
  742. mtspr MI_TWC, r8
  743. mtspr MD_TWC, r8
  744. li r8, MI_BOOTINIT /* Create RPN for address 0 */
  745. mtspr MI_RPN, r8 /* Store TLB entry */
  746. mtspr MD_RPN, r8
  747. lis r8, MI_Kp@h /* Set the protection mode */
  748. mtspr MI_AP, r8
  749. mtspr MD_AP, r8
  750. /* Map another 8 MByte at the IMMR to get the processor
  751.  * internal registers (among other things).
  752.  */
  753. mfspr r9, 638 /* Get current IMMR */
  754. andis. r9, r9, 0xff80 /* Get 8Mbyte boundary */
  755. mr r8, r9 /* Create vaddr for TLB */
  756. ori r8, r8, MD_EVALID /* Mark it valid */
  757. mtspr MD_EPN, r8
  758. li r8, MD_PS8MEG /* Set 8M byte page */
  759. ori r8, r8, MD_SVALID /* Make it valid */
  760. mtspr MD_TWC, r8
  761. mr r8, r9 /* Create paddr for TLB */
  762. ori r8, r8, MI_BOOTINIT|0x2 /* Inhibit cache -- Cort */
  763. mtspr MD_RPN, r8
  764. /* Since the cache is enabled according to the information we
  765.  * just loaded into the TLB, invalidate and enable the caches here.
  766.  * We should probably check/set other modes....later.
  767.  */
  768. lis r8, IDC_INVALL@h
  769. mtspr IC_CST, r8
  770. mtspr DC_CST, r8
  771. lis r8, IDC_ENABLE@h
  772. mtspr IC_CST, r8
  773. #ifdef CONFIG_8xx_COPYBACK
  774. mtspr DC_CST, r8
  775. #else
  776. /* For a debug option, I left this here to easily enable
  777.  * the write through cache mode
  778.  */
  779. lis r8, DC_SFWT@h
  780. mtspr DC_CST, r8
  781. lis r8, IDC_ENABLE@h
  782. mtspr DC_CST, r8
  783. #endif
  784. blr
  785. /*
  786.  * Set up to use a given MMU context.
  787.  * r3 is context number, r4 is PGD pointer.
  788.  *
  789.  * We place the physical address of the new task page directory loaded
  790.  * into the MMU base register, and set the ASID compare register with
  791.  * the new "context."
  792.  */
  793. _GLOBAL(set_context)
  794. #ifdef CONFIG_BDI_SWITCH
  795. /* Context switch the PTE pointer for the Abatron BDI2000.
  796.  * The PGDIR is passed as second argument.
  797.  */
  798. lis r5, KERNELBASE@h
  799. lwz r5, 0xf0(r5)
  800. stw r4, 0x4(r5)
  801. #endif
  802. #ifdef CONFIG_8xx_CPU6
  803. lis r6, cpu6_errata_word@h
  804. ori r6, r6, cpu6_errata_word@l
  805. tophys (r4, r4)
  806. li r7, 0x3980
  807. stw r7, 12(r6)
  808. lwz r7, 12(r6)
  809.         mtspr   M_TWB, r4               /* Update MMU base address */
  810. li r7, 0x3380
  811. stw r7, 12(r6)
  812. lwz r7, 12(r6)
  813.         mtspr   M_CASID, r3             /* Update context */
  814. #else
  815.         mtspr   M_CASID,r3 /* Update context */
  816. tophys (r4, r4)
  817. mtspr M_TWB, r4 /* and pgd */
  818. #endif
  819. SYNC
  820. blr
  821. #ifdef CONFIG_8xx_CPU6
  822. /* It's here because it is unique to the 8xx.
  823.  * It is important we get called with interrupts disabled.  I used to
  824.  * do that, but it appears that all code that calls this already had
  825.  * interrupt disabled.
  826.  */
  827. .globl set_dec_cpu6
  828. set_dec_cpu6:
  829. lis r7, cpu6_errata_word@h
  830. ori r7, r7, cpu6_errata_word@l
  831. li r4, 0x2c00
  832. stw r4, 8(r7)
  833. lwz r4, 8(r7)
  834.         mtspr   22, r3 /* Update Decrementer */
  835. SYNC
  836. blr
  837. #endif
  838. /*
  839.  * We put a few things here that have to be page-aligned.
  840.  * This stuff goes at the beginning of the data segment,
  841.  * which is page-aligned.
  842.  */
  843. .data
  844. .globl sdata
  845. sdata:
  846. .globl empty_zero_page
  847. empty_zero_page:
  848. .space 4096
  849. .globl swapper_pg_dir
  850. swapper_pg_dir:
  851. .space 4096
  852. /*
  853.  * This space gets a copy of optional info passed to us by the bootstrap
  854.  * Used to pass parameters into the kernel like root=/dev/sda1, etc.
  855.  */
  856. .globl cmd_line
  857. cmd_line:
  858. .space 512
  859. #ifdef CONFIG_BDI_SWITCH
  860. /* Room for two PTE table poiners, usually the kernel and current user
  861.  * pointer to their respective root page table (pgdir).
  862.  */
  863. abatron_pteptrs:
  864. .space 8
  865. #endif
  866. #ifdef CONFIG_8xx_CPU6
  867. .globl cpu6_errata_word
  868. cpu6_errata_word:
  869. .space 16
  870. #endif