htab.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:33k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  * PowerPC64 port by Mike Corrigan and Dave Engebretsen
  3.  *   {mikejc|engebret}@us.ibm.com
  4.  *
  5.  *    Copyright (c) 2000 Mike Corrigan <mikejc@us.ibm.com>
  6.  *
  7.  * SMP scalability work:
  8.  *    Copyright (C) 2001 Anton Blanchard <anton@au.ibm.com>, IBM
  9.  * 
  10.  *    Module name: htab.c
  11.  *
  12.  *    Description:
  13.  *      PowerPC Hashed Page Table functions
  14.  *
  15.  * This program is free software; you can redistribute it and/or
  16.  * modify it under the terms of the GNU General Public License
  17.  * as published by the Free Software Foundation; either version
  18.  * 2 of the License, or (at your option) any later version.
  19.  */
  20. #include <linux/config.h>
  21. #include <linux/spinlock.h>
  22. #include <linux/errno.h>
  23. #include <linux/sched.h>
  24. #include <linux/proc_fs.h>
  25. #include <linux/stat.h>
  26. #include <linux/sysctl.h>
  27. #include <linux/ctype.h>
  28. #include <linux/cache.h>
  29. #include <asm/ppcdebug.h>
  30. #include <asm/processor.h>
  31. #include <asm/pgtable.h>
  32. #include <asm/mmu.h>
  33. #include <asm/mmu_context.h>
  34. #include <asm/page.h>
  35. #include <asm/types.h>
  36. #include <asm/uaccess.h>
  37. #include <asm/naca.h>
  38. #include <asm/pmc.h>
  39. #include <asm/machdep.h>
  40. #include <asm/lmb.h>
  41. #include <asm/abs_addr.h>
  42. #include <asm/io.h>
  43. #include <asm/eeh.h>
  44. #include <asm/hvcall.h>
  45. #include <asm/iSeries/LparData.h>
  46. #include <asm/iSeries/HvCallHpt.h>
  47. /*
  48.  * Note:  pte   --> Linux PTE
  49.  *        HPTE  --> PowerPC Hashed Page Table Entry
  50.  *
  51.  * Execution context:
  52.  *   htab_initialize is called with the MMU off (of course), but
  53.  *   the kernel has been copied down to zero so it can directly
  54.  *   reference global data.  At this point it is very difficult
  55.  *   to print debug info.
  56.  *
  57.  */
  58. HTAB htab_data = {NULL, 0, 0, 0, 0};
  59. extern unsigned long _SDR1;
  60. extern unsigned long klimit;
  61. void make_pte(HPTE *htab, unsigned long va, unsigned long pa,
  62.       int mode, unsigned long hash_mask, int large);
  63. long plpar_pte_enter(unsigned long flags,
  64.      unsigned long ptex,
  65.      unsigned long new_pteh, unsigned long new_ptel,
  66.      unsigned long *old_pteh_ret, unsigned long *old_ptel_ret);
  67. static long hpte_remove(unsigned long hpte_group);
  68. static long rpa_lpar_hpte_remove(unsigned long hpte_group);
  69. static long iSeries_hpte_remove(unsigned long hpte_group);
  70. static spinlock_t pSeries_tlbie_lock = SPIN_LOCK_UNLOCKED;
  71. static spinlock_t pSeries_lpar_tlbie_lock = SPIN_LOCK_UNLOCKED;
  72. spinlock_t hash_table_lock __cacheline_aligned_in_smp = SPIN_LOCK_UNLOCKED;
  73. #define KB (1024)
  74. #define MB (1024*KB)
  75. static inline void
  76. loop_forever(void)
  77. {
  78. volatile unsigned long x = 1;
  79. for(;x;x|=1)
  80. ;
  81. }
  82. static inline void
  83. create_pte_mapping(unsigned long start, unsigned long end,
  84.    unsigned long mode, unsigned long mask, int large)
  85. {
  86. unsigned long addr;
  87. HPTE *htab = (HPTE *)__v2a(htab_data.htab);
  88. unsigned int step;
  89. if (large)
  90. step = 16*MB;
  91. else
  92. step = 4*KB;
  93. for (addr = start; addr < end; addr += step) {
  94. unsigned long vsid = get_kernel_vsid(addr);
  95. unsigned long va = (vsid << 28) | (addr & 0xfffffff);
  96. make_pte(htab, va, (unsigned long)__v2a(addr), 
  97.  mode, mask, large);
  98. }
  99. }
  100. void
  101. htab_initialize(void)
  102. {
  103. unsigned long table, htab_size_bytes;
  104. unsigned long pteg_count;
  105. unsigned long mode_rw, mask;
  106. #if 0
  107. /* Can't really do the call below since it calls the normal RTAS
  108.  * entry point and we're still relocate off at the moment.
  109.  * Temporarily diabling until it can call through the relocate off
  110.  * RTAS entry point.  -Peter
  111.  */
  112. ppc64_boot_msg(0x05, "htab init");
  113. #endif
  114. /*
  115.  * Calculate the required size of the htab.  We want the number of
  116.  * PTEGs to equal one half the number of real pages.
  117.  */ 
  118. htab_size_bytes = 1UL << naca->pftSize;
  119. pteg_count = htab_size_bytes >> 7;
  120. /* For debug, make the HTAB 1/8 as big as it normally would be. */
  121. ifppcdebug(PPCDBG_HTABSIZE) {
  122. pteg_count >>= 3;
  123. htab_size_bytes = pteg_count << 7;
  124. }
  125. htab_data.htab_num_ptegs = pteg_count;
  126. htab_data.htab_hash_mask = pteg_count - 1;
  127. if(naca->platform == PLATFORM_PSERIES) {
  128. /* Find storage for the HPT.  Must be contiguous in
  129.  * the absolute address space.
  130.  */
  131. table = lmb_alloc(htab_size_bytes, htab_size_bytes);
  132. if ( !table ) {
  133. ppc64_terminate_msg(0x20, "hpt space");
  134. loop_forever();
  135. }
  136. htab_data.htab = (HPTE *)__a2v(table);
  137. /* htab absolute addr + encoded htabsize */
  138. _SDR1 = table + __ilog2(pteg_count) - 11;
  139. /* Initialize the HPT with no entries */
  140. memset((void *)table, 0, htab_size_bytes);
  141. } else {
  142. /* Using a hypervisor which owns the htab */
  143. htab_data.htab = NULL;
  144. _SDR1 = 0; 
  145. }
  146. mode_rw = _PAGE_ACCESSED | _PAGE_COHERENT | PP_RWXX;
  147. mask = pteg_count-1;
  148. /* XXX we currently map kernel text rw, should fix this */
  149. if ((naca->platform & PLATFORM_PSERIES) &&
  150.    cpu_has_largepage() && (naca->physicalMemorySize > 256*MB)) {
  151. create_pte_mapping((unsigned long)KERNELBASE, 
  152.    KERNELBASE + 256*MB, mode_rw, mask, 0);
  153. create_pte_mapping((unsigned long)KERNELBASE + 256*MB, 
  154.    KERNELBASE + (naca->physicalMemorySize), 
  155.    mode_rw, mask, 1);
  156. } else {
  157. create_pte_mapping((unsigned long)KERNELBASE, 
  158.    KERNELBASE+(naca->physicalMemorySize), 
  159.    mode_rw, mask, 0);
  160. }
  161. #if 0
  162. /* Can't really do the call below since it calls the normal RTAS
  163.  * entry point and we're still relocate off at the moment.
  164.  * Temporarily diabling until it can call through the relocate off
  165.  * RTAS entry point.  -Peter
  166.  */
  167. ppc64_boot_msg(0x06, "htab done");
  168. #endif
  169. }
  170. #undef KB
  171. #undef MB
  172. /*
  173.  * Create a pte. Used during initialization only.
  174.  * We assume the PTE will fit in the primary PTEG.
  175.  */
  176. void make_pte(HPTE *htab, unsigned long va, unsigned long pa,
  177.       int mode, unsigned long hash_mask, int large)
  178. {
  179. HPTE *hptep, local_hpte, rhpte;
  180. unsigned long hash, vpn, flags, lpar_rc;
  181. unsigned long i, dummy1, dummy2;
  182. long slot;
  183. if (large)
  184. vpn = va >> LARGE_PAGE_SHIFT;
  185. else
  186. vpn = va >> PAGE_SHIFT;
  187. hash = hpt_hash(vpn, large);
  188. local_hpte.dw1.dword1 = pa | mode;
  189. local_hpte.dw0.dword0 = 0;
  190. local_hpte.dw0.dw0.avpn = va >> 23;
  191. local_hpte.dw0.dw0.bolted = 1; /* bolted */
  192. if (large) {
  193. local_hpte.dw0.dw0.l = 1; /* large page */
  194. local_hpte.dw0.dw0.avpn &= ~0x1UL;
  195. }
  196. local_hpte.dw0.dw0.v = 1;
  197. if (naca->platform == PLATFORM_PSERIES) {
  198. hptep  = htab + ((hash & hash_mask)*HPTES_PER_GROUP);
  199. for (i = 0; i < 8; ++i, ++hptep) {
  200. if (hptep->dw0.dw0.v == 0) { /* !valid */
  201. *hptep = local_hpte;
  202. return;
  203. }
  204. }
  205. } else if (naca->platform == PLATFORM_PSERIES_LPAR) {
  206. slot = ((hash & hash_mask)*HPTES_PER_GROUP);
  207. /* Set CEC cookie to 0                   */
  208. /* Zero page = 0                         */
  209. /* I-cache Invalidate = 0                */
  210. /* I-cache synchronize = 0               */
  211. /* Exact = 0 - modify any entry in group */
  212. flags = 0;
  213. lpar_rc =  plpar_pte_enter(flags, slot, local_hpte.dw0.dword0,
  214.    local_hpte.dw1.dword1, 
  215.    &dummy1, &dummy2);
  216. if (lpar_rc != H_Success) {
  217. ppc64_terminate_msg(0x21, "hpte enter");
  218. loop_forever();
  219. }
  220. return;
  221. } else if (naca->platform == PLATFORM_ISERIES_LPAR) {
  222. slot = HvCallHpt_findValid(&rhpte, vpn);
  223. if (slot < 0) {
  224. /* Must find space in primary group */
  225. panic("hash_page: hpte already existsn");
  226. }
  227. HvCallHpt_addValidate(slot, 0, (HPTE *)&local_hpte );
  228. return;
  229. }
  230. /* We should _never_ get here and too early to call xmon. */
  231. ppc64_terminate_msg(0x22, "hpte platform");
  232. loop_forever();
  233. }
  234. /*
  235.  * find_linux_pte returns the address of a linux pte for a given 
  236.  * effective address and directory.  If not found, it returns zero.
  237.  */
  238. pte_t *find_linux_pte(pgd_t *pgdir, unsigned long ea)
  239. {
  240. pgd_t *pg;
  241. pmd_t *pm;
  242. pte_t *pt = NULL;
  243. pte_t pte;
  244. pg = pgdir + pgd_index(ea);
  245. if (!pgd_none(*pg)) {
  246. pm = pmd_offset(pg, ea);
  247. if (!pmd_none(*pm)) { 
  248. pt = pte_offset(pm, ea);
  249. pte = *pt;
  250. if (!pte_present(pte))
  251. pt = NULL;
  252. }
  253. }
  254. return pt;
  255. }
  256. static inline unsigned long computeHptePP(unsigned long pte)
  257. {
  258. return (pte & _PAGE_USER) |
  259. (((pte & _PAGE_USER) >> 1) &
  260.  ((~((pte >> 2) & /* _PAGE_RW */
  261.      (pte >> 7))) & /* _PAGE_DIRTY */
  262.   1));
  263. }
  264. /*
  265.  * Handle a fault by adding an HPTE. If the address can't be determined
  266.  * to be valid via Linux page tables, return 1. If handled return 0
  267.  */
  268. int __hash_page(unsigned long ea, unsigned long access, 
  269. unsigned long vsid, pte_t *ptep)
  270. {
  271. unsigned long va, vpn;
  272. unsigned long newpp, prpn;
  273. unsigned long hpteflags;
  274. long slot;
  275. pte_t old_pte, new_pte;
  276. /* Search the Linux page table for a match with va */
  277. va = (vsid << 28) | (ea & 0x0fffffff);
  278. vpn = va >> PAGE_SHIFT;
  279. /* Acquire the hash table lock to guarantee that the linux
  280.  * pte we fetch will not change
  281.  */
  282. spin_lock( &hash_table_lock );
  283. /* 
  284.  * Check the user's access rights to the page.  If access should be
  285.  * prevented then send the problem up to do_page_fault.
  286.  */
  287. access |= _PAGE_PRESENT;
  288. if (unlikely(access & ~(pte_val(*ptep)))) {
  289. spin_unlock( &hash_table_lock );
  290. return 1;
  291. }
  292. /* 
  293.  * We have found a pte (which was present).
  294.  * The spinlocks prevent this status from changing
  295.  * The hash_table_lock prevents the _PAGE_HASHPTE status
  296.  * from changing (RPN, DIRTY and ACCESSED too)
  297.  * The page_table_lock prevents the pte from being 
  298.  * invalidated or modified
  299.  */
  300. /*
  301.  * At this point, we have a pte (old_pte) which can be used to build
  302.  * or update an HPTE. There are 2 cases:
  303.  *
  304.  * 1. There is a valid (present) pte with no associated HPTE (this is 
  305.  * the most common case)
  306.  * 2. There is a valid (present) pte with an associated HPTE. The
  307.  * current values of the pp bits in the HPTE prevent access
  308.  * because we are doing software DIRTY bit management and the
  309.  * page is currently not DIRTY. 
  310.  */
  311. old_pte = *ptep;
  312. new_pte = old_pte;
  313. /* If the attempted access was a store */
  314. if (access & _PAGE_RW)
  315. pte_val(new_pte) |= _PAGE_ACCESSED | _PAGE_DIRTY;
  316. else
  317. pte_val(new_pte) |= _PAGE_ACCESSED;
  318. newpp = computeHptePP(pte_val(new_pte));
  319. /* Check if pte already has an hpte (case 2) */
  320. if (unlikely(pte_val(old_pte) & _PAGE_HASHPTE)) {
  321. /* There MIGHT be an HPTE for this pte */
  322. unsigned long hash, slot, secondary;
  323. /* XXX fix large pte flag */
  324. hash = hpt_hash(vpn, 0);
  325. secondary = (pte_val(old_pte) & _PAGE_SECONDARY) >> 15;
  326. if (secondary)
  327. hash = ~hash;
  328. slot = (hash & htab_data.htab_hash_mask) * HPTES_PER_GROUP;
  329. slot += (pte_val(old_pte) & _PAGE_GROUP_IX) >> 12;
  330. /* XXX fix large pte flag */
  331. if (ppc_md.hpte_updatepp(slot, secondary, 
  332.  newpp, va, 0) == -1) {
  333. pte_val(old_pte) &= ~_PAGE_HPTEFLAGS;
  334. } else {
  335. if (!pte_same(old_pte, new_pte)) {
  336. *ptep = new_pte;
  337. }
  338. }
  339. }
  340. if (likely(!(pte_val(old_pte) & _PAGE_HASHPTE))) {
  341. /* Update the linux pte with the HPTE slot */
  342. pte_val(new_pte) &= ~_PAGE_HPTEFLAGS;
  343. pte_val(new_pte) |= _PAGE_HASHPTE;
  344. prpn = pte_val(old_pte) >> PTE_SHIFT;
  345. /* copy appropriate flags from linux pte */
  346. hpteflags = (pte_val(new_pte) & 0x1f8) | newpp;
  347. slot = ppc_md.hpte_insert(vpn, prpn, hpteflags, 0, 0);
  348. pte_val(new_pte) |= ((slot<<12) & 
  349.      (_PAGE_GROUP_IX | _PAGE_SECONDARY));
  350. *ptep = new_pte;
  351. }
  352. spin_unlock(&hash_table_lock);
  353. return 0;
  354. }
  355. /*
  356.  * Handle a fault by adding an HPTE. If the address can't be determined
  357.  * to be valid via Linux page tables, return 1. If handled return 0
  358.  */
  359. int hash_page(unsigned long ea, unsigned long access)
  360. {
  361. void *pgdir;
  362. unsigned long vsid;
  363. struct mm_struct *mm;
  364. pte_t *ptep;
  365. int ret;
  366. /* Check for invalid addresses. */
  367. if (!IS_VALID_EA(ea)) return 1;
  368.   switch (REGION_ID(ea)) {
  369. case USER_REGION_ID:
  370. mm = current->mm;
  371. if (mm == NULL) return 1;
  372. vsid = get_vsid(mm->context, ea);
  373. break;
  374. case IO_REGION_ID:
  375. mm = &ioremap_mm;
  376. vsid = get_kernel_vsid(ea);
  377. break;
  378. case VMALLOC_REGION_ID:
  379. mm = &init_mm;
  380. vsid = get_kernel_vsid(ea);
  381. break;
  382. case IO_UNMAPPED_REGION_ID:
  383. udbg_printf("EEH Error ea = 0x%lxn", ea);
  384. PPCDBG_ENTER_DEBUGGER();
  385. panic("EEH Error ea = 0x%lxn", ea);
  386. break;
  387. case KERNEL_REGION_ID:
  388. /*
  389.  * As htab_initialize is now, we shouldn't ever get here since
  390.  * we're bolting the entire 0xC0... region.
  391.  */
  392. udbg_printf("Little faulted on kernel address 0x%lxn", ea);
  393. PPCDBG_ENTER_DEBUGGER();
  394. panic("Little faulted on kernel address 0x%lxn", ea);
  395. break;
  396. default:
  397. /* Not a valid range, send the problem up to do_page_fault */
  398. return 1;
  399. break;
  400. }
  401. pgdir = mm->pgd;
  402. if (pgdir == NULL) return 1;
  403. /*
  404.  * Lock the Linux page table to prevent mmap and kswapd
  405.  * from modifying entries while we search and update
  406.  */
  407. spin_lock(&mm->page_table_lock);
  408. ptep = find_linux_pte(pgdir, ea);
  409. /*
  410.  * If no pte found or not present, send the problem up to
  411.  * do_page_fault
  412.  */
  413. if (ptep && pte_present(*ptep)) {
  414. ret = __hash_page(ea, access, vsid, ptep);
  415. } else {
  416. /* If no pte, send the problem up to do_page_fault */
  417. ret = 1;
  418. }
  419. spin_unlock(&mm->page_table_lock);
  420. return ret;
  421. }
  422. void flush_hash_page(unsigned long context, unsigned long ea, pte_t *ptep)
  423. {
  424. unsigned long vsid, vpn, va, hash, secondary, slot, flags;
  425. unsigned long large = 0, local = 0;
  426. pte_t pte;
  427. if ((ea >= USER_START) && (ea <= USER_END))
  428. vsid = get_vsid(context, ea);
  429. else
  430. vsid = get_kernel_vsid(ea);
  431. va = (vsid << 28) | (ea & 0x0fffffff);
  432. if (large)
  433. vpn = va >> LARGE_PAGE_SHIFT;
  434. else
  435. vpn = va >> PAGE_SHIFT;
  436. hash = hpt_hash(vpn, large);
  437. spin_lock_irqsave( &hash_table_lock, flags);
  438. pte = __pte(pte_update(ptep, _PAGE_HPTEFLAGS, 0));
  439. secondary = (pte_val(pte) & _PAGE_SECONDARY) >> 15;
  440. if (secondary) hash = ~hash;
  441. slot = (hash & htab_data.htab_hash_mask) * HPTES_PER_GROUP;
  442. slot += (pte_val(pte) & _PAGE_GROUP_IX) >> 12;
  443. if (pte_val(pte) & _PAGE_HASHPTE) {
  444. ppc_md.hpte_invalidate(slot, secondary, va, large, local);
  445. }
  446. spin_unlock_irqrestore( &hash_table_lock, flags );
  447. }
  448. long plpar_pte_enter(unsigned long flags,
  449.      unsigned long ptex,
  450.      unsigned long new_pteh, unsigned long new_ptel,
  451.      unsigned long *old_pteh_ret, unsigned long *old_ptel_ret)
  452. {
  453. unsigned long dummy, ret;
  454. ret = plpar_hcall(H_ENTER, flags, ptex, new_pteh, new_ptel,
  455.    old_pteh_ret, old_ptel_ret, &dummy);
  456. return(ret);
  457. }
  458. long plpar_pte_remove(unsigned long flags,
  459.       unsigned long ptex,
  460.       unsigned long avpn,
  461.       unsigned long *old_pteh_ret, unsigned long *old_ptel_ret)
  462. {
  463. unsigned long dummy;
  464. return plpar_hcall(H_REMOVE, flags, ptex, avpn, 0,
  465.    old_pteh_ret, old_ptel_ret, &dummy);
  466. }
  467. long plpar_pte_read(unsigned long flags,
  468.     unsigned long ptex,
  469.     unsigned long *old_pteh_ret, unsigned long *old_ptel_ret)
  470. {
  471. unsigned long dummy;
  472. return plpar_hcall(H_READ, flags, ptex, 0, 0,
  473.    old_pteh_ret, old_ptel_ret, &dummy);
  474. }
  475. long plpar_pte_protect(unsigned long flags,
  476.        unsigned long ptex,
  477.        unsigned long avpn)
  478. {
  479. return plpar_hcall_norets(H_PROTECT, flags, ptex, avpn);
  480. }
  481. static __inline__ void set_pp_bit(unsigned long pp, HPTE *addr)
  482. {
  483. unsigned long old;
  484. unsigned long *p = &addr->dw1.dword1;
  485. __asm__ __volatile__(
  486.         "1: ldarx %0,0,%3n
  487.                 rldimi  %0,%2,0,62n
  488.                 stdcx. %0,0,%3n
  489.              bne 1b"
  490.         : "=&r" (old), "=m" (*p)
  491.         : "r" (pp), "r" (p), "m" (*p)
  492.         : "cc");
  493. }
  494. /*
  495.  * Functions used to retrieve word 0 of a given page table entry.
  496.  *
  497.  * Input : slot : PTE index within the page table of the entry to retrieve 
  498.  * Output: Contents of word 0 of the specified entry
  499.  */
  500. static unsigned long rpa_lpar_hpte_getword0(unsigned long slot)
  501. {
  502. unsigned long dword0;
  503. unsigned long lpar_rc;
  504. unsigned long dummy_word1;
  505. unsigned long flags;
  506. /* Read 1 pte at a time                        */
  507. /* Do not need RPN to logical page translation */
  508. /* No cross CEC PFT access                     */
  509. flags = 0;
  510. lpar_rc = plpar_pte_read(flags, slot, &dword0, &dummy_word1);
  511. if (lpar_rc != H_Success)
  512. panic("Error on pte read in get_hpte0 rc = %lxn", lpar_rc);
  513. return dword0;
  514. }
  515. unsigned long iSeries_hpte_getword0(unsigned long slot)
  516. {
  517. unsigned long dword0;
  518. HPTE hpte;
  519. HvCallHpt_get(&hpte, slot);
  520. dword0 = hpte.dw0.dword0;
  521. return dword0;
  522. }
  523. /*
  524.  * Functions used to find the PTE for a particular virtual address. 
  525.  * Only used during boot when bolting pages.
  526.  *
  527.  * Input : vpn      : virtual page number
  528.  * Output: PTE index within the page table of the entry
  529.  *         -1 on failure
  530.  */
  531. static long hpte_find(unsigned long vpn)
  532. {
  533. HPTE *hptep;
  534. unsigned long hash;
  535. unsigned long i, j;
  536. long slot;
  537. Hpte_dword0 dw0;
  538. hash = hpt_hash(vpn, 0);
  539. for (j = 0; j < 2; j++) {
  540. slot = (hash & htab_data.htab_hash_mask) * HPTES_PER_GROUP;
  541. for (i = 0; i < HPTES_PER_GROUP; i++) {
  542. hptep = htab_data.htab + slot;
  543. dw0 = hptep->dw0.dw0;
  544. if ((dw0.avpn == (vpn >> 11)) && dw0.v &&
  545.     (dw0.h == j)) {
  546. /* HPTE matches */
  547. if (j)
  548. slot = -slot;
  549. return slot;
  550. }
  551. ++slot;
  552. }
  553. hash = ~hash;
  554. }
  555. return -1;
  556. }
  557. static long rpa_lpar_hpte_find(unsigned long vpn)
  558. {
  559. unsigned long hash;
  560. unsigned long i, j;
  561. long slot;
  562. union {
  563. unsigned long dword0;
  564. Hpte_dword0 dw0;
  565. } hpte_dw0;
  566. Hpte_dword0 dw0;
  567. hash = hpt_hash(vpn, 0);
  568. for (j = 0; j < 2; j++) {
  569. slot = (hash & htab_data.htab_hash_mask) * HPTES_PER_GROUP;
  570. for (i = 0; i < HPTES_PER_GROUP; i++) {
  571. hpte_dw0.dword0 = rpa_lpar_hpte_getword0(slot);
  572. dw0 = hpte_dw0.dw0;
  573. if ((dw0.avpn == (vpn >> 11)) && dw0.v &&
  574.     (dw0.h == j)) {
  575. /* HPTE matches */
  576. if (j)
  577. slot = -slot;
  578. return slot;
  579. }
  580. ++slot;
  581. }
  582. hash = ~hash;
  583. }
  584. return -1;
  585. static long iSeries_hpte_find(unsigned long vpn)
  586. {
  587. HPTE hpte;
  588. long slot;
  589. /*
  590.  * The HvCallHpt_findValid interface is as follows:
  591.  * 0xffffffffffffffff : No entry found.
  592.  * 0x00000000xxxxxxxx : Entry found in primary group, slot x
  593.  * 0x80000000xxxxxxxx : Entry found in secondary group, slot x
  594.  */
  595. slot = HvCallHpt_findValid(&hpte, vpn); 
  596. if (hpte.dw0.dw0.v) {
  597. if (slot < 0) {
  598. slot &= 0x7fffffffffffffff;
  599. slot = -slot;
  600. }
  601. } else {
  602. slot = -1;
  603. }
  604. return slot;
  605. }
  606. /*
  607.  * Functions used to invalidate a page table entry from the page table
  608.  * and tlb.
  609.  *
  610.  * Input : slot  : PTE index within the page table of the entry to invalidated
  611.  *         va    : Virtual address of the entry being invalidated
  612.  *         large : 1 = large page (16M)
  613.  *         local : 1 = Use tlbiel to only invalidate the local tlb 
  614.  */
  615. static void hpte_invalidate(unsigned long slot, 
  616.     unsigned long secondary,
  617.     unsigned long va,
  618.     int large, int local)
  619. {
  620. HPTE *hptep = htab_data.htab + slot;
  621. Hpte_dword0 dw0;
  622. unsigned long vpn, avpn;
  623. unsigned long flags;
  624. if (large)
  625. vpn = va >> LARGE_PAGE_SHIFT;
  626. else
  627. vpn = va >> PAGE_SHIFT;
  628. avpn = vpn >> 11;
  629. dw0 = hptep->dw0.dw0;
  630. /*
  631.  * Do not remove bolted entries.  Alternatively, we could check
  632.  * the AVPN, hash group, and valid bits.  By doing it this way,
  633.  * it is common with the pSeries LPAR optimal path.
  634.  */
  635. if (dw0.bolted) return;
  636. /* Invalidate the hpte. */
  637. hptep->dw0.dword0 = 0;
  638. /* Invalidate the tlb */
  639. spin_lock_irqsave(&pSeries_tlbie_lock, flags);
  640. _tlbie(va, large);
  641. spin_unlock_irqrestore(&pSeries_tlbie_lock, flags);
  642. }
  643. static void rpa_lpar_hpte_invalidate(unsigned long slot, 
  644.      unsigned long secondary,
  645.      unsigned long va,
  646.      int large, int local)
  647. {
  648. unsigned long lpar_rc;
  649. unsigned long dummy1, dummy2;
  650. /* 
  651.  * Don't remove a bolted entry.  This case can occur when we bolt
  652.  * pages dynamically after initial boot.
  653.  */
  654. lpar_rc = plpar_pte_remove(H_ANDCOND, slot, (0x1UL << 4), 
  655.    &dummy1, &dummy2);
  656. if (lpar_rc != H_Success)
  657. panic("Bad return code from invalidate rc = %lxn", lpar_rc);
  658. }
  659. static void iSeries_hpte_invalidate(unsigned long slot, 
  660.     unsigned long secondary,
  661.     unsigned long va,
  662.     int large, int local)
  663. {
  664. HPTE lhpte;
  665. unsigned long vpn, avpn;
  666. if (large)
  667. vpn = va >> LARGE_PAGE_SHIFT;
  668. else
  669. vpn = va >> PAGE_SHIFT;
  670. avpn = vpn >> 11;
  671. lhpte.dw0.dword0 = iSeries_hpte_getword0(slot);
  672. if ((lhpte.dw0.dw0.avpn == avpn) && 
  673.     (lhpte.dw0.dw0.v) &&
  674.     (lhpte.dw0.dw0.h == secondary)) {
  675. HvCallHpt_invalidateSetSwBitsGet(slot, 0, 0);
  676. }
  677. }
  678. /*
  679.  * Functions used to update page protection bits.
  680.  *
  681.  * Input : slot  : PTE index within the page table of the entry to update
  682.  *         newpp : new page protection bits
  683.  *         va    : Virtual address of the entry being updated
  684.  *         large : 1 = large page (16M)
  685.  * Output: 0 on success, -1 on failure
  686.  */
  687. static long hpte_updatepp(unsigned long slot, 
  688.   unsigned long secondary,
  689.   unsigned long newpp,
  690.   unsigned long va, int large)
  691. {
  692. HPTE *hptep = htab_data.htab + slot;
  693. Hpte_dword0 dw0;
  694. Hpte_dword1 dw1;
  695. unsigned long vpn, avpn;
  696. unsigned long flags;
  697. if (large)
  698. vpn = va >> LARGE_PAGE_SHIFT;
  699. else
  700. vpn = va >> PAGE_SHIFT;
  701. avpn = vpn >> 11;
  702. dw0 = hptep->dw0.dw0;
  703. if ((dw0.avpn == avpn) && 
  704.     (dw0.v) && (dw0.h == secondary)) {
  705. /* Turn off valid bit in HPTE */
  706. dw0.v = 0;
  707. hptep->dw0.dw0 = dw0;
  708. /* Ensure it is out of the tlb too */
  709. spin_lock_irqsave(&pSeries_tlbie_lock, flags);
  710. _tlbie(va, large);
  711. spin_unlock_irqrestore(&pSeries_tlbie_lock, flags);
  712. /* Insert the new pp bits into the HPTE */
  713. dw1 = hptep->dw1.dw1;
  714. dw1.pp = newpp;
  715. hptep->dw1.dw1 = dw1;
  716. /* Ensure it is visible before validating */
  717. __asm__ __volatile__ ("eieio" : : : "memory");
  718. /* Turn the valid bit back on in HPTE */
  719. dw0.v = 1;
  720. hptep->dw0.dw0 = dw0;
  721. __asm__ __volatile__ ("ptesync" : : : "memory");
  722. return 0;
  723. }
  724. return -1;
  725. }
  726. static long rpa_lpar_hpte_updatepp(unsigned long slot, 
  727.    unsigned long secondary,
  728.    unsigned long newpp,
  729.    unsigned long va, int large)
  730. {
  731. unsigned long lpar_rc;
  732. unsigned long flags = (newpp & 7);
  733. unsigned long avpn = va >> 23;
  734. HPTE hpte;
  735. lpar_rc = plpar_pte_read(0, slot, &hpte.dw0.dword0, &hpte.dw1.dword1);
  736. if ((hpte.dw0.dw0.avpn == avpn) &&
  737.     (hpte.dw0.dw0.v) && 
  738.     (hpte.dw0.dw0.h == secondary)) {
  739. lpar_rc = plpar_pte_protect(flags, slot, 0);
  740. if (lpar_rc != H_Success)
  741. panic("bad return code from pte protect rc = %lxn", 
  742.       lpar_rc);
  743. return 0;
  744. }
  745. return -1;
  746. }
  747. static long iSeries_hpte_updatepp(unsigned long slot, 
  748.   unsigned long secondary,
  749.   unsigned long newpp, 
  750.   unsigned long va, int large)
  751. {
  752. unsigned long vpn, avpn;
  753. HPTE hpte;
  754. if (large)
  755. vpn = va >> LARGE_PAGE_SHIFT;
  756. else
  757. vpn = va >> PAGE_SHIFT;
  758. avpn = vpn >> 11;
  759. HvCallHpt_get(&hpte, slot);
  760. if ((hpte.dw0.dw0.avpn == avpn) && 
  761.     (hpte.dw0.dw0.v) &&
  762.     (hpte.dw0.dw0.h == secondary)) {
  763. HvCallHpt_setPp(slot, newpp);
  764. return 0;
  765. }
  766. return -1;
  767. }
  768. /*
  769.  * Functions used to update the page protection bits. Intended to be used 
  770.  * to create guard pages for kernel data structures on pages which are bolted
  771.  * in the HPT. Assumes pages being operated on will not be stolen.
  772.  * Does not work on large pages. No need to lock here because we are the 
  773.  * only user.
  774.  * 
  775.  * Input : newpp : page protection flags
  776.  *         ea    : effective kernel address to bolt.
  777.  */
  778. static void hpte_updateboltedpp(unsigned long newpp, unsigned long ea)
  779. {
  780. unsigned long vsid, va, vpn, flags;
  781. long slot;
  782. HPTE *hptep;
  783. vsid = get_kernel_vsid(ea);
  784. va = (vsid << 28) | (ea & 0x0fffffff);
  785. vpn = va >> PAGE_SHIFT;
  786. slot = hpte_find(vpn);
  787. if (slot == -1)
  788. panic("could not find page to boltn");
  789. hptep = htab_data.htab + slot;
  790. set_pp_bit(newpp, hptep);
  791. /* Ensure it is out of the tlb too */
  792. spin_lock_irqsave(&pSeries_tlbie_lock, flags);
  793. _tlbie(va, 0);
  794. spin_unlock_irqrestore(&pSeries_tlbie_lock, flags);
  795. }
  796. static void rpa_lpar_hpte_updateboltedpp(unsigned long newpp, unsigned long ea)
  797. {
  798. unsigned long lpar_rc;
  799. unsigned long vsid, va, vpn, flags;
  800. long slot;
  801. vsid = get_kernel_vsid(ea);
  802. va = (vsid << 28) | (ea & 0x0fffffff);
  803. vpn = va >> PAGE_SHIFT;
  804. slot = rpa_lpar_hpte_find(vpn);
  805. if (slot == -1)
  806. panic("updateboltedpp: Could not find page to boltn");
  807. flags = newpp & 3;
  808. lpar_rc = plpar_pte_protect(flags, slot, 0);
  809. if (lpar_rc != H_Success)
  810. panic("Bad return code from pte bolted protect rc = %lxn",
  811.       lpar_rc); 
  812. }
  813. void iSeries_hpte_updateboltedpp(unsigned long newpp, unsigned long ea)
  814. {
  815. unsigned long vsid,va,vpn;
  816. long slot;
  817. vsid = get_kernel_vsid( ea );
  818. va = ( vsid << 28 ) | ( ea & 0x0fffffff );
  819. vpn = va >> PAGE_SHIFT;
  820. slot = iSeries_hpte_find(vpn); 
  821. if (slot == -1)
  822. panic("updateboltedpp: Could not find page to boltn");
  823. HvCallHpt_setPp(slot, newpp);
  824. }
  825. /*
  826.  * Functions used to insert new hardware page table entries.
  827.  * Will castout non-bolted entries as necessary using a random
  828.  * algorithm.
  829.  *
  830.  * Input : vpn      : virtual page number
  831.  *         prpn     : real page number in absolute space
  832.  *         hpteflags: page protection flags
  833.  *         bolted   : 1 = bolt the page
  834.  *         large    : 1 = large page (16M)
  835.  * Output: hsss, where h = hash group, sss = slot within that group
  836.  */
  837. static long hpte_insert(unsigned long vpn, unsigned long prpn,
  838. unsigned long hpteflags, int bolted, int large)
  839. {
  840. HPTE *hptep;
  841. Hpte_dword0 dw0;
  842. HPTE lhpte;
  843. int i, secondary;
  844. unsigned long hash = hpt_hash(vpn, 0);
  845. unsigned long avpn = vpn >> 11;
  846. unsigned long arpn = physRpn_to_absRpn(prpn);
  847. unsigned long hpte_group;
  848. repeat:
  849. secondary = 0;
  850. hpte_group = ((hash & htab_data.htab_hash_mask) *
  851.       HPTES_PER_GROUP) & ~0x7UL;
  852. hptep = htab_data.htab + hpte_group;
  853. for (i = 0; i < HPTES_PER_GROUP; i++) {
  854. dw0 = hptep->dw0.dw0;
  855. if (!dw0.v) {
  856. /* retry with lock held */
  857. dw0 = hptep->dw0.dw0;
  858. if (!dw0.v)
  859. break;
  860. }
  861. hptep++;
  862. }
  863. if (i == HPTES_PER_GROUP) {
  864. secondary = 1;
  865. hpte_group = ((~hash & htab_data.htab_hash_mask) *
  866.       HPTES_PER_GROUP) & ~0x7UL;
  867. hptep = htab_data.htab + hpte_group;
  868. for (i = 0; i < HPTES_PER_GROUP; i++) {
  869. dw0 = hptep->dw0.dw0;
  870. if (!dw0.v) {
  871. /* retry with lock held */
  872. dw0 = hptep->dw0.dw0;
  873. if (!dw0.v)
  874. break;
  875. }
  876. hptep++;
  877. }
  878. if (i == HPTES_PER_GROUP) {
  879. if (mftb() & 0x1)
  880. hpte_group=((hash & htab_data.htab_hash_mask)* 
  881.     HPTES_PER_GROUP) & ~0x7UL;
  882. hpte_remove(hpte_group);
  883. goto repeat;
  884. }
  885. }
  886. lhpte.dw1.dword1      = 0;
  887. lhpte.dw1.dw1.rpn     = arpn;
  888. lhpte.dw1.flags.flags = hpteflags;
  889. lhpte.dw0.dword0      = 0;
  890. lhpte.dw0.dw0.avpn    = avpn;
  891. lhpte.dw0.dw0.h       = secondary;
  892. lhpte.dw0.dw0.bolted  = bolted;
  893. lhpte.dw0.dw0.v       = 1;
  894. if (large) lhpte.dw0.dw0.l = 1;
  895. hptep->dw1.dword1 = lhpte.dw1.dword1;
  896. /* Guarantee the second dword is visible before the valid bit */
  897. __asm__ __volatile__ ("eieio" : : : "memory");
  898. /*
  899.  * Now set the first dword including the valid bit
  900.  * NOTE: this also unlocks the hpte
  901.  */
  902. hptep->dw0.dword0 = lhpte.dw0.dword0;
  903. __asm__ __volatile__ ("ptesync" : : : "memory");
  904. return ((secondary << 3) | i);
  905. }
  906. static long rpa_lpar_hpte_insert(unsigned long vpn, unsigned long prpn,
  907.  unsigned long hpteflags,
  908.  int bolted, int large)
  909. {
  910. /* XXX fix for large page */
  911. unsigned long lpar_rc;
  912. unsigned long flags;
  913. unsigned long slot;
  914. HPTE lhpte;
  915. int secondary;
  916. unsigned long hash = hpt_hash(vpn, 0);
  917. unsigned long avpn = vpn >> 11;
  918. unsigned long arpn = physRpn_to_absRpn(prpn);
  919. unsigned long hpte_group;
  920. /* Fill in the local HPTE with absolute rpn, avpn and flags */
  921. lhpte.dw1.dword1      = 0;
  922. lhpte.dw1.dw1.rpn     = arpn;
  923. lhpte.dw1.flags.flags = hpteflags;
  924. lhpte.dw0.dword0      = 0;
  925. lhpte.dw0.dw0.avpn    = avpn;
  926. lhpte.dw0.dw0.bolted  = bolted;
  927. lhpte.dw0.dw0.v       = 1;
  928. if (large) lhpte.dw0.dw0.l = 1;
  929. /* Now fill in the actual HPTE */
  930. /* Set CEC cookie to 0         */
  931. /* Large page = 0              */
  932. /* Zero page = 0               */
  933. /* I-cache Invalidate = 0      */
  934. /* I-cache synchronize = 0     */
  935. /* Exact = 0                   */
  936. flags = 0;
  937. /* XXX why is this here? - Anton */
  938. /*   -- Because at one point we hit a case where non cachable
  939.  *      pages where marked coherent & this is rejected by the HV.
  940.  *      Perhaps it is no longer an issue ... DRENG.
  941.  */ 
  942. if (hpteflags & (_PAGE_GUARDED|_PAGE_NO_CACHE))
  943. lhpte.dw1.flags.flags &= ~_PAGE_COHERENT;
  944. repeat:
  945. secondary = 0;
  946. lhpte.dw0.dw0.h = secondary;
  947. hpte_group = ((hash & htab_data.htab_hash_mask) *
  948.       HPTES_PER_GROUP) & ~0x7UL;
  949. __asm__ __volatile__ (
  950. H_ENTER_r3
  951. "mr    4, %2n"
  952.                 "mr    5, %3n"
  953.                 "mr    6, %4n"
  954.                 "mr    7, %5n"
  955.                 HSC    
  956.                 "mr    %0, 3n"
  957.                 "mr    %1, 4n"
  958. : "=r" (lpar_rc), "=r" (slot)
  959. : "r" (flags), "r" (hpte_group), "r" (lhpte.dw0.dword0),
  960. "r" (lhpte.dw1.dword1)
  961. : "r0", "r3", "r4", "r5", "r6", "r7", 
  962.   "r8", "r9", "r10", "r11", "r12", "cc");
  963. if (lpar_rc == H_PTEG_Full) {
  964. secondary = 1;
  965. lhpte.dw0.dw0.h = secondary;
  966. hpte_group = ((~hash & htab_data.htab_hash_mask) *
  967.       HPTES_PER_GROUP) & ~0x7UL;
  968. __asm__ __volatile__ (
  969.       H_ENTER_r3
  970.       "mr    4, %2n"
  971.       "mr    5, %3n"
  972.       "mr    6, %4n"
  973.       "mr    7, %5n"
  974.       HSC    
  975.       "mr    %0, 3n"
  976.       "mr    %1, 4n"
  977.       : "=r" (lpar_rc), "=r" (slot)
  978.       : "r" (flags), "r" (hpte_group), "r" (lhpte.dw0.dword0),
  979.       "r" (lhpte.dw1.dword1)
  980.       : "r0", "r3", "r4", "r5", "r6", "r7",
  981.         "r8", "r9", "r10", "r11", "r12", "cc");
  982. if (lpar_rc == H_PTEG_Full) {
  983. if (mftb() & 0x1)
  984. hpte_group=((hash & htab_data.htab_hash_mask)* 
  985.     HPTES_PER_GROUP) & ~0x7UL;
  986. rpa_lpar_hpte_remove(hpte_group);
  987. goto repeat;
  988. }
  989. }
  990. if (lpar_rc != H_Success)
  991. panic("Bad return code from pte enter rc = %lxn", lpar_rc);
  992. return ((secondary << 3) | (slot & 0x7));
  993. }
  994. static long iSeries_hpte_insert(unsigned long vpn, unsigned long prpn,
  995. unsigned long hpteflags,
  996. int bolted, int large)
  997. {
  998. HPTE lhpte;
  999. unsigned long hash, hpte_group;
  1000. unsigned long avpn = vpn >> 11;
  1001. unsigned long arpn = physRpn_to_absRpn( prpn );
  1002. int secondary = 0;
  1003. long slot;
  1004. hash = hpt_hash(vpn, 0);
  1005. repeat:
  1006. slot = HvCallHpt_findValid(&lhpte, vpn);
  1007. if (lhpte.dw0.dw0.v) {
  1008. panic("select_hpte_slot found entry already validn");
  1009. }
  1010. if (slot == -1) { /* No available entry found in either group */
  1011. if (mftb() & 0x1) {
  1012. hpte_group=((hash & htab_data.htab_hash_mask)* 
  1013.     HPTES_PER_GROUP) & ~0x7UL;
  1014. } else {
  1015. hpte_group=((~hash & htab_data.htab_hash_mask)* 
  1016.     HPTES_PER_GROUP) & ~0x7UL;
  1017. }
  1018. hash = hpt_hash(vpn, 0);
  1019. iSeries_hpte_remove(hpte_group);
  1020. goto repeat;
  1021. } else if (slot < 0) {
  1022. slot &= 0x7fffffffffffffff;
  1023. secondary = 1;
  1024. }
  1025. /* Create the HPTE */
  1026. lhpte.dw1.dword1      = 0;
  1027. lhpte.dw1.dw1.rpn     = arpn;
  1028. lhpte.dw1.flags.flags = hpteflags;
  1029. lhpte.dw0.dword0     = 0;
  1030. lhpte.dw0.dw0.avpn   = avpn;
  1031. lhpte.dw0.dw0.h      = secondary;
  1032. lhpte.dw0.dw0.bolted = bolted;
  1033. lhpte.dw0.dw0.v      = 1;
  1034. /* Now fill in the actual HPTE */
  1035. HvCallHpt_addValidate(slot, secondary, (HPTE *)&lhpte);
  1036. return ((secondary << 3) | (slot & 0x7));
  1037. }
  1038. /*
  1039.  * Functions used to remove hardware page table entries.
  1040.  *
  1041.  * Input : hpte_group: PTE index of the first entry in a group
  1042.  * Output: offset within the group of the entry removed or
  1043.  *         -1 on failure
  1044.  */
  1045. static long hpte_remove(unsigned long hpte_group)
  1046. {
  1047. HPTE *hptep;
  1048. Hpte_dword0 dw0;
  1049. int i;
  1050. int slot_offset;
  1051. unsigned long vsid, group, pi, pi_high;
  1052. unsigned long slot;
  1053. unsigned long flags;
  1054. int large;
  1055. unsigned long va;
  1056. /* pick a random slot to start at */
  1057. slot_offset = mftb() & 0x7;
  1058. for (i = 0; i < HPTES_PER_GROUP; i++) {
  1059. hptep = htab_data.htab + hpte_group + slot_offset;
  1060. dw0 = hptep->dw0.dw0;
  1061. if (dw0.v && !dw0.bolted) {
  1062. /* retry with lock held */
  1063. dw0 = hptep->dw0.dw0;
  1064. if (dw0.v && !dw0.bolted)
  1065. break;
  1066. }
  1067. slot_offset++;
  1068. slot_offset &= 0x7;
  1069. }
  1070. if (i == HPTES_PER_GROUP)
  1071. return -1;
  1072. large = dw0.l;
  1073. /* Invalidate the hpte. NOTE: this also unlocks it */
  1074. hptep->dw0.dword0 = 0;
  1075. /* Invalidate the tlb */
  1076. vsid = dw0.avpn >> 5;
  1077. slot = hptep - htab_data.htab;
  1078. group = slot >> 3;
  1079. if (dw0.h)
  1080. group = ~group;
  1081. pi = (vsid ^ group) & 0x7ff;
  1082. pi_high = (dw0.avpn & 0x1f) << 11;
  1083. pi |= pi_high;
  1084. if (large)
  1085. va = pi << LARGE_PAGE_SHIFT;
  1086. else
  1087. va = pi << PAGE_SHIFT;
  1088. spin_lock_irqsave(&pSeries_tlbie_lock, flags);
  1089. _tlbie(va, large);
  1090. spin_unlock_irqrestore(&pSeries_tlbie_lock, flags);
  1091. return i;
  1092. }
  1093. static long rpa_lpar_hpte_remove(unsigned long hpte_group)
  1094. {
  1095. unsigned long slot_offset;
  1096. unsigned long lpar_rc;
  1097. int i;
  1098. unsigned long dummy1, dummy2;
  1099. /* pick a random slot to start at */
  1100. slot_offset = mftb() & 0x7;
  1101. for (i = 0; i < HPTES_PER_GROUP; i++) {
  1102. /* Don't remove a bolted entry */
  1103. lpar_rc = plpar_pte_remove(H_ANDCOND, hpte_group + slot_offset,
  1104.    (0x1UL << 4), &dummy1, &dummy2);
  1105. if (lpar_rc == H_Success)
  1106. return i;
  1107. if (lpar_rc != H_Not_Found)
  1108. panic("Bad return code from pte remove rc = %lxn",
  1109.       lpar_rc);
  1110. slot_offset++;
  1111. slot_offset &= 0x7;
  1112. }
  1113. return -1;
  1114. }
  1115. static long iSeries_hpte_remove(unsigned long hpte_group)
  1116. {
  1117. unsigned long slot_offset;
  1118. int i;
  1119. HPTE lhpte;
  1120. /* Pick a random slot to start at */
  1121. slot_offset = mftb() & 0x7;
  1122. for (i = 0; i < HPTES_PER_GROUP; i++) {
  1123. lhpte.dw0.dword0 = 
  1124. iSeries_hpte_getword0(hpte_group + slot_offset);
  1125. if (!lhpte.dw0.dw0.bolted) {
  1126. HvCallHpt_invalidateSetSwBitsGet(hpte_group + 
  1127.  slot_offset, 0, 0);
  1128. return i;
  1129. }
  1130. slot_offset++;
  1131. slot_offset &= 0x7;
  1132. }
  1133. return -1;
  1134. }
  1135. void hpte_init_pSeries(void)
  1136. {
  1137. ppc_md.hpte_invalidate     = hpte_invalidate;
  1138. ppc_md.hpte_updatepp       = hpte_updatepp;
  1139. ppc_md.hpte_updateboltedpp = hpte_updateboltedpp;
  1140. ppc_md.hpte_insert    = hpte_insert;
  1141. ppc_md.hpte_remove    = hpte_remove;
  1142. }
  1143. void pSeries_lpar_mm_init(void)
  1144. {
  1145. ppc_md.hpte_invalidate     = rpa_lpar_hpte_invalidate;
  1146. ppc_md.hpte_updatepp       = rpa_lpar_hpte_updatepp;
  1147. ppc_md.hpte_updateboltedpp = rpa_lpar_hpte_updateboltedpp;
  1148. ppc_md.hpte_insert         = rpa_lpar_hpte_insert;
  1149. ppc_md.hpte_remove         = rpa_lpar_hpte_remove;
  1150. }
  1151. void hpte_init_iSeries(void)
  1152. {
  1153. ppc_md.hpte_invalidate     = iSeries_hpte_invalidate;
  1154. ppc_md.hpte_updatepp       = iSeries_hpte_updatepp;
  1155. ppc_md.hpte_updateboltedpp = iSeries_hpte_updateboltedpp;
  1156. ppc_md.hpte_insert         = iSeries_hpte_insert;
  1157. ppc_md.hpte_remove         = iSeries_hpte_remove;
  1158. }