smp.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:9k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *
  3.  *  arch/mips/kernel/smp.c
  4.  *
  5.  *  Copyright (C) 2000 Sibyte
  6.  * 
  7.  *  Written by Justin Carlson (carlson@sibyte.com)
  8.  *
  9.  * This program is free software; you can redistribute it and/or
  10.  * modify it under the terms of the GNU General Public License
  11.  * as published by the Free Software Foundation; either version 2
  12.  * of the License, or (at your option) any later version.
  13.  *
  14.  * This program is distributed in the hope that it will be useful,
  15.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  16.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  17.  * GNU General Public License for more details.
  18.  * 
  19.  * You should have received a copy of the GNU General Public License
  20.  * along with this program; if not, write to the Free Software
  21.  * Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA  02111-1307, USA.
  22.  *
  23.  */ 
  24. #include <linux/config.h>
  25. #include <linux/init.h>
  26. #include <linux/spinlock.h>
  27. #include <linux/threads.h>
  28. #include <linux/time.h>
  29. #include <linux/timex.h>
  30. #include <linux/sched.h>
  31. #include <linux/interrupt.h>
  32. #include <linux/cache.h>
  33. #include <asm/atomic.h>
  34. #include <asm/processor.h>
  35. #include <asm/system.h>
  36. #include <asm/hardirq.h>
  37. #include <asm/softirq.h>
  38. #include <asm/mmu_context.h>
  39. #include <asm/delay.h>
  40. #include <asm/smp.h>
  41. /*
  42.  * This was written with the BRCM12500 MP SOC in mind, but tries to
  43.  * be generic.  It's modelled on the mips64 smp.c code, which is
  44.  * derived from Sparc, I'm guessing, which is derived from...
  45.  * 
  46.  * It's probably horribly designed for very large ccNUMA systems
  47.  * as it doesn't take any node clustering into account.  
  48. */
  49. /* Ze Big Kernel Lock! */
  50. spinlock_t kernel_flag __cacheline_aligned_in_smp = SPIN_LOCK_UNLOCKED;
  51. int smp_threads_ready;  /* Not used */
  52. int smp_num_cpus;    
  53. int global_irq_holder = NO_PROC_ID;
  54. spinlock_t global_irq_lock = SPIN_LOCK_UNLOCKED;
  55. struct mips_cpuinfo cpu_data[NR_CPUS];
  56. struct smp_fn_call_struct smp_fn_call = 
  57. { SPIN_LOCK_UNLOCKED, ATOMIC_INIT(0), NULL, NULL};
  58. static atomic_t cpus_booted = ATOMIC_INIT(0);
  59. /* These are defined by the board-specific code. */
  60. /* Cause the function described by smp_fn_call 
  61.    to be executed on the passed cpu.  When the function
  62.    has finished, increment the finished field of
  63.    smp_fn_call. */
  64. void core_call_function(int cpu);
  65. /*
  66.  * Clear all undefined state in the cpu, set up sp and gp to the passed
  67.  * values, and kick the cpu into smp_bootstrap(); 
  68.  */
  69. void prom_boot_secondary(int cpu, unsigned long sp, unsigned long gp);
  70. /*
  71.  *  After we've done initial boot, this function is called to allow the
  72.  *  board code to clean up state, if needed 
  73.  */
  74. void prom_init_secondary(void);
  75. void cpu_idle(void);
  76. /* Do whatever setup needs to be done for SMP at the board level.  Return
  77.    the number of cpus in the system, including this one */
  78. int prom_setup_smp(void);
  79. int start_secondary(void *unused)
  80. {
  81. prom_init_secondary();
  82. write_32bit_cp0_register(CP0_CONTEXT, smp_processor_id()<<23);
  83. current_pgd[smp_processor_id()] = init_mm.pgd;
  84. printk("Slave cpu booted successfullyn");
  85. atomic_inc(&cpus_booted);
  86. cpu_idle();
  87. return 0;
  88. }
  89. void __init smp_boot_cpus(void)
  90. {
  91. int i;
  92. smp_num_cpus = prom_setup_smp();
  93. init_new_context(current, &init_mm);
  94. current->processor = 0;
  95. atomic_set(&cpus_booted, 1);  /* Master CPU is already booted... */
  96. init_idle();
  97. for (i = 1; i < smp_num_cpus; i++) {
  98. struct task_struct *p;
  99. struct pt_regs regs;
  100. printk("Starting CPU %d... ", i);
  101. /* Spawn a new process normally.  Grab a pointer to
  102.    its task struct so we can mess with it */
  103. do_fork(CLONE_VM|CLONE_PID, 0, &regs, 0);
  104. p = init_task.prev_task;
  105. /* Schedule the first task manually */
  106. p->processor = i;
  107. p->cpus_runnable = 1 << i; /* we schedule the first task manually */
  108. /* Attach to the address space of init_task. */
  109. atomic_inc(&init_mm.mm_count);
  110. p->active_mm = &init_mm;
  111. init_tasks[i] = p;
  112. del_from_runqueue(p);
  113. unhash_process(p);
  114. prom_boot_secondary(i,
  115.     (unsigned long)p + KERNEL_STACK_SIZE - 32,
  116.     (unsigned long)p);
  117. #if 0
  118. /* This is copied from the ip-27 code in the mips64 tree */
  119. struct task_struct *p;
  120. /*
  121.  * The following code is purely to make sure
  122.  * Linux can schedule processes on this slave.
  123.  */
  124. kernel_thread(0, NULL, CLONE_PID);
  125. p = init_task.prev_task;
  126. sprintf(p->comm, "%s%d", "Idle", i);
  127. init_tasks[i] = p;
  128. p->processor = i;
  129. p->cpus_runnable = 1 << i; /* we schedule the first task manually *
  130. del_from_runqueue(p);
  131. unhash_process(p);
  132. /* Attach to the address space of init_task. */
  133. atomic_inc(&init_mm.mm_count);
  134. p->active_mm = &init_mm;
  135. prom_boot_secondary(i, 
  136.     (unsigned long)p + KERNEL_STACK_SIZE - 32,
  137.     (unsigned long)p);
  138. #endif
  139. }
  140. /* Wait for everyone to come up */
  141. while (atomic_read(&cpus_booted) != smp_num_cpus);
  142. }
  143. void __init smp_commence(void)
  144. {
  145. /* Not sure what to do here yet */
  146. }
  147. static void reschedule_this_cpu(void *dummy)
  148. {
  149. current->need_resched = 1;
  150. }
  151. void FASTCALL(smp_send_reschedule(int cpu))
  152. {
  153. smp_call_function(reschedule_this_cpu, NULL, 0, 0);
  154. }
  155. /*
  156.  * The caller of this wants the passed function to run on every cpu.  If wait
  157.  * is set, wait until all cpus have finished the function before returning.
  158.  * The lock is here to protect the call structure.
  159.  */
  160. int smp_call_function (void (*func) (void *info), void *info, int retry, 
  161. int wait)
  162. {
  163. int cpus = smp_num_cpus - 1;
  164. int i;
  165. if (smp_num_cpus < 2) {
  166. return 0;
  167. }
  168. spin_lock_bh(&smp_fn_call.lock);
  169. atomic_set(&smp_fn_call.finished, 0);
  170. smp_fn_call.fn = func;
  171. smp_fn_call.data = info;
  172. for (i = 0; i < smp_num_cpus; i++) {
  173. if (i != smp_processor_id()) {
  174. /* Call the board specific routine */
  175. core_call_function(i);
  176. }
  177. }
  178. if (wait) {
  179. while(atomic_read(&smp_fn_call.finished) != cpus) {}
  180. }
  181. spin_unlock_bh(&smp_fn_call.lock);
  182. return 0;
  183. }
  184. void synchronize_irq(void)
  185. {
  186. panic("synchronize_irq");
  187. }
  188. static void stop_this_cpu(void *dummy)
  189. {
  190. printk("Cpu stoppingn");
  191. for (;;);
  192. }
  193. void smp_send_stop(void)
  194. {
  195. smp_call_function(stop_this_cpu, NULL, 1, 0);
  196. smp_num_cpus = 1;
  197. }
  198. /* Not really SMP stuff ... */
  199. int setup_profiling_timer(unsigned int multiplier)
  200. {
  201. return 0;
  202. }
  203. /*
  204.  * Most of this code is take from the mips64 tree (ip27-irq.c).  It's virtually
  205.  * identical to the i386 implentation in arh/i386/irq.c, with translations for
  206.  * the interrupt enable bit
  207.  */
  208. #define MAXCOUNT  100000000
  209. #define SYNC_OTHER_CORES(x) udelay(x+1)
  210. static inline void wait_on_irq(int cpu)
  211. {
  212. int count = MAXCOUNT;
  213. for (;;) {
  214. /*
  215.  * Wait until all interrupts are gone. Wait
  216.  * for bottom half handlers unless we're
  217.  * already executing in one..
  218.  */
  219. if (!irqs_running())
  220. if (local_bh_count(cpu) || !spin_is_locked(&global_bh_lock))
  221. break;
  222. /* Duh, we have to loop. Release the lock to avoid deadlocks */
  223. spin_unlock(&global_irq_lock);
  224. for (;;) {
  225. if (!--count) {
  226. printk("Count spun out.  Huh?n");
  227. count = ~0;
  228. }
  229. __sti();
  230. SYNC_OTHER_CORES(cpu);
  231. __cli();
  232. if (irqs_running())
  233. continue;
  234. if (spin_is_locked(&global_irq_lock))
  235. continue;
  236. if (!local_bh_count(cpu) && spin_is_locked(&global_bh_lock))
  237. continue;
  238. if (spin_trylock(&global_irq_lock))
  239. break;
  240. }
  241. }
  242. }
  243. static inline void get_irqlock(int cpu)
  244. {
  245. if (!spin_trylock(&global_irq_lock)) {
  246. /* do we already hold the lock? */
  247. if ((unsigned char) cpu == global_irq_holder)
  248. return;
  249. /* Uhhuh.. Somebody else got it. Wait.. */
  250. spin_lock(&global_irq_lock);
  251. }
  252. /*
  253.  * We also to make sure that nobody else is running
  254.  * in an interrupt context.
  255.  */
  256. wait_on_irq(cpu);
  257. /*
  258.  * Ok, finally..
  259.  */
  260. global_irq_holder = cpu;
  261. }
  262. /*
  263.  * A global "cli()" while in an interrupt context
  264.  * turns into just a local cli(). Interrupts
  265.  * should use spinlocks for the (very unlikely)
  266.  * case that they ever want to protect against
  267.  * each other.
  268.  *
  269.  * If we already have local interrupts disabled,
  270.  * this will not turn a local disable into a
  271.  * global one (problems with spinlocks: this makes
  272.  * save_flags+cli+sti usable inside a spinlock).
  273.  */
  274. void __global_cli(void)
  275. {
  276. unsigned int flags;
  277. __save_flags(flags);
  278. if (flags & ST0_IE) {
  279. int cpu = smp_processor_id();
  280. __cli();
  281. if (!local_irq_count(cpu))
  282. get_irqlock(cpu);
  283. }
  284. }
  285. void __global_sti(void)
  286. {
  287. int cpu = smp_processor_id();
  288. if (!local_irq_count(cpu))
  289. release_irqlock(cpu);
  290. __sti();
  291. }
  292. /*
  293.  * SMP flags value to restore to:
  294.  * 0 - global cli
  295.  * 1 - global sti
  296.  * 2 - local cli
  297.  * 3 - local sti
  298.  */
  299. unsigned long __global_save_flags(void)
  300. {
  301. int retval;
  302. int local_enabled;
  303. unsigned long flags;
  304. int cpu = smp_processor_id();
  305. __save_flags(flags);
  306. local_enabled = (flags & ST0_IE);
  307. /* default to local */
  308. retval = 2 + local_enabled;
  309. /* check for global flags if we're not in an interrupt */
  310. if (!local_irq_count(cpu)) {
  311. if (local_enabled)
  312. retval = 1;
  313. if (global_irq_holder == cpu)
  314. retval = 0;
  315. }
  316. return retval;
  317. }
  318. void __global_restore_flags(unsigned long flags)
  319. {
  320. switch (flags) {
  321. case 0:
  322. __global_cli();
  323. break;
  324. case 1:
  325. __global_sti();
  326. break;
  327. case 2:
  328. __cli();
  329. break;
  330. case 3:
  331. __sti();
  332. break;
  333. default:
  334. printk("global_restore_flags: %08lxn", flags);
  335. }
  336. }