oops-tracing.txt
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:10k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. Quick Summary
  2. -------------
  3. Install ksymoops from
  4. ftp://ftp.<country>.kernel.org/pub/linux/utils/kernel/ksymoops
  5. Read the ksymoops man page.
  6. ksymoops < the_oops.txt
  7. and send the output the maintainer of the kernel area that seems to be
  8. involved with the problem, not to the ksymoops maintainer. Don't worry
  9. too much about getting the wrong person. If you are unsure send it to
  10. the person responsible for the code relevant to what you were doing.
  11. If it occurs repeatably try and describe how to recreate it. Thats
  12. worth even more than the oops
  13. If you are totally stumped as to whom to send the report, send it to 
  14. linux-kernel@vger.kernel.org. Thanks for your help in making Linux as
  15. stable as humanly possible.
  16. Where is the_oops.txt?
  17. ----------------------
  18. Normally the Oops text is read from the kernel buffers by klogd and
  19. handed to syslogd which writes it to a syslog file, typically
  20. /var/log/messages (depends on /etc/syslog.conf).  Sometimes klogd dies,
  21. in which case you can run dmesg > file to read the data from the kernel
  22. buffers and save it.  Or you can cat /proc/kmsg > file, however you
  23. have to break in to stop the transfer, kmsg is a "never ending file".
  24. If the machine has crashed so badly that you cannot enter commands or
  25. the disk is not available then you have three options :-
  26. (1) Hand copy the text from the screen and type it in after the machine
  27.     has restarted.  Messy but it is the only option if you have not
  28.     planned for a crash.
  29. (2) Boot with a serial console (see Documentation/serial-console.txt),
  30.     run a null modem to a second machine and capture the output there
  31.     using your favourite communication program.  Minicom works well.
  32. (3) Patch the kernel with one of the crash dump patches.  These save
  33.     data to a floppy disk or video rom or a swap partition.  None of
  34.     these are standard kernel patches so you have to find and apply
  35.     them yourself.  Search kernel archives for kmsgdump, lkcd and
  36.     oops+smram.
  37. No matter how you capture the log output, feed the resulting file to
  38. ksymoops along with /proc/ksyms and /proc/modules that applied at the
  39. time of the crash.  /var/log/ksymoops can be useful to capture the
  40. latter, man ksymoops for details.
  41. Full Information
  42. ----------------
  43. From: Linus Torvalds <torvalds@transmeta.com>
  44. How to track down an Oops.. [originally a mail to linux-kernel]
  45. The main trick is having 5 years of experience with those pesky oops 
  46. messages ;-)
  47. Actually, there are things you can do that make this easier. I have two 
  48. separate approaches:
  49. gdb /usr/src/linux/vmlinux
  50. gdb> disassemble <offending_function>
  51. That's the easy way to find the problem, at least if the bug-report is 
  52. well made (like this one was - run through ksymoops to get the 
  53. information of which function and the offset in the function that it 
  54. happened in).
  55. Oh, it helps if the report happens on a kernel that is compiled with the 
  56. same compiler and similar setups.
  57. The other thing to do is disassemble the "Code:" part of the bug report: 
  58. ksymoops will do this too with the correct tools, but if you don't have
  59. the tools you can just do a silly program:
  60. char str[] = "xXXxXXxXX...";
  61. main(){}
  62. and compile it with gcc -g and then do "disassemble str" (where the "XX" 
  63. stuff are the values reported by the Oops - you can just cut-and-paste 
  64. and do a replace of spaces to "x" - that's what I do, as I'm too lazy 
  65. to write a program to automate this all).
  66. Finally, if you want to see where the code comes from, you can do
  67. cd /usr/src/linux
  68. make fs/buffer.s  # or whatever file the bug happened in
  69. and then you get a better idea of what happens than with the gdb 
  70. disassembly.
  71. Now, the trick is just then to combine all the data you have: the C 
  72. sources (and general knowledge of what it _should_ do), the assembly 
  73. listing and the code disassembly (and additionally the register dump you 
  74. also get from the "oops" message - that can be useful to see _what_ the 
  75. corrupted pointers were, and when you have the assembler listing you can 
  76. also match the other registers to whatever C expressions they were used 
  77. for).
  78. Essentially, you just look at what doesn't match (in this case it was the 
  79. "Code" disassembly that didn't match with what the compiler generated). 
  80. Then you need to find out _why_ they don't match. Often it's simple - you 
  81. see that the code uses a NULL pointer and then you look at the code and 
  82. wonder how the NULL pointer got there, and if it's a valid thing to do 
  83. you just check against it..
  84. Now, if somebody gets the idea that this is time-consuming and requires 
  85. some small amount of concentration, you're right. Which is why I will 
  86. mostly just ignore any panic reports that don't have the symbol table 
  87. info etc looked up: it simply gets too hard to look it up (I have some 
  88. programs to search for specific patterns in the kernel code segment, and 
  89. sometimes I have been able to look up those kinds of panics too, but 
  90. that really requires pretty good knowledge of the kernel just to be able 
  91. to pick out the right sequences etc..)
  92. _Sometimes_ it happens that I just see the disassembled code sequence 
  93. from the panic, and I know immediately where it's coming from. That's when 
  94. I get worried that I've been doing this for too long ;-)
  95. Linus
  96. ---------------------------------------------------------------------------
  97. Notes on Oops tracing with klogd:
  98. In order to help Linus and the other kernel developers there has been
  99. substantial support incorporated into klogd for processing protection
  100. faults.  In order to have full support for address resolution at least
  101. version 1.3-pl3 of the sysklogd package should be used.
  102. When a protection fault occurs the klogd daemon automatically
  103. translates important addresses in the kernel log messages to their
  104. symbolic equivalents.  This translated kernel message is then
  105. forwarded through whatever reporting mechanism klogd is using.  The
  106. protection fault message can be simply cut out of the message files
  107. and forwarded to the kernel developers.
  108. Two types of address resolution are performed by klogd.  The first is
  109. static translation and the second is dynamic translation.  Static
  110. translation uses the System.map file in much the same manner that
  111. ksymoops does.  In order to do static translation the klogd daemon
  112. must be able to find a system map file at daemon initialization time.
  113. See the klogd man page for information on how klogd searches for map
  114. files.
  115. Dynamic address translation is important when kernel loadable modules
  116. are being used.  Since memory for kernel modules is allocated from the
  117. kernel's dynamic memory pools there are no fixed locations for either
  118. the start of the module or for functions and symbols in the module.
  119. The kernel supports system calls which allow a program to determine
  120. which modules are loaded and their location in memory.  Using these
  121. system calls the klogd daemon builds a symbol table which can be used
  122. to debug a protection fault which occurs in a loadable kernel module.
  123. At the very minimum klogd will provide the name of the module which
  124. generated the protection fault.  There may be additional symbolic
  125. information available if the developer of the loadable module chose to
  126. export symbol information from the module.
  127. Since the kernel module environment can be dynamic there must be a
  128. mechanism for notifying the klogd daemon when a change in module
  129. environment occurs.  There are command line options available which
  130. allow klogd to signal the currently executing daemon that symbol
  131. information should be refreshed.  See the klogd manual page for more
  132. information.
  133. A patch is included with the sysklogd distribution which modifies the
  134. modules-2.0.0 package to automatically signal klogd whenever a module
  135. is loaded or unloaded.  Applying this patch provides essentially
  136. seamless support for debugging protection faults which occur with
  137. kernel loadable modules.
  138. The following is an example of a protection fault in a loadable module
  139. processed by klogd:
  140. ---------------------------------------------------------------------------
  141. Aug 29 09:51:01 blizard kernel: Unable to handle kernel paging request at virtual address f15e97cc
  142. Aug 29 09:51:01 blizard kernel: current->tss.cr3 = 0062d000, %cr3 = 0062d000
  143. Aug 29 09:51:01 blizard kernel: *pde = 00000000
  144. Aug 29 09:51:01 blizard kernel: Oops: 0002
  145. Aug 29 09:51:01 blizard kernel: CPU:    0
  146. Aug 29 09:51:01 blizard kernel: EIP:    0010:[oops:_oops+16/3868]
  147. Aug 29 09:51:01 blizard kernel: EFLAGS: 00010212
  148. Aug 29 09:51:01 blizard kernel: eax: 315e97cc   ebx: 003a6f80   ecx: 001be77b   edx: 00237c0c
  149. Aug 29 09:51:01 blizard kernel: esi: 00000000   edi: bffffdb3   ebp: 00589f90   esp: 00589f8c
  150. Aug 29 09:51:01 blizard kernel: ds: 0018   es: 0018   fs: 002b   gs: 002b   ss: 0018
  151. Aug 29 09:51:01 blizard kernel: Process oops_test (pid: 3374, process nr: 21, stackpage=00589000)
  152. Aug 29 09:51:01 blizard kernel: Stack: 315e97cc 00589f98 0100b0b4 bffffed4 0012e38e 00240c64 003a6f80 00000001 
  153. Aug 29 09:51:01 blizard kernel:        00000000 00237810 bfffff00 0010a7fa 00000003 00000001 00000000 bfffff00 
  154. Aug 29 09:51:01 blizard kernel:        bffffdb3 bffffed4 ffffffda 0000002b 0007002b 0000002b 0000002b 00000036 
  155. Aug 29 09:51:01 blizard kernel: Call Trace: [oops:_oops_ioctl+48/80] [_sys_ioctl+254/272] [_system_call+82/128] 
  156. Aug 29 09:51:01 blizard kernel: Code: c7 00 05 00 00 00 eb 08 90 90 90 90 90 90 90 90 89 ec 5d c3 
  157. ---------------------------------------------------------------------------
  158. Dr. G.W. Wettstein           Oncology Research Div. Computing Facility
  159. Roger Maris Cancer Center    INTERNET: greg@wind.rmcc.com
  160. 820 4th St. N.
  161. Fargo, ND  58122
  162. Phone: 701-234-7556
  163. ---------------------------------------------------------------------------
  164. Tainted kernels:
  165. Some oops reports contain the string 'Tainted: ' after the program
  166. counter, this indicates that the kernel has been tainted by some
  167. mechanism.  The string is followed by a series of position sensitive
  168. characters, each representing a particular tainted value.
  169.   1: 'G' if all modules loaded have a GPL or compatible license, 'P' if
  170.      any proprietary module has been loaded.  Modules without a
  171.      MODULE_LICENSE or with a MODULE_LICENSE that is not recognised by
  172.      insmod as GPL compatible are assumed to be proprietary.
  173.   2: 'F' if any module was force loaded by insmod -f, ' ' if all
  174.      modules were loaded normally.
  175. The primary reason for the 'Tainted: ' string is to tell kernel
  176. debuggers if this is a clean kernel or if anything unusual has
  177. occurred.  Tainting is permanent, even if an offending module is
  178. unloading the tainted value remains to indicate that the kernel is not
  179. trustworthy.