uaccess.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:11k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. #ifndef _ASM_IA64_UACCESS_H
  2. #define _ASM_IA64_UACCESS_H
  3. /*
  4.  * This file defines various macros to transfer memory areas across
  5.  * the user/kernel boundary.  This needs to be done carefully because
  6.  * this code is executed in kernel mode and uses user-specified
  7.  * addresses.  Thus, we need to be careful not to let the user to
  8.  * trick us into accessing kernel memory that would normally be
  9.  * inaccessible.  This code is also fairly performance sensitive,
  10.  * so we want to spend as little time doing saftey checks as
  11.  * possible.
  12.  *
  13.  * To make matters a bit more interesting, these macros sometimes also
  14.  * called from within the kernel itself, in which case the address
  15.  * validity check must be skipped.  The get_fs() macro tells us what
  16.  * to do: if get_fs()==USER_DS, checking is performed, if
  17.  * get_fs()==KERNEL_DS, checking is bypassed.
  18.  *
  19.  * Note that even if the memory area specified by the user is in a
  20.  * valid address range, it is still possible that we'll get a page
  21.  * fault while accessing it.  This is handled by filling out an
  22.  * exception handler fixup entry for each instruction that has the
  23.  * potential to fault.  When such a fault occurs, the page fault
  24.  * handler checks to see whether the faulting instruction has a fixup
  25.  * associated and, if so, sets r8 to -EFAULT and clears r9 to 0 and
  26.  * then resumes execution at the continuation point.
  27.  *
  28.  * Copyright (C) 1998, 1999, 2001 Hewlett-Packard Co
  29.  * Copyright (C) 1998, 1999, 2001 David Mosberger-Tang <davidm@hpl.hp.com>
  30.  */
  31. #include <linux/errno.h>
  32. #include <linux/sched.h>
  33. #include <asm/pgtable.h>
  34. /*
  35.  * For historical reasons, the following macros are grossly misnamed:
  36.  */
  37. #define KERNEL_DS ((mm_segment_t) { ~0UL }) /* cf. access_ok() */
  38. #define USER_DS ((mm_segment_t) { TASK_SIZE-1 }) /* cf. access_ok() */
  39. #define VERIFY_READ 0
  40. #define VERIFY_WRITE 1
  41. #define get_ds()  (KERNEL_DS)
  42. #define get_fs()  (current->addr_limit)
  43. #define set_fs(x) (current->addr_limit = (x))
  44. #define segment_eq(a,b) ((a).seg == (b).seg)
  45. /*
  46.  * When accessing user memory, we need to make sure the entire area really is in
  47.  * user-level space.  In order to do this efficiently, we make sure that the page at
  48.  * address TASK_SIZE is never valid.  We also need to make sure that the address doesn't
  49.  * point inside the virtually mapped linear page table.
  50.  */
  51. #define __access_ok(addr,size,segment) (((unsigned long) (addr)) <= (segment).seg
  52.  && ((segment).seg == KERNEL_DS.seg || rgn_offset((unsigned long) (addr)) < RGN_MAP_LIMIT))
  53. #define access_ok(type,addr,size) __access_ok((addr),(size),get_fs())
  54. static inline int
  55. verify_area (int type, const void *addr, unsigned long size)
  56. {
  57. return access_ok(type,addr,size) ? 0 : -EFAULT;
  58. }
  59. /*
  60.  * These are the main single-value transfer routines.  They automatically
  61.  * use the right size if we just have the right pointer type.
  62.  *
  63.  * Careful to not
  64.  * (a) re-use the arguments for side effects (sizeof/typeof is ok)
  65.  * (b) require any knowledge of processes at this stage
  66.  */
  67. #define put_user(x,ptr) __put_user_check((__typeof__(*(ptr)))(x),(ptr),sizeof(*(ptr)),get_fs())
  68. #define get_user(x,ptr) __get_user_check((x),(ptr),sizeof(*(ptr)),get_fs())
  69. /*
  70.  * The "__xxx" versions do not do address space checking, useful when
  71.  * doing multiple accesses to the same area (the programmer has to do the
  72.  * checks by hand with "access_ok()")
  73.  */
  74. #define __put_user(x,ptr) __put_user_nocheck((__typeof__(*(ptr)))(x),(ptr),sizeof(*(ptr)))
  75. #define __get_user(x,ptr) __get_user_nocheck((x),(ptr),sizeof(*(ptr)))
  76. extern void __get_user_unknown (void);
  77. #define __get_user_nocheck(x,ptr,size)
  78. ({
  79. register long __gu_err asm ("r8") = 0;
  80. register long __gu_val asm ("r9") = 0;
  81. switch (size) {
  82.   case 1: __get_user_8(ptr); break;
  83.   case 2: __get_user_16(ptr); break;
  84.   case 4: __get_user_32(ptr); break;
  85.   case 8: __get_user_64(ptr); break;
  86.   default: __get_user_unknown(); break;
  87. }
  88. (x) = (__typeof__(*(ptr))) __gu_val;
  89. __gu_err;
  90. })
  91. #define __get_user_check(x,ptr,size,segment)
  92. ({
  93. register long __gu_err asm ("r8") = -EFAULT;
  94. register long __gu_val asm ("r9") = 0;
  95. const __typeof__(*(ptr)) *__gu_addr = (ptr);
  96. if (__access_ok((long)__gu_addr,size,segment)) {
  97. __gu_err = 0;
  98. switch (size) {
  99.   case 1: __get_user_8(__gu_addr); break;
  100.   case 2: __get_user_16(__gu_addr); break;
  101.   case 4: __get_user_32(__gu_addr); break;
  102.   case 8: __get_user_64(__gu_addr); break;
  103.   default: __get_user_unknown(); break;
  104. }
  105. }
  106. (x) = (__typeof__(*(ptr))) __gu_val;
  107. __gu_err;
  108. })
  109. struct __large_struct { unsigned long buf[100]; };
  110. #define __m(x) (*(struct __large_struct *)(x))
  111. /* We need to declare the __ex_table section before we can use it in .xdata.  */
  112. asm (".section "__ex_table", "a"nt.previous");
  113. #if __GNUC__ >= 3
  114. #  define GAS_HAS_LOCAL_TAGS /* define if gas supports local tags a la [1:] */
  115. #endif
  116. #ifdef GAS_HAS_LOCAL_TAGS
  117. # define _LL "[1:]"
  118. #else
  119. # define _LL "1:"
  120. #endif
  121. #define __get_user_64(addr)
  122. asm ("n"_LL"tld8 %0=%2%P2t// %0 and %1 get overwritten by exception handlern"
  123.      "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)+4n"
  124.      _LL
  125.      : "=r"(__gu_val), "=r"(__gu_err) : "m"(__m(addr)), "1"(__gu_err));
  126. #define __get_user_32(addr)
  127. asm ("n"_LL"tld4 %0=%2%P2t// %0 and %1 get overwritten by exception handlern"
  128.      "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)+4n"
  129.      _LL
  130.      : "=r"(__gu_val), "=r"(__gu_err) : "m"(__m(addr)), "1"(__gu_err));
  131. #define __get_user_16(addr)
  132. asm ("n"_LL"tld2 %0=%2%P2t// %0 and %1 get overwritten by exception handlern"
  133.      "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)+4n"
  134.      _LL
  135.      : "=r"(__gu_val), "=r"(__gu_err) : "m"(__m(addr)), "1"(__gu_err));
  136. #define __get_user_8(addr)
  137. asm ("n"_LL"tld1 %0=%2%P2t// %0 and %1 get overwritten by exception handlern"
  138.      "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)+4n"
  139.      _LL
  140.      : "=r"(__gu_val), "=r"(__gu_err) : "m"(__m(addr)), "1"(__gu_err));
  141. extern void __put_user_unknown (void);
  142. #define __put_user_nocheck(x,ptr,size)
  143. ({
  144. register long __pu_err asm ("r8") = 0;
  145. switch (size) {
  146.   case 1: __put_user_8(x,ptr); break;
  147.   case 2: __put_user_16(x,ptr); break;
  148.   case 4: __put_user_32(x,ptr); break;
  149.   case 8: __put_user_64(x,ptr); break;
  150.   default: __put_user_unknown(); break;
  151. }
  152. __pu_err;
  153. })
  154. #define __put_user_check(x,ptr,size,segment)
  155. ({
  156. register long __pu_err asm ("r8") = -EFAULT;
  157. __typeof__(*(ptr)) *__pu_addr = (ptr);
  158. if (__access_ok((long)__pu_addr,size,segment)) {
  159. __pu_err = 0;
  160. switch (size) {
  161.   case 1: __put_user_8(x,__pu_addr); break;
  162.   case 2: __put_user_16(x,__pu_addr); break;
  163.   case 4: __put_user_32(x,__pu_addr); break;
  164.   case 8: __put_user_64(x,__pu_addr); break;
  165.   default: __put_user_unknown(); break;
  166. }
  167. }
  168. __pu_err;
  169. })
  170. /*
  171.  * The "__put_user_xx()" macros tell gcc they read from memory
  172.  * instead of writing: this is because they do not write to
  173.  * any memory gcc knows about, so there are no aliasing issues
  174.  */
  175. #define __put_user_64(x,addr)
  176. asm volatile (
  177. "n"_LL"tst8 %1=%r2%P1t// %0 gets overwritten by exception handlern"
  178. "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)n"
  179. _LL
  180. : "=r"(__pu_err) : "m"(__m(addr)), "rO"(x), "0"(__pu_err))
  181. #define __put_user_32(x,addr)
  182. asm volatile (
  183. "n"_LL"tst4 %1=%r2%P1t// %0 gets overwritten by exception handlern"
  184. "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)n"
  185. _LL
  186. : "=r"(__pu_err) : "m"(__m(addr)), "rO"(x), "0"(__pu_err))
  187. #define __put_user_16(x,addr)
  188. asm volatile (
  189. "n"_LL"tst2 %1=%r2%P1t// %0 gets overwritten by exception handlern"
  190. "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)n"
  191. _LL
  192. : "=r"(__pu_err) : "m"(__m(addr)), "rO"(x), "0"(__pu_err))
  193. #define __put_user_8(x,addr)
  194. asm volatile (
  195. "n"_LL"tst1 %1=%r2%P1t// %0 gets overwritten by exception handlern"
  196. "t.xdata4 "__ex_table", @gprel(1b), @gprel(1f)n"
  197. _LL
  198. : "=r"(__pu_err) : "m"(__m(addr)), "rO"(x), "0"(__pu_err))
  199. /*
  200.  * Complex access routines
  201.  */
  202. extern unsigned long __copy_user (void *to, const void *from, unsigned long count);
  203. #define __copy_to_user(to,from,n) __copy_user((to), (from), (n))
  204. #define __copy_from_user(to,from,n) __copy_user((to), (from), (n))
  205. #define copy_to_user(to,from,n)   __copy_tofrom_user((to), (from), (n), 1)
  206. #define copy_from_user(to,from,n) __copy_tofrom_user((to), (from), (n), 0)
  207. #define __copy_tofrom_user(to,from,n,check_to)
  208. ({
  209. void *__cu_to = (to);
  210. const void *__cu_from = (from);
  211. long __cu_len = (n);
  212. if (__access_ok((long) ((check_to) ? __cu_to : __cu_from), __cu_len, get_fs())) {
  213. __cu_len = __copy_user(__cu_to, __cu_from, __cu_len);
  214. }
  215. __cu_len;
  216. })
  217. extern unsigned long __do_clear_user (void *, unsigned long);
  218. #define __clear_user(to,n)
  219. ({
  220. __do_clear_user(to,n);
  221. })
  222. #define clear_user(to,n)
  223. ({
  224. unsigned long __cu_len = (n);
  225. if (__access_ok((long) to, __cu_len, get_fs())) {
  226. __cu_len = __do_clear_user(to, __cu_len);
  227. }
  228. __cu_len;
  229. })
  230. /* Returns: -EFAULT if exception before terminator, N if the entire
  231.    buffer filled, else strlen.  */
  232. extern long __strncpy_from_user (char *to, const char *from, long to_len);
  233. #define strncpy_from_user(to,from,n)
  234. ({
  235. const char * __sfu_from = (from);
  236. long __sfu_ret = -EFAULT;
  237. if (__access_ok((long) __sfu_from, 0, get_fs()))
  238. __sfu_ret = __strncpy_from_user((to), __sfu_from, (n));
  239. __sfu_ret;
  240. })
  241. /* Returns: 0 if bad, string length+1 (memory size) of string if ok */
  242. extern unsigned long __strlen_user (const char *);
  243. #define strlen_user(str)
  244. ({
  245. const char *__su_str = (str);
  246. unsigned long __su_ret = 0;
  247. if (__access_ok((long) __su_str, 0, get_fs()))
  248. __su_ret = __strlen_user(__su_str);
  249. __su_ret;
  250. })
  251. /*
  252.  * Returns: 0 if exception before NUL or reaching the supplied limit
  253.  * (N), a value greater than N if the limit would be exceeded, else
  254.  * strlen.
  255.  */
  256. extern unsigned long __strnlen_user (const char *, long);
  257. #define strnlen_user(str, len)
  258. ({
  259. const char *__su_str = (str);
  260. unsigned long __su_ret = 0;
  261. if (__access_ok((long) __su_str, 0, get_fs()))
  262. __su_ret = __strnlen_user(__su_str, len);
  263. __su_ret;
  264. })
  265. struct exception_table_entry {
  266. int addr; /* gp-relative address of insn this fixup is for */
  267. int cont; /* gp-relative continuation address; if bit 2 is set, r9 is set to 0 */
  268. };
  269. struct exception_fixup {
  270. unsigned long cont; /* continuation point (bit 2: clear r9 if set) */
  271. };
  272. extern struct exception_fixup search_exception_table (unsigned long addr);
  273. extern void handle_exception (struct pt_regs *regs, struct exception_fixup fixup);
  274. #endif /* _ASM_IA64_UACCESS_H */