ffb_drv.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:24k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* $Id: ffb_drv.c,v 1.14 2001/05/24 12:01:47 davem Exp $
  2.  * ffb_drv.c: Creator/Creator3D direct rendering driver.
  3.  *
  4.  * Copyright (C) 2000 David S. Miller (davem@redhat.com)
  5.  */
  6. #include "drmP.h"
  7. #include <linux/sched.h>
  8. #include <linux/smp_lock.h>
  9. #include <asm/shmparam.h>
  10. #include <asm/oplib.h>
  11. #include <asm/upa.h>
  12. #include "ffb_drv.h"
  13. #define FFB_NAME "ffb"
  14. #define FFB_DESC "Creator/Creator3D"
  15. #define FFB_DATE "20000517"
  16. #define FFB_MAJOR 0
  17. #define FFB_MINOR 0
  18. #define FFB_PATCHLEVEL 1
  19. /* Forward declarations. */
  20. int  ffb_init(void);
  21. void ffb_cleanup(void);
  22. static int  ffb_version(struct inode *inode, struct file *filp,
  23. unsigned int cmd, unsigned long arg);
  24. static int  ffb_open(struct inode *inode, struct file *filp);
  25. static int  ffb_release(struct inode *inode, struct file *filp);
  26. static int  ffb_ioctl(struct inode *inode, struct file *filp,
  27.       unsigned int cmd, unsigned long arg);
  28. static int  ffb_lock(struct inode *inode, struct file *filp,
  29.      unsigned int cmd, unsigned long arg);
  30. static int  ffb_unlock(struct inode *inode, struct file *filp,
  31.        unsigned int cmd, unsigned long arg);
  32. static int ffb_mmap(struct file *filp, struct vm_area_struct *vma);
  33. static unsigned long ffb_get_unmapped_area(struct file *, unsigned long, unsigned long, unsigned long, unsigned long);
  34. /* From ffb_context.c */
  35. extern int ffb_resctx(struct inode *, struct file *, unsigned int, unsigned long);
  36. extern int ffb_addctx(struct inode *, struct file *, unsigned int, unsigned long);
  37. extern int ffb_modctx(struct inode *, struct file *, unsigned int, unsigned long);
  38. extern int ffb_getctx(struct inode *, struct file *, unsigned int, unsigned long);
  39. extern int ffb_switchctx(struct inode *, struct file *, unsigned int, unsigned long);
  40. extern int ffb_newctx(struct inode *, struct file *, unsigned int, unsigned long);
  41. extern int ffb_rmctx(struct inode *, struct file *, unsigned int, unsigned long);
  42. extern int ffb_context_switch(drm_device_t *, int, int);
  43. static struct file_operations ffb_fops = {
  44. owner: THIS_MODULE,
  45. open: ffb_open,
  46. flush: drm_flush,
  47. release: ffb_release,
  48. ioctl: ffb_ioctl,
  49. mmap: ffb_mmap,
  50. read: drm_read,
  51. fasync: drm_fasync,
  52. poll: drm_poll,
  53. get_unmapped_area: ffb_get_unmapped_area,
  54. };
  55. /* This is just a template, we make a new copy for each FFB
  56.  * we discover at init time so that each one gets a unique
  57.  * misc device minor number.
  58.  */
  59. static struct miscdevice ffb_misc = {
  60. minor: MISC_DYNAMIC_MINOR,
  61. name: FFB_NAME,
  62. fops: &ffb_fops,
  63. };
  64. static drm_ioctl_desc_t ffb_ioctls[] = {
  65. [DRM_IOCTL_NR(DRM_IOCTL_VERSION)]    = { ffb_version,   0, 0 },
  66. [DRM_IOCTL_NR(DRM_IOCTL_GET_UNIQUE)] = { drm_getunique,   0, 0 },
  67. [DRM_IOCTL_NR(DRM_IOCTL_GET_MAGIC)]  = { drm_getmagic,   0, 0 },
  68. [DRM_IOCTL_NR(DRM_IOCTL_IRQ_BUSID)]  = { drm_irq_busid,   0, 1 }, /* XXX */
  69. [DRM_IOCTL_NR(DRM_IOCTL_SET_UNIQUE)] = { drm_setunique,   1, 1 },
  70. [DRM_IOCTL_NR(DRM_IOCTL_BLOCK)]      = { drm_block,   1, 1 },
  71. [DRM_IOCTL_NR(DRM_IOCTL_UNBLOCK)]    = { drm_unblock,   1, 1 },
  72. [DRM_IOCTL_NR(DRM_IOCTL_AUTH_MAGIC)] = { drm_authmagic,   1, 1 },
  73. [DRM_IOCTL_NR(DRM_IOCTL_ADD_MAP)]    = { drm_addmap,   1, 1 },
  74. /* The implementation is currently a nop just like on tdfx.
  75.  * Later we can do something more clever. -DaveM
  76.  */
  77. [DRM_IOCTL_NR(DRM_IOCTL_ADD_CTX)]    = { ffb_addctx,   1, 1 },
  78. [DRM_IOCTL_NR(DRM_IOCTL_RM_CTX)]     = { ffb_rmctx,   1, 1 },
  79. [DRM_IOCTL_NR(DRM_IOCTL_MOD_CTX)]    = { ffb_modctx,   1, 1 },
  80. [DRM_IOCTL_NR(DRM_IOCTL_GET_CTX)]    = { ffb_getctx,   1, 0 },
  81. [DRM_IOCTL_NR(DRM_IOCTL_SWITCH_CTX)] = { ffb_switchctx,   1, 1 },
  82. [DRM_IOCTL_NR(DRM_IOCTL_NEW_CTX)]    = { ffb_newctx,   1, 1 },
  83. [DRM_IOCTL_NR(DRM_IOCTL_RES_CTX)]    = { ffb_resctx,   1, 0 },
  84. [DRM_IOCTL_NR(DRM_IOCTL_ADD_DRAW)]   = { drm_adddraw,   1, 1 },
  85. [DRM_IOCTL_NR(DRM_IOCTL_RM_DRAW)]    = { drm_rmdraw,   1, 1 },
  86. [DRM_IOCTL_NR(DRM_IOCTL_LOCK)]      = { ffb_lock,   1, 0 },
  87. [DRM_IOCTL_NR(DRM_IOCTL_UNLOCK)]     = { ffb_unlock,   1, 0 },
  88. [DRM_IOCTL_NR(DRM_IOCTL_FINISH)]     = { drm_finish,   1, 0 },
  89. };
  90. #define FFB_IOCTL_COUNT DRM_ARRAY_SIZE(ffb_ioctls)
  91. #ifdef MODULE
  92. static char *ffb = NULL;
  93. #endif
  94. MODULE_AUTHOR("David S. Miller (davem@redhat.com)");
  95. MODULE_DESCRIPTION("Sun Creator/Creator3D DRI");
  96. MODULE_LICENSE("GPL");
  97. static int ffb_takedown(drm_device_t *dev)
  98. {
  99. int   i;
  100. drm_magic_entry_t *pt, *next;
  101. drm_map_t   *map;
  102. drm_vma_entry_t   *vma, *vma_next;
  103. DRM_DEBUG("n");
  104. down(&dev->struct_sem);
  105. del_timer(&dev->timer);
  106. if (dev->devname) {
  107. drm_free(dev->devname, strlen(dev->devname)+1, DRM_MEM_DRIVER);
  108. dev->devname = NULL;
  109. }
  110. if (dev->unique) {
  111. drm_free(dev->unique, strlen(dev->unique)+1, DRM_MEM_DRIVER);
  112. dev->unique = NULL;
  113. dev->unique_len = 0;
  114. }
  115. /* Clear pid list */
  116. for (i = 0; i < DRM_HASH_SIZE; i++) {
  117. for (pt = dev->magiclist[i].head; pt; pt = next) {
  118. next = pt->next;
  119. drm_free(pt, sizeof(*pt), DRM_MEM_MAGIC);
  120. }
  121. dev->magiclist[i].head = dev->magiclist[i].tail = NULL;
  122. }
  123. /* Clear vma list (only built for debugging) */
  124. if (dev->vmalist) {
  125. for (vma = dev->vmalist; vma; vma = vma_next) {
  126. vma_next = vma->next;
  127. drm_free(vma, sizeof(*vma), DRM_MEM_VMAS);
  128. }
  129. dev->vmalist = NULL;
  130. }
  131. /* Clear map area information */
  132. if (dev->maplist) {
  133. for (i = 0; i < dev->map_count; i++) {
  134. map = dev->maplist[i];
  135. switch (map->type) {
  136. case _DRM_REGISTERS:
  137. case _DRM_FRAME_BUFFER:
  138. drm_ioremapfree(map->handle, map->size);
  139. break;
  140. case _DRM_SHM:
  141. drm_free_pages((unsigned long)map->handle,
  142.        drm_order(map->size)
  143.        - PAGE_SHIFT,
  144.        DRM_MEM_SAREA);
  145. break;
  146. default:
  147. break;
  148. };
  149. drm_free(map, sizeof(*map), DRM_MEM_MAPS);
  150. }
  151. drm_free(dev->maplist,
  152.  dev->map_count * sizeof(*dev->maplist),
  153.  DRM_MEM_MAPS);
  154. dev->maplist   = NULL;
  155. dev->map_count = 0;
  156. }
  157. if (dev->lock.hw_lock) {
  158. dev->lock.hw_lock    = NULL; /* SHM removed */
  159. dev->lock.pid      = 0;
  160. wake_up_interruptible(&dev->lock.lock_queue);
  161. }
  162. up(&dev->struct_sem);
  163. return 0;
  164. }
  165. drm_device_t **ffb_dev_table;
  166. static int ffb_dev_table_size;
  167. static void get_ffb_type(ffb_dev_priv_t *ffb_priv, int instance)
  168. {
  169. volatile unsigned char *strap_bits;
  170. unsigned char val;
  171. strap_bits = (volatile unsigned char *)
  172. (ffb_priv->card_phys_base + 0x00200000UL);
  173. /* Don't ask, you have to read the value twice for whatever
  174.  * reason to get correct contents.
  175.  */
  176. val = upa_readb(strap_bits);
  177. val = upa_readb(strap_bits);
  178. switch (val & 0x78) {
  179. case (0x0 << 5) | (0x0 << 3):
  180. ffb_priv->ffb_type = ffb1_prototype;
  181. printk("ffb%d: Detected FFB1 pre-FCS prototypen", instance);
  182. break;
  183. case (0x0 << 5) | (0x1 << 3):
  184. ffb_priv->ffb_type = ffb1_standard;
  185. printk("ffb%d: Detected FFB1n", instance);
  186. break;
  187. case (0x0 << 5) | (0x3 << 3):
  188. ffb_priv->ffb_type = ffb1_speedsort;
  189. printk("ffb%d: Detected FFB1-SpeedSortn", instance);
  190. break;
  191. case (0x1 << 5) | (0x0 << 3):
  192. ffb_priv->ffb_type = ffb2_prototype;
  193. printk("ffb%d: Detected FFB2/vertical pre-FCS prototypen", instance);
  194. break;
  195. case (0x1 << 5) | (0x1 << 3):
  196. ffb_priv->ffb_type = ffb2_vertical;
  197. printk("ffb%d: Detected FFB2/verticaln", instance);
  198. break;
  199. case (0x1 << 5) | (0x2 << 3):
  200. ffb_priv->ffb_type = ffb2_vertical_plus;
  201. printk("ffb%d: Detected FFB2+/verticaln", instance);
  202. break;
  203. case (0x2 << 5) | (0x0 << 3):
  204. ffb_priv->ffb_type = ffb2_horizontal;
  205. printk("ffb%d: Detected FFB2/horizontaln", instance);
  206. break;
  207. case (0x2 << 5) | (0x2 << 3):
  208. ffb_priv->ffb_type = ffb2_horizontal;
  209. printk("ffb%d: Detected FFB2+/horizontaln", instance);
  210. break;
  211. default:
  212. ffb_priv->ffb_type = ffb2_vertical;
  213. printk("ffb%d: Unknown boardID[%08x], assuming FFB2n", instance, val);
  214. break;
  215. };
  216. }
  217. static void __init ffb_apply_upa_parent_ranges(int parent, struct linux_prom64_registers *regs)
  218. {
  219. struct linux_prom64_ranges ranges[PROMREG_MAX];
  220. char name[128];
  221. int len, i;
  222. prom_getproperty(parent, "name", name, sizeof(name));
  223. if (strcmp(name, "upa") != 0)
  224. return;
  225. len = prom_getproperty(parent, "ranges", (void *) ranges, sizeof(ranges));
  226. if (len <= 0)
  227. return;
  228. len /= sizeof(struct linux_prom64_ranges);
  229. for (i = 0; i < len; i++) {
  230. struct linux_prom64_ranges *rng = &ranges[i];
  231. u64 phys_addr = regs->phys_addr;
  232. if (phys_addr >= rng->ot_child_base &&
  233.     phys_addr < (rng->ot_child_base + rng->or_size)) {
  234. regs->phys_addr -= rng->ot_child_base;
  235. regs->phys_addr += rng->ot_parent_base;
  236. return;
  237. }
  238. }
  239. return;
  240. }
  241. static int __init ffb_init_one(int prom_node, int parent_node, int instance)
  242. {
  243. struct linux_prom64_registers regs[2*PROMREG_MAX];
  244. drm_device_t *dev;
  245. ffb_dev_priv_t *ffb_priv;
  246. int ret, i;
  247. dev = kmalloc(sizeof(drm_device_t) + sizeof(ffb_dev_priv_t), GFP_KERNEL);
  248. if (!dev)
  249. return -ENOMEM;
  250. memset(dev, 0, sizeof(*dev));
  251. spin_lock_init(&dev->count_lock);
  252. sema_init(&dev->struct_sem, 1);
  253. ffb_priv = (ffb_dev_priv_t *) (dev + 1);
  254. ffb_priv->prom_node = prom_node;
  255. if (prom_getproperty(ffb_priv->prom_node, "reg",
  256.      (void *)regs, sizeof(regs)) <= 0) {
  257. kfree(dev);
  258. return -EINVAL;
  259. }
  260. ffb_apply_upa_parent_ranges(parent_node, &regs[0]);
  261. ffb_priv->card_phys_base = regs[0].phys_addr;
  262. ffb_priv->regs = (ffb_fbcPtr)
  263. (regs[0].phys_addr + 0x00600000UL);
  264. get_ffb_type(ffb_priv, instance);
  265. for (i = 0; i < FFB_MAX_CTXS; i++)
  266. ffb_priv->hw_state[i] = NULL;
  267. ffb_dev_table[instance] = dev;
  268. #ifdef MODULE
  269. drm_parse_options(ffb);
  270. #endif
  271. memcpy(&ffb_priv->miscdev, &ffb_misc, sizeof(ffb_misc));
  272. ret = misc_register(&ffb_priv->miscdev);
  273. if (ret) {
  274. ffb_dev_table[instance] = NULL;
  275. kfree(dev);
  276. return ret;
  277. }
  278. dev->device = MKDEV(MISC_MAJOR, ffb_priv->miscdev.minor);
  279. dev->name = FFB_NAME;
  280. drm_mem_init();
  281. drm_proc_init(dev);
  282. DRM_INFO("Initialized %s %d.%d.%d %s on minor %d at %016lxn",
  283.  FFB_NAME,
  284.  FFB_MAJOR,
  285.  FFB_MINOR,
  286.  FFB_PATCHLEVEL,
  287.  FFB_DATE,
  288.  ffb_priv->miscdev.minor,
  289.  ffb_priv->card_phys_base);
  290. return 0;
  291. }
  292. static int __init ffb_count_siblings(int root)
  293. {
  294. int node, child, count = 0;
  295. child = prom_getchild(root);
  296. for (node = prom_searchsiblings(child, "SUNW,ffb"); node;
  297.      node = prom_searchsiblings(prom_getsibling(node), "SUNW,ffb"))
  298. count++;
  299. return count;
  300. }
  301. static int __init ffb_init_dev_table(void)
  302. {
  303. int root, total;
  304. total = ffb_count_siblings(prom_root_node);
  305. root = prom_getchild(prom_root_node);
  306. for (root = prom_searchsiblings(root, "upa"); root;
  307.      root = prom_searchsiblings(prom_getsibling(root), "upa"))
  308. total += ffb_count_siblings(root);
  309. if (!total)
  310. return -ENODEV;
  311. ffb_dev_table = kmalloc(sizeof(drm_device_t *) * total, GFP_KERNEL);
  312. if (!ffb_dev_table)
  313. return -ENOMEM;
  314. ffb_dev_table_size = total;
  315. return 0;
  316. }
  317. static int __init ffb_scan_siblings(int root, int instance)
  318. {
  319. int node, child;
  320. child = prom_getchild(root);
  321. for (node = prom_searchsiblings(child, "SUNW,ffb"); node;
  322.      node = prom_searchsiblings(prom_getsibling(node), "SUNW,ffb")) {
  323. ffb_init_one(node, root, instance);
  324. instance++;
  325. }
  326. return instance;
  327. }
  328. int __init ffb_init(void)
  329. {
  330. int root, instance, ret;
  331. ret = ffb_init_dev_table();
  332. if (ret)
  333. return ret;
  334. instance = ffb_scan_siblings(prom_root_node, 0);
  335. root = prom_getchild(prom_root_node);
  336. for (root = prom_searchsiblings(root, "upa"); root;
  337.      root = prom_searchsiblings(prom_getsibling(root), "upa"))
  338. instance = ffb_scan_siblings(root, instance);
  339. return 0;
  340. }
  341. void __exit ffb_cleanup(void)
  342. {
  343. int instance;
  344. DRM_DEBUG("n");
  345. drm_proc_cleanup();
  346. for (instance = 0; instance < ffb_dev_table_size; instance++) {
  347. drm_device_t *dev = ffb_dev_table[instance];
  348. ffb_dev_priv_t *ffb_priv;
  349. if (!dev)
  350. continue;
  351. ffb_priv = (ffb_dev_priv_t *) (dev + 1);
  352. if (misc_deregister(&ffb_priv->miscdev)) {
  353. DRM_ERROR("Cannot unload modulen");
  354. } else {
  355. DRM_INFO("Module unloadedn");
  356. }
  357. ffb_takedown(dev);
  358. kfree(dev);
  359. ffb_dev_table[instance] = NULL;
  360. }
  361. kfree(ffb_dev_table);
  362. ffb_dev_table = NULL;
  363. ffb_dev_table_size = 0;
  364. }
  365. static int ffb_version(struct inode *inode, struct file *filp, unsigned int cmd, unsigned long arg)
  366. {
  367. drm_version_t version;
  368. int len, ret;
  369. ret = copy_from_user(&version, (drm_version_t *)arg, sizeof(version));
  370. if (ret)
  371. return -EFAULT;
  372. version.version_major = FFB_MAJOR;
  373. version.version_minor = FFB_MINOR;
  374. version.version_patchlevel = FFB_PATCHLEVEL;
  375. len = strlen(FFB_NAME);
  376. if (len > version.name_len)
  377. len = version.name_len;
  378. version.name_len = len;
  379. if (len && version.name) {
  380. ret = copy_to_user(version.name, FFB_NAME, len);
  381. if (ret)
  382. return -EFAULT;
  383. }
  384. len = strlen(FFB_DATE);
  385. if (len > version.date_len)
  386. len = version.date_len;
  387. version.date_len = len;
  388. if (len && version.date) {
  389. ret = copy_to_user(version.date, FFB_DATE, len);
  390. if (ret)
  391. return -EFAULT;
  392. }
  393. len = strlen(FFB_DESC);
  394. if (len > version.desc_len)
  395. len = version.desc_len;
  396. version.desc_len = len;
  397. if (len && version.desc) {
  398. ret = copy_to_user(version.desc, FFB_DESC, len);
  399. if (ret)
  400. return -EFAULT;
  401. }
  402. ret = copy_to_user((drm_version_t *) arg, &version, sizeof(version));
  403. if (ret)
  404. ret = -EFAULT;
  405. return ret;
  406. }
  407. static int ffb_setup(drm_device_t *dev)
  408. {
  409. int i;
  410. atomic_set(&dev->ioctl_count, 0);
  411. atomic_set(&dev->vma_count, 0);
  412. dev->buf_use = 0;
  413. atomic_set(&dev->buf_alloc, 0);
  414. atomic_set(&dev->total_open, 0);
  415. atomic_set(&dev->total_close, 0);
  416. atomic_set(&dev->total_ioctl, 0);
  417. atomic_set(&dev->total_irq, 0);
  418. atomic_set(&dev->total_ctx, 0);
  419. atomic_set(&dev->total_locks, 0);
  420. atomic_set(&dev->total_unlocks, 0);
  421. atomic_set(&dev->total_contends, 0);
  422. atomic_set(&dev->total_sleeps, 0);
  423. for (i = 0; i < DRM_HASH_SIZE; i++) {
  424. dev->magiclist[i].head = NULL;
  425. dev->magiclist[i].tail = NULL;
  426. }
  427. dev->maplist     = NULL;
  428. dev->map_count     = 0;
  429. dev->vmalist     = NULL;
  430. dev->lock.hw_lock   = NULL;
  431. init_waitqueue_head(&dev->lock.lock_queue);
  432. dev->queue_count    = 0;
  433. dev->queue_reserved = 0;
  434. dev->queue_slots    = 0;
  435. dev->queuelist     = NULL;
  436. dev->irq     = 0;
  437. dev->context_flag   = 0;
  438. dev->interrupt_flag = 0;
  439. dev->dma            = 0;
  440. dev->dma_flag     = 0;
  441. dev->last_context   = 0;
  442. dev->last_switch    = 0;
  443. dev->last_checked   = 0;
  444. init_timer(&dev->timer);
  445. init_waitqueue_head(&dev->context_wait);
  446. dev->ctx_start     = 0;
  447. dev->lck_start     = 0;
  448. dev->buf_rp   = dev->buf;
  449. dev->buf_wp   = dev->buf;
  450. dev->buf_end   = dev->buf + DRM_BSZ;
  451. dev->buf_async   = NULL;
  452. init_waitqueue_head(&dev->buf_readers);
  453. init_waitqueue_head(&dev->buf_writers);
  454. return 0;
  455. }
  456. static int ffb_open(struct inode *inode, struct file *filp)
  457. {
  458. drm_device_t *dev;
  459. int minor, i;
  460. int ret = 0;
  461. minor = MINOR(inode->i_rdev);
  462. for (i = 0; i < ffb_dev_table_size; i++) {
  463. ffb_dev_priv_t *ffb_priv;
  464. ffb_priv = (ffb_dev_priv_t *) (ffb_dev_table[i] + 1);
  465. if (ffb_priv->miscdev.minor == minor)
  466. break;
  467. }
  468. if (i >= ffb_dev_table_size)
  469. return -EINVAL;
  470. dev = ffb_dev_table[i];
  471. if (!dev)
  472. return -EINVAL;
  473. DRM_DEBUG("open_count = %dn", dev->open_count);
  474. ret = drm_open_helper(inode, filp, dev);
  475. if (!ret) {
  476. atomic_inc(&dev->total_open);
  477. spin_lock(&dev->count_lock);
  478. if (!dev->open_count++) {
  479. spin_unlock(&dev->count_lock);
  480. return ffb_setup(dev);
  481. }
  482. spin_unlock(&dev->count_lock);
  483. }
  484. return ret;
  485. }
  486. static int ffb_release(struct inode *inode, struct file *filp)
  487. {
  488. drm_file_t *priv = filp->private_data;
  489. drm_device_t *dev;
  490. int ret = 0;
  491. lock_kernel();
  492. dev = priv->dev;
  493. DRM_DEBUG("open_count = %dn", dev->open_count);
  494. if (dev->lock.hw_lock != NULL
  495.     && _DRM_LOCK_IS_HELD(dev->lock.hw_lock->lock)
  496.     && dev->lock.pid == current->pid) {
  497. ffb_dev_priv_t *fpriv = (ffb_dev_priv_t *) (dev + 1);
  498. int context = _DRM_LOCKING_CONTEXT(dev->lock.hw_lock->lock);
  499. int idx;
  500. /* We have to free up the rogue hw context state
  501.  * holding error or else we will leak it.
  502.  */
  503. idx = context - 1;
  504. if (fpriv->hw_state[idx] != NULL) {
  505. kfree(fpriv->hw_state[idx]);
  506. fpriv->hw_state[idx] = NULL;
  507. }
  508. }
  509. ret = drm_release(inode, filp);
  510. if (!ret) {
  511. atomic_inc(&dev->total_close);
  512. spin_lock(&dev->count_lock);
  513. if (!--dev->open_count) {
  514. if (atomic_read(&dev->ioctl_count) || dev->blocked) {
  515. DRM_ERROR("Device busy: %d %dn",
  516.   atomic_read(&dev->ioctl_count),
  517.   dev->blocked);
  518. spin_unlock(&dev->count_lock);
  519. unlock_kernel();
  520. return -EBUSY;
  521. }
  522. spin_unlock(&dev->count_lock);
  523. ret = ffb_takedown(dev);
  524. unlock_kernel();
  525. return ret;
  526. }
  527. spin_unlock(&dev->count_lock);
  528. }
  529. unlock_kernel();
  530. return ret;
  531. }
  532. static int ffb_ioctl(struct inode *inode, struct file *filp, unsigned int cmd, unsigned long arg)
  533. {
  534. int  nr  = DRM_IOCTL_NR(cmd);
  535. drm_file_t  *priv  = filp->private_data;
  536. drm_device_t  *dev  = priv->dev;
  537. drm_ioctl_desc_t *ioctl;
  538. drm_ioctl_t  *func;
  539. int  ret;
  540. atomic_inc(&dev->ioctl_count);
  541. atomic_inc(&dev->total_ioctl);
  542. ++priv->ioctl_count;
  543. DRM_DEBUG("pid = %d, cmd = 0x%02x, nr = 0x%02x, dev 0x%x, auth = %dn",
  544.   current->pid, cmd, nr, dev->device, priv->authenticated);
  545. if (nr >= FFB_IOCTL_COUNT) {
  546. ret = -EINVAL;
  547. } else {
  548. ioctl   = &ffb_ioctls[nr];
  549. func   = ioctl->func;
  550. if (!func) {
  551. DRM_DEBUG("no functionn");
  552. ret = -EINVAL;
  553. } else if ((ioctl->root_only && !capable(CAP_SYS_ADMIN))
  554.     || (ioctl->auth_needed && !priv->authenticated)) {
  555. ret = -EACCES;
  556. } else {
  557. ret = (func)(inode, filp, cmd, arg);
  558. }
  559. }
  560. atomic_dec(&dev->ioctl_count);
  561. return ret;
  562. }
  563. static int ffb_lock(struct inode *inode, struct file *filp, unsigned int cmd, unsigned long arg)
  564. {
  565.         drm_file_t        *priv = filp->private_data;
  566.         drm_device_t      *dev = priv->dev;
  567.         DECLARE_WAITQUEUE(entry, current);
  568.         int               ret = 0;
  569.         drm_lock_t        lock;
  570. ret = copy_from_user(&lock, (drm_lock_t *)arg, sizeof(lock));
  571. if (ret)
  572. return -EFAULT;
  573.         if (lock.context == DRM_KERNEL_CONTEXT) {
  574.                 DRM_ERROR("Process %d using kernel context %dn",
  575.                           current->pid, lock.context);
  576.                 return -EINVAL;
  577.         }
  578.         DRM_DEBUG("%d (pid %d) requests lock (0x%08x), flags = 0x%08xn",
  579.                   lock.context, current->pid, dev->lock.hw_lock->lock,
  580.                   lock.flags);
  581. add_wait_queue(&dev->lock.lock_queue, &entry);
  582. for (;;) {
  583. if (!dev->lock.hw_lock) {
  584. /* Device has been unregistered */
  585. ret = -EINTR;
  586. break;
  587. }
  588. if (drm_lock_take(&dev->lock.hw_lock->lock,
  589.   lock.context)) {
  590. dev->lock.pid       = current->pid;
  591. dev->lock.lock_time = jiffies;
  592. atomic_inc(&dev->total_locks);
  593. break;  /* Got lock */
  594. }
  595.                         
  596. /* Contention */
  597. atomic_inc(&dev->total_sleeps);
  598. current->state = TASK_INTERRUPTIBLE;
  599. yield();
  600. if (signal_pending(current)) {
  601. ret = -ERESTARTSYS;
  602. break;
  603. }
  604. }
  605. current->state = TASK_RUNNING;
  606. remove_wait_queue(&dev->lock.lock_queue, &entry);
  607.         if (!ret) {
  608. sigemptyset(&dev->sigmask);
  609. sigaddset(&dev->sigmask, SIGSTOP);
  610. sigaddset(&dev->sigmask, SIGTSTP);
  611. sigaddset(&dev->sigmask, SIGTTIN);
  612. sigaddset(&dev->sigmask, SIGTTOU);
  613. dev->sigdata.context = lock.context;
  614. dev->sigdata.lock = dev->lock.hw_lock;
  615. block_all_signals(drm_notifier, &dev->sigdata, &dev->sigmask);
  616. if (dev->last_context != lock.context)
  617. ffb_context_switch(dev, dev->last_context, lock.context);
  618. }
  619.         DRM_DEBUG("%d %sn", lock.context, ret ? "interrupted" : "has lock");
  620.         return ret;
  621. }
  622. int ffb_unlock(struct inode *inode, struct file *filp, unsigned int cmd, unsigned long arg)
  623. {
  624. drm_file_t   *priv   = filp->private_data;
  625. drm_device_t   *dev   = priv->dev;
  626. drm_lock_t   lock;
  627. unsigned int old, new, prev, ctx;
  628. int ret;
  629. ret = copy_from_user(&lock, (drm_lock_t *)arg, sizeof(lock));
  630. if (ret)
  631. return -EFAULT;
  632. if ((ctx = lock.context) == DRM_KERNEL_CONTEXT) {
  633. DRM_ERROR("Process %d using kernel context %dn",
  634.   current->pid, lock.context);
  635. return -EINVAL;
  636. }
  637. DRM_DEBUG("%d frees lock (%d holds)n",
  638.   lock.context,
  639.   _DRM_LOCKING_CONTEXT(dev->lock.hw_lock->lock));
  640. atomic_inc(&dev->total_unlocks);
  641. if (_DRM_LOCK_IS_CONT(dev->lock.hw_lock->lock))
  642. atomic_inc(&dev->total_contends);
  643. /* We no longer really hold it, but if we are the next
  644.  * agent to request it then we should just be able to
  645.  * take it immediately and not eat the ioctl.
  646.  */
  647. dev->lock.pid = 0;
  648. {
  649. __volatile__ unsigned int *plock = &dev->lock.hw_lock->lock;
  650. do {
  651. old  = *plock;
  652. new  = ctx;
  653. prev = cmpxchg(plock, old, new);
  654. } while (prev != old);
  655. }
  656. wake_up_interruptible(&dev->lock.lock_queue);
  657. unblock_all_signals();
  658. return 0;
  659. }
  660. extern struct vm_operations_struct drm_vm_ops;
  661. extern struct vm_operations_struct drm_vm_shm_ops;
  662. extern struct vm_operations_struct drm_vm_shm_lock_ops;
  663. static int ffb_mmap(struct file *filp, struct vm_area_struct *vma)
  664. {
  665. drm_file_t *priv = filp->private_data;
  666. drm_device_t *dev = priv->dev;
  667. drm_map_t *map = NULL;
  668. ffb_dev_priv_t *ffb_priv;
  669. int i, minor;
  670. DRM_DEBUG("start = 0x%lx, end = 0x%lx, offset = 0x%lxn",
  671.   vma->vm_start, vma->vm_end, VM_OFFSET(vma));
  672. minor = MINOR(filp->f_dentry->d_inode->i_rdev);
  673. ffb_priv = NULL;
  674. for (i = 0; i < ffb_dev_table_size; i++) {
  675. ffb_priv = (ffb_dev_priv_t *) (ffb_dev_table[i] + 1);
  676. if (ffb_priv->miscdev.minor == minor)
  677. break;
  678. }
  679. if (i >= ffb_dev_table_size)
  680. return -EINVAL;
  681. /* We don't support/need dma mappings, so... */
  682. if (!VM_OFFSET(vma))
  683. return -EINVAL;
  684. for (i = 0; i < dev->map_count; i++) {
  685. unsigned long off;
  686. map = dev->maplist[i];
  687. /* Ok, a little hack to make 32-bit apps work. */
  688. off = (map->offset & 0xffffffff);
  689. if (off == VM_OFFSET(vma))
  690. break;
  691. }
  692. if (i >= dev->map_count)
  693. return -EINVAL;
  694. if (!map ||
  695.     ((map->flags & _DRM_RESTRICTED) && !capable(CAP_SYS_ADMIN)))
  696. return -EPERM;
  697. if (map->size != (vma->vm_end - vma->vm_start))
  698. return -EINVAL;
  699. /* Set read-only attribute before mappings are created
  700.  * so it works for fb/reg maps too.
  701.  */
  702. if (map->flags & _DRM_READ_ONLY)
  703. vma->vm_page_prot = __pgprot(pte_val(pte_wrprotect(
  704. __pte(pgprot_val(vma->vm_page_prot)))));
  705. switch (map->type) {
  706. case _DRM_FRAME_BUFFER:
  707. /* FALLTHROUGH */
  708. case _DRM_REGISTERS:
  709. /* In order to handle 32-bit drm apps/xserver we
  710.  * play a trick.  The mappings only really specify
  711.  * the 32-bit offset from the cards 64-bit base
  712.  * address, and we just add in the base here.
  713.  */
  714. vma->vm_flags |= VM_IO;
  715. if (io_remap_page_range(vma->vm_start,
  716. ffb_priv->card_phys_base + VM_OFFSET(vma),
  717. vma->vm_end - vma->vm_start,
  718. vma->vm_page_prot, 0))
  719. return -EAGAIN;
  720. vma->vm_ops = &drm_vm_ops;
  721. break;
  722. case _DRM_SHM:
  723. if (map->flags & _DRM_CONTAINS_LOCK)
  724. vma->vm_ops = &drm_vm_shm_lock_ops;
  725. else {
  726. vma->vm_ops = &drm_vm_shm_ops;
  727. vma->vm_private_data = (void *) map;
  728. }
  729. /* Don't let this area swap.  Change when
  730.  * DRM_KERNEL advisory is supported.
  731.  */
  732. vma->vm_flags |= VM_LOCKED;
  733. break;
  734. default:
  735. return -EINVAL; /* This should never happen. */
  736. };
  737. vma->vm_flags |= VM_LOCKED | VM_SHM; /* Don't swap */
  738. vma->vm_file = filp; /* Needed for drm_vm_open() */
  739. drm_vm_open(vma);
  740. return 0;
  741. }
  742. static drm_map_t *ffb_find_map(struct file *filp, unsigned long off)
  743. {
  744. drm_file_t *priv = filp->private_data;
  745. drm_device_t *dev;
  746. drm_map_t *map;
  747. int i;
  748. if (!priv || (dev = priv->dev) == NULL)
  749. return NULL;
  750. for (i = 0; i < dev->map_count; i++) {
  751. unsigned long uoff;
  752. map = dev->maplist[i];
  753. /* Ok, a little hack to make 32-bit apps work. */
  754. uoff = (map->offset & 0xffffffff);
  755. if (uoff == off)
  756. return map;
  757. }
  758. return NULL;
  759. }
  760. static unsigned long ffb_get_unmapped_area(struct file *filp, unsigned long hint, unsigned long len, unsigned long pgoff, unsigned long flags)
  761. {
  762. drm_map_t *map = ffb_find_map(filp, pgoff << PAGE_SHIFT);
  763. unsigned long addr = -ENOMEM;
  764. if (!map)
  765. return get_unmapped_area(NULL, hint, len, pgoff, flags);
  766. if (map->type == _DRM_FRAME_BUFFER ||
  767.     map->type == _DRM_REGISTERS) {
  768. #ifdef HAVE_ARCH_FB_UNMAPPED_AREA
  769. addr = get_fb_unmapped_area(filp, hint, len, pgoff, flags);
  770. #else
  771. addr = get_unmapped_area(NULL, hint, len, pgoff, flags);
  772. #endif
  773. } else if (map->type == _DRM_SHM && SHMLBA > PAGE_SIZE) {
  774. unsigned long slack = SHMLBA - PAGE_SIZE;
  775. addr = get_unmapped_area(NULL, hint, len + slack, pgoff, flags);
  776. if (!(addr & ~PAGE_MASK)) {
  777. unsigned long kvirt = (unsigned long) map->handle;
  778. if ((kvirt & (SHMLBA - 1)) != (addr & (SHMLBA - 1))) {
  779. unsigned long koff, aoff;
  780. koff = kvirt & (SHMLBA - 1);
  781. aoff = addr & (SHMLBA - 1);
  782. if (koff < aoff)
  783. koff += SHMLBA;
  784. addr += (koff - aoff);
  785. }
  786. }
  787. } else {
  788. addr = get_unmapped_area(NULL, hint, len, pgoff, flags);
  789. }
  790. return addr;
  791. }
  792. module_init(ffb_init);
  793. module_exit(ffb_cleanup);