multi_arith.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:21k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* multi_arith.h: multi-precision integer arithmetic functions, needed
  2.    to do extended-precision floating point.
  3.    (c) 1998 David Huggins-Daines.
  4.    Somewhat based on arch/alpha/math-emu/ieee-math.c, which is (c)
  5.    David Mosberger-Tang.
  6.    You may copy, modify, and redistribute this file under the terms of
  7.    the GNU General Public License, version 2, or any later version, at
  8.    your convenience. */
  9. /* Note:
  10.    These are not general multi-precision math routines.  Rather, they
  11.    implement the subset of integer arithmetic that we need in order to
  12.    multiply, divide, and normalize 128-bit unsigned mantissae.  */
  13. #ifndef MULTI_ARITH_H
  14. #define MULTI_ARITH_H
  15. #if 0 /* old code... */
  16. /* Unsigned only, because we don't need signs to multiply and divide. */
  17. typedef unsigned int int128[4];
  18. /* Word order */
  19. enum {
  20. MSW128,
  21. NMSW128,
  22. NLSW128,
  23. LSW128
  24. };
  25. /* big-endian */
  26. #define LO_WORD(ll) (((unsigned int *) &ll)[1])
  27. #define HI_WORD(ll) (((unsigned int *) &ll)[0])
  28. /* Convenience functions to stuff various integer values into int128s */
  29. extern inline void zero128(int128 a)
  30. {
  31. a[LSW128] = a[NLSW128] = a[NMSW128] = a[MSW128] = 0;
  32. }
  33. /* Human-readable word order in the arguments */
  34. extern inline void set128(unsigned int i3,
  35.   unsigned int i2,
  36.   unsigned int i1,
  37.   unsigned int i0,
  38.   int128 a)
  39. {
  40. a[LSW128] = i0;
  41. a[NLSW128] = i1;
  42. a[NMSW128] = i2;
  43. a[MSW128] = i3;
  44. }
  45. /* Convenience functions (for testing as well) */
  46. extern inline void int64_to_128(unsigned long long src,
  47. int128 dest)
  48. {
  49. dest[LSW128] = (unsigned int) src;
  50. dest[NLSW128] = src >> 32;
  51. dest[NMSW128] = dest[MSW128] = 0;
  52. }
  53. extern inline void int128_to_64(const int128 src,
  54. unsigned long long *dest)
  55. {
  56. *dest = src[LSW128] | (long long) src[NLSW128] << 32;
  57. }
  58. extern inline void put_i128(const int128 a)
  59. {
  60. printk("%08x %08x %08x %08xn", a[MSW128], a[NMSW128],
  61.        a[NLSW128], a[LSW128]);
  62. }
  63. /* Internal shifters:
  64.    Note that these are only good for 0 < count < 32.
  65.  */
  66. extern inline void _lsl128(unsigned int count, int128 a)
  67. {
  68. a[MSW128] = (a[MSW128] << count) | (a[NMSW128] >> (32 - count));
  69. a[NMSW128] = (a[NMSW128] << count) | (a[NLSW128] >> (32 - count));
  70. a[NLSW128] = (a[NLSW128] << count) | (a[LSW128] >> (32 - count));
  71. a[LSW128] <<= count;
  72. }
  73. extern inline void _lsr128(unsigned int count, int128 a)
  74. {
  75. a[LSW128] = (a[LSW128] >> count) | (a[NLSW128] << (32 - count));
  76. a[NLSW128] = (a[NLSW128] >> count) | (a[NMSW128] << (32 - count));
  77. a[NMSW128] = (a[NMSW128] >> count) | (a[MSW128] << (32 - count));
  78. a[MSW128] >>= count;
  79. }
  80. /* Should be faster, one would hope */
  81. extern inline void lslone128(int128 a)
  82. {
  83. asm volatile ("lsl.l #1,%0n"
  84.       "roxl.l #1,%1n"
  85.       "roxl.l #1,%2n"
  86.       "roxl.l #1,%3n"
  87.       :
  88.       "=d" (a[LSW128]),
  89.       "=d"(a[NLSW128]),
  90.       "=d"(a[NMSW128]),
  91.       "=d"(a[MSW128])
  92.       :
  93.       "0"(a[LSW128]),
  94.       "1"(a[NLSW128]),
  95.       "2"(a[NMSW128]),
  96.       "3"(a[MSW128]));
  97. }
  98. extern inline void lsrone128(int128 a)
  99. {
  100. asm volatile ("lsr.l #1,%0n"
  101.       "roxr.l #1,%1n"
  102.       "roxr.l #1,%2n"
  103.       "roxr.l #1,%3n"
  104.       :
  105.       "=d" (a[MSW128]),
  106.       "=d"(a[NMSW128]),
  107.       "=d"(a[NLSW128]),
  108.       "=d"(a[LSW128])
  109.       :
  110.       "0"(a[MSW128]),
  111.       "1"(a[NMSW128]),
  112.       "2"(a[NLSW128]),
  113.       "3"(a[LSW128]));
  114. }
  115. /* Generalized 128-bit shifters:
  116.    These bit-shift to a multiple of 32, then move whole longwords.  */
  117. extern inline void lsl128(unsigned int count, int128 a)
  118. {
  119. int wordcount, i;
  120. if (count % 32)
  121. _lsl128(count % 32, a);
  122. if (0 == (wordcount = count / 32))
  123. return;
  124. /* argh, gak, endian-sensitive */
  125. for (i = 0; i < 4 - wordcount; i++) {
  126. a[i] = a[i + wordcount];
  127. }
  128. for (i = 3; i >= 4 - wordcount; --i) {
  129. a[i] = 0;
  130. }
  131. }
  132. extern inline void lsr128(unsigned int count, int128 a)
  133. {
  134. int wordcount, i;
  135. if (count % 32)
  136. _lsr128(count % 32, a);
  137. if (0 == (wordcount = count / 32))
  138. return;
  139. for (i = 3; i >= wordcount; --i) {
  140. a[i] = a[i - wordcount];
  141. }
  142. for (i = 0; i < wordcount; i++) {
  143. a[i] = 0;
  144. }
  145. }
  146. extern inline int orl128(int a, int128 b)
  147. {
  148. b[LSW128] |= a;
  149. }
  150. extern inline int btsthi128(const int128 a)
  151. {
  152. return a[MSW128] & 0x80000000;
  153. }
  154. /* test bits (numbered from 0 = LSB) up to and including "top" */
  155. extern inline int bftestlo128(int top, const int128 a)
  156. {
  157. int r = 0;
  158. if (top > 31)
  159. r |= a[LSW128];
  160. if (top > 63)
  161. r |= a[NLSW128];
  162. if (top > 95)
  163. r |= a[NMSW128];
  164. r |= a[3 - (top / 32)] & ((1 << (top % 32 + 1)) - 1);
  165. return (r != 0);
  166. }
  167. /* Aargh.  We need these because GCC is broken */
  168. /* FIXME: do them in assembly, for goodness' sake! */
  169. extern inline void mask64(int pos, unsigned long long *mask)
  170. {
  171. *mask = 0;
  172. if (pos < 32) {
  173. LO_WORD(*mask) = (1 << pos) - 1;
  174. return;
  175. }
  176. LO_WORD(*mask) = -1;
  177. HI_WORD(*mask) = (1 << (pos - 32)) - 1;
  178. }
  179. extern inline void bset64(int pos, unsigned long long *dest)
  180. {
  181. /* This conditional will be optimized away.  Thanks, GCC! */
  182. if (pos < 32)
  183. asm volatile ("bset %1,%0":"=m"
  184.       (LO_WORD(*dest)):"id"(pos));
  185. else
  186. asm volatile ("bset %1,%0":"=m"
  187.       (HI_WORD(*dest)):"id"(pos - 32));
  188. }
  189. extern inline int btst64(int pos, unsigned long long dest)
  190. {
  191. if (pos < 32)
  192. return (0 != (LO_WORD(dest) & (1 << pos)));
  193. else
  194. return (0 != (HI_WORD(dest) & (1 << (pos - 32))));
  195. }
  196. extern inline void lsl64(int count, unsigned long long *dest)
  197. {
  198. if (count < 32) {
  199. HI_WORD(*dest) = (HI_WORD(*dest) << count)
  200.     | (LO_WORD(*dest) >> count);
  201. LO_WORD(*dest) <<= count;
  202. return;
  203. }
  204. count -= 32;
  205. HI_WORD(*dest) = LO_WORD(*dest) << count;
  206. LO_WORD(*dest) = 0;
  207. }
  208. extern inline void lsr64(int count, unsigned long long *dest)
  209. {
  210. if (count < 32) {
  211. LO_WORD(*dest) = (LO_WORD(*dest) >> count)
  212.     | (HI_WORD(*dest) << (32 - count));
  213. HI_WORD(*dest) >>= count;
  214. return;
  215. }
  216. count -= 32;
  217. LO_WORD(*dest) = HI_WORD(*dest) >> count;
  218. HI_WORD(*dest) = 0;
  219. }
  220. #endif
  221. extern inline void fp_denormalize(struct fp_ext *reg, unsigned int cnt)
  222. {
  223. reg->exp += cnt;
  224. switch (cnt) {
  225. case 0 ... 8:
  226. reg->lowmant = reg->mant.m32[1] << (8 - cnt);
  227. reg->mant.m32[1] = (reg->mant.m32[1] >> cnt) |
  228.    (reg->mant.m32[0] << (32 - cnt));
  229. reg->mant.m32[0] = reg->mant.m32[0] >> cnt;
  230. break;
  231. case 9 ... 32:
  232. reg->lowmant = reg->mant.m32[1] >> (cnt - 8);
  233. if (reg->mant.m32[1] << (40 - cnt))
  234. reg->lowmant |= 1;
  235. reg->mant.m32[1] = (reg->mant.m32[1] >> cnt) |
  236.    (reg->mant.m32[0] << (32 - cnt));
  237. reg->mant.m32[0] = reg->mant.m32[0] >> cnt;
  238. break;
  239. case 33 ... 39:
  240. asm volatile ("bfextu %1{%2,#8},%0" : "=d" (reg->lowmant)
  241. : "m" (reg->mant.m32[0]), "d" (64 - cnt));
  242. if (reg->mant.m32[1] << (40 - cnt))
  243. reg->lowmant |= 1;
  244. reg->mant.m32[1] = reg->mant.m32[0] >> (cnt - 32);
  245. reg->mant.m32[0] = 0;
  246. break;
  247. case 40 ... 71:
  248. reg->lowmant = reg->mant.m32[0] >> (cnt - 40);
  249. if ((reg->mant.m32[0] << (72 - cnt)) || reg->mant.m32[1])
  250. reg->lowmant |= 1;
  251. reg->mant.m32[1] = reg->mant.m32[0] >> (cnt - 32);
  252. reg->mant.m32[0] = 0;
  253. break;
  254. default:
  255. reg->lowmant = reg->mant.m32[0] || reg->mant.m32[1];
  256. reg->mant.m32[0] = 0;
  257. reg->mant.m32[1] = 0;
  258. break;
  259. }
  260. }
  261. extern inline int fp_overnormalize(struct fp_ext *reg)
  262. {
  263. int shift;
  264. if (reg->mant.m32[0]) {
  265. asm ("bfffo %1{#0,#32},%0" : "=d" (shift) : "dm" (reg->mant.m32[0]));
  266. reg->mant.m32[0] = (reg->mant.m32[0] << shift) | (reg->mant.m32[1] >> (32 - shift));
  267. reg->mant.m32[1] = (reg->mant.m32[1] << shift);
  268. } else {
  269. asm ("bfffo %1{#0,#32},%0" : "=d" (shift) : "dm" (reg->mant.m32[1]));
  270. reg->mant.m32[0] = (reg->mant.m32[1] << shift);
  271. reg->mant.m32[1] = 0;
  272. shift += 32;
  273. }
  274. return shift;
  275. }
  276. extern inline int fp_addmant(struct fp_ext *dest, struct fp_ext *src)
  277. {
  278. int carry;
  279. /* we assume here, gcc only insert move and a clr instr */
  280. asm volatile ("add.b %1,%0" : "=d,g" (dest->lowmant)
  281. : "g,d" (src->lowmant), "0,0" (dest->lowmant));
  282. asm volatile ("addx.l %1,%0" : "=d" (dest->mant.m32[1])
  283. : "d" (src->mant.m32[1]), "0" (dest->mant.m32[1]));
  284. asm volatile ("addx.l %1,%0" : "=d" (dest->mant.m32[0])
  285. : "d" (src->mant.m32[0]), "0" (dest->mant.m32[0]));
  286. asm volatile ("addx.l %0,%0" : "=d" (carry) : "0" (0));
  287. return carry;
  288. }
  289. extern inline int fp_addcarry(struct fp_ext *reg)
  290. {
  291. if (++reg->exp == 0x7fff) {
  292. if (reg->mant.m64)
  293. fp_set_sr(FPSR_EXC_INEX2);
  294. reg->mant.m64 = 0;
  295. fp_set_sr(FPSR_EXC_OVFL);
  296. return 0;
  297. }
  298. reg->lowmant = (reg->mant.m32[1] << 7) | (reg->lowmant ? 1 : 0);
  299. reg->mant.m32[1] = (reg->mant.m32[1] >> 1) |
  300.    (reg->mant.m32[0] << 31);
  301. reg->mant.m32[0] = (reg->mant.m32[0] >> 1) | 0x80000000;
  302. return 1;
  303. }
  304. extern inline void fp_submant(struct fp_ext *dest, struct fp_ext *src1, struct fp_ext *src2)
  305. {
  306. /* we assume here, gcc only insert move and a clr instr */
  307. asm volatile ("sub.b %1,%0" : "=d,g" (dest->lowmant)
  308. : "g,d" (src2->lowmant), "0,0" (src1->lowmant));
  309. asm volatile ("subx.l %1,%0" : "=d" (dest->mant.m32[1])
  310. : "d" (src2->mant.m32[1]), "0" (src1->mant.m32[1]));
  311. asm volatile ("subx.l %1,%0" : "=d" (dest->mant.m32[0])
  312. : "d" (src2->mant.m32[0]), "0" (src1->mant.m32[0]));
  313. }
  314. #define fp_mul64(desth, destl, src1, src2) ({
  315. asm ("mulu.l %2,%1:%0" : "=d" (destl), "=d" (desth)
  316. : "g" (src1), "0" (src2));
  317. })
  318. #define fp_div64(quot, rem, srch, srcl, div)
  319. asm ("divu.l %2,%1:%0" : "=d" (quot), "=d" (rem)
  320. : "dm" (div), "1" (srch), "0" (srcl))
  321. #define fp_add64(dest1, dest2, src1, src2) ({
  322. asm ("add.l %1,%0" : "=d,=dm" (dest2)
  323. : "dm,d" (src2), "0,0" (dest2));
  324. asm ("addx.l %1,%0" : "=d" (dest1)
  325. : "d" (src1), "0" (dest1));
  326. })
  327. #define fp_addx96(dest, src) ({
  328. /* we assume here, gcc only insert move and a clr instr */
  329. asm volatile ("add.l %1,%0" : "=d,g" (dest->m32[2])
  330. : "g,d" (temp.m32[1]), "0,0" (dest->m32[2]));
  331. asm volatile ("addx.l %1,%0" : "=d" (dest->m32[1])
  332. : "d" (temp.m32[0]), "0" (dest->m32[1]));
  333. asm volatile ("addx.l %1,%0" : "=d" (dest->m32[0])
  334. : "d" (0), "0" (dest->m32[0]));
  335. })
  336. #define fp_sub64(dest, src) ({
  337. asm ("sub.l %1,%0" : "=d,=dm" (dest.m32[1])
  338. : "dm,d" (src.m32[1]), "0,0" (dest.m32[1]));
  339. asm ("subx.l %1,%0" : "=d" (dest.m32[0])
  340. : "d" (src.m32[0]), "0" (dest.m32[0]));
  341. })
  342. #define fp_sub96c(dest, srch, srcm, srcl) ({
  343. char carry;
  344. asm ("sub.l %1,%0" : "=d,=dm" (dest.m32[2])
  345. : "dm,d" (srcl), "0,0" (dest.m32[2]));
  346. asm ("subx.l %1,%0" : "=d" (dest.m32[1])
  347. : "d" (srcm), "0" (dest.m32[1]));
  348. asm ("subx.l %2,%1; scs %0" : "=d" (carry), "=d" (dest.m32[0])
  349. : "d" (srch), "1" (dest.m32[0]));
  350. carry;
  351. })
  352. extern inline void fp_multiplymant(union fp_mant128 *dest, struct fp_ext *src1, struct fp_ext *src2)
  353. {
  354. union fp_mant64 temp;
  355. fp_mul64(dest->m32[0], dest->m32[1], src1->mant.m32[0], src2->mant.m32[0]);
  356. fp_mul64(dest->m32[2], dest->m32[3], src1->mant.m32[1], src2->mant.m32[1]);
  357. fp_mul64(temp.m32[0], temp.m32[1], src1->mant.m32[0], src2->mant.m32[1]);
  358. fp_addx96(dest, temp);
  359. fp_mul64(temp.m32[0], temp.m32[1], src1->mant.m32[1], src2->mant.m32[0]);
  360. fp_addx96(dest, temp);
  361. }
  362. extern inline void fp_dividemant(union fp_mant128 *dest, struct fp_ext *src, struct fp_ext *div)
  363. {
  364. union fp_mant128 tmp;
  365. union fp_mant64 tmp64;
  366. unsigned long *mantp = dest->m32;
  367. unsigned long fix, rem, first, dummy;
  368. int i;
  369. /* the algorithm below requires dest to be smaller than div,
  370.    but both have the high bit set */
  371. if (src->mant.m64 >= div->mant.m64) {
  372. fp_sub64(src->mant, div->mant);
  373. *mantp = 1;
  374. } else
  375. *mantp = 0;
  376. mantp++;
  377. /* basic idea behind this algorithm: we can't divide two 64bit numbers
  378.    (AB/CD) directly, but we can calculate AB/C0, but this means this
  379.    quotient is off by C0/CD, so we have to multiply the first result
  380.    to fix the result, after that we have nearly the correct result
  381.    and only a few corrections are needed. */
  382. /* C0/CD can be precalculated, but it's an 64bit division again, but
  383.    we can make it a bit easier, by dividing first through C so we get
  384.    10/1D and now only a single shift and the value fits into 32bit. */
  385. fix = 0x80000000;
  386. dummy = div->mant.m32[1] / div->mant.m32[0] + 1;
  387. dummy = (dummy >> 1) | fix;
  388. fp_div64(fix, dummy, fix, 0, dummy);
  389. fix--;
  390. for (i = 0; i < 3; i++, mantp++) {
  391. if (src->mant.m32[0] == div->mant.m32[0]) {
  392. fp_div64(first, rem, 0, src->mant.m32[1], div->mant.m32[0]);
  393. fp_mul64(*mantp, dummy, first, fix);
  394. *mantp += fix;
  395. } else {
  396. fp_div64(first, rem, src->mant.m32[0], src->mant.m32[1], div->mant.m32[0]);
  397. fp_mul64(*mantp, dummy, first, fix);
  398. }
  399. fp_mul64(tmp.m32[0], tmp.m32[1], div->mant.m32[0], first - *mantp);
  400. fp_add64(tmp.m32[0], tmp.m32[1], 0, rem);
  401. tmp.m32[2] = 0;
  402. fp_mul64(tmp64.m32[0], tmp64.m32[1], *mantp, div->mant.m32[1]);
  403. fp_sub96c(tmp, 0, tmp64.m32[0], tmp64.m32[1]);
  404. src->mant.m32[0] = tmp.m32[1];
  405. src->mant.m32[1] = tmp.m32[2];
  406. while (!fp_sub96c(tmp, 0, div->mant.m32[0], div->mant.m32[1])) {
  407. src->mant.m32[0] = tmp.m32[1];
  408. src->mant.m32[1] = tmp.m32[2];
  409. *mantp += 1;
  410. }
  411. }
  412. }
  413. #if 0
  414. extern inline unsigned int fp_fls128(union fp_mant128 *src)
  415. {
  416. unsigned long data;
  417. unsigned int res, off;
  418. if ((data = src->m32[0]))
  419. off = 0;
  420. else if ((data = src->m32[1]))
  421. off = 32;
  422. else if ((data = src->m32[2]))
  423. off = 64;
  424. else if ((data = src->m32[3]))
  425. off = 96;
  426. else
  427. return 128;
  428. asm ("bfffo %1{#0,#32},%0" : "=d" (res) : "dm" (data));
  429. return res + off;
  430. }
  431. extern inline void fp_shiftmant128(union fp_mant128 *src, int shift)
  432. {
  433. unsigned long sticky;
  434. switch (shift) {
  435. case 0:
  436. return;
  437. case 1:
  438. asm volatile ("lsl.l #1,%0"
  439. : "=d" (src->m32[3]) : "0" (src->m32[3]));
  440. asm volatile ("roxl.l #1,%0"
  441. : "=d" (src->m32[2]) : "0" (src->m32[2]));
  442. asm volatile ("roxl.l #1,%0"
  443. : "=d" (src->m32[1]) : "0" (src->m32[1]));
  444. asm volatile ("roxl.l #1,%0"
  445. : "=d" (src->m32[0]) : "0" (src->m32[0]));
  446. return;
  447. case 2 ... 31:
  448. src->m32[0] = (src->m32[0] << shift) | (src->m32[1] >> (32 - shift));
  449. src->m32[1] = (src->m32[1] << shift) | (src->m32[2] >> (32 - shift));
  450. src->m32[2] = (src->m32[2] << shift) | (src->m32[3] >> (32 - shift));
  451. src->m32[3] = (src->m32[3] << shift);
  452. return;
  453. case 32 ... 63:
  454. shift -= 32;
  455. src->m32[0] = (src->m32[1] << shift) | (src->m32[2] >> (32 - shift));
  456. src->m32[1] = (src->m32[2] << shift) | (src->m32[3] >> (32 - shift));
  457. src->m32[2] = (src->m32[3] << shift);
  458. src->m32[3] = 0;
  459. return;
  460. case 64 ... 95:
  461. shift -= 64;
  462. src->m32[0] = (src->m32[2] << shift) | (src->m32[3] >> (32 - shift));
  463. src->m32[1] = (src->m32[3] << shift);
  464. src->m32[2] = src->m32[3] = 0;
  465. return;
  466. case 96 ... 127:
  467. shift -= 96;
  468. src->m32[0] = (src->m32[3] << shift);
  469. src->m32[1] = src->m32[2] = src->m32[3] = 0;
  470. return;
  471. case -31 ... -1:
  472. shift = -shift;
  473. sticky = 0;
  474. if (src->m32[3] << (32 - shift))
  475. sticky = 1;
  476. src->m32[3] = (src->m32[3] >> shift) | (src->m32[2] << (32 - shift)) | sticky;
  477. src->m32[2] = (src->m32[2] >> shift) | (src->m32[1] << (32 - shift));
  478. src->m32[1] = (src->m32[1] >> shift) | (src->m32[0] << (32 - shift));
  479. src->m32[0] = (src->m32[0] >> shift);
  480. return;
  481. case -63 ... -32:
  482. shift = -shift - 32;
  483. sticky = 0;
  484. if ((src->m32[2] << (32 - shift)) || src->m32[3])
  485. sticky = 1;
  486. src->m32[3] = (src->m32[2] >> shift) | (src->m32[1] << (32 - shift)) | sticky;
  487. src->m32[2] = (src->m32[1] >> shift) | (src->m32[0] << (32 - shift));
  488. src->m32[1] = (src->m32[0] >> shift);
  489. src->m32[0] = 0;
  490. return;
  491. case -95 ... -64:
  492. shift = -shift - 64;
  493. sticky = 0;
  494. if ((src->m32[1] << (32 - shift)) || src->m32[2] || src->m32[3])
  495. sticky = 1;
  496. src->m32[3] = (src->m32[1] >> shift) | (src->m32[0] << (32 - shift)) | sticky;
  497. src->m32[2] = (src->m32[0] >> shift);
  498. src->m32[1] = src->m32[0] = 0;
  499. return;
  500. case -127 ... -96:
  501. shift = -shift - 96;
  502. sticky = 0;
  503. if ((src->m32[0] << (32 - shift)) || src->m32[1] || src->m32[2] || src->m32[3])
  504. sticky = 1;
  505. src->m32[3] = (src->m32[0] >> shift) | sticky;
  506. src->m32[2] = src->m32[1] = src->m32[0] = 0;
  507. return;
  508. }
  509. if (shift < 0 && (src->m32[0] || src->m32[1] || src->m32[2] || src->m32[3]))
  510. src->m32[3] = 1;
  511. else
  512. src->m32[3] = 0;
  513. src->m32[2] = 0;
  514. src->m32[1] = 0;
  515. src->m32[0] = 0;
  516. }
  517. #endif
  518. extern inline void fp_putmant128(struct fp_ext *dest, union fp_mant128 *src, int shift)
  519. {
  520. unsigned long tmp;
  521. switch (shift) {
  522. case 0:
  523. dest->mant.m64 = src->m64[0];
  524. dest->lowmant = src->m32[2] >> 24;
  525. if (src->m32[3] || (src->m32[2] << 8))
  526. dest->lowmant |= 1;
  527. break;
  528. case 1:
  529. asm volatile ("lsl.l #1,%0"
  530. : "=d" (tmp) : "0" (src->m32[2]));
  531. asm volatile ("roxl.l #1,%0"
  532. : "=d" (dest->mant.m32[1]) : "0" (src->m32[1]));
  533. asm volatile ("roxl.l #1,%0"
  534. : "=d" (dest->mant.m32[0]) : "0" (src->m32[0]));
  535. dest->lowmant = tmp >> 24;
  536. if (src->m32[3] || (tmp << 8))
  537. dest->lowmant |= 1;
  538. break;
  539. case 31:
  540. asm volatile ("lsr.l #1,%1; roxr.l #1,%0"
  541. : "=d" (dest->mant.m32[0])
  542. : "d" (src->m32[0]), "0" (src->m32[1]));
  543. asm volatile ("roxr.l #1,%0"
  544. : "=d" (dest->mant.m32[1]) : "0" (src->m32[2]));
  545. asm volatile ("roxr.l #1,%0"
  546. : "=d" (tmp) : "0" (src->m32[3]));
  547. dest->lowmant = tmp >> 24;
  548. if (src->m32[3] << 7)
  549. dest->lowmant |= 1;
  550. break;
  551. case 32:
  552. dest->mant.m32[0] = src->m32[1];
  553. dest->mant.m32[1] = src->m32[2];
  554. dest->lowmant = src->m32[3] >> 24;
  555. if (src->m32[3] << 8)
  556. dest->lowmant |= 1;
  557. break;
  558. }
  559. }
  560. #if 0 /* old code... */
  561. extern inline int fls(unsigned int a)
  562. {
  563. int r;
  564. asm volatile ("bfffo %1{#0,#32},%0"
  565.       : "=d" (r) : "md" (a));
  566. return r;
  567. }
  568. /* fls = "find last set" (cf. ffs(3)) */
  569. extern inline int fls128(const int128 a)
  570. {
  571. if (a[MSW128])
  572. return fls(a[MSW128]);
  573. if (a[NMSW128])
  574. return fls(a[NMSW128]) + 32;
  575. /* XXX: it probably never gets beyond this point in actual
  576.    use, but that's indicative of a more general problem in the
  577.    algorithm (i.e. as per the actual 68881 implementation, we
  578.    really only need at most 67 bits of precision [plus
  579.    overflow]) so I'm not going to fix it. */
  580. if (a[NLSW128])
  581. return fls(a[NLSW128]) + 64;
  582. if (a[LSW128])
  583. return fls(a[LSW128]) + 96;
  584. else
  585. return -1;
  586. }
  587. extern inline int zerop128(const int128 a)
  588. {
  589. return !(a[LSW128] | a[NLSW128] | a[NMSW128] | a[MSW128]);
  590. }
  591. extern inline int nonzerop128(const int128 a)
  592. {
  593. return (a[LSW128] | a[NLSW128] | a[NMSW128] | a[MSW128]);
  594. }
  595. /* Addition and subtraction */
  596. /* Do these in "pure" assembly, because "extended" asm is unmanageable
  597.    here */
  598. extern inline void add128(const int128 a, int128 b)
  599. {
  600. /* rotating carry flags */
  601. unsigned int carry[2];
  602. carry[0] = a[LSW128] > (0xffffffff - b[LSW128]);
  603. b[LSW128] += a[LSW128];
  604. carry[1] = a[NLSW128] > (0xffffffff - b[NLSW128] - carry[0]);
  605. b[NLSW128] = a[NLSW128] + b[NLSW128] + carry[0];
  606. carry[0] = a[NMSW128] > (0xffffffff - b[NMSW128] - carry[1]);
  607. b[NMSW128] = a[NMSW128] + b[NMSW128] + carry[1];
  608. b[MSW128] = a[MSW128] + b[MSW128] + carry[0];
  609. }
  610. /* Note: assembler semantics: "b -= a" */
  611. extern inline void sub128(const int128 a, int128 b)
  612. {
  613. /* rotating borrow flags */
  614. unsigned int borrow[2];
  615. borrow[0] = b[LSW128] < a[LSW128];
  616. b[LSW128] -= a[LSW128];
  617. borrow[1] = b[NLSW128] < a[NLSW128] + borrow[0];
  618. b[NLSW128] = b[NLSW128] - a[NLSW128] - borrow[0];
  619. borrow[0] = b[NMSW128] < a[NMSW128] + borrow[1];
  620. b[NMSW128] = b[NMSW128] - a[NMSW128] - borrow[1];
  621. b[MSW128] = b[MSW128] - a[MSW128] - borrow[0];
  622. }
  623. /* Poor man's 64-bit expanding multiply */
  624. extern inline void mul64(unsigned long long a,
  625.   unsigned long long b,
  626.   int128 c)
  627. {
  628. unsigned long long acc;
  629. int128 acc128;
  630. zero128(acc128);
  631. zero128(c);
  632. /* first the low words */
  633. if (LO_WORD(a) && LO_WORD(b)) {
  634. acc = (long long) LO_WORD(a) * LO_WORD(b);
  635. c[NLSW128] = HI_WORD(acc);
  636. c[LSW128] = LO_WORD(acc);
  637. }
  638. /* Next the high words */
  639. if (HI_WORD(a) && HI_WORD(b)) {
  640. acc = (long long) HI_WORD(a) * HI_WORD(b);
  641. c[MSW128] = HI_WORD(acc);
  642. c[NMSW128] = LO_WORD(acc);
  643. }
  644. /* The middle words */
  645. if (LO_WORD(a) && HI_WORD(b)) {
  646. acc = (long long) LO_WORD(a) * HI_WORD(b);
  647. acc128[NMSW128] = HI_WORD(acc);
  648. acc128[NLSW128] = LO_WORD(acc);
  649. add128(acc128, c);
  650. }
  651. /* The first and last words */
  652. if (HI_WORD(a) && LO_WORD(b)) {
  653. acc = (long long) HI_WORD(a) * LO_WORD(b);
  654. acc128[NMSW128] = HI_WORD(acc);
  655. acc128[NLSW128] = LO_WORD(acc);
  656. add128(acc128, c);
  657. }
  658. }
  659. /* Note: unsigned */
  660. extern inline int cmp128(int128 a, int128 b)
  661. {
  662. if (a[MSW128] < b[MSW128])
  663. return -1;
  664. if (a[MSW128] > b[MSW128])
  665. return 1;
  666. if (a[NMSW128] < b[NMSW128])
  667. return -1;
  668. if (a[NMSW128] > b[NMSW128])
  669. return 1;
  670. if (a[NLSW128] < b[NLSW128])
  671. return -1;
  672. if (a[NLSW128] > b[NLSW128])
  673. return 1;
  674. return (signed) a[LSW128] - b[LSW128];
  675. }
  676. inline void div128(int128 a, int128 b, int128 c)
  677. {
  678. int128 mask;
  679. /* Algorithm:
  680.    Shift the divisor until it's at least as big as the
  681.    dividend, keeping track of the position to which we've
  682.    shifted it, i.e. the power of 2 which we've multiplied it
  683.    by.
  684.    Then, for this power of 2 (the mask), and every one smaller
  685.    than it, subtract the mask from the dividend and add it to
  686.    the quotient until the dividend is smaller than the raised
  687.    divisor.  At this point, divide the dividend and the mask
  688.    by 2 (i.e. shift one place to the right).  Lather, rinse,
  689.    and repeat, until there are no more powers of 2 left. */
  690. /* FIXME: needless to say, there's room for improvement here too. */
  691. /* Shift up */
  692. /* XXX: since it just has to be "at least as big", we can
  693.    probably eliminate this horribly wasteful loop.  I will
  694.    have to prove this first, though */
  695. set128(0, 0, 0, 1, mask);
  696. while (cmp128(b, a) < 0 && !btsthi128(b)) {
  697. lslone128(b);
  698. lslone128(mask);
  699. }
  700. /* Shift down */
  701. zero128(c);
  702. do {
  703. if (cmp128(a, b) >= 0) {
  704. sub128(b, a);
  705. add128(mask, c);
  706. }
  707. lsrone128(mask);
  708. lsrone128(b);
  709. } while (nonzerop128(mask));
  710. /* The remainder is in a... */
  711. }
  712. #endif
  713. #endif /* MULTI_ARITH_H */