aes.c
上传用户:awang829
上传日期:2019-07-14
资源大小:2356k
文件大小:44k
源码类别:

网络

开发平台:

Unix_Linux

  1. /* Copyright (c) 2001, Matej Pfajfar.
  2.  * Copyright (c) 2001-2004, Roger Dingledine.
  3.  * Copyright (c) 2004-2006, Roger Dingledine, Nick Mathewson.
  4.  * Copyright (c) 2007-2009, The Tor Project, Inc. */
  5. /* See LICENSE for licensing information */
  6. /**
  7.  * file aes.c
  8.  * brief Implements the AES cipher (with 128-bit keys and blocks),
  9.  * and a counter-mode stream cipher on top of AES.  This code is
  10.  * taken from the main Rijndael distribution.  (We include this
  11.  * because many people are running older versions of OpenSSL without
  12.  * AES support.)
  13.  **/
  14. #include "orconfig.h"
  15. #include <openssl/opensslv.h>
  16. #include <assert.h>
  17. #include <stdlib.h>
  18. #include <string.h>
  19. #include "compat.h"
  20. #include "aes.h"
  21. #include "util.h"
  22. #include "log.h"
  23. /* We have 3 strategies for getting AES: Via OpenSSL's AES_encrypt function,
  24.  * via OpenSSL's EVP_EncryptUpdate function, or via the built-in AES
  25.  * implementation below. */
  26. /** Defined iff we're using OpenSSL's AES functions for AES. */
  27. #undef USE_OPENSSL_AES
  28. /** Defined iff we're using OpenSSL's EVP code for AES. */
  29. #undef USE_OPENSSL_EVP
  30. /** Defined iff we're using Tor's internal AES implementation, defined
  31.  * below. */
  32. #undef USE_BUILTIN_AES
  33. /* Figure out our CPU type.  We use this to pick an AES implementation.
  34.  * Macros are as listed at http://predef.sourceforge.net/prearch.html
  35.  */
  36. #if (defined(i386) || defined(__i386__) || defined(__i386) || defined(_X86_) 
  37.      || defined(_M_IX86) || defined(__THW_INTEL__) || defined(__I86__))
  38. # define CPU_IS_X86
  39. #elif (defined(__amd64__) || defined(__amd64) || 
  40.        defined(__x86_64__) || defined(__x86_64) || 
  41.        defined(_M_X64))
  42. # define CPU_IS_X86_64
  43. #elif (defined(__ia64__) || defined(__ia64) || defined(_IA64) || 
  44.        defined(_M_IA64))
  45. # define CPU_IS_IA64
  46. #elif (defined(__sparc__) || defined(__sparc))
  47. # define CPU_IS_SPARC
  48. #elif (defined(__arm__) || defined (__TARGET_ARCH_ARM))
  49. # define CPU_IS_ARM
  50. #endif
  51. /* Here we pick which to use, if none is force-defined.  See
  52.  *      http://archives.seul.org/or/dev/Feb-2007/msg00045.html
  53.  * for a summary of the most recent benchmarking results that led to this
  54.  * nutty decision tree.
  55. */
  56. #if (!defined(USE_BUILTIN_AES) &&               
  57.      !defined(USE_OPENSSL_AES) &&               
  58.      !defined(USE_OPENSSL_EVP))
  59. /* OpenSSL 0.9.7 was the first to support AES.  It was slower than our
  60.  *    built-in implementation.
  61.  * OpenSSL 0.9.8 added assembly implementations for i386 and ia64.
  62.  *    Either the i386 stuff isn't used for x86-64, or it isn't faster.
  63.  * OpenSSL 0.9.9 (not yet out) has added assembly implementations for
  64.  *    x86_64 (aka amd64), sparc9, and arm
  65.  *
  66.  * Note: the "f" at the end of OpenSSL version numbers below means
  67.  * "release". */
  68. # if defined(CPU_IS_X86) || defined(CPU_IS_IA64)
  69. #  if OPENSSL_VERSION_NUMBER >= 0x0090800fL
  70. #   define USE_OPENSSL_AES
  71. #  endif
  72. # endif
  73. # if defined(CPU_IS_X86_64) || defined(CPU_IS_ARM) || defined(CPU_IS_SPARC)
  74. #  if OPENSSL_VERSION_NUMBER >= 0x0090900fL
  75. #   define USE_OPENSSL_AES
  76. #  endif
  77. # endif
  78. /* Otherwise, use the built-in implementation below. */
  79. # ifndef USE_OPENSSL_AES
  80. #  define USE_BUILTIN_AES
  81. # endif
  82. #endif /* endif need to pick a method */
  83. /* Include OpenSSL headers as needed. */
  84. #ifdef USE_OPENSSL_AES
  85. # include <openssl/aes.h>
  86. #endif
  87. #ifdef USE_OPENSSL_EVP
  88. # include <openssl/evp.h>
  89. #endif
  90. /* Figure out which AES optimizations to use. */
  91. #ifdef USE_BUILTIN_AES
  92. # define USE_RIJNDAEL_COUNTER_OPTIMIZATION
  93. # if 0 && (defined(__powerpc__) || defined(__powerpc64__))
  94. /* XXXX do more experimentation before concluding this is actually
  95.  * a good idea. */
  96. #  define FULL_UNROLL
  97. # endif
  98. #endif
  99. /*======================================================================*/
  100. /* From rijndael-alg-fst.h */
  101. typedef uint64_t u64;
  102. typedef uint32_t u32;
  103. typedef uint8_t u8;
  104. #ifdef USE_BUILTIN_AES
  105. #define MAXNR   14
  106. static int rijndaelKeySetupEnc(u32 rk[/*4*(Nr + 1)*/],
  107.                                const u8 cipherKey[], int keyBits);
  108. #ifdef USE_RIJNDAEL_COUNTER_OPTIMIZATION
  109. static void rijndaelEncrypt(const u32 rk[/*4*(Nr + 1)*/], int Nr,
  110.                             u32 ctr3, u32 ctr2,
  111.                             u32 ctr1, u32 ctr0, u8 ct[16]);
  112. #else
  113. static void rijndaelEncrypt(const u32 rk[/*4*(Nr + 1)*/], int Nr,
  114.                             const u8 pt[16], u8 ct[16]);
  115. #endif
  116. #endif
  117. /*======================================================================*/
  118. /* Interface to AES code, and counter implementation */
  119. /** Implements an AES counter-mode cipher. */
  120. struct aes_cnt_cipher {
  121. /** This next element (however it's defined) is the AES key. */
  122. #if defined(USE_OPENSSL_EVP)
  123.   EVP_CIPHER_CTX key;
  124. #elif defined(USE_OPENSSL_AES)
  125.   AES_KEY key;
  126. #else
  127.   u32 rk[4*(MAXNR+1)];
  128.   int nr;
  129. #endif
  130. #if !defined(WORDS_BIGENDIAN) || defined(USE_RIJNDAEL_COUNTER_OPTIMIZATION)
  131. #define USING_COUNTER_VARS
  132.   /** These four values, together, implement a 128-bit counter, with
  133.    * counter0 as the low-order word and counter3 as the high-order word. */
  134.   u32 counter3;
  135.   u32 counter2;
  136.   u32 counter1;
  137.   u32 counter0;
  138. #endif
  139. #ifndef USE_RIJNDAEL_COUNTER_OPTIMIZATION
  140. #define USING_COUNTER_BUFS
  141.   union {
  142.     /** The counter, in big-endian order, as bytes. */
  143.     u8 buf[16];
  144.     /** The counter, in big-endian order, as big-endian words.  Note that
  145.      * on big-endian platforms, this is redundant with counter3...0,
  146.      * so we just use these values instead. */
  147.     u32 buf32[4];
  148.   } ctr_buf;
  149. #endif
  150.   /** The encrypted value of ctr_buf. */
  151.   u8 buf[16];
  152.   /** Our current stream position within buf. */
  153.   u8 pos;
  154. };
  155. #if !defined(USING_COUNTER_VARS)
  156. #define COUNTER(c, n) ((c)->ctr_buf.buf32[3-(n)])
  157. #else
  158. #define COUNTER(c, n) ((c)->counter ## n)
  159. #endif
  160. /**
  161.  * Helper function: set <b>cipher</b>'s internal buffer to the encrypted
  162.  * value of the current counter.
  163.  */
  164. static INLINE void
  165. _aes_fill_buf(aes_cnt_cipher_t *cipher)
  166. {
  167.   /* We don't currently use OpenSSL's counter mode implementation because:
  168.    *  1) some versions have known bugs
  169.    *  2) its attitude towards IVs is not our own
  170.    *  3) changing the counter position was not trivial, last time I looked.
  171.    * None of these issues are insurmountable in principle.
  172.    */
  173. #if defined(USE_BUILTIN_AES) && defined(USE_RIJNDAEL_COUNTER_OPTIMIZATION)
  174.   rijndaelEncrypt(cipher->rk, cipher->nr,
  175.                   cipher->counter3, cipher->counter2,
  176.                   cipher->counter1, cipher->counter0, cipher->buf);
  177. #else
  178. #if defined(USE_OPENSSL_EVP)
  179.   {
  180.     int outl=16, inl=16;
  181.     EVP_EncryptUpdate(&cipher->key, cipher->buf, &outl,
  182.                       cipher->ctr_buf.buf, inl);
  183.   }
  184. #elif defined(USE_OPENSSL_AES)
  185.   AES_encrypt(cipher->ctr_buf.buf, cipher->buf, &cipher->key);
  186. #else
  187.   rijndaelEncrypt(cipher->rk, cipher->nr, cipher->ctr_buf.buf, cipher->buf);
  188. #endif
  189. #endif
  190. }
  191. /**
  192.  * Return a newly allocated counter-mode AES128 cipher implementation.
  193.  */
  194. aes_cnt_cipher_t*
  195. aes_new_cipher(void)
  196. {
  197.   aes_cnt_cipher_t* result = tor_malloc_zero(sizeof(aes_cnt_cipher_t));
  198.   return result;
  199. }
  200. /** Set the key of <b>cipher</b> to <b>key</b>, which is
  201.  * <b>key_bits</b> bits long (must be 128, 192, or 256).  Also resets
  202.  * the counter to 0.
  203.  */
  204. void
  205. aes_set_key(aes_cnt_cipher_t *cipher, const char *key, int key_bits)
  206. {
  207. #if defined(USE_OPENSSL_EVP)
  208.   const EVP_CIPHER *c;
  209.   switch (key_bits) {
  210.     case 128: c = EVP_aes_128_ecb(); break;
  211.     case 192: c = EVP_aes_192_ecb(); break;
  212.     case 256: c = EVP_aes_256_ecb(); break;
  213.     default: tor_assert(0);
  214.   }
  215.   EVP_EncryptInit(&cipher->key, c, (const unsigned char*)key, NULL);
  216. #elif defined(USE_OPENSSL_AES)
  217.   AES_set_encrypt_key((const unsigned char *)key, key_bits, &(cipher->key));
  218. #else
  219.   cipher->nr = rijndaelKeySetupEnc(cipher->rk, (const unsigned char*)key,
  220.                                    key_bits);
  221. #endif
  222. #ifdef USING_COUNTER_VARS
  223.   cipher->counter0 = 0;
  224.   cipher->counter1 = 0;
  225.   cipher->counter2 = 0;
  226.   cipher->counter3 = 0;
  227. #endif
  228. #ifdef USING_COUNTER_BUFS
  229.   memset(cipher->ctr_buf.buf, 0, sizeof(cipher->ctr_buf.buf));
  230. #endif
  231.   cipher->pos = 0;
  232.   _aes_fill_buf(cipher);
  233. }
  234. /** Release storage held by <b>cipher</b>
  235.  */
  236. void
  237. aes_free_cipher(aes_cnt_cipher_t *cipher)
  238. {
  239.   tor_assert(cipher);
  240. #ifdef USE_OPENSSL_EVP
  241.   EVP_CIPHER_CTX_cleanup(&cipher->key);
  242. #endif
  243.   memset(cipher, 0, sizeof(cipher));
  244.   tor_free(cipher);
  245. }
  246. #if defined(USING_COUNTER_VARS) && defined(USING_COUNTER_BUFS)
  247. #define UPDATE_CTR_BUF(c, n) STMT_BEGIN                 
  248.   (c)->ctr_buf.buf32[3-(n)] = htonl((c)->counter ## n); 
  249.   STMT_END
  250. #else
  251. #define UPDATE_CTR_BUF(c, n)
  252. #endif
  253. /** Encrypt <b>len</b> bytes from <b>input</b>, storing the result in
  254.  * <b>output</b>.  Uses the key in <b>cipher</b>, and advances the counter
  255.  * by <b>len</b> bytes as it encrypts.
  256.  */
  257. void
  258. aes_crypt(aes_cnt_cipher_t *cipher, const char *input, size_t len,
  259.           char *output)
  260. {
  261.   /* XXXX This function is up to 5% of our runtime in some profiles;
  262.    * we should look into unrolling some of the loops; taking advantage
  263.    * of alignment, using a bigger buffer, and so on. Not till after 0.1.2.x,
  264.    * though. */
  265.   int c = cipher->pos;
  266.   if (PREDICT_UNLIKELY(!len)) return;
  267.   while (1) {
  268.     do {
  269.       if (len-- == 0) { cipher->pos = c; return; }
  270.       *(output++) = *(input++) ^ cipher->buf[c];
  271.     } while (++c != 16);
  272.     cipher->pos = c = 0;
  273.     if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 0))) {
  274.       if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 1))) {
  275.         if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 2))) {
  276.           ++COUNTER(cipher, 3);
  277.           UPDATE_CTR_BUF(cipher, 3);
  278.         }
  279.         UPDATE_CTR_BUF(cipher, 2);
  280.       }
  281.       UPDATE_CTR_BUF(cipher, 1);
  282.     }
  283.     UPDATE_CTR_BUF(cipher, 0);
  284.     _aes_fill_buf(cipher);
  285.   }
  286. }
  287. /** Encrypt <b>len</b> bytes from <b>input</b>, storing the results in place.
  288.  * Uses the key in <b>cipher</b>, and advances the counter by <b>len</b> bytes
  289.  * as it encrypts.
  290.  */
  291. void
  292. aes_crypt_inplace(aes_cnt_cipher_t *cipher, char *data, size_t len)
  293. {
  294.   /* XXXX This function is up to 5% of our runtime in some profiles;
  295.    * we should look into unrolling some of the loops; taking advantage
  296.    * of alignment, using a bigger buffer, and so on. Not till after 0.1.2.x,
  297.    * though. */
  298.   int c = cipher->pos;
  299.   if (PREDICT_UNLIKELY(!len)) return;
  300.   while (1) {
  301.     do {
  302.       if (len-- == 0) { cipher->pos = c; return; }
  303.       *(data++) ^= cipher->buf[c];
  304.     } while (++c != 16);
  305.     cipher->pos = c = 0;
  306.     if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 0))) {
  307.       if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 1))) {
  308.         if (PREDICT_UNLIKELY(! ++COUNTER(cipher, 2))) {
  309.           ++COUNTER(cipher, 3);
  310.           UPDATE_CTR_BUF(cipher, 3);
  311.         }
  312.         UPDATE_CTR_BUF(cipher, 2);
  313.       }
  314.       UPDATE_CTR_BUF(cipher, 1);
  315.     }
  316.     UPDATE_CTR_BUF(cipher, 0);
  317.     _aes_fill_buf(cipher);
  318.   }
  319. }
  320. /** Reset the 128-bit counter of <b>cipher</b> to the 16-bit big-endian value
  321.  * in <b>iv</b>. */
  322. void
  323. aes_set_iv(aes_cnt_cipher_t *cipher, const char *iv)
  324. {
  325. #ifdef USING_COUNTER_VARS
  326.   cipher->counter3 = ntohl(get_uint32(iv));
  327.   cipher->counter2 = ntohl(get_uint32(iv+4));
  328.   cipher->counter1 = ntohl(get_uint32(iv+8));
  329.   cipher->counter0 = ntohl(get_uint32(iv+12));
  330. #endif
  331.   cipher->pos = 0;
  332. #ifndef USE_RIJNDAEL_COUNTER_OPTIMIZATION
  333.   memcpy(cipher->ctr_buf.buf, iv, 16);
  334. #endif
  335.   _aes_fill_buf(cipher);
  336. }
  337. #ifdef USE_BUILTIN_AES
  338. /*======================================================================*/
  339. /* From rijndael-alg-fst.c */
  340. /**
  341.  * rijndael-alg-fst.c
  342.  *
  343.  * @version 3.0 (December 2000)
  344.  *
  345.  * Optimized ANSI C code for the Rijndael cipher (now AES)
  346.  *
  347.  * @author Vincent Rijmen <vincent.rijmen@esat.kuleuven.ac.be>
  348.  * @author Antoon Bosselaers <antoon.bosselaers@esat.kuleuven.ac.be>
  349.  * @author Paulo Barreto <paulo.barreto@terra.com.br>
  350.  *
  351.  * This code is hereby placed in the public domain.
  352.  *
  353.  * THIS SOFTWARE IS PROVIDED BY THE AUTHORS ''AS IS'' AND ANY EXPRESS
  354.  * OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
  355.  * WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
  356.  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHORS OR CONTRIBUTORS BE
  357.  * LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
  358.  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
  359.  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR
  360.  * BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
  361.  * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE
  362.  * OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE,
  363.  * EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
  364.  */
  365. /*
  366. Te0[x] = S [x].[02, 01, 01, 03];
  367. Te1[x] = S [x].[03, 02, 01, 01];
  368. Te2[x] = S [x].[01, 03, 02, 01];
  369. Te3[x] = S [x].[01, 01, 03, 02];
  370. Te4[x] = S [x].[01, 01, 01, 01];
  371. Td0[x] = Si[x].[0e, 09, 0d, 0b];
  372. Td1[x] = Si[x].[0b, 0e, 09, 0d];
  373. Td2[x] = Si[x].[0d, 0b, 0e, 09];
  374. Td3[x] = Si[x].[09, 0d, 0b, 0e];
  375. Td4[x] = Si[x].[01, 01, 01, 01];
  376. */
  377. static const u32 Te0[256] = {
  378.     0xc66363a5U, 0xf87c7c84U, 0xee777799U, 0xf67b7b8dU,
  379.     0xfff2f20dU, 0xd66b6bbdU, 0xde6f6fb1U, 0x91c5c554U,
  380.     0x60303050U, 0x02010103U, 0xce6767a9U, 0x562b2b7dU,
  381.     0xe7fefe19U, 0xb5d7d762U, 0x4dababe6U, 0xec76769aU,
  382.     0x8fcaca45U, 0x1f82829dU, 0x89c9c940U, 0xfa7d7d87U,
  383.     0xeffafa15U, 0xb25959ebU, 0x8e4747c9U, 0xfbf0f00bU,
  384.     0x41adadecU, 0xb3d4d467U, 0x5fa2a2fdU, 0x45afafeaU,
  385.     0x239c9cbfU, 0x53a4a4f7U, 0xe4727296U, 0x9bc0c05bU,
  386.     0x75b7b7c2U, 0xe1fdfd1cU, 0x3d9393aeU, 0x4c26266aU,
  387.     0x6c36365aU, 0x7e3f3f41U, 0xf5f7f702U, 0x83cccc4fU,
  388.     0x6834345cU, 0x51a5a5f4U, 0xd1e5e534U, 0xf9f1f108U,
  389.     0xe2717193U, 0xabd8d873U, 0x62313153U, 0x2a15153fU,
  390.     0x0804040cU, 0x95c7c752U, 0x46232365U, 0x9dc3c35eU,
  391.     0x30181828U, 0x379696a1U, 0x0a05050fU, 0x2f9a9ab5U,
  392.     0x0e070709U, 0x24121236U, 0x1b80809bU, 0xdfe2e23dU,
  393.     0xcdebeb26U, 0x4e272769U, 0x7fb2b2cdU, 0xea75759fU,
  394.     0x1209091bU, 0x1d83839eU, 0x582c2c74U, 0x341a1a2eU,
  395.     0x361b1b2dU, 0xdc6e6eb2U, 0xb45a5aeeU, 0x5ba0a0fbU,
  396.     0xa45252f6U, 0x763b3b4dU, 0xb7d6d661U, 0x7db3b3ceU,
  397.     0x5229297bU, 0xdde3e33eU, 0x5e2f2f71U, 0x13848497U,
  398.     0xa65353f5U, 0xb9d1d168U, 0x00000000U, 0xc1eded2cU,
  399.     0x40202060U, 0xe3fcfc1fU, 0x79b1b1c8U, 0xb65b5bedU,
  400.     0xd46a6abeU, 0x8dcbcb46U, 0x67bebed9U, 0x7239394bU,
  401.     0x944a4adeU, 0x984c4cd4U, 0xb05858e8U, 0x85cfcf4aU,
  402.     0xbbd0d06bU, 0xc5efef2aU, 0x4faaaae5U, 0xedfbfb16U,
  403.     0x864343c5U, 0x9a4d4dd7U, 0x66333355U, 0x11858594U,
  404.     0x8a4545cfU, 0xe9f9f910U, 0x04020206U, 0xfe7f7f81U,
  405.     0xa05050f0U, 0x783c3c44U, 0x259f9fbaU, 0x4ba8a8e3U,
  406.     0xa25151f3U, 0x5da3a3feU, 0x804040c0U, 0x058f8f8aU,
  407.     0x3f9292adU, 0x219d9dbcU, 0x70383848U, 0xf1f5f504U,
  408.     0x63bcbcdfU, 0x77b6b6c1U, 0xafdada75U, 0x42212163U,
  409.     0x20101030U, 0xe5ffff1aU, 0xfdf3f30eU, 0xbfd2d26dU,
  410.     0x81cdcd4cU, 0x180c0c14U, 0x26131335U, 0xc3ecec2fU,
  411.     0xbe5f5fe1U, 0x359797a2U, 0x884444ccU, 0x2e171739U,
  412.     0x93c4c457U, 0x55a7a7f2U, 0xfc7e7e82U, 0x7a3d3d47U,
  413.     0xc86464acU, 0xba5d5de7U, 0x3219192bU, 0xe6737395U,
  414.     0xc06060a0U, 0x19818198U, 0x9e4f4fd1U, 0xa3dcdc7fU,
  415.     0x44222266U, 0x542a2a7eU, 0x3b9090abU, 0x0b888883U,
  416.     0x8c4646caU, 0xc7eeee29U, 0x6bb8b8d3U, 0x2814143cU,
  417.     0xa7dede79U, 0xbc5e5ee2U, 0x160b0b1dU, 0xaddbdb76U,
  418.     0xdbe0e03bU, 0x64323256U, 0x743a3a4eU, 0x140a0a1eU,
  419.     0x924949dbU, 0x0c06060aU, 0x4824246cU, 0xb85c5ce4U,
  420.     0x9fc2c25dU, 0xbdd3d36eU, 0x43acacefU, 0xc46262a6U,
  421.     0x399191a8U, 0x319595a4U, 0xd3e4e437U, 0xf279798bU,
  422.     0xd5e7e732U, 0x8bc8c843U, 0x6e373759U, 0xda6d6db7U,
  423.     0x018d8d8cU, 0xb1d5d564U, 0x9c4e4ed2U, 0x49a9a9e0U,
  424.     0xd86c6cb4U, 0xac5656faU, 0xf3f4f407U, 0xcfeaea25U,
  425.     0xca6565afU, 0xf47a7a8eU, 0x47aeaee9U, 0x10080818U,
  426.     0x6fbabad5U, 0xf0787888U, 0x4a25256fU, 0x5c2e2e72U,
  427.     0x381c1c24U, 0x57a6a6f1U, 0x73b4b4c7U, 0x97c6c651U,
  428.     0xcbe8e823U, 0xa1dddd7cU, 0xe874749cU, 0x3e1f1f21U,
  429.     0x964b4bddU, 0x61bdbddcU, 0x0d8b8b86U, 0x0f8a8a85U,
  430.     0xe0707090U, 0x7c3e3e42U, 0x71b5b5c4U, 0xcc6666aaU,
  431.     0x904848d8U, 0x06030305U, 0xf7f6f601U, 0x1c0e0e12U,
  432.     0xc26161a3U, 0x6a35355fU, 0xae5757f9U, 0x69b9b9d0U,
  433.     0x17868691U, 0x99c1c158U, 0x3a1d1d27U, 0x279e9eb9U,
  434.     0xd9e1e138U, 0xebf8f813U, 0x2b9898b3U, 0x22111133U,
  435.     0xd26969bbU, 0xa9d9d970U, 0x078e8e89U, 0x339494a7U,
  436.     0x2d9b9bb6U, 0x3c1e1e22U, 0x15878792U, 0xc9e9e920U,
  437.     0x87cece49U, 0xaa5555ffU, 0x50282878U, 0xa5dfdf7aU,
  438.     0x038c8c8fU, 0x59a1a1f8U, 0x09898980U, 0x1a0d0d17U,
  439.     0x65bfbfdaU, 0xd7e6e631U, 0x844242c6U, 0xd06868b8U,
  440.     0x824141c3U, 0x299999b0U, 0x5a2d2d77U, 0x1e0f0f11U,
  441.     0x7bb0b0cbU, 0xa85454fcU, 0x6dbbbbd6U, 0x2c16163aU,
  442. };
  443. static const u32 Te1[256] = {
  444.     0xa5c66363U, 0x84f87c7cU, 0x99ee7777U, 0x8df67b7bU,
  445.     0x0dfff2f2U, 0xbdd66b6bU, 0xb1de6f6fU, 0x5491c5c5U,
  446.     0x50603030U, 0x03020101U, 0xa9ce6767U, 0x7d562b2bU,
  447.     0x19e7fefeU, 0x62b5d7d7U, 0xe64dababU, 0x9aec7676U,
  448.     0x458fcacaU, 0x9d1f8282U, 0x4089c9c9U, 0x87fa7d7dU,
  449.     0x15effafaU, 0xebb25959U, 0xc98e4747U, 0x0bfbf0f0U,
  450.     0xec41adadU, 0x67b3d4d4U, 0xfd5fa2a2U, 0xea45afafU,
  451.     0xbf239c9cU, 0xf753a4a4U, 0x96e47272U, 0x5b9bc0c0U,
  452.     0xc275b7b7U, 0x1ce1fdfdU, 0xae3d9393U, 0x6a4c2626U,
  453.     0x5a6c3636U, 0x417e3f3fU, 0x02f5f7f7U, 0x4f83ccccU,
  454.     0x5c683434U, 0xf451a5a5U, 0x34d1e5e5U, 0x08f9f1f1U,
  455.     0x93e27171U, 0x73abd8d8U, 0x53623131U, 0x3f2a1515U,
  456.     0x0c080404U, 0x5295c7c7U, 0x65462323U, 0x5e9dc3c3U,
  457.     0x28301818U, 0xa1379696U, 0x0f0a0505U, 0xb52f9a9aU,
  458.     0x090e0707U, 0x36241212U, 0x9b1b8080U, 0x3ddfe2e2U,
  459.     0x26cdebebU, 0x694e2727U, 0xcd7fb2b2U, 0x9fea7575U,
  460.     0x1b120909U, 0x9e1d8383U, 0x74582c2cU, 0x2e341a1aU,
  461.     0x2d361b1bU, 0xb2dc6e6eU, 0xeeb45a5aU, 0xfb5ba0a0U,
  462.     0xf6a45252U, 0x4d763b3bU, 0x61b7d6d6U, 0xce7db3b3U,
  463.     0x7b522929U, 0x3edde3e3U, 0x715e2f2fU, 0x97138484U,
  464.     0xf5a65353U, 0x68b9d1d1U, 0x00000000U, 0x2cc1ededU,
  465.     0x60402020U, 0x1fe3fcfcU, 0xc879b1b1U, 0xedb65b5bU,
  466.     0xbed46a6aU, 0x468dcbcbU, 0xd967bebeU, 0x4b723939U,
  467.     0xde944a4aU, 0xd4984c4cU, 0xe8b05858U, 0x4a85cfcfU,
  468.     0x6bbbd0d0U, 0x2ac5efefU, 0xe54faaaaU, 0x16edfbfbU,
  469.     0xc5864343U, 0xd79a4d4dU, 0x55663333U, 0x94118585U,
  470.     0xcf8a4545U, 0x10e9f9f9U, 0x06040202U, 0x81fe7f7fU,
  471.     0xf0a05050U, 0x44783c3cU, 0xba259f9fU, 0xe34ba8a8U,
  472.     0xf3a25151U, 0xfe5da3a3U, 0xc0804040U, 0x8a058f8fU,
  473.     0xad3f9292U, 0xbc219d9dU, 0x48703838U, 0x04f1f5f5U,
  474.     0xdf63bcbcU, 0xc177b6b6U, 0x75afdadaU, 0x63422121U,
  475.     0x30201010U, 0x1ae5ffffU, 0x0efdf3f3U, 0x6dbfd2d2U,
  476.     0x4c81cdcdU, 0x14180c0cU, 0x35261313U, 0x2fc3ececU,
  477.     0xe1be5f5fU, 0xa2359797U, 0xcc884444U, 0x392e1717U,
  478.     0x5793c4c4U, 0xf255a7a7U, 0x82fc7e7eU, 0x477a3d3dU,
  479.     0xacc86464U, 0xe7ba5d5dU, 0x2b321919U, 0x95e67373U,
  480.     0xa0c06060U, 0x98198181U, 0xd19e4f4fU, 0x7fa3dcdcU,
  481.     0x66442222U, 0x7e542a2aU, 0xab3b9090U, 0x830b8888U,
  482.     0xca8c4646U, 0x29c7eeeeU, 0xd36bb8b8U, 0x3c281414U,
  483.     0x79a7dedeU, 0xe2bc5e5eU, 0x1d160b0bU, 0x76addbdbU,
  484.     0x3bdbe0e0U, 0x56643232U, 0x4e743a3aU, 0x1e140a0aU,
  485.     0xdb924949U, 0x0a0c0606U, 0x6c482424U, 0xe4b85c5cU,
  486.     0x5d9fc2c2U, 0x6ebdd3d3U, 0xef43acacU, 0xa6c46262U,
  487.     0xa8399191U, 0xa4319595U, 0x37d3e4e4U, 0x8bf27979U,
  488.     0x32d5e7e7U, 0x438bc8c8U, 0x596e3737U, 0xb7da6d6dU,
  489.     0x8c018d8dU, 0x64b1d5d5U, 0xd29c4e4eU, 0xe049a9a9U,
  490.     0xb4d86c6cU, 0xfaac5656U, 0x07f3f4f4U, 0x25cfeaeaU,
  491.     0xafca6565U, 0x8ef47a7aU, 0xe947aeaeU, 0x18100808U,
  492.     0xd56fbabaU, 0x88f07878U, 0x6f4a2525U, 0x725c2e2eU,
  493.     0x24381c1cU, 0xf157a6a6U, 0xc773b4b4U, 0x5197c6c6U,
  494.     0x23cbe8e8U, 0x7ca1ddddU, 0x9ce87474U, 0x213e1f1fU,
  495.     0xdd964b4bU, 0xdc61bdbdU, 0x860d8b8bU, 0x850f8a8aU,
  496.     0x90e07070U, 0x427c3e3eU, 0xc471b5b5U, 0xaacc6666U,
  497.     0xd8904848U, 0x05060303U, 0x01f7f6f6U, 0x121c0e0eU,
  498.     0xa3c26161U, 0x5f6a3535U, 0xf9ae5757U, 0xd069b9b9U,
  499.     0x91178686U, 0x5899c1c1U, 0x273a1d1dU, 0xb9279e9eU,
  500.     0x38d9e1e1U, 0x13ebf8f8U, 0xb32b9898U, 0x33221111U,
  501.     0xbbd26969U, 0x70a9d9d9U, 0x89078e8eU, 0xa7339494U,
  502.     0xb62d9b9bU, 0x223c1e1eU, 0x92158787U, 0x20c9e9e9U,
  503.     0x4987ceceU, 0xffaa5555U, 0x78502828U, 0x7aa5dfdfU,
  504.     0x8f038c8cU, 0xf859a1a1U, 0x80098989U, 0x171a0d0dU,
  505.     0xda65bfbfU, 0x31d7e6e6U, 0xc6844242U, 0xb8d06868U,
  506.     0xc3824141U, 0xb0299999U, 0x775a2d2dU, 0x111e0f0fU,
  507.     0xcb7bb0b0U, 0xfca85454U, 0xd66dbbbbU, 0x3a2c1616U,
  508. };
  509. static const u32 Te2[256] = {
  510.     0x63a5c663U, 0x7c84f87cU, 0x7799ee77U, 0x7b8df67bU,
  511.     0xf20dfff2U, 0x6bbdd66bU, 0x6fb1de6fU, 0xc55491c5U,
  512.     0x30506030U, 0x01030201U, 0x67a9ce67U, 0x2b7d562bU,
  513.     0xfe19e7feU, 0xd762b5d7U, 0xabe64dabU, 0x769aec76U,
  514.     0xca458fcaU, 0x829d1f82U, 0xc94089c9U, 0x7d87fa7dU,
  515.     0xfa15effaU, 0x59ebb259U, 0x47c98e47U, 0xf00bfbf0U,
  516.     0xadec41adU, 0xd467b3d4U, 0xa2fd5fa2U, 0xafea45afU,
  517.     0x9cbf239cU, 0xa4f753a4U, 0x7296e472U, 0xc05b9bc0U,
  518.     0xb7c275b7U, 0xfd1ce1fdU, 0x93ae3d93U, 0x266a4c26U,
  519.     0x365a6c36U, 0x3f417e3fU, 0xf702f5f7U, 0xcc4f83ccU,
  520.     0x345c6834U, 0xa5f451a5U, 0xe534d1e5U, 0xf108f9f1U,
  521.     0x7193e271U, 0xd873abd8U, 0x31536231U, 0x153f2a15U,
  522.     0x040c0804U, 0xc75295c7U, 0x23654623U, 0xc35e9dc3U,
  523.     0x18283018U, 0x96a13796U, 0x050f0a05U, 0x9ab52f9aU,
  524.     0x07090e07U, 0x12362412U, 0x809b1b80U, 0xe23ddfe2U,
  525.     0xeb26cdebU, 0x27694e27U, 0xb2cd7fb2U, 0x759fea75U,
  526.     0x091b1209U, 0x839e1d83U, 0x2c74582cU, 0x1a2e341aU,
  527.     0x1b2d361bU, 0x6eb2dc6eU, 0x5aeeb45aU, 0xa0fb5ba0U,
  528.     0x52f6a452U, 0x3b4d763bU, 0xd661b7d6U, 0xb3ce7db3U,
  529.     0x297b5229U, 0xe33edde3U, 0x2f715e2fU, 0x84971384U,
  530.     0x53f5a653U, 0xd168b9d1U, 0x00000000U, 0xed2cc1edU,
  531.     0x20604020U, 0xfc1fe3fcU, 0xb1c879b1U, 0x5bedb65bU,
  532.     0x6abed46aU, 0xcb468dcbU, 0xbed967beU, 0x394b7239U,
  533.     0x4ade944aU, 0x4cd4984cU, 0x58e8b058U, 0xcf4a85cfU,
  534.     0xd06bbbd0U, 0xef2ac5efU, 0xaae54faaU, 0xfb16edfbU,
  535.     0x43c58643U, 0x4dd79a4dU, 0x33556633U, 0x85941185U,
  536.     0x45cf8a45U, 0xf910e9f9U, 0x02060402U, 0x7f81fe7fU,
  537.     0x50f0a050U, 0x3c44783cU, 0x9fba259fU, 0xa8e34ba8U,
  538.     0x51f3a251U, 0xa3fe5da3U, 0x40c08040U, 0x8f8a058fU,
  539.     0x92ad3f92U, 0x9dbc219dU, 0x38487038U, 0xf504f1f5U,
  540.     0xbcdf63bcU, 0xb6c177b6U, 0xda75afdaU, 0x21634221U,
  541.     0x10302010U, 0xff1ae5ffU, 0xf30efdf3U, 0xd26dbfd2U,
  542.     0xcd4c81cdU, 0x0c14180cU, 0x13352613U, 0xec2fc3ecU,
  543.     0x5fe1be5fU, 0x97a23597U, 0x44cc8844U, 0x17392e17U,
  544.     0xc45793c4U, 0xa7f255a7U, 0x7e82fc7eU, 0x3d477a3dU,
  545.     0x64acc864U, 0x5de7ba5dU, 0x192b3219U, 0x7395e673U,
  546.     0x60a0c060U, 0x81981981U, 0x4fd19e4fU, 0xdc7fa3dcU,
  547.     0x22664422U, 0x2a7e542aU, 0x90ab3b90U, 0x88830b88U,
  548.     0x46ca8c46U, 0xee29c7eeU, 0xb8d36bb8U, 0x143c2814U,
  549.     0xde79a7deU, 0x5ee2bc5eU, 0x0b1d160bU, 0xdb76addbU,
  550.     0xe03bdbe0U, 0x32566432U, 0x3a4e743aU, 0x0a1e140aU,
  551.     0x49db9249U, 0x060a0c06U, 0x246c4824U, 0x5ce4b85cU,
  552.     0xc25d9fc2U, 0xd36ebdd3U, 0xacef43acU, 0x62a6c462U,
  553.     0x91a83991U, 0x95a43195U, 0xe437d3e4U, 0x798bf279U,
  554.     0xe732d5e7U, 0xc8438bc8U, 0x37596e37U, 0x6db7da6dU,
  555.     0x8d8c018dU, 0xd564b1d5U, 0x4ed29c4eU, 0xa9e049a9U,
  556.     0x6cb4d86cU, 0x56faac56U, 0xf407f3f4U, 0xea25cfeaU,
  557.     0x65afca65U, 0x7a8ef47aU, 0xaee947aeU, 0x08181008U,
  558.     0xbad56fbaU, 0x7888f078U, 0x256f4a25U, 0x2e725c2eU,
  559.     0x1c24381cU, 0xa6f157a6U, 0xb4c773b4U, 0xc65197c6U,
  560.     0xe823cbe8U, 0xdd7ca1ddU, 0x749ce874U, 0x1f213e1fU,
  561.     0x4bdd964bU, 0xbddc61bdU, 0x8b860d8bU, 0x8a850f8aU,
  562.     0x7090e070U, 0x3e427c3eU, 0xb5c471b5U, 0x66aacc66U,
  563.     0x48d89048U, 0x03050603U, 0xf601f7f6U, 0x0e121c0eU,
  564.     0x61a3c261U, 0x355f6a35U, 0x57f9ae57U, 0xb9d069b9U,
  565.     0x86911786U, 0xc15899c1U, 0x1d273a1dU, 0x9eb9279eU,
  566.     0xe138d9e1U, 0xf813ebf8U, 0x98b32b98U, 0x11332211U,
  567.     0x69bbd269U, 0xd970a9d9U, 0x8e89078eU, 0x94a73394U,
  568.     0x9bb62d9bU, 0x1e223c1eU, 0x87921587U, 0xe920c9e9U,
  569.     0xce4987ceU, 0x55ffaa55U, 0x28785028U, 0xdf7aa5dfU,
  570.     0x8c8f038cU, 0xa1f859a1U, 0x89800989U, 0x0d171a0dU,
  571.     0xbfda65bfU, 0xe631d7e6U, 0x42c68442U, 0x68b8d068U,
  572.     0x41c38241U, 0x99b02999U, 0x2d775a2dU, 0x0f111e0fU,
  573.     0xb0cb7bb0U, 0x54fca854U, 0xbbd66dbbU, 0x163a2c16U,
  574. };
  575. static const u32 Te3[256] = {
  576.     0x6363a5c6U, 0x7c7c84f8U, 0x777799eeU, 0x7b7b8df6U,
  577.     0xf2f20dffU, 0x6b6bbdd6U, 0x6f6fb1deU, 0xc5c55491U,
  578.     0x30305060U, 0x01010302U, 0x6767a9ceU, 0x2b2b7d56U,
  579.     0xfefe19e7U, 0xd7d762b5U, 0xababe64dU, 0x76769aecU,
  580.     0xcaca458fU, 0x82829d1fU, 0xc9c94089U, 0x7d7d87faU,
  581.     0xfafa15efU, 0x5959ebb2U, 0x4747c98eU, 0xf0f00bfbU,
  582.     0xadadec41U, 0xd4d467b3U, 0xa2a2fd5fU, 0xafafea45U,
  583.     0x9c9cbf23U, 0xa4a4f753U, 0x727296e4U, 0xc0c05b9bU,
  584.     0xb7b7c275U, 0xfdfd1ce1U, 0x9393ae3dU, 0x26266a4cU,
  585.     0x36365a6cU, 0x3f3f417eU, 0xf7f702f5U, 0xcccc4f83U,
  586.     0x34345c68U, 0xa5a5f451U, 0xe5e534d1U, 0xf1f108f9U,
  587.     0x717193e2U, 0xd8d873abU, 0x31315362U, 0x15153f2aU,
  588.     0x04040c08U, 0xc7c75295U, 0x23236546U, 0xc3c35e9dU,
  589.     0x18182830U, 0x9696a137U, 0x05050f0aU, 0x9a9ab52fU,
  590.     0x0707090eU, 0x12123624U, 0x80809b1bU, 0xe2e23ddfU,
  591.     0xebeb26cdU, 0x2727694eU, 0xb2b2cd7fU, 0x75759feaU,
  592.     0x09091b12U, 0x83839e1dU, 0x2c2c7458U, 0x1a1a2e34U,
  593.     0x1b1b2d36U, 0x6e6eb2dcU, 0x5a5aeeb4U, 0xa0a0fb5bU,
  594.     0x5252f6a4U, 0x3b3b4d76U, 0xd6d661b7U, 0xb3b3ce7dU,
  595.     0x29297b52U, 0xe3e33eddU, 0x2f2f715eU, 0x84849713U,
  596.     0x5353f5a6U, 0xd1d168b9U, 0x00000000U, 0xeded2cc1U,
  597.     0x20206040U, 0xfcfc1fe3U, 0xb1b1c879U, 0x5b5bedb6U,
  598.     0x6a6abed4U, 0xcbcb468dU, 0xbebed967U, 0x39394b72U,
  599.     0x4a4ade94U, 0x4c4cd498U, 0x5858e8b0U, 0xcfcf4a85U,
  600.     0xd0d06bbbU, 0xefef2ac5U, 0xaaaae54fU, 0xfbfb16edU,
  601.     0x4343c586U, 0x4d4dd79aU, 0x33335566U, 0x85859411U,
  602.     0x4545cf8aU, 0xf9f910e9U, 0x02020604U, 0x7f7f81feU,
  603.     0x5050f0a0U, 0x3c3c4478U, 0x9f9fba25U, 0xa8a8e34bU,
  604.     0x5151f3a2U, 0xa3a3fe5dU, 0x4040c080U, 0x8f8f8a05U,
  605.     0x9292ad3fU, 0x9d9dbc21U, 0x38384870U, 0xf5f504f1U,
  606.     0xbcbcdf63U, 0xb6b6c177U, 0xdada75afU, 0x21216342U,
  607.     0x10103020U, 0xffff1ae5U, 0xf3f30efdU, 0xd2d26dbfU,
  608.     0xcdcd4c81U, 0x0c0c1418U, 0x13133526U, 0xecec2fc3U,
  609.     0x5f5fe1beU, 0x9797a235U, 0x4444cc88U, 0x1717392eU,
  610.     0xc4c45793U, 0xa7a7f255U, 0x7e7e82fcU, 0x3d3d477aU,
  611.     0x6464acc8U, 0x5d5de7baU, 0x19192b32U, 0x737395e6U,
  612.     0x6060a0c0U, 0x81819819U, 0x4f4fd19eU, 0xdcdc7fa3U,
  613.     0x22226644U, 0x2a2a7e54U, 0x9090ab3bU, 0x8888830bU,
  614.     0x4646ca8cU, 0xeeee29c7U, 0xb8b8d36bU, 0x14143c28U,
  615.     0xdede79a7U, 0x5e5ee2bcU, 0x0b0b1d16U, 0xdbdb76adU,
  616.     0xe0e03bdbU, 0x32325664U, 0x3a3a4e74U, 0x0a0a1e14U,
  617.     0x4949db92U, 0x06060a0cU, 0x24246c48U, 0x5c5ce4b8U,
  618.     0xc2c25d9fU, 0xd3d36ebdU, 0xacacef43U, 0x6262a6c4U,
  619.     0x9191a839U, 0x9595a431U, 0xe4e437d3U, 0x79798bf2U,
  620.     0xe7e732d5U, 0xc8c8438bU, 0x3737596eU, 0x6d6db7daU,
  621.     0x8d8d8c01U, 0xd5d564b1U, 0x4e4ed29cU, 0xa9a9e049U,
  622.     0x6c6cb4d8U, 0x5656faacU, 0xf4f407f3U, 0xeaea25cfU,
  623.     0x6565afcaU, 0x7a7a8ef4U, 0xaeaee947U, 0x08081810U,
  624.     0xbabad56fU, 0x787888f0U, 0x25256f4aU, 0x2e2e725cU,
  625.     0x1c1c2438U, 0xa6a6f157U, 0xb4b4c773U, 0xc6c65197U,
  626.     0xe8e823cbU, 0xdddd7ca1U, 0x74749ce8U, 0x1f1f213eU,
  627.     0x4b4bdd96U, 0xbdbddc61U, 0x8b8b860dU, 0x8a8a850fU,
  628.     0x707090e0U, 0x3e3e427cU, 0xb5b5c471U, 0x6666aaccU,
  629.     0x4848d890U, 0x03030506U, 0xf6f601f7U, 0x0e0e121cU,
  630.     0x6161a3c2U, 0x35355f6aU, 0x5757f9aeU, 0xb9b9d069U,
  631.     0x86869117U, 0xc1c15899U, 0x1d1d273aU, 0x9e9eb927U,
  632.     0xe1e138d9U, 0xf8f813ebU, 0x9898b32bU, 0x11113322U,
  633.     0x6969bbd2U, 0xd9d970a9U, 0x8e8e8907U, 0x9494a733U,
  634.     0x9b9bb62dU, 0x1e1e223cU, 0x87879215U, 0xe9e920c9U,
  635.     0xcece4987U, 0x5555ffaaU, 0x28287850U, 0xdfdf7aa5U,
  636.     0x8c8c8f03U, 0xa1a1f859U, 0x89898009U, 0x0d0d171aU,
  637.     0xbfbfda65U, 0xe6e631d7U, 0x4242c684U, 0x6868b8d0U,
  638.     0x4141c382U, 0x9999b029U, 0x2d2d775aU, 0x0f0f111eU,
  639.     0xb0b0cb7bU, 0x5454fca8U, 0xbbbbd66dU, 0x16163a2cU,
  640. };
  641. static const u32 Te4[256] = {
  642.     0x63636363U, 0x7c7c7c7cU, 0x77777777U, 0x7b7b7b7bU,
  643.     0xf2f2f2f2U, 0x6b6b6b6bU, 0x6f6f6f6fU, 0xc5c5c5c5U,
  644.     0x30303030U, 0x01010101U, 0x67676767U, 0x2b2b2b2bU,
  645.     0xfefefefeU, 0xd7d7d7d7U, 0xababababU, 0x76767676U,
  646.     0xcacacacaU, 0x82828282U, 0xc9c9c9c9U, 0x7d7d7d7dU,
  647.     0xfafafafaU, 0x59595959U, 0x47474747U, 0xf0f0f0f0U,
  648.     0xadadadadU, 0xd4d4d4d4U, 0xa2a2a2a2U, 0xafafafafU,
  649.     0x9c9c9c9cU, 0xa4a4a4a4U, 0x72727272U, 0xc0c0c0c0U,
  650.     0xb7b7b7b7U, 0xfdfdfdfdU, 0x93939393U, 0x26262626U,
  651.     0x36363636U, 0x3f3f3f3fU, 0xf7f7f7f7U, 0xccccccccU,
  652.     0x34343434U, 0xa5a5a5a5U, 0xe5e5e5e5U, 0xf1f1f1f1U,
  653.     0x71717171U, 0xd8d8d8d8U, 0x31313131U, 0x15151515U,
  654.     0x04040404U, 0xc7c7c7c7U, 0x23232323U, 0xc3c3c3c3U,
  655.     0x18181818U, 0x96969696U, 0x05050505U, 0x9a9a9a9aU,
  656.     0x07070707U, 0x12121212U, 0x80808080U, 0xe2e2e2e2U,
  657.     0xebebebebU, 0x27272727U, 0xb2b2b2b2U, 0x75757575U,
  658.     0x09090909U, 0x83838383U, 0x2c2c2c2cU, 0x1a1a1a1aU,
  659.     0x1b1b1b1bU, 0x6e6e6e6eU, 0x5a5a5a5aU, 0xa0a0a0a0U,
  660.     0x52525252U, 0x3b3b3b3bU, 0xd6d6d6d6U, 0xb3b3b3b3U,
  661.     0x29292929U, 0xe3e3e3e3U, 0x2f2f2f2fU, 0x84848484U,
  662.     0x53535353U, 0xd1d1d1d1U, 0x00000000U, 0xededededU,
  663.     0x20202020U, 0xfcfcfcfcU, 0xb1b1b1b1U, 0x5b5b5b5bU,
  664.     0x6a6a6a6aU, 0xcbcbcbcbU, 0xbebebebeU, 0x39393939U,
  665.     0x4a4a4a4aU, 0x4c4c4c4cU, 0x58585858U, 0xcfcfcfcfU,
  666.     0xd0d0d0d0U, 0xefefefefU, 0xaaaaaaaaU, 0xfbfbfbfbU,
  667.     0x43434343U, 0x4d4d4d4dU, 0x33333333U, 0x85858585U,
  668.     0x45454545U, 0xf9f9f9f9U, 0x02020202U, 0x7f7f7f7fU,
  669.     0x50505050U, 0x3c3c3c3cU, 0x9f9f9f9fU, 0xa8a8a8a8U,
  670.     0x51515151U, 0xa3a3a3a3U, 0x40404040U, 0x8f8f8f8fU,
  671.     0x92929292U, 0x9d9d9d9dU, 0x38383838U, 0xf5f5f5f5U,
  672.     0xbcbcbcbcU, 0xb6b6b6b6U, 0xdadadadaU, 0x21212121U,
  673.     0x10101010U, 0xffffffffU, 0xf3f3f3f3U, 0xd2d2d2d2U,
  674.     0xcdcdcdcdU, 0x0c0c0c0cU, 0x13131313U, 0xececececU,
  675.     0x5f5f5f5fU, 0x97979797U, 0x44444444U, 0x17171717U,
  676.     0xc4c4c4c4U, 0xa7a7a7a7U, 0x7e7e7e7eU, 0x3d3d3d3dU,
  677.     0x64646464U, 0x5d5d5d5dU, 0x19191919U, 0x73737373U,
  678.     0x60606060U, 0x81818181U, 0x4f4f4f4fU, 0xdcdcdcdcU,
  679.     0x22222222U, 0x2a2a2a2aU, 0x90909090U, 0x88888888U,
  680.     0x46464646U, 0xeeeeeeeeU, 0xb8b8b8b8U, 0x14141414U,
  681.     0xdedededeU, 0x5e5e5e5eU, 0x0b0b0b0bU, 0xdbdbdbdbU,
  682.     0xe0e0e0e0U, 0x32323232U, 0x3a3a3a3aU, 0x0a0a0a0aU,
  683.     0x49494949U, 0x06060606U, 0x24242424U, 0x5c5c5c5cU,
  684.     0xc2c2c2c2U, 0xd3d3d3d3U, 0xacacacacU, 0x62626262U,
  685.     0x91919191U, 0x95959595U, 0xe4e4e4e4U, 0x79797979U,
  686.     0xe7e7e7e7U, 0xc8c8c8c8U, 0x37373737U, 0x6d6d6d6dU,
  687.     0x8d8d8d8dU, 0xd5d5d5d5U, 0x4e4e4e4eU, 0xa9a9a9a9U,
  688.     0x6c6c6c6cU, 0x56565656U, 0xf4f4f4f4U, 0xeaeaeaeaU,
  689.     0x65656565U, 0x7a7a7a7aU, 0xaeaeaeaeU, 0x08080808U,
  690.     0xbabababaU, 0x78787878U, 0x25252525U, 0x2e2e2e2eU,
  691.     0x1c1c1c1cU, 0xa6a6a6a6U, 0xb4b4b4b4U, 0xc6c6c6c6U,
  692.     0xe8e8e8e8U, 0xddddddddU, 0x74747474U, 0x1f1f1f1fU,
  693.     0x4b4b4b4bU, 0xbdbdbdbdU, 0x8b8b8b8bU, 0x8a8a8a8aU,
  694.     0x70707070U, 0x3e3e3e3eU, 0xb5b5b5b5U, 0x66666666U,
  695.     0x48484848U, 0x03030303U, 0xf6f6f6f6U, 0x0e0e0e0eU,
  696.     0x61616161U, 0x35353535U, 0x57575757U, 0xb9b9b9b9U,
  697.     0x86868686U, 0xc1c1c1c1U, 0x1d1d1d1dU, 0x9e9e9e9eU,
  698.     0xe1e1e1e1U, 0xf8f8f8f8U, 0x98989898U, 0x11111111U,
  699.     0x69696969U, 0xd9d9d9d9U, 0x8e8e8e8eU, 0x94949494U,
  700.     0x9b9b9b9bU, 0x1e1e1e1eU, 0x87878787U, 0xe9e9e9e9U,
  701.     0xcecececeU, 0x55555555U, 0x28282828U, 0xdfdfdfdfU,
  702.     0x8c8c8c8cU, 0xa1a1a1a1U, 0x89898989U, 0x0d0d0d0dU,
  703.     0xbfbfbfbfU, 0xe6e6e6e6U, 0x42424242U, 0x68686868U,
  704.     0x41414141U, 0x99999999U, 0x2d2d2d2dU, 0x0f0f0f0fU,
  705.     0xb0b0b0b0U, 0x54545454U, 0xbbbbbbbbU, 0x16161616U,
  706. };
  707. static const u32 rcon[] = {
  708.         0x01000000, 0x02000000, 0x04000000, 0x08000000,
  709.         0x10000000, 0x20000000, 0x40000000, 0x80000000,
  710.         0x1B000000, 0x36000000, /* for 128-bit blocks, Rijndael never uses more than 10 rcon values */
  711. };
  712. #define SWAP(x) (_lrotl(x, 8) & 0x00ff00ff | _lrotr(x, 8) & 0xff00ff00)
  713. #ifdef _MSC_VER
  714. #define GETU32(p) SWAP(*((u32 *)(p)))
  715. #define PUTU32(ct, st) { *((u32 *)(ct)) = SWAP((st)); }
  716. #else
  717. #define GETU32(pt) (((u32)(pt)[0] << 24) ^ ((u32)(pt)[1] << 16) ^ ((u32)(pt)[2] <<  8) ^ ((u32)(pt)[3]))
  718. #define PUTU32(ct, st) { (ct)[0] = (u8)((st) >> 24); (ct)[1] = (u8)((st) >> 16); (ct)[2] = (u8)((st) >>  8); (ct)[3] = (u8)(st); }
  719. #endif
  720. /**
  721.  * Expand the cipher key into the encryption key schedule.
  722.  *
  723.  * @return      the number of rounds for the given cipher key size.
  724.  */
  725. static int
  726. rijndaelKeySetupEnc(u32 rk[/*4*(Nr + 1)*/], const u8 cipherKey[], int keyBits)
  727. {
  728.         int i = 0;
  729.         u32 temp;
  730.         rk[0] = GETU32(cipherKey     );
  731.         rk[1] = GETU32(cipherKey +  4);
  732.         rk[2] = GETU32(cipherKey +  8);
  733.         rk[3] = GETU32(cipherKey + 12);
  734.         if (keyBits == 128) {
  735.                 for (;;) {
  736.                         temp  = rk[3];
  737.                         rk[4] = rk[0] ^
  738.                                 (Te4[(temp >> 16) & 0xff] & 0xff000000) ^
  739.                                 (Te4[(temp >>  8) & 0xff] & 0x00ff0000) ^
  740.                                 (Te4[(temp      ) & 0xff] & 0x0000ff00) ^
  741.                                 (Te4[(temp >> 24)       ] & 0x000000ff) ^
  742.                                 rcon[i];
  743.                         rk[5] = rk[1] ^ rk[4];
  744.                         rk[6] = rk[2] ^ rk[5];
  745.                         rk[7] = rk[3] ^ rk[6];
  746.                         if (++i == 10) {
  747.                                 return 10;
  748.                         }
  749.                         rk += 4;
  750.                 }
  751.         }
  752.         rk[4] = GETU32(cipherKey + 16);
  753.         rk[5] = GETU32(cipherKey + 20);
  754.         if (keyBits == 192) {
  755.                 for (;;) {
  756.                         temp = rk[ 5];
  757.                         rk[ 6] = rk[ 0] ^
  758.                                 (Te4[(temp >> 16) & 0xff] & 0xff000000) ^
  759.                                 (Te4[(temp >>  8) & 0xff] & 0x00ff0000) ^
  760.                                 (Te4[(temp      ) & 0xff] & 0x0000ff00) ^
  761.                                 (Te4[(temp >> 24)       ] & 0x000000ff) ^
  762.                                 rcon[i];
  763.                         rk[ 7] = rk[ 1] ^ rk[ 6];
  764.                         rk[ 8] = rk[ 2] ^ rk[ 7];
  765.                         rk[ 9] = rk[ 3] ^ rk[ 8];
  766.                         if (++i == 8) {
  767.                                 return 12;
  768.                         }
  769.                         rk[10] = rk[ 4] ^ rk[ 9];
  770.                         rk[11] = rk[ 5] ^ rk[10];
  771.                         rk += 6;
  772.                 }
  773.         }
  774.         rk[6] = GETU32(cipherKey + 24);
  775.         rk[7] = GETU32(cipherKey + 28);
  776.         if (keyBits == 256) {
  777.         for (;;) {
  778.                 temp = rk[ 7];
  779.                 rk[ 8] = rk[ 0] ^
  780.                         (Te4[(temp >> 16) & 0xff] & 0xff000000) ^
  781.                         (Te4[(temp >>  8) & 0xff] & 0x00ff0000) ^
  782.                         (Te4[(temp      ) & 0xff] & 0x0000ff00) ^
  783.                         (Te4[(temp >> 24)       ] & 0x000000ff) ^
  784.                         rcon[i];
  785.                 rk[ 9] = rk[ 1] ^ rk[ 8];
  786.                 rk[10] = rk[ 2] ^ rk[ 9];
  787.                 rk[11] = rk[ 3] ^ rk[10];
  788.                         if (++i == 7) {
  789.                                 return 14;
  790.                         }
  791.                 temp = rk[11];
  792.                 rk[12] = rk[ 4] ^
  793.                         (Te4[(temp >> 24)       ] & 0xff000000) ^
  794.                         (Te4[(temp >> 16) & 0xff] & 0x00ff0000) ^
  795.                         (Te4[(temp >>  8) & 0xff] & 0x0000ff00) ^
  796.                         (Te4[(temp      ) & 0xff] & 0x000000ff);
  797.                 rk[13] = rk[ 5] ^ rk[12];
  798.                 rk[14] = rk[ 6] ^ rk[13];
  799.                 rk[15] = rk[ 7] ^ rk[14];
  800.                         rk += 8;
  801.         }
  802.         }
  803.         return 0;
  804. }
  805. #ifdef USE_RIJNDAEL_COUNTER_OPTIMIZATION
  806. static void
  807. rijndaelEncrypt(const u32 rk[/*4*(Nr + 1)*/], int Nr, u32 ctr3, u32 ctr2, u32 ctr1, u32 ctr0, u8 ct[16])
  808. #else
  809. static void
  810. rijndaelEncrypt(const u32 rk[/*4*(Nr + 1)*/], int Nr, const u8 pt[16], u8 ct[16])
  811. #endif
  812. {
  813.         u32 s0, s1, s2, s3, t0, t1, t2, t3;
  814. #ifndef FULL_UNROLL
  815.     int r;
  816. #endif /* ?FULL_UNROLL */
  817.     /*
  818.          * map byte array block to cipher state
  819.          * and add initial round key:
  820.          */
  821. #ifdef USE_RIJNDAEL_COUNTER_OPTIMIZATION
  822.         s0 = ctr3 ^ rk[0];
  823.         s1 = ctr2 ^ rk[1];
  824.         s2 = ctr1 ^ rk[2];
  825.         s3 = ctr0 ^ rk[3];
  826. #else
  827.         s0 = GETU32(pt     ) ^ rk[0];
  828.         s1 = GETU32(pt +  4) ^ rk[1];
  829.         s2 = GETU32(pt +  8) ^ rk[2];
  830.         s3 = GETU32(pt + 12) ^ rk[3];
  831. #endif
  832. #ifdef FULL_UNROLL
  833.     /* round 1: */
  834.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[ 4];
  835.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[ 5];
  836.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[ 6];
  837.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[ 7];
  838.         /* round 2: */
  839.         s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[ 8];
  840.         s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[ 9];
  841.         s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[10];
  842.         s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[11];
  843.     /* round 3: */
  844.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[12];
  845.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[13];
  846.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[14];
  847.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[15];
  848.         /* round 4: */
  849.         s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[16];
  850.         s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[17];
  851.         s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[18];
  852.         s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[19];
  853.     /* round 5: */
  854.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[20];
  855.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[21];
  856.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[22];
  857.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[23];
  858.         /* round 6: */
  859.         s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[24];
  860.         s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[25];
  861.         s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[26];
  862.         s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[27];
  863.     /* round 7: */
  864.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[28];
  865.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[29];
  866.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[30];
  867.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[31];
  868.         /* round 8: */
  869.         s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[32];
  870.         s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[33];
  871.         s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[34];
  872.         s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[35];
  873.     /* round 9: */
  874.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[36];
  875.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[37];
  876.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[38];
  877.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[39];
  878.     if (Nr > 10) {
  879.         /* round 10: */
  880.         s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[40];
  881.         s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[41];
  882.         s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[42];
  883.         s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[43];
  884.         /* round 11: */
  885.         t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[44];
  886.         t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[45];
  887.         t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[46];
  888.         t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[47];
  889.         if (Nr > 12) {
  890.             /* round 12: */
  891.             s0 = Te0[t0 >> 24] ^ Te1[(t1 >> 16) & 0xff] ^ Te2[(t2 >>  8) & 0xff] ^ Te3[t3 & 0xff] ^ rk[48];
  892.             s1 = Te0[t1 >> 24] ^ Te1[(t2 >> 16) & 0xff] ^ Te2[(t3 >>  8) & 0xff] ^ Te3[t0 & 0xff] ^ rk[49];
  893.             s2 = Te0[t2 >> 24] ^ Te1[(t3 >> 16) & 0xff] ^ Te2[(t0 >>  8) & 0xff] ^ Te3[t1 & 0xff] ^ rk[50];
  894.             s3 = Te0[t3 >> 24] ^ Te1[(t0 >> 16) & 0xff] ^ Te2[(t1 >>  8) & 0xff] ^ Te3[t2 & 0xff] ^ rk[51];
  895.             /* round 13: */
  896.             t0 = Te0[s0 >> 24] ^ Te1[(s1 >> 16) & 0xff] ^ Te2[(s2 >>  8) & 0xff] ^ Te3[s3 & 0xff] ^ rk[52];
  897.             t1 = Te0[s1 >> 24] ^ Te1[(s2 >> 16) & 0xff] ^ Te2[(s3 >>  8) & 0xff] ^ Te3[s0 & 0xff] ^ rk[53];
  898.             t2 = Te0[s2 >> 24] ^ Te1[(s3 >> 16) & 0xff] ^ Te2[(s0 >>  8) & 0xff] ^ Te3[s1 & 0xff] ^ rk[54];
  899.             t3 = Te0[s3 >> 24] ^ Te1[(s0 >> 16) & 0xff] ^ Te2[(s1 >>  8) & 0xff] ^ Te3[s2 & 0xff] ^ rk[55];
  900.         }
  901.     }
  902.     rk += Nr << 2;
  903. #else  /* !FULL_UNROLL */
  904.     /*
  905.          * Nr - 1 full rounds:
  906.          */
  907.     r = Nr >> 1;
  908.     for (;;) {
  909.         t0 =
  910.             Te0[(s0 >> 24)       ] ^
  911.             Te1[(s1 >> 16) & 0xff] ^
  912.             Te2[(s2 >>  8) & 0xff] ^
  913.             Te3[(s3      ) & 0xff] ^
  914.             rk[4];
  915.         t1 =
  916.             Te0[(s1 >> 24)       ] ^
  917.             Te1[(s2 >> 16) & 0xff] ^
  918.             Te2[(s3 >>  8) & 0xff] ^
  919.             Te3[(s0      ) & 0xff] ^
  920.             rk[5];
  921.         t2 =
  922.             Te0[(s2 >> 24)       ] ^
  923.             Te1[(s3 >> 16) & 0xff] ^
  924.             Te2[(s0 >>  8) & 0xff] ^
  925.             Te3[(s1      ) & 0xff] ^
  926.             rk[6];
  927.         t3 =
  928.             Te0[(s3 >> 24)       ] ^
  929.             Te1[(s0 >> 16) & 0xff] ^
  930.             Te2[(s1 >>  8) & 0xff] ^
  931.             Te3[(s2      ) & 0xff] ^
  932.             rk[7];
  933.         rk += 8;
  934.         if (--r == 0) {
  935.             break;
  936.         }
  937.         s0 =
  938.             Te0[(t0 >> 24)       ] ^
  939.             Te1[(t1 >> 16) & 0xff] ^
  940.             Te2[(t2 >>  8) & 0xff] ^
  941.             Te3[(t3      ) & 0xff] ^
  942.             rk[0];
  943.         s1 =
  944.             Te0[(t1 >> 24)       ] ^
  945.             Te1[(t2 >> 16) & 0xff] ^
  946.             Te2[(t3 >>  8) & 0xff] ^
  947.             Te3[(t0      ) & 0xff] ^
  948.             rk[1];
  949.         s2 =
  950.             Te0[(t2 >> 24)       ] ^
  951.             Te1[(t3 >> 16) & 0xff] ^
  952.             Te2[(t0 >>  8) & 0xff] ^
  953.             Te3[(t1      ) & 0xff] ^
  954.             rk[2];
  955.         s3 =
  956.             Te0[(t3 >> 24)       ] ^
  957.             Te1[(t0 >> 16) & 0xff] ^
  958.             Te2[(t1 >>  8) & 0xff] ^
  959.             Te3[(t2      ) & 0xff] ^
  960.             rk[3];
  961.     }
  962. #endif /* ?FULL_UNROLL */
  963.     /*
  964.          * apply last round and
  965.          * map cipher state to byte array block:
  966.          */
  967.         s0 =
  968.                 (Te4[(t0 >> 24)       ] & 0xff000000) ^
  969.                 (Te4[(t1 >> 16) & 0xff] & 0x00ff0000) ^
  970.                 (Te4[(t2 >>  8) & 0xff] & 0x0000ff00) ^
  971.                 (Te4[(t3      ) & 0xff] & 0x000000ff) ^
  972.                 rk[0];
  973.         PUTU32(ct     , s0);
  974.         s1 =
  975.                 (Te4[(t1 >> 24)       ] & 0xff000000) ^
  976.                 (Te4[(t2 >> 16) & 0xff] & 0x00ff0000) ^
  977.                 (Te4[(t3 >>  8) & 0xff] & 0x0000ff00) ^
  978.                 (Te4[(t0      ) & 0xff] & 0x000000ff) ^
  979.                 rk[1];
  980.         PUTU32(ct +  4, s1);
  981.         s2 =
  982.                 (Te4[(t2 >> 24)       ] & 0xff000000) ^
  983.                 (Te4[(t3 >> 16) & 0xff] & 0x00ff0000) ^
  984.                 (Te4[(t0 >>  8) & 0xff] & 0x0000ff00) ^
  985.                 (Te4[(t1      ) & 0xff] & 0x000000ff) ^
  986.                 rk[2];
  987.         PUTU32(ct +  8, s2);
  988.         s3 =
  989.                 (Te4[(t3 >> 24)       ] & 0xff000000) ^
  990.                 (Te4[(t0 >> 16) & 0xff] & 0x00ff0000) ^
  991.                 (Te4[(t1 >>  8) & 0xff] & 0x0000ff00) ^
  992.                 (Te4[(t2      ) & 0xff] & 0x000000ff) ^
  993.                 rk[3];
  994.         PUTU32(ct + 12, s3);
  995. }
  996. #endif
  997. #ifdef AES_BENCHMARK
  998. int
  999. main(int c, char **v)
  1000. {
  1001.   int i;
  1002.   char blob[509]; /* the size of a cell payload. */
  1003.   char blob_out[509];
  1004.   aes_cnt_cipher_t *cipher = aes_new_cipher();
  1005.   aes_set_key(cipher, "aesbenchmarkkey!", 128);
  1006.   memset(blob, 'z', sizeof(blob));
  1007.   for (i=0;i<1000000; ++i) {
  1008.     aes_crypt(cipher, blob, sizeof(blob), blob_out);
  1009.   }
  1010.   return 0;
  1011. }
  1012. #endif