FindCUDA.cmake
上传用户:chinafayin
上传日期:2022-04-05
资源大小:153k
文件大小:32k
源码类别:

并行计算

开发平台:

Visual C++

  1. ###############################################################################
  2. #  For more information, please see: http://software.sci.utah.edu
  3. #
  4. #  The MIT License
  5. #
  6. #  Copyright (c) 2007-2008
  7. #  Scientific Computing and Imaging Institute, University of Utah
  8. #
  9. #  License for the specific language governing rights and limitations under
  10. #  Permission is hereby granted, free of charge, to any person obtaining a
  11. #  copy of this software and associated documentation files (the "Software"),
  12. #  to deal in the Software without restriction, including without limitation
  13. #  the rights to use, copy, modify, merge, publish, distribute, sublicense,
  14. #  and/or sell copies of the Software, and to permit persons to whom the
  15. #  Software is furnished to do so, subject to the following conditions:
  16. #
  17. #  The above copyright notice and this permission notice shall be included
  18. #  in all copies or substantial portions of the Software.
  19. #
  20. #  THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  21. #  OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  22. #  FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
  23. #  THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
  24. #  LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
  25. #  FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  26. #  DEALINGS IN THE SOFTWARE.
  27. #
  28. # This script locates the Nvidia Compute Unified Driver Architecture (CUDA)
  29. # tools. It should work on linux, windows, and mac and should be reasonably
  30. # up to date with cuda releases.
  31. #
  32. # The script will prompt the user to specify CUDA_INSTALL_PREFIX if the
  33. # prefix cannot be determined by the location of nvcc in the system path. To
  34. # use a different installed version of the toolkit set the environment variable
  35. # CUDA_BIN_PATH before running cmake (e.g. CUDA_BIN_PATH=/usr/local/cuda1.0
  36. # instead of the default /usr/local/cuda).
  37. #
  38. # Set CUDA_BUILD_EMULATION to ON for Emulation mode.  Defaults to OFF (device
  39. # mode).
  40. # _DEVICEEMU is defined when CUDA_BUILD_EMULATION is TRUE.
  41. #
  42. # Set CUDA_HOST_COMPILATION_CPP to OFF for C compilation of host code.
  43. # Default TRUE.
  44. #
  45. # Set CUDA_BUILD_CUBIN to "ON" or "OFF" to enable and extra compilation pass
  46. # with the -cubin option in Device mode. The output is parsed and register,
  47. # shared memory usage is printed during build. Default ON.
  48. #
  49. # Set CUDA_ATTACH_VS_BUILD_RULE_TO_CUDA_FILE to ON if you want the custom build
  50. # rule to be attached to the source file in Visual Studio.  Defaults to OFF.
  51. #
  52. # This allows the user to build the target from the CUDA file, however bad
  53. # things can happen if the CUDA source file is added to multiple targets.  When
  54. # performing parallel builds it is possible for the custom build command to be
  55. # run more than once and in parallel causing cryptic build errors.  This is
  56. # because VS runs the rules for every source file in the target, and a source
  57. # can have only one rule no matter how many projects it is added to.  Therefore,
  58. # the rule assigned to the source file really only applies to one target you get
  59. # clashes when it is run from multiple targets.  Eventually everything will get
  60. # built, but if the user is unaware of this behavior, there may be confusion.
  61. # It would be nice if we could detect the reuse of source files across multiple
  62. # targets and turn the option off for the user, but no good solution could be
  63. # found.
  64. #
  65. # Set CUDA_64_BIT_DEVICE_CODE to ON to compile for 64 bit devices.  Defaults to
  66. # match host bit size.  Note that making this different than the host code when
  67. # generating C files from CUDA code just won't work, because size_t gets defined
  68. # by nvcc in the generated source.  If you compile to PTX and then load the file
  69. # yourself, you can mix bit sizes between device and host.
  70. #
  71. # Set CUDA_VERBOSE_BUILD to ON to see all the commands used when building the
  72. # CUDA file.  When using a Makefile generator the value defaults to VERBOSE (run
  73. # make VERBOSE=1 to see output).  You can override this by setting
  74. # CUDA_VERBOSE_BUILD to ON.
  75. #
  76. # The script creates the following macros:
  77. # CUDA_INCLUDE_DIRECTORIES( path0 path1 ... )
  78. # -- Sets the directories that should be passed to nvcc
  79. #    (e.g. nvcc -Ipath0 -Ipath1 ... ). These paths usually contain other .cu
  80. #    files.
  81. #
  82. # CUDA_ADD_LIBRARY( cuda_target file0 file1 ... )
  83. # -- Creates a shared library "cuda_target" which contains all of the source
  84. #    (*.c, *.cc, etc.) specified and all of the nvcc'ed .cu files specified.
  85. #    All of the specified source files and generated .cpp files are compiled
  86. #    using the standard CMake compiler, so the normal INCLUDE_DIRECTORIES,
  87. #    LINK_DIRECTORIES, and TARGET_LINK_LIBRARIES can be used to affect their
  88. #    build and link.
  89. #
  90. # CUDA_ADD_CUFFT_TO_TARGET( cuda_target )
  91. # -- Adds the cufft library to the target.  Handles whether you are in emulation
  92. #    mode or not.
  93. #
  94. # CUDA_ADD_CUBLAS_TO_TARGET( cuda_target )
  95. # -- Adds the cublas library to the target.  Handles whether you are in emulation
  96. #    mode or not.
  97. #
  98. # CUDA_ADD_EXECUTABLE( cuda_target file0 file1 ... )
  99. # -- Same as CUDA_ADD_LIBRARY except that an exectuable is created.
  100. #
  101. # CUDA_COMPILE( cuda_files file0 file1 ... )
  102. # -- Returns a list of build commands in the first argument to be used with
  103. #    ADD_LIBRARY or ADD_EXECUTABLE.
  104. #
  105. # CUDA_BUILD_CLEAN_TARGET()
  106. # -- Creates a convience target that deletes all the dependency files generated.
  107. #    You should make clean after running this target to ensure the dependency
  108. #    files get regenerated.
  109. #
  110. # The script defines the following variables:
  111. #
  112. # ( Note CUDA_ADD_* macros setup cuda/cut library dependencies automatically.
  113. # These variables are only needed if a cuda API call must be made from code in
  114. # a outside library or executable. )
  115. #
  116. # CUDA_INCLUDE_DIRS     -- Include directory for cuda headers.
  117. # CUDA_LIBRARIES        -- Cuda RT library.
  118. # CUDA_CUT_INCLUDE_DIRS -- Include directory for cuda SDK headers (cutil.h).
  119. # CUDA_CUT_LIBRARIES    -- SDK libraries.
  120. # CUDA_NVCC_FLAGS       -- Additional NVCC command line arguments. NOTE:
  121. #                          multiple arguments must be semi-colon delimited
  122. #                          e.g. --compiler-options;-Wall
  123. # CUFFT_LIBRARIES       -- Device or emulation library for the Cuda FFT 
  124. #                          implementation (alternative to: 
  125. #                          CUDA_ADD_CUFFT_TO_TARGET macro)
  126. # CUBLAS_LIBRARIES      -- Device or emulation library for the Cuda BLAS 
  127. #                          implementation (alterative to: 
  128. #                          CUDA_ADD_CUBLAS_TO_TARGET macro). 
  129. #
  130. #
  131. # It might be necessary to set CUDA_INSTALL_PATH manually on certain platforms,
  132. # or to use a cuda runtime not installed in the default location. In newer
  133. # versions of the toolkit the cuda library is included with the graphics
  134. # driver- be sure that the driver version matches what is needed by the cuda
  135. # runtime version.
  136. #
  137. # -- Abe Stephens SCI Institute -- http://www.sci.utah.edu/~abe/FindCuda.html
  138. ###############################################################################
  139. # FindCUDA.cmake
  140. # This macro helps us find the location of helper files we will need the full path to
  141. MACRO(CUDA_FIND_HELPER_FILE _name _extension)
  142.   SET(_full_name "${_name}.${_extension}")
  143.   # CMAKE_CURRENT_LIST_FILE contains the full path to the file currently being
  144.   # processed.  Using this variable, we can pull out the current path, and
  145.   # provide a way to get access to the other files we need local to here.
  146.   GET_FILENAME_COMPONENT(CMAKE_CURRENT_LIST_DIR "${CMAKE_CURRENT_LIST_FILE}" PATH)
  147.   FIND_FILE(CUDA_${_name} ${_full_name} PATHS ${CMAKE_CURRENT_LIST_DIR} NO_DEFAULT_PATH)
  148.   IF(NOT CUDA_${_name})
  149.     SET(error_message "${_full_name} not found in CMAKE_MODULE_PATH")
  150.     IF(CUDA_FIND_REQUIRED)
  151.       MESSAGE(FATAL_ERROR "${error_message}")
  152.     ELSE(CUDA_FIND_REQUIRED)
  153.       IF(NOT CUDA_FIND_QUIETLY)
  154.         MESSAGE(STATUS "${error_message}")
  155.       ENDIF(NOT CUDA_FIND_QUIETLY)
  156.     ENDIF(NOT CUDA_FIND_REQUIRED)
  157.   ENDIF(NOT CUDA_${_name})
  158.   # Set this variable as internal, so the user isn't bugged with it.
  159.   SET(CUDA_${_name} ${CUDA_${_name}} CACHE INTERNAL "Location of ${_full_name}" FORCE)
  160. ENDMACRO(CUDA_FIND_HELPER_FILE)
  161. #####################################################################
  162. ## CUDA_INCLUDE_NVCC_DEPENDENCIES
  163. ##
  164. # So we want to try and include the dependency file if it exists.  If
  165. # it doesn't exist then we need to create an empty one, so we can
  166. # include it.
  167. # If it does exist, then we need to check to see if all the files it
  168. # depends on exist.  If they don't then we should clear the dependency
  169. # file and regenerate it later.  This covers the case where a header
  170. # file has disappeared or moved.
  171. # Need to locate the empty.depend.in file, because CONFIGURE_FILE requires
  172. # full paths.
  173. CUDA_FIND_HELPER_FILE(empty "depend.in")
  174. MACRO(CUDA_INCLUDE_NVCC_DEPENDENCIES dependency_file)
  175.   SET(CUDA_NVCC_DEPEND)
  176.   SET(CUDA_NVCC_DEPEND_REGENERATE FALSE)
  177.   # Include the dependency file.  Create it first if it doesn't exist
  178.   # for make files except for IDEs (see below).  The INCLUDE puts a
  179.   # dependency that will force CMake to rerun and bring in the new info
  180.   # when it changes.  DO NOT REMOVE THIS (as I did and spent a few hours
  181.   # figuring out why it didn't work.
  182. #  IF(${CMAKE_MAKE_PROGRAM} MATCHES "make")
  183.     IF(NOT EXISTS ${dependency_file})
  184.       #message("configuring dependency_file = ${dependency_file}")
  185.       CONFIGURE_FILE(
  186.         ${CUDA_empty}
  187.         ${dependency_file} IMMEDIATE)
  188.     ENDIF(NOT EXISTS ${dependency_file})
  189.     # Always include this file to force CMake to run again next
  190.     # invocation and rebuild the dependencies.
  191.     #message("including dependency_file = ${dependency_file}")
  192.     INCLUDE(${dependency_file})
  193. #   ELSE(${CMAKE_MAKE_PROGRAM} MATCHES "make")
  194. #     # for IDE generators like MS dev only include the depend files
  195. #     # if they exist.   This is to prevent ecessive reloading of
  196. #     # workspaces after each build.   This also means
  197. #     # that the depends will not be correct until cmake
  198. #     # is run once after the build has completed once.
  199. #     # the depend files are created in the wrap tcl/python sections
  200. #     # when the .xml file is parsed.
  201. #     INCLUDE(${dependency_file} OPTIONAL RESULT_VARIABLE found)
  202. #     if (found)
  203. #       message("included dependency_file (${dependency_file}) found")
  204. #     else()
  205. #       message("included dependency_file (${dependency_file}) NOT found")
  206. #     endif()
  207. #   ENDIF(${CMAKE_MAKE_PROGRAM} MATCHES "make")
  208.   # Now we need to verify the existence of all the included files
  209.   # here.  If they aren't there we need to just blank this variable and
  210.   # make the file regenerate again.
  211. #   if(DEFINED CUDA_NVCC_DEPEND)
  212. #     message("CUDA_NVCC_DEPEND set")
  213. #   else()
  214. #     message("CUDA_NVCC_DEPEND NOT set")
  215. #   endif()
  216.   IF(CUDA_NVCC_DEPEND)
  217.     #message("CUDA_NVCC_DEPEND true")
  218.     FOREACH(f ${CUDA_NVCC_DEPEND})
  219.       #message("searching for ${f}")
  220.       IF(NOT EXISTS ${f})
  221.         #message("file ${f} not found")
  222.         SET(CUDA_NVCC_DEPEND_REGENERATE TRUE)
  223.       ENDIF()
  224.     ENDFOREACH(f)
  225.   ELSE(CUDA_NVCC_DEPEND)
  226.     #message("CUDA_NVCC_DEPEND false")
  227.     # No dependencies, so regenerate the file.
  228.     SET(CUDA_NVCC_DEPEND_REGENERATE TRUE)
  229.   ENDIF(CUDA_NVCC_DEPEND)
  230.   #message("CUDA_NVCC_DEPEND_REGENERATE = ${CUDA_NVCC_DEPEND_REGENERATE}")
  231.   # No incoming dependencies, so we need to generate them.  Make the
  232.   # output depend on the dependency file itself, which should cause the
  233.   # rule to re-run.
  234.   IF(CUDA_NVCC_DEPEND_REGENERATE)
  235.     SET(CUDA_NVCC_DEPEND ${dependency_file})
  236.     # Force CMake to run again next build
  237.     CONFIGURE_FILE(
  238.       ${CUDA_empty}
  239.       ${dependency_file} IMMEDIATE)
  240.   ENDIF(CUDA_NVCC_DEPEND_REGENERATE)
  241. ENDMACRO(CUDA_INCLUDE_NVCC_DEPENDENCIES)
  242. ###############################################################################
  243. ###############################################################################
  244. # Locate CUDA, Set Build Type, etc.
  245. ###############################################################################
  246. ###############################################################################
  247. # Set whether we are using emulation or device mode.
  248. OPTION(CUDA_BUILD_EMULATION "Build in Emulation mode" OFF)
  249. # Parse HOST_COMPILATION mode.
  250. OPTION(CUDA_HOST_COMPILATION_CPP "Generated file extension" ON)
  251. # Allow the user to specify if the device code is supposed to be 32 or 64 bit.
  252. if(CMAKE_SIZEOF_VOID_P EQUAL 8)
  253.   set(CUDA_64_BIT_DEVICE_CODE_DEFAULT ON)
  254. else()
  255.   set(CUDA_64_BIT_DEVICE_CODE_DEFAULT OFF)
  256. endif()
  257. OPTION(CUDA_64_BIT_DEVICE_CODE "Compile device code in 64 bit mode" ${CUDA_64_BIT_DEVICE_CODE_DEFAULT})
  258. # Prints out extra information about the cuda file during compilation
  259. OPTION(CUDA_BUILD_CUBIN "Generate and parse .cubin files in Device mode." ON)
  260. # Extra user settable flags
  261. SET(CUDA_NVCC_FLAGS "" CACHE STRING "Semi-colon delimit multiple arguments.")
  262. # Attach the build rule to the source file in VS.  This option
  263. OPTION(CUDA_ATTACH_VS_BUILD_RULE_TO_CUDA_FILE "Attach the build rule to the CUDA source file.  Enable only when the CUDA source file is added to at most one target." OFF)
  264. # Specifies whether the commands used when compiling the .cu file will be printed out.
  265. OPTION(CUDA_VERBOSE_BUILD "Print out the commands run while compiling the CUDA source file.  With the Makefile generator this defaults to VERBOSE variable specified on the command line, but can be forced on with this option." OFF)
  266. # Search for the cuda distribution.
  267. IF(NOT CUDA_INSTALL_PREFIX)
  268.   # Search in the CUDA_BIN_PATH first.
  269.   FIND_PATH(CUDA_INSTALL_PREFIX
  270.     NAMES nvcc nvcc.exe
  271.     PATHS ENV CUDA_BIN_PATH
  272.     DOC "Toolkit location."
  273.     NO_DEFAULT_PATH
  274.     )
  275.   # Now search default paths
  276.   FIND_PATH(CUDA_INSTALL_PREFIX
  277.     NAMES nvcc nvcc.exe
  278.     PATHS /usr/local/bin
  279.           /usr/local/cuda/bin
  280.     DOC "Toolkit location."
  281.     )
  282.   IF (CUDA_INSTALL_PREFIX)
  283.     STRING(REGEX REPLACE "[/\\]?bin[/\\]?$" "" CUDA_INSTALL_PREFIX ${CUDA_INSTALL_PREFIX})
  284.     # We need to force this back into the cache.
  285.     SET(CUDA_INSTALL_PREFIX ${CUDA_INSTALL_PREFIX} CACHE PATH "Toolkit location." FORCE)
  286.   ENDIF(CUDA_INSTALL_PREFIX)
  287.   IF (NOT EXISTS ${CUDA_INSTALL_PREFIX})
  288.     MESSAGE(FATAL_ERROR "Specify CUDA_INSTALL_PREFIX")
  289.   ENDIF (NOT EXISTS ${CUDA_INSTALL_PREFIX})
  290. ENDIF (NOT CUDA_INSTALL_PREFIX)
  291. # CUDA_NVCC
  292. IF (NOT CUDA_NVCC)
  293.   FIND_PROGRAM(CUDA_NVCC
  294.     NAMES nvcc
  295.     PATHS "${CUDA_INSTALL_PREFIX}/bin"
  296.     ENV CUDA_BIN_PATH
  297.     NO_DEFAULT_PATH
  298.     )
  299.   # Search default search paths, after we search our own set of paths.
  300.   FIND_PROGRAM(CUDA_NVCC nvcc)
  301.   IF(NOT CUDA_NVCC)
  302.     MESSAGE(FATAL_ERROR "Could not find nvcc")
  303.   ELSE(NOT CUDA_NVCC)
  304.     MARK_AS_ADVANCED(CUDA_NVCC)
  305.   ENDIF(NOT CUDA_NVCC)
  306. ENDIF(NOT CUDA_NVCC)
  307. # IF (NOT FOUND_CUDA_NVCC_INCLUDE)
  308. FIND_PATH(FOUND_CUDA_NVCC_INCLUDE
  309.   device_functions.h # Header included in toolkit
  310.   PATHS "${CUDA_INSTALL_PREFIX}/include"
  311.   ENV CUDA_INC_PATH
  312.   NO_DEFAULT_PATH
  313.   )
  314. # Search default search paths, after we search our own set of paths.
  315. FIND_PATH(FOUND_CUDA_NVCC_INCLUDE device_functions.h)
  316. IF(NOT FOUND_CUDA_NVCC_INCLUDE)
  317.   MESSAGE(FATAL_ERROR "Could not find CUDA headers")
  318. ELSE(NOT FOUND_CUDA_NVCC_INCLUDE)
  319.   # Set the user list of include dir to nothing to initialize it.
  320.   SET (CUDA_NVCC_INCLUDE_ARGS_USER "")
  321.   SET (CUDA_INCLUDE_DIRS ${FOUND_CUDA_NVCC_INCLUDE})
  322.   MARK_AS_ADVANCED(
  323.     FOUND_CUDA_NVCC_INCLUDE
  324.     )
  325. ENDIF(NOT FOUND_CUDA_NVCC_INCLUDE)
  326. # ENDIF(NOT FOUND_CUDA_NVCC_INCLUDE)
  327. MACRO(FIND_LIBRARY_LOCAL_FIRST _var _names _doc)
  328.   FIND_LIBRARY(${_var}
  329.     NAMES ${_names}
  330.     PATHS "${CUDA_INSTALL_PREFIX}/lib"
  331.     ENV CUDA_LIB_PATH
  332.     DOC ${_doc}
  333.     NO_DEFAULT_PATH
  334.     )
  335.   # Search default search paths, after we search our own set of paths.
  336.   FIND_LIBRARY(${_var} NAMES ${_names} DOC ${_doc})
  337. ENDMACRO()
  338. # CUDA_LIBRARIES
  339. IF (NOT CUDA_LIBRARIES)
  340.   FIND_LIBRARY_LOCAL_FIRST(FOUND_CUDART cudart ""cudart" library")
  341.   # Check to see if cudart library was found.
  342.   IF(NOT FOUND_CUDART)
  343.     MESSAGE(FATAL_ERROR "Could not find cudart library (cudart)")
  344.   ENDIF(NOT FOUND_CUDART)
  345.   # 1.1 toolkit on linux doesn't appear to have a separate library on
  346.   # some platforms.
  347.   FIND_LIBRARY_LOCAL_FIRST(FOUND_CUDA cuda ""cuda" library (older versions only).")
  348.   # Add cuda library to the link line only if it is found.
  349.   IF (FOUND_CUDA)
  350.     SET(CUDA_LIBRARIES ${FOUND_CUDA})
  351.   ENDIF(FOUND_CUDA)
  352.   # Always add cudart to the link line.
  353.   IF(FOUND_CUDART)
  354.     SET(CUDA_LIBRARIES
  355.       ${CUDA_LIBRARIES} ${FOUND_CUDART}
  356.       )
  357.     MARK_AS_ADVANCED(
  358.       CUDA_LIBRARIES
  359.       CUDA_LIB
  360.       FOUND_CUDA
  361.       FOUND_CUDART
  362.       )
  363.   ELSE(FOUND_CUDART)
  364.     MESSAGE(FATAL_ERROR "Could not find cuda libraries.")
  365.   ENDIF(FOUND_CUDART)
  366. ENDIF(NOT CUDA_LIBRARIES)
  367. SET(CUDA_SDK_INSTALL_PREFIX "$ENV{NVSDKCUDA_ROOT}" CACHE PATH "SDK installation location")
  368. # Keep the CUDA_INSTALL_PREFIX first in order to be able to override the
  369. # environment variables.
  370. SET(CUDA_SDK_SEARCH_PATH
  371.   "${CUDA_SDK_INSTALL_PREFIX}"
  372.   "${CUDA_INSTALL_PREFIX}/local/NVSDK0.2"
  373.   "${CUDA_INSTALL_PREFIX}/NVSDK0.2"
  374.   "${CUDA_INSTALL_PREFIX}/NV_CUDA_SDK"
  375.   "$ENV{HOME}/NVIDIA_CUDA_SDK"
  376.   "$ENV{HOME}/NVIDIA_CUDA_SDK_MACOSX"
  377.   "/Developer/CUDA"
  378.   )
  379. # CUDA_CUT_INCLUDE_DIRS
  380. IF(NOT CUDA_CUT_INCLUDE_DIRS)
  381.   FIND_PATH(FOUND_CUT_INCLUDE
  382.     cutil.h
  383.     PATHS ${CUDA_SDK_SEARCH_PATH}
  384.     PATH_SUFFIXES "common/inc"
  385.     DOC "Location of cutil.h"
  386.     NO_DEFAULT_PATH
  387.     )
  388.   # Now search system paths
  389.   FIND_PATH(FOUND_CUT_INCLUDE cutil.h DOC "Location of cutil.h")
  390.   IF(FOUND_CUT_INCLUDE)
  391.     SET(CUDA_CUT_INCLUDE_DIRS ${FOUND_CUT_INCLUDE})
  392.     MARK_AS_ADVANCED(
  393.       FOUND_CUT_INCLUDE
  394.       )
  395.   ENDIF(FOUND_CUT_INCLUDE)
  396. ENDIF(NOT CUDA_CUT_INCLUDE_DIRS)
  397. # CUDA_CUT_LIBRARIES
  398. IF(NOT CUDA_CUT_LIBRARIES)
  399.   # cutil library is called cutil64 for 64 bit builds on windows.  We don't want
  400.   # to get these confused, so we are setting the name based on the word size of
  401.   # the build.
  402.   IF(CMAKE_SIZEOF_VOID_P EQUAL 8)
  403.     SET(cuda_cutil_name cutil64)
  404.   ELSE(CMAKE_SIZEOF_VOID_P EQUAL 8)
  405.     SET(cuda_cutil_name cutil32)
  406.   ENDIF(CMAKE_SIZEOF_VOID_P EQUAL 8)
  407.   FIND_LIBRARY(FOUND_CUT
  408.     NAMES cutil ${cuda_cutil_name}
  409.     PATHS ${CUDA_SDK_SEARCH_PATH}
  410.     # The new version of the sdk shows up in common/lib, but the old one is in lib
  411.     PATH_SUFFIXES "common/lib" "lib"
  412.     DOC "Location of cutil library"
  413.     NO_DEFAULT_PATH
  414.     )
  415.   # Now search system paths
  416.   FIND_LIBRARY(FOUND_CUT NAMES cutil ${cuda_cutil_name} DOC "Location of cutil library")
  417.   IF(FOUND_CUT)
  418.     SET(CUDA_CUT_LIBRARIES ${FOUND_CUT})
  419.     MARK_AS_ADVANCED(FOUND_CUT)
  420.   ENDIF(FOUND_CUT)
  421.   MACRO(FIND_CUDA_HELPER_LIBS _name)
  422.     FIND_LIBRARY_LOCAL_FIRST(FOUND_${_name} ${_name} ""${_name}" library")
  423.     MARK_AS_ADVANCED(FOUND_${_name})
  424.   ENDMACRO(FIND_CUDA_HELPER_LIBS)
  425.   # Search for cufft and cublas libraries.
  426.   FIND_CUDA_HELPER_LIBS(cufftemu)
  427.   FIND_CUDA_HELPER_LIBS(cublasemu)
  428.   FIND_CUDA_HELPER_LIBS(cufft)
  429.   FIND_CUDA_HELPER_LIBS(cublas)
  430.   if (CUDA_BUILD_EMULATION)
  431.     SET(CUFFT_LIBRARIES ${FOUND_cufftemu})
  432.     SET(CUBLAS_LIBRARIES ${FOUND_cublasemu})
  433.   else()
  434.     SET(CUFFT_LIBRARIES ${FOUND_cufft})
  435.     SET(CUBLAS_LIBRARIES ${FOUND_cublas})
  436.   endif()  
  437. ENDIF(NOT CUDA_CUT_LIBRARIES)
  438. ###############################################################################
  439. # Add include directories to pass to the nvcc command.
  440. MACRO(CUDA_INCLUDE_DIRECTORIES)
  441.   FOREACH(dir ${ARGN})
  442.     list(APPEND CUDA_NVCC_INCLUDE_ARGS_USER "-I${dir}")
  443.   ENDFOREACH(dir ${ARGN})
  444. ENDMACRO(CUDA_INCLUDE_DIRECTORIES)
  445. CUDA_FIND_HELPER_FILE(parse_cubin cmake)
  446. CUDA_FIND_HELPER_FILE(make2cmake cmake)
  447. CUDA_FIND_HELPER_FILE(run_nvcc cmake)
  448. ##############################################################################
  449. ##############################################################################
  450. # This helper macro populates the following variables and setups up custom 
  451. # commands and targets to invoke the nvcc compiler to generate C or PTX source
  452. # dependant upon the format parameter.  The compiler is invoked once with -M 
  453. # to generate a dependency file and a second time with -cuda or -ptx to generate
  454. # a .cpp or .ptx file. 
  455. # INPUT:
  456. #   cuda_target         - Target name
  457. #   format              - PTX or C
  458. # OUTPUT:
  459. #   ${target_srcs}      - List of the generated C or PTX source files
  460. #   ${cuda_cu_sources}  - List of the original CU files
  461. ##############################################################################
  462. ##############################################################################
  463. MACRO(CUDA_add_custom_commands cuda_target format)
  464.   IF( ${format} MATCHES "PTX" )
  465.     SET( compile_to_ptx ON )
  466.   ELSEIF( ${format} MATCHES "C")
  467.     SET( compile_to_ptx OFF )
  468.   ELSE()
  469.     MESSAGE( "Invalid format flag passed to CUDA_add_custom_commands: '${format}'.  Defaulting to C")
  470.     SET( compile_to_ptx OFF )
  471.   ENDIF()
  472.   # Set up all the command line flags here, so that they can be overriden on a per target basis.
  473.   set(nvcc_flags "")
  474.   # Emulation if the card isn't present.
  475.   IF (CUDA_BUILD_EMULATION)
  476.     # Emulation.
  477.     SET(nvcc_flags ${nvcc_flags} --device-emulation -D_DEVICEEMU -g)
  478.   ELSE(CUDA_BUILD_EMULATION)
  479.     # Device mode.  No flags necessary.
  480.   ENDIF(CUDA_BUILD_EMULATION)
  481.   IF(CUDA_HOST_COMPILATION_CPP)
  482.     SET(generated_extension cpp)
  483.   ELSE(CUDA_HOST_COMPILATION_CPP)
  484.     SET(generated_extension c)
  485.     SET(nvcc_flags ${nvcc_flags} --host-compilation C)
  486.   ENDIF(CUDA_HOST_COMPILATION_CPP)
  487.   IF(CUDA_64_BIT_DEVICE_CODE)
  488.     SET(nvcc_flags ${nvcc_flags} -m64)
  489.   ELSE()
  490.     SET(nvcc_flags ${nvcc_flags} -m32)
  491.   ENDIF()
  492.   # This needs to be passed in at this stage, because VS needs to fill out the
  493.   # value of VCInstallDir from withing VS.
  494.   IF(CMAKE_GENERATOR MATCHES "Visual Studio")
  495.     IF( CMAKE_SIZEOF_VOID_P EQUAL 8 )
  496.       # Add nvcc flag for 64b Windows
  497.       SET(ccbin_flags -D ""CCBIN:PATH=$(VCInstallDir)bin"" )
  498.     ENDIF( CMAKE_SIZEOF_VOID_P EQUAL 8 )
  499.   ENDIF(CMAKE_GENERATOR MATCHES "Visual Studio")
  500.   # Initialize our list of includes with the user ones followed by the CUDA system ones.
  501.   set(CUDA_NVCC_INCLUDE_ARGS ${CUDA_NVCC_INCLUDE_ARGS_USER} "-I${CUDA_INCLUDE_DIRS}")
  502.   # Get the include directories for this directory and use them for our nvcc command.
  503.   get_directory_property(CUDA_NVCC_INCLUDE_DIRECTORIES INCLUDE_DIRECTORIES)
  504.   if(CUDA_NVCC_INCLUDE_DIRECTORIES)
  505.     foreach(dir ${CUDA_NVCC_INCLUDE_DIRECTORIES})
  506.       list(APPEND CUDA_NVCC_INCLUDE_ARGS "-I${dir}")
  507.     endforeach()
  508.   endif()
  509.   SET(target_srcs "")
  510.   SET(cuda_cu_sources "")
  511.   # Iterate over the macro arguments and create custom
  512.   # commands for all the .cu files.
  513.   FOREACH(file ${ARGN})
  514.     IF(${file} MATCHES ".*\.cu$")
  515.       # Add a custom target to generate a c or ptx file. ######################
  516.       GET_FILENAME_COMPONENT( basename ${file} NAME )
  517.       IF( compile_to_ptx )
  518.         SET(generated_file "${CMAKE_BINARY_DIR}/lib/ptx/${cuda_target}_generated_${basename}.ptx")
  519.         SET(format_flag "-ptx")
  520.         FILE(MAKE_DIRECTORY ${CMAKE_BINARY_DIR}/lib/ptx)
  521.       ELSE( compile_to_ptx )
  522.         SET(generated_file "${CMAKE_BINARY_DIR}/src/cuda/${cuda_target}_generated_${basename}.${generated_extension}")
  523.         SET(format_flag "-cuda")
  524.         FILE(MAKE_DIRECTORY ${CMAKE_BINARY_DIR}/src/cuda)
  525.       ENDIF( compile_to_ptx )
  526.       SET(generated_target "${file}_target")
  527.       SET(source_file ${CMAKE_CURRENT_SOURCE_DIR}/${file})
  528.       # Bring in the dependencies.  Creates a variable CUDA_NVCC_DEPEND #######
  529.       SET(cmake_dependency_file "${generated_file}.depend")
  530.       CUDA_INCLUDE_NVCC_DEPENDENCIES(${cmake_dependency_file})
  531.       SET(NVCC_generated_dependency_file "${generated_file}.NVCC-depend")
  532.       # Convience string for output ###########################################
  533.       IF(CUDA_BUILD_EMULATION)
  534.         SET(cuda_build_type "Emulation")
  535.       ELSE(CUDA_BUILD_EMULATION)
  536.         SET(cuda_build_type "Device")
  537.       ENDIF(CUDA_BUILD_EMULATION)
  538.       # Build the NVCC made dependency file ###################################
  539.       SET(build_cubin OFF)
  540.       IF ( NOT CUDA_BUILD_EMULATION AND CUDA_BUILD_CUBIN )
  541.          IF ( NOT compile_to_ptx )
  542.            SET ( build_cubin ON )
  543.            # Initialize a string containing commands to produce the cubin report.
  544.            SET(generated_cubin_file ${generated_file}.cubin.txt)
  545.          ENDIF( NOT compile_to_ptx )
  546.       ENDIF( NOT CUDA_BUILD_EMULATION AND CUDA_BUILD_CUBIN )
  547.       # Configure the build script
  548.       set(custom_target_script "${generated_file}.cmake")
  549.       configure_file("${CUDA_run_nvcc}" "${custom_target_script}" @ONLY)
  550.       # So if a user specifies the same cuda file as input more than once, you
  551.       # can have bad things happen with dependencies.  Here we check an option
  552.       # to see if this is the behavior they want.
  553.       if(CUDA_ATTACH_VS_BUILD_RULE_TO_CUDA_FILE)
  554.         set(main_dep MAIN_DEPENDENCY ${source_file})
  555.       else()
  556.         set(main_dep DEPENDS ${source_file})
  557.       endif()
  558.       if(CUDA_VERBOSE_BUILD)
  559.         set(verbose_output ON)
  560.       elseif(CMAKE_GENERATOR MATCHES "Makefiles")
  561.         set(verbose_output "$(VERBOSE)")
  562.       else()
  563.         set(verbose_output OFF)
  564.       endif()
  565.       # Build the generated file and dependency file ##########################
  566.       add_custom_command(
  567.         OUTPUT ${generated_file}
  568.         # These output files depend on the source_file and the contents of cmake_dependency_file
  569.         ${main_dep}
  570.         DEPENDS ${CUDA_NVCC_DEPEND}
  571.         DEPENDS ${custom_target_script}
  572.         COMMAND ${CMAKE_COMMAND} ARGS -D verbose:BOOL=${verbose_output} ${ccbin_flags} -P "${custom_target_script}"
  573.         COMMENT "Building (${cuda_build_type}) NVCC ${source_file}: ${generated_file}"
  574.         )
  575.       # Make sure the build system knows the file is generated.
  576.       set_source_files_properties(${generated_file} PROPERTIES GENERATED TRUE)
  577.       # Add the generated file name to the source list.  ######################
  578.       SET(cuda_cu_sources ${cuda_cu_sources} ${source_file})
  579.       SET(target_srcs ${target_srcs} ${generated_file})
  580.       # Add the other files that we want cmake to clean on a cleanup ##########
  581.       list(APPEND CUDA_ADDITIONAL_CLEAN_FILES "${cmake_dependency_file}")
  582.       list(REMOVE_DUPLICATES CUDA_ADDITIONAL_CLEAN_FILES)
  583.       set(CUDA_ADDITIONAL_CLEAN_FILES ${CUDA_ADDITIONAL_CLEAN_FILES} CACHE INTERNAL "List of intermediate files that are part of the cuda dependency scanning.")
  584.     ELSE(${file} MATCHES ".*\.cu$")
  585.       # Otherwise add the file name to the source list.
  586.       SET(target_srcs ${target_srcs} ${file})
  587.     ENDIF(${file} MATCHES ".*\.cu$")
  588.   ENDFOREACH(file)
  589. ENDMACRO(CUDA_add_custom_commands)
  590. ###############################################################################
  591. ###############################################################################
  592. # ADD LIBRARY
  593. ###############################################################################
  594. ###############################################################################
  595. MACRO(CUDA_ADD_LIBRARY cuda_target)
  596.   # Create custom commands and targets for each file.
  597.   CUDA_add_custom_commands( ${cuda_target} C ${ARGN} )
  598.   # Add the library.
  599.   ADD_LIBRARY(${cuda_target}
  600.     ${target_srcs}
  601.     ${cuda_cu_sources}
  602.     )
  603.   TARGET_LINK_LIBRARIES(${cuda_target}
  604.     ${CUDA_LIBRARIES}
  605.     )
  606. ENDMACRO(CUDA_ADD_LIBRARY cuda_target)
  607. ###############################################################################
  608. ###############################################################################
  609. # ADD EXECUTABLE
  610. ###############################################################################
  611. ###############################################################################
  612. MACRO(CUDA_ADD_EXECUTABLE cuda_target)
  613.   # Create custom commands and targets for each file.
  614.   CUDA_add_custom_commands( ${cuda_target} C ${ARGN} )
  615.   # Add the library.
  616.   ADD_EXECUTABLE(${cuda_target}
  617.     ${target_srcs}
  618.     ${cuda_cu_sources}
  619.     )
  620.   TARGET_LINK_LIBRARIES(${cuda_target}
  621.     ${CUDA_LIBRARIES}
  622.     )
  623. ENDMACRO(CUDA_ADD_EXECUTABLE cuda_target)
  624. ###############################################################################
  625. ###############################################################################
  626. # CUDA COMPILE
  627. ###############################################################################
  628. ###############################################################################
  629. MACRO(CUDA_COMPILE file_variable)
  630.   # Create custom commands and targets for each file.
  631.   CUDA_add_custom_commands( cuda_compile C ${ARGN} )
  632.   SET(${file_variable} ${target_srcs} ${cuda_cu_sources})
  633. ENDMACRO(CUDA_COMPILE)
  634. ###############################################################################
  635. ###############################################################################
  636. # CUDA COMPILE PTX
  637. ###############################################################################
  638. ###############################################################################
  639. MACRO(CUDA_COMPILE_PTX ptx_files cuda_files )
  640.   # Create custom commands and targets for each file.
  641.   CUDA_add_custom_commands( cuda_compile_ptx PTX ${ARGN} )
  642.   SET( ${ptx_files} ${target_srcs} )
  643.   SET( ${cuda_files} ${cuda_cu_sources} )
  644. ENDMACRO(CUDA_COMPILE_PTX)
  645. ###############################################################################
  646. ###############################################################################
  647. # CUDA ADD CUFFT TO TARGET
  648. ###############################################################################
  649. ###############################################################################
  650. macro(CUDA_ADD_CUFFT_TO_TARGET target)
  651.   if (CUDA_BUILD_EMULATION)
  652.     target_link_libraries(${target} ${FOUND_cufftemu})
  653.   else()
  654.     target_link_libraries(${target} ${FOUND_cufft})
  655.   endif()
  656. endmacro()
  657. ###############################################################################
  658. ###############################################################################
  659. # CUDA ADD CUBLAS TO TARGET
  660. ###############################################################################
  661. ###############################################################################
  662. macro(CUDA_ADD_CUBLAS_TO_TARGET target)
  663.   if (CUDA_BUILD_EMULATION)
  664.     target_link_libraries(${target} ${FOUND_cublasemu})
  665.   else()
  666.     target_link_libraries(${target} ${FOUND_cublas})
  667.   endif()
  668. endmacro()
  669. ###############################################################################
  670. ###############################################################################
  671. # CUDA BUILD CLEAN TARGET
  672. ###############################################################################
  673. ###############################################################################
  674. macro(CUDA_BUILD_CLEAN_TARGET)
  675.   # Call this after you add all your CUDA targets, and you will get a convience
  676.   # target.  You should also make clean after running this target to get the
  677.   # build system to generate all the code again.
  678.   add_custom_target(CleanCudaDepends
  679.     COMMAND ${CMAKE_COMMAND} -E remove ${CUDA_ADDITIONAL_CLEAN_FILES})
  680.   # Clear out the variable, so the next time we configure it will be empty.
  681.   # This is useful so that the files won't persist in the list after targets
  682.   # have been removed.
  683.   set(CUDA_ADDITIONAL_CLEAN_FILES "" CACHE INTERNAL "List of intermediate files that are part of the cuda dependency scanning.")
  684. endmacro(CUDA_BUILD_CLEAN_TARGET)