失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > windows下同一个显卡配置多个CUDA工具包以及它们之间的切换

windows下同一个显卡配置多个CUDA工具包以及它们之间的切换

时间:2021-04-27 04:27:05

相关推荐

windows下同一个显卡配置多个CUDA工具包以及它们之间的切换

1、多版本的CUDA以及cudnn安装

2、不同版本的tensorflow在CUDA之间的切换

3、验证自己的CUDA是否安装成功

前面的一片文章里面讲到了tensorflow、NVIDIA显卡驱动、CUDA工具包、cudnn之间的一些关系,详情请参考原文:

/qq_27825451/article/details/89082978

tensorflow最大的问题就是版本问题,各个版本之间差异比较明显,我们有时候需要不同的tensorflow版本,而不同的版本对于CUDA toolKit的版本要求和cudnn的要求又不一样,我们肯定不能每次使用一个版本都重新安装,前面的那篇文章明确了几个基本观点:

(1)NVIDIA显卡驱动和CUDA ToolKit不是一一对应的,我们一般保持最新的驱动程序,安装其他不同版本的CUDA即可;

(2)CUDA和cudnn也不是严格的一一对应关系,但是这个官网上有着明确的对应连接,即很么版本的cuda配置什么样的cudnn;

所以如果需要在一台电脑上安装多个版本的CUDA和cudnn是完全可行的,由于Linux上面的配置教程很多,这里就不讲了,本文以windows为例来说明,

1、多版本的CUDA以及cudnn安装

由于里显得CUDA会默认捆绑NVIDIA驱动程序,所以在安装的时候不要默认安装,一定要自定义安装,只选择安装CUDA即可,其他的那些就不要安装了,我的电脑上安装的版本如下:

我们一般安装CUDA的时候就使用默认路径,安装到C盘即可,这样方便管理。

然后在NVIDIA官网上面下载CUDA对应的cudnn版本,解压之后将cudnn对应的三个文件拷贝到CUDA对应的文件夹之下,这个时候我们的环境变量应该如下所示:

现在多个版本的CUDA就安装完成了。

2、不同版本的tensorflow在CUDA之间的切换

网上有很多在Linux下面的CUDA的切换,其实都是通过环境变量的设置与配置来实现的,但是window这一点坐的很方便,

不需要切换,不需要切换,不需要切换,只要环境变量PATH中有相应的CUDA路径即可,无需手动切换了。

比如我的电脑上同事安装了

tensorflow1.9,它对应于CUDA9.0

tensorflow1.13,它对应于CUDA10.0

tensorflow2.0.0 alpha0,它对应于CUDA10.0

我可以使用任何一个版本,只要在环境变量中有对应的CUDA路径即可,

本人也是通过实验得出来的,首先我删除了CUDA10.0的环境变量,重启之后,发现tensorflow1.13和tensorflow2.0.0都不能使用了,但是tensorflow1.9还可以用;然后我又删除了CUDA9.0的环境变量,重启,这个时候tensorflow1.9也不能使用了;

接下来我又添加CUDA10.0的环境变量,重启,此时tensorflow1.13和tensorflow2.0.0又可以1使用了,然后我又通过添加CUDA9.0环境变量,重启,这时tensorflow1.9又可以使用了。

总结:windows多个不同版本的CUDA使用时需要切换,只要环境变量PATH中有相应的CUDA路径即可,无需手动切换了。tensorflow在运行的时候会自动在环境变量中寻找合适的CUDA版本,直到找到为止,如果没有,则会报错。

3、验证自己的CUDA是否安装成功

每一个版本的CUDA配置完成后,我们可以验证是否配置成功,主要使用CUDA内置的deviceQuery.exe 和 bandwithTest.exe这两个程序来验证。

首先win+R启动cmd,cd到安装目录下的 ,比如我的安装目录是(以CUDA 10.1为例):

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite

执行bandwidthTest.exedeviceQuery.exe这两个应用程序,得到下面的结果:

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>deviceQuerydeviceQuery Starting...CUDA Device Query (Runtime API) version (CUDART static linking)Detected 1 CUDA Capable device(s)Device 0: "GeForce GTX 1070"CUDA Driver Version / Runtime Version10.1 / 10.1CUDA Capability Major/Minor version number: 6.1Total amount of global memory: 8192 MBytes (8589934592 bytes)(15) Multiprocessors, (128) CUDA Cores/MP:1920 CUDA CoresGPU Max Clock rate: 1785 MHz (1.78 GHz)Memory Clock rate: 4004 MhzMemory Bus Width:256-bitL2 Cache Size: 2097152 bytesMaximum Texture Dimension Size (x,y,z) 1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layersMaximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layersTotal amount of constant memory:zu bytesTotal amount of shared memory per block: zu bytesTotal number of registers available per block: 65536Warp size: 32Maximum number of threads per multiprocessor: 2048Maximum number of threads per block: 1024Max dimension size of a thread block (x,y,z): (1024, 1024, 64)Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535)Maximum memory pitch:zu bytesTexture alignment: zu bytesConcurrent copy and kernel execution:Yes with 2 copy engine(s)Run time limit on kernels: YesIntegrated GPU sharing Host Memory: NoSupport host page-locked memory mapping: YesAlignment requirement for Surfaces: YesDevice has ECC support: DisabledCUDA Device Driver Mode (TCC or WDDM): WDDM (Windows Display Driver Model)Device supports Unified Addressing (UVA):YesDevice supports Compute Preemption: NoSupports Cooperative Kernel Launch: NoSupports MultiDevice Co-op Kernel Launch:NoDevice PCI Domain ID / Bus ID / location ID: 0 / 1 / 0Compute Mode:< Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.1, CUDA Runtime Version = 10.1, NumDevs = 1, Device0 = GeForce GTX 1070Result = PASS

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>bandwidthTest[CUDA Bandwidth Test] - Starting...Running on...Device 0: GeForce GTX 1070Quick ModeHost to Device Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes) Bandwidth(MB/s)33554432 12180.7Device to Host Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes) Bandwidth(MB/s)33554432 12782.8Device to Device Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes) Bandwidth(MB/s)33554432 191225.0Result = PASS

当两个Result=PASS的时候,说明我们的安装配置是没有问题的。

如果觉得《windows下同一个显卡配置多个CUDA工具包以及它们之间的切换》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。