将您的GPU机器设置为“深度学习准备”

时间:2021-07-15 | 标签: | 作者:Q8 | 来源:索拉布网络

小提示:您能找到这篇{将您的GPU机器设置为“深度学习准备”}绝对不是偶然,我们能帮您找到潜在客户,解决您的困扰。如果您对本页介绍的将您的GPU机器设置为“深度学习准备”内容感兴趣,有相关需求意向欢迎拨打我们的服务热线,或留言咨询,我们将第一时间联系您!


基于GPU的GoogleCloud平台深度学习

< ">我知道,支持gp危机公关的五大原则u的高端深入学习系统构建起来非常昂贵,而且很难获得。

< ">这是在假设您有一台可用GPU的裸机器的情况下编写的,如果有部分预置,请随意跳过某个部分,我还假设您有一个NVIDIA卡,我们只会在本教程中介绍TensorFlow的设置,它是最流行的深度学习框架(Kudos to Google!)



安装CUDA驱动东莞网站 建设程序

< ">CODA是NVIDIA的并行计算平台,是TensorFlow的基本前提。但是,正如我们稍后将理解的,它实际上是更好的开始相反的方式舆情格式,所以让我们回到这个部分稍后。

< ">安装TensorFlow

< ">启动您的终端(或者SSH,如果是远程计算机)。找到特定应用程序所需的TensorFlow版本(如果有的话),或者如果没有这样的限制,我们只需使用我目前使用的TensorFlow 1.8.0。

< ">< font-size: 18px;">PIP安装TensorFlow-GPU=1.8.0

< ">让它安装。现在运行Python shell,

< ">< font-size: 18px;">Python

< ">在Pythonshell中,键入:

< ">< font-size: 18px;">进口TensorFlow作为TF

< ">此时,由于我们没有安装CUDA,您应该会看到一个类似于以下内容的错误:

< ">< font-size: 18px;">ImportError:libcublas.so.9.0:无法打开共享对象文件:没有这样的文件或目录



< ">9.0和文件名可能取决于您选择的TensorFlow版本。但相反的做法是要知道我们需要哪种版本的数据自动化系统,在这个例子中是9.0。官方文件对TF版本和CUDA版本的对应还不清楚,所以我总是发现这种逆向工程方法更好。

< ">让我们回到安装CUDA。

< ">使用

< ">< font-size: 18px;">出口()

< ">退出Pythonshell。

< ">< font-size: 18px;">安装CUDA驱动程序(这一次我们真的要这么做,保证)

< ">所以导航到< color: rgb(127, 127, 127);">https://developer.nvidia.com/cuda-toolkit-archive。选择刚才确定的版本。

< ">Linux->x86_64->Ubuntu->16.04(或17.04)->DEB(网络)

< ">下载DEB到您的机器,并按照NVIDIA页面上的说明安装CUDA。一旦完成,让我们检查一下是否一切顺利。

< ">回去,重新打开Python外壳,

< ">< font-size: 18px;">进口TensorFlow作为TF

< ">因此,我们还没有完成,您现在应该看到一个不同的错误消息。(如果您看到的是前面相同的一个,请参阅下面的“故障排除”)

< ">< font-size: 18px;">ImportError:libcudnn.so.7:无法打开共享对象文件:没有这样的文件或目录

< ">我们还需要一个名为cuDNN的NVIDIA库,它用于对深层神经网络的GPU加速。再次注意我们需要的cuDNN版本,在本例中为7.0。

< ">导航到< color: rgb(127, 127, 127);">https://developer.nvidia.com/cudnn注册一个帐户(这是免费的)。在您建立帐户后,登录并转到< color: rgb(127, 127, 127);">https://developer.nvidia.com/rdp/cudnn-archive

< ">选择所需的cuDNN版本,并确保您选择该版本的CUDA版本。在这种情况下我们需要

< ">下载cuDNN v7.0.5(2017年12月5日),用于CUDA 9.0

< ">在选择中,

< ">用于Linux的cuDNN v7.0.5库

< ">tgz文件将开始下载,将其移动到您的计算机,然后使用

< ">< font-size: 18px;">tar-xzvf<CUDNN_TAR_filename>

< ">将提取一个文件夹“Cuda”,将CD解压缩到该目录,并执行这两个文件,



< ">我们已经完成了(希望)。再次启动Pythonshell,您就知道该做什么了。

< ">如果这次没有抛出任何错误,我们就没事了。

< ">为了确保TensorFlow检测到GPU,在相同的Pythonshell上运行以下命令

< ">< font-size: 18px;">tf.test.gpu_Device_name()

< ">它应该打印出所有可供您使用的GPU。这在较早版本的TF上可能不起作用,如果是这样的话,可以在您的终端上尝试这个版本:

< ">< font-size: 18px;">NVIDIA-SMI

故障排除

< ">如果您做的一切都正确,而TensorFlow仍然抛出相同的错误,即使NVIDIA-SMI工作中,这可能是环境路径变量的一个问题。执行这些来修复:

< ">纵然NVIDIA-SMI命令不工作,CUDA没有正确安装,如果您遗漏了什么,请重新启动。

将您的GPU机器设置为“深度学习准备”

上一篇:AWS免费套餐避坑攻略:查看账户下所有region的资
下一篇:Google Cloud 的网络设计


版权声明:以上主题为“将您的GPU机器设置为“深度学习准备”"的内容可能是本站网友自行发布,或者来至于网络。如有侵权欢迎联系我们客服QQ处理,谢谢。
相关内容
推荐内容
扫码咨询
    将您的GPU机器设置为“深度学习准备”
    打开微信扫码或长按识别二维码

小提示:您应该对本页介绍的“将您的GPU机器设置为“深度学习准备””相关内容感兴趣,若您有相关需求欢迎拨打我们的服务热线或留言咨询,我们尽快与您联系沟通将您的GPU机器设置为“深度学习准备”的相关事宜。

关键词:将您的GPU机器设置为“深

关于 | 业务 | 案例 | 免责 | 隐私
客服邮箱:sales@1330.com.cn
电话:400-021-1330 | 客服QQ:865612759
沪ICP备12034177号 | 沪公网安备31010702002418号