英伟达

安装Nvidia显卡驱动、CUDA和cuDNN的方法(jsxyhelu整编)

纵然是瞬间 提交于 2019-11-27 22:20:51
Nvidia显卡驱动、CUDA和cuDNN一般都是同时安装的,这里整理的是我成功运行的最简单的方法。 一、Nvidia显卡驱动 1.1 在可以进入图形界面的情况下 直接在“软件和更新”下搜索“附加驱动”,我建议选择“专用”的推荐显卡驱动。注意不要选最新版本。 1.2 在无法进入图形界面的情况下 (待整理) 1.3 成功安装的验证方法 运行Nvidia-smi命令,有类似回显(注意Nvidia和-smi之间没有空格)。 二、CUDA的安装 2.1下载安装( https://developer.nvidia.com/cuda-downloads) wget https://developer.nvidia.com/compute/cuda/10.1/Prod/local_installers/cuda_10.1.168_418.67_linux.run cuda历史版本下载地址 ( https://developer.nvidia.com/cuda-toolkit-archive ) cudnn下载地址( https://developer.nvidia.com/rdp/cudnn-archive ) 找到.run文件,并且wget后运行。 2.2 测试方法 nvcc -V命令有正确回显(注意nvcc和-V中间有空格)。 三、cuDNN的安装 注册,进入官网(https:/

英伟达人工智能计算平台调研

孤街浪徒 提交于 2019-11-27 22:17:47
英伟达发布人工智能芯片,旨在打造机器人大脑 http://www.qianjia.com/html/2018-06/05_294558.html 英特尔/英伟达/AMD/IBM人工智能芯片盘点,谁更有优势?-控制器/处理器-与非网 https://www.eefocus.com/mcu-dsp/413144 英伟达发布全新人工智能终端计算平台 — 国际防务快讯 — 国防科技信息网 中国最权威的国防科技信息的专业门户 国际军事新闻 国内军事新闻 热点军事专题 中国独家的军事图片 军事视频 http://www.dsti.net/Information/News/103537 英伟达发布人工智能计算机很惊艳它推出自动驾驶测试平台更革命性_车家号_发现车生活_汽车之家 https://chejiahao.autohome.com.cn/info/3479921/ 购买最新的 Jetson 产品 | NVIDIA 开发者 https://www.nvidia.cn/autonomous-machines/jetson-store/ NVIDIA Distributor | Authorized Partner | Arrow.com https://www.arrow.com/en/manufacturers/nvidia 英伟达推Jetson TX1 GPU模块 力推人工智能_互联网资讯

ubuntu16.04安装1080ti显卡驱动+cuda9.1+cudnn7

大城市里の小女人 提交于 2019-11-27 16:21:38
一、查看显卡信息: 终端输入命令: lspci |grep -i vga 二、安装显卡驱动 1. 禁用nouveau驱动 参考博客:https://blog.csdn.net/qq_33200967/article/details/80689543 终端输入: sudo gedit /etc/modprobe.d/blacklist.conf​ 在文本最后添加: blacklist nouveau options nouveau modeset=0 然后执行: sudo update-initramfs -u 重启后,执行以下命令,如果没有屏幕输出,说明禁用nouveau成功: lsmod | grep nouveau 2. 下载安装驱动 方法一: 参考博客 https://blog.csdn.net/weixin_40294256/article/details/79157838 源头为:AINLP公众号的“从零开始搭建深度学习服务器: 基础环境配置(Ubuntu + GTX 1080 TI + CUDA + cuDNN)” 参考博客: https://blog.csdn.net/sinat_25640747/article/details/79231482 安装1080TI显卡驱动, 终端输入: sudo apt-get purge nvidia* sudo add-apt

ubuntu16.04 无法进入图形界面的一种解决方案

ε祈祈猫儿з 提交于 2019-11-27 14:31:19
System Settings ->Software & Updates-> Additional Drivers安装了附加的驱动,输入账号pndx,进 使用Ctrl + Alt+T 键,进入ubuntu系统终端。在终端输入命令 $dpkg -l | grep -i nvidia,系统将显示出所有安装的nvidia驱动的安装包。正确的形式如下图所示,只有nvidia-common,若显示其他版本,则需要将其卸载。 2 卸载nvidia显卡驱动的命令为$sudo apt-get remove --purge nvidia-* 注意这个命令将卸载所有名字中含有“nvidia-”的软件包。然而这个命令也将nvidia-common包卸载,我们需要再次安装,输入命令$sudo apt-get install ubuntu-desktop 安装nvidia-common软件包。 另一个比较安全的命令是$sudo apt-get purge nvidia-current 卸载当前nvidia显卡驱动。 3 注意,有可能nvidia显卡驱动将NVIDIA显卡开源驱动 Nouveau加入到黑名单中,因此我们需要强制将nouveau驱动加载到boot引导中,使用命令$echo 'nouveau' | sudo tee -a /etc/modules 将nouveau添加到/etc

NVIDIA Jetson AGX Xavier Developer Kit 试用笔记

£可爱£侵袭症+ 提交于 2019-11-27 13:48:00
从lab储物柜拿东西的时候,偶然发现柜子里的 NVIDIA Jetson AGX Xavier 开发套件。记录下开机使用过程,先上几张图片: 1.简介 NVIDIA Jetson AGX Xavier Developer Kit, 这款10W-30W的计算机模组能够提供每秒高达32万亿的运算,可广泛应用于深度学习和计算机视觉任务。 该开发套件由 NVIDIA JetPack 和 DeepStream SDK 以及 CUDA®,cuDNN和TensorRT软件库提供支持,提供了立即开始使用所需的所有工具。而且由于它采用了全新的 NVIDIA Xavier 处理器,因此其性能比前代产品 NVIDIA Jetson TX2 提升了20倍以上,能效提高了10倍。 Jetson AGX Xavier的主要功能: ● NVIDIA Carmel ARM v8.2 64位八核处理器 ● 带64 Tensor Core的512GB NVIDIA Volta显卡, ● 双NVIDIA深度学习加速器引擎 ● NVIDIA视觉加速器引擎 ● 高清视频编解码器 ● 128Gbps专用摄像头摄取 ● 16通道PCIe Gen4扩展 ● 256位内存接口,带宽为137 GB / s ● 16GB的256位LPDDR4x RAM ● 32GB的eMMC 5.1存储 2.Setup Xavier 文档:

Ubuntu 16.04. 装tesla p4 显卡驱动+cuda9.0+docker+nvidia-docker 详细方法,这里是服务器为主

别来无恙 提交于 2019-11-27 13:03:19
Ubuntu 16.04. 装tesla p4 显卡驱动+cuda9.0+docker+nvidia-docker 详细方法,这里是服务器为主 这里 说明一下,我也是在网上看的教程,小白一个,通过好几次的安装 步骤写下来 给大家分享给大家 ,希望对想安装这个功能的伙计们有个帮助吧 首先下载ubuntu镜像 地址 http://releases.ubuntu.com/16.04/?_ga=2.246976388.1827311414.1565755267-1068360699.1565755267 看不懂英文的可以用浏览器自带翻译,翻译一下网页 就可以了 ,然后用 UltraISO 软件刻录到U盘或者光盘。我使用的是服务器 SR650 ,我安装的显卡驱动是 9.0 384.183 版本 cuda 也是 9.0 版本的 cuda 下载地址 看你是什么系统 就选 什么系统 https://developer.nvidia.com/cuda-downloads cudnn9.2 下载地址 这里我没有安装 https://pan.baidu.com/s/1VgSYJqze32bpKIT7lxd2hQ 密码 vude nvidia-docker 1.0.1-1_amd64.deb 下载地址https://pan.baidu.com/s/1Sh3WKPYbdE1BeowvozVMLw 密码

Nvidia GPU风扇和电源显示ERR!

有些话、适合烂在心里 提交于 2019-11-27 12:09:33
问题 最近在Ubuntu上使用Nvidia GPU训练模型的时候,没有问题,过一会再训练出现非常卡顿,使用nvidia-smi查看发现,显示GPU的风扇和电源报错: 解决方案 自动风扇控制 在nvidia论坛有人给出了解决方案,即问题的根源可能是风扇转速不足使GPU过热导致的。 首先开启GPU的persistent mode,再设置风扇的功率,重启即可生效。其中250代表的是风扇的最大功率限制,可以将其设置为最大,这样过热的时候风扇就会自动加大功率。 sudo nvidia-smi -pm 1 sudo nvidia-smi -pl 250 手动风扇控制 此外,还可以将GPU风扇的手动风速控制打开。方法为: 首先,使用sudo nvidia-xconfig --enable-all-gpus命令打开所有gpu在xserver中的设置(不使用sudo可能无权限写入新配置) 然后修改配置文件:sudo vim /etc/X11/xorg.conf,在其中的DeviceSection中加入Option "Coolbits" "4"如下图所示: 如果机器上有多块gpu,在第一步命令执行后,会在这个xorg.conf中出现多个DeviceSection,都依次执行第三步操作 重启机器后,命令行执行nvidia-settings,会打开设置界面,在其中的会显示所有GPU的设置选项

英伟达野心很大,GPUDirect Storage想要颠覆英特尔的天下

▼魔方 西西 提交于 2019-11-27 10:51:23
8月12日消息,英伟达NVIDIA推出了名为GPUDirect存储(GPUDirect Storage)的数据传输技术,加快位在各种存储的数据,传输到GPU內存的速度,可以将带宽增加至原本的2到8倍,而且还能降低端到端的延迟达3.8倍。 由于人工智能以及高效能运算的数据集规模不断增加,应用程序载入数据花费的时间越来越长,进而影响了应用程序的性能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。 英伟达提到,将数据从存储器载入到GPU,过去都是由CPU负责,而这将会成为硬件性能的瓶颈。 数据从NVMe磁盘传输到GPU內存的标准路径,是使用系统內存中的回弹缓存(Bounce Buffer)也就是额外的数据拷贝。而GPUDirect存储技术避免使用回弹缓存,以减少额外的数据副本,并使用直接內存存取引擎(Direct Memory Access,DMA)将数据直接放到GPU內存中,为远端或是本地存储。诸如NVMe或NVMe over Fabric,和GPU內存之间,建立一个直接传输数据的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O带宽和传输数据的量。 英伟达发展GPUDirect存储技术,大幅提升GPU载入大型数据集的速度。英伟达提到,GPUDirect存储技术的主要功能,就是通过这个新的系统,以直接內存的存取方式,将数据传输至GPU內存上。

cuda

走远了吗. 提交于 2019-11-27 10:23:23
cuda目录下有一个uninstall.pl的脚本是卸载cuda的。nvidia-uninstall命令可以卸载driver。如果卸载driver的时候driver正在被使用 ,那个nvidia的内核模块可能不会退出,重启下机器就好了 来源: https://www.cnblogs.com/zhangmingda/p/11359231.html

ubuntu16.04 部署GPU环境

旧街凉风 提交于 2019-11-27 09:45:33
参考文档 https://blog.csdn.net/nwpushuai/article/details/79935740 https://blog.csdn.net/qq_43030766/article/details/91513501 https://blog.csdn.net/zhqh100/article/details/77646497 https://www.cnblogs.com/zixuan-L/p/11023051.html https://blog.csdn.net/huangfei711/article/details/79230446 https://www.cnblogs.com/yjlch1016/p/8641910.html 硬件环境 CPU I7-7700,8M,3.6GHZ,4核 内存 DDR4 16G 硬盘 SSD 500G 系统 Ubuntu 16.04 Desktop版(需要用到图像界面) 显卡 NVDIA GeForce GTX1050Ti 4G 系统环境 1.双网卡绑定 root@mec03:~# cat /etc/modules # /etc/modules: kernel modules to load at boot time. # # This file contains the names of kernel modules