gpu服务器

使用GPU跑Tensorflow代码实录

匿名 (未验证) 提交于 2019-12-02 23:57:01
使用conda创建一个新的虚拟环境 输入 conda create -n intelligent-judge python=3.6 创建一个python版本为3.6的名字是intelligent-judge的虚拟环境 查看显卡信息 输入lspci | grep -i vga查看显卡信息 很明显是NVIDIA Quadro GP100 配置CUDA和CUDNN 本来是要去下载cuda和cudnn的,结果一看,服务器上已经有现成的了 输入 cat /usr/local/cuda/version.txt, 和 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 可以看到cuda是9.0.176版本的,cudnn是7.5.0版本的 所以对应版本,决定安装tensorflow gpu-1.70version 在虚拟环境中配置python包 输入source activate intelligent-judge激活虚拟环境 输入pip install tensorflow-gpu==1.7.0 安装成功 从远程库中pull下测试文件 运行,出现问题 提示cuda找不到 按照下面这篇文章进行调整 https://blog.csdn.net/qq_34374211/article/details/81018320 成功运行测试文件

网站性能优化实战——从12.67s到1.06s的故事

女生的网名这么多〃 提交于 2019-12-02 23:07:04
本文转载于: 猿2048 网站➱ https://www.mk2048.com/blog/blog.php?id=ha00i0j20j 网站性能监测与优化策略 0.引言 作为互联网项目,最重要的便是用户体验。在举国“互联网+”的热潮中,用户至上也已经被大多数企业所接收,特别是在如今移动端快速发展的时代,我们的网页不仅只是呈现在用户的PC浏览器里,更多的时候,用户是通过移动产品浏览我们的网页。加之有越来越多的开发者投入到Web APP和Hybrid APP的开发队伍中,性能,又再一次成为了被程序员们重点关注的话题。我曾经看到过这样一句话:一个网站的体验,决定了用户是否愿意去了解网站的功能;而网站的功能,决定了用户是否会一票否决网站的体验。这是改版自网络上的一句流行语,但却把网站性能这件事说的十分透彻,特别是在网站这样的项目中,如果一个用户需要超过5s才能看见页面,他会毫不犹豫地关闭它。 性能优化,作为工程师界的“上乘武功”,是我们在开发中老生常谈的话题,也是一名开发者从入门向资深进阶的必经阶段,虽然我们看到过很多的标准、军规,但在真正实践中,却常常力不从心,不知道落下了什么,不知道性能是否还有进一步优化的空间。 对于网站的性能,在行业内有很多既定的指标,但就以我们Front-Enders而言,应该更加关注以下指标:白屏时间、首屏时间、整页时间、DNS时间、CPU占用率

Pycharm use GUP server

梦想的初衷 提交于 2019-12-02 00:37:36
1、配置远程服务器信息   Tools——Deployment——Configuration      然后,点击加号Add一个远程服务信息。   我这里命名为server1;Type选择SFTP;Host即ip地址,也就是服务器的地址;Port是端口号;User name即用户名;再输一下password,顺便save一下。      Test一下Connection,然后自动生成一下Root path,OK。    2、添加远程调试环境   File——Settings——Project——Project Interpreter(解释器)      Show all——加号——SSH Interpreter——Existing server configuration——server1——Next——Finish          3、Test   新建一个项目文件,跑一下code。 import tensorflow as tf a = tf.test.is_built_with_cuda() b = tf.test.is_gpu_available( cuda_only=False, min_cuda_compute_capability=None ) print(a) print(b)   结果: ssh://root@111.44.254.166:43942/usr

深度学习小白装机-记录一下

佐手、 提交于 2019-11-29 17:08:55
深度学习小白装机-记录一下 三个备选清单。 原本早就有攒一部机器的想法,最近刚刚好在玩深度学习的小案例,所以产生了装一部自己的台式机的想法。 下面均是自己查资料所得,可能与实际有差入。出错了,我也不负责呀,哈哈。关于价格,我是根据某东自营店价格(截至2019-09)来做比较的,可能不同时间段有差入,价格因素需要自己衡量高低。 我根据不同的价格成本和预设的使用场景设计了三个不同的方案。 先说结论,我最终选择的清单3 学生党版。配置是i5-9600kf+gtx1660ti 。这个清单上GTX 1660ti的显存是6G,cuda核心是1536个,显存频率为9000MHz,显存位宽192bit,这个性能用于应对Kaggle等上中小型数据集的比赛应该是比较足够的。 清单1 工作站版 考虑可以扩展4 GPU 的工作站级别 这里包括预留的电源功率空间和CPU频率最多可以挂载2 CPU。 虽然这个主板属于服务器主板,可以挂载4 GPU,但是不建议自己搭建负载4 GPU的工作站。因为工作站成本本来就高,例如配置目前来说顶级的显卡RTX2080ti,价格会高达1.3w块左右(截至2019-09),光显卡成本就高达5.2w了。搭配CPU等其他配件时,成本会更高。建议有这个资金,不妨请专业的厂家去定制,保修包括购买配件都比较更方便些。 部件 型号 购买网址 价格 GPU选择 ZOTAC 索泰

并行程序

别说谁变了你拦得住时间么 提交于 2019-11-28 00:59:13
---恢复内容开始--- 一、大数据时代的现状 据统计,YouTube上每分钟就会增加500多小时的视频,面对如此海量的数据,如何高效的存储与处理它们就成了当前最大的挑战。 但在这个对硬件要求越来越高的时代,CPU却似乎并不这么给力了。自2013年以来,处理器频率的增长速度逐渐放缓了,目前CPU的频率主要分布在3~4GHz。实际上CPU与频率是于能耗密切相关的,我们之前可以通过加电压来提升频率,但当能耗太大,散热问题就无法解决了,所以频率就逐渐稳定下来了,而Intel与AMD等大制造商也将目标转向了多核芯片,目前普通桌面PC也达到了4~8核。 随着集成电路上的晶体管数据量越来越多,功耗的增加以及过热问题,使得在集成电路上增加更多的晶体管变得更加困难,摩尔定律所预言的指数增长必定放缓。因此,摩尔定律失效。 当前和未来五年,微处理器技术朝着多核方向发展,充分利用摩尔定律带来的芯片面积,放置多个微处理器内核,以及采用更加先进的技术降低功耗。 当然,多核并行计算不仅仅可以使用 CPU ,而且还可以使用 GPU (图形处理器),一个 GPU 有多大上千个核心,可以同时运行上千个线程。那怎么利用 GPU 做并行计算呢?可以使用英伟达的 CUDA 库。 什么时候用并行计算? 多核CPU——计算密集型任务: 尽量使用并行计算,可以提高任务执行效率。计算密集型任务会持续地将CPU占满

mali GPU 官网指南

て烟熏妆下的殇ゞ 提交于 2019-11-26 08:25:22
https://blog.csdn.net/heliangbin87/article/details/79650654 1、简介 GPU(图形处理单元),是一种专门在个人电脑、工作站、游戏机和移动设备上图形运算工作的微处理器。以前GPU主要用于图形处理,现在GPU的通用计算技术也得到了飞速发展,事实证明在浮点运算、并行计算等部分计算方面,GPU可以提供数十倍乃至上百倍于CPU的性能。通用计算方面的标准有:OpenCl、CUDA、ATISTREAM。 其中,OpenCL(全称Open Computing Language,开放运算语言)是第一个面向异构系统通用目的并行编程的开放式、免费标准,也是一个统一的编程环境,便于软件开发人员为高性能计算服务器、桌面计算系统、手持设备编写高效轻便的代码,而且广泛适用于多核心处理器(CPU)、图形处理器(GPU)、Cell类型架构以及数字信号处理器(DSP)等其他并行处理器,在游戏、娱乐、科研、医疗等各种领域都有广阔的发展前景,AMD-ATI、NVIDIA时下的产品都支持Open CL。 GPU的生产厂商非常多,最大的三家是英特尔、NVIDIA、AMD,他们主要应用于PC领域。相比ARM CPU占据了移动端90%市场,ARM的mali GPU只是移动市场众多GPU的一小众,它主要应用基于ARM 体系结构的移动设备上,得益于CPU占有率发展迅猛

DCGAN

青春壹個敷衍的年華 提交于 2019-11-26 03:59:05
1、代码获取https://github.com/carpedm20/DCGAN-tensorflow 2、数据集获取 python download.py mnist celebA存在问题,不能下载 直接从官网http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html下载数据集,然后解压放到data文件夹下(文件夹内有20多万张图片) 3、代码运行环境Ubuntu Server 16.04 x64 + cuda8,利用conda进行管理,python3.5,tensorflow-gpu1.4.0 需解决的问题: 1、gpu的选择 os.environ[‘CUDA_VISIBLE_DEVICES’] = ‘1’ //1代表第二块gpu 2、代码运行过程中出现错误tensorflow.python.framework.errors_impl.InternalError,from device: CUDA_ERROR_OUT_OF_MEMORY 1)先运行nvidia-smi 检查GPU运行情况,若内存够用进入2 2)代码应作已下修改 import tensorflow as tf import os os.environ["CUDA_VISIBLE_DEVICES"] = '0' #use GPU with ID=0 config = tf