言图科技:GPU服务器选型

微笑、不失礼 提交于 2020-05-01 07:46:11

公司简介

言图科技总部位于武汉光谷,致力于人工智能领域的自然语言处理、图像处理基础算法、软件、平台与设备研发。目前,公司拥有成熟的自然语言处理基础软件集、语义理解工具集、知识图谱工具集、智能陪练机器人、聊天机器人、情感与专注度分析工具、无人机大数据分析服务器系统等多种产品,并被多家金融集团、大型国企、科研机构与政府机关采用。公司在积极开拓市场的同时,投入大量资金进行基础研究。

公司与华中科技大学计算机学院共同组建“华中科技大学计算机学院人工智能实验室”。 而且,团队成员在自然语言处理、知识图谱、视频分析、图像处理等方面取得了较为丰富的理论成果和技术积累,已在国内外权威杂志及会议上发表论文一百多篇,比如AAAI、SIGKDD、RTSS、CIKM、IEEE TKDE、IEEE TSMC-B、IEEE TC、ACM TWEB等。

业务痛点

  • 线下的GPU服务器,成本特别高,而且非常不灵活。
  • 没有使用过云GPU服务器,对服务器选型比较困惑。
  • 对GPU、Tesla P100与Tesla P4具体的参数性能与应用场景不是特别了解。

解决方案

图 1. GPU服务器选型

GPU服务器选型

  • CPU除了负责浮点整形运算外,还有很多其他的指令集的负载,比如像多媒体解码,硬件解码等,因此CPU是多才多艺的。CPU注重的是单线程的性能,要保证指令流不中断,需要消耗更多的晶体管和能耗用在控制部分,于是CPU分配在浮点计算的功耗就会变少。GPU基本上只做浮点运算,设计结构简单,也就可以做的更快。GPU注重的是吞吐量,单指令能驱动更多的计算,相比较GPU消耗在控制部分的能耗就比较少,因此可以把电省下来的资源给浮点计算使用。
  • 根据我们公司的业务类型判断选取P4或者P100。做学习可选取P100,推理则P4或P100均可。从成本与具体场景分析,我们选择了P4的GPU服务器。
  • 采购阿里云GPU服务器,后期的扩展性和部署的灵活性都非常优秀。从线下采购服务器,到最终部署的时间快则一周,满可能要1-2个月。

上云价值

  • 阿里云帮助我们解决了提供深度学习API调用的应用问题。
  • 从成本与性能比,协助我们选择了最优的方式。
  • 灵活的部署,让后期扩容以及后期运维上更加简便。

相关产品

  • GPU服务器

    GPU云服务器是基于GPU应用的计算服务,多适用于AI深度学习,视频处理,科学计算,图形可视化,等应用场景。

    更多关于GPU服务器的介绍,参见GPU服务器产品详情页

原文链接
本文为云栖社区原创内容,未经允许不得转载。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!