cntk

Why is import cntk as C not working in google colab

杀马特。学长 韩版系。学妹 提交于 2021-02-18 12:54:45
问题 I installed opencv version 3.4.4, installed cntk,Importing into google collab gives the following results. import cntk as C /usr/local/lib/python3.6/dist-packages/cntk/cntk_py_init.py:56: UserWarning: Unsupported Linux distribution (ubuntu-18.04). CNTK supports Ubuntu 16.04 and above, only. warnings.warn('Unsupported Linux distribution (%s-%s). CNTK supports Ubuntu 16.04 and above, only.' % (__my_distro__, __my_distro_ver__)) /usr/local/lib/python3.6/dist-packages/cntk/cntk_py_init.py:102:

[Tensorflow] TensorFlow之Hello World!(1)

ぃ、小莉子 提交于 2020-12-04 08:26:59
哇!今天挺开心的,30天的时间,19篇文章,2459人阅读,5313人次阅读!今天开通的原创标识,恩!除了激动,就是非常感谢大家的支持! 感谢大家的支持! 大家的支持! 的 支持! 支持! 持!我会继续努力的!我们一起进步!(./鞠躬!) ***** ** *** *** *****分割线 ********** *** ** *** 在学习TensorFlow之前,先给大家安利一波其他的几个库,主要有caffe,CNTK,keras,Theano,Torch,MaxNet。 总的来说,Caffe,CNTK这类是基于配置文件来定义模型,而Torch,Theano,Keras,TensorFlow是基于语言来定义模型。其中Torch是基于lua,一个比较小众的语言,不过也有了Python版。基于Python的有Theano,TensorFlow,Keras。Theano是和TensorFlow最像的一个,应该说TensorFlow是受到了Theano的启发而开发的,他们都是利用了tensor张量的思想。但是Theano是由LISA lab基于学术目的而开发的一套底层算法库,而TensorFlow是由google支持的。他俩主要区别还在于TensorFlow支持分布式编程。 下面有些网址可能打不开,这不是说链接无效~,而是需要“翻墙”,我觉得肯定有人不知道怎么办,就像我刚听说的时候

NIPS 2017 | QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding

本小妞迷上赌 提交于 2020-10-02 15:58:06
由于良好的可扩展性,随机梯度下降(SGD)的并行实现是最近研究的热点。实现并行化SGD的关键障碍就是节点间梯度更新时的高带宽开销。因此,研究者们提出了一些启发式的梯度压缩方法,使得节点间只传输压缩后的梯度。尽管这些启发式方法在实践中很有效,但它们有时并不会收敛。 本文提出了量化SGD(Quantization SGD,QSGD),它是一类具有收敛保证且在实践中性能良好的压缩模式。QSGD允许用户平滑得权衡通信带宽和收敛时间:节点可以在每轮迭代时调整发送的比特数,代价可能是更高的方差。这种权衡是固有的,因为将其提高到某个阈值会违反信息理论的下限。QSGD在异步情况下保证了凸与非凸目标函数的收敛性,并且可以使用随机方差削减技术扩展。 当在图像识别与语音识别任务上训练深度神经网络时,QSGD显著地降低了端到端的训练时间。 1. Introduction 目前,许多研究者正在研究如何扩展大规模SGD算法。SGD算法的定义如下。令 \(f:\mathbb{R}^n\rightarrow\mathbb{R}\) 是我们要最小化的目标函数。我们可以得到随机梯度 \(\widetilde{g}\) ,即 \(\mathbb{E}[\widetilde{g}(x)]=\triangledown f(x)\) 。通过多次迭代,SGD可以收敛到最小值。 \[\boldsymbol{x}_{t+1}=

各种收藏的资源汇总

☆樱花仙子☆ 提交于 2020-08-10 06:27:47
以下资源均来自于各大技术社区朋友推荐: 类似于StackOverFlow的基于ASP.NET MVC的响应式主题论坛MVCForum 杨威:股海捕鱼(二十八)低回撤的交易才是稳定获利的前提条件 基于ZKWeb + Angular 4.0的开源管理后台Demo 高级PM教你定制APP通用元件库 企捷协同办公平台,开源 抓包工具: wireshark现在几乎就是抓包必备工具了。。。 做web的用fiddler比较多 微软开源AI开发包 微软也开源其深度学习语人工智能领域的研究成果 Computational Network Toolkit(CNTK),将之放上 GitHub 供所有开发者使用,而且据微软研究员说法,CNTK 在语音和图像辨识能力方面,比 Google 的 Tensor 等四个开发者常用的 Toolkit 有更快的运算速度。 IdentityServer,OAuth2 等资源汇总 nanofaric 基于Consul + .NET Core + Polly + Ocelot + Exceptionless + IdentityServer等开源项目的微服务开发框架 nanofaric 是 nano 和 fabric的合成,nano表示微服务, fabric来自于微软的微服务框架 service fabric 开源的分布式部署解决方案文档 - 手动安装 各种图标资源网站:

Has Microsoft abandoned CNTK?

妖精的绣舞 提交于 2020-05-25 06:37:47
问题 I want to know if CNTK dead? Release notes on GitHub dated 03/31/2019: "Today’s 2.7 release will be the last main release of CNTK." I've spent months developing software using CNTK and now it appears to be a waste of time and money. I've search for an answer on numerous sites and still no answer. stackoverflow is one of the sites recommend by Microsoft. 回答1: From KedengMS, one of the maintainers for CNTK. Reposted from github. Thanks for all the CNTK supporters, and I am privileged to have

【AI测试】人工智能测试整体介绍——第一部分

早过忘川 提交于 2020-04-21 19:01:57
主要内容是 第一部分:人工智能和测试的介绍 第二部分:人工智能系统的特性和验收标准 第三部分:机器学习的性能指标和基准 第四部分:测试机器学习工作流程 第五部分:人工智能系统测试简介 第六部分:人工智能系统的黑盒测试 第七部分:人工智能系统的白盒测试 第八部分:测试人工智能的测试环境 第九部分:使用人工智能进行测试 引言 传统系统的测试已被很好地理解,但是基于AI的系统对我们的日常生活变得越来越普遍和至关重要,它带来了新的挑战。 这篇内容涵盖了人工智能(AI)的关键概念,我们如何确定验收标准以及如何测试基于AI的系统。 这些系统通常是复杂的(例如深层神经网络),基于大数据,指定不明确和不确定性,这给测试它们带来了许多新的挑战和机遇。 在整个文档中,首字母缩写词AI代表“人工智能”一词。 一、人工智能和测试的介绍 1.1 “人工智能”和“人工智能效应”的定义 1.2 AI使用案例 1.3 AI使用和以后的市场 91%的技术主管认为AI将成为下一次技术革命的核心。 1.4 基于AI系统的故障和测试的重要性 1.5 图灵测试和AI的历史 1.6 AI技术 搜索算法•推理技术–逻辑程序–规则引擎–演绎分类器–基于案例的推理–程序推理•机器学习技术–人工神经网络•前馈神经网络•递归神经网络–贝叶斯网络 –决策树–深度学习•卷积神经网络–强化学习–转移学习–遗传算法–支持向量机

Keras学习手册(一),开篇-使用 Python3 的Deep Learning 库

跟風遠走 提交于 2020-04-08 08:31:19
感谢作者分享- http://bjbsair.com/2020-04-07/tech-info/30656.html === 你恰好发现了 Keras。 Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。 如果你在以下情况下需要深度学习库,请使用 Keras: 允许简单而快速的原型设计(由于用户友好,高度模块化,可扩展性)。 同时支持卷积神经网络和循环神经网络,以及两者的组合。 在 CPU 和 GPU 上无缝运行。 查看文档,请访问 Keras.io。 Keras 兼容的 Python 版本: Python 2.7-3.6 。 指导原则 用户友好。 Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 模块化。 模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽可能少的限制组装在一起。特别是神经网络层、损失函数、优化器、初始化方法、激活函数、正则化方法,它们都是可以结合起来构建新模型的模块。 易扩展性

How to get images filenames from minibatch?

不问归期 提交于 2020-01-15 11:30:20
问题 I'm working on this tutorial: https://github.com/Microsoft/CNTK/blob/master/Tutorials/CNTK_201B_CIFAR-10_ImageHandsOn.ipynb The test / train data files are simple tab separated text files containing image filenames and correct labels like this: ...\data\CIFAR-10\test\00000.png 3 ...\data\CIFAR-10\test\00001.png 8 ...\data\CIFAR-10\test\00002.png 8 Assume I create a minibatch like this: test_minibatch = reader_test.next_minibatch(10) How can I get to the filenames for the images, which was in

How to get to the original index from a minibatch?

时光毁灭记忆、已成空白 提交于 2020-01-05 03:41:07
问题 Assume I have a minibatch as a result of this code: test_minibatch = reader_test.next_minibatch(10) How can I get to the indexes of this minibatch as reference into the original data? Assume my test dataset was 100 rows. How can I know which 10 rows out of the 100 original rows are in the minibatch? 回答1: Can you create a column with unique Id's (usually called a GUID / UUID) and read that in the reader. This is one way to map your sample to master set. It scales well with very large datasets

possible std::async implementation bug Windows

橙三吉。 提交于 2020-01-02 12:14:21
问题 It seems like there is a bug in the windows implementation of std::async. Under heavy load (on the order of 1000 threads launched async per second), async tasks are never scheduled and waiting on the returned futures leads to deadlocks. See this piece of code (modified with launch policy deferred instead of async): BundlingChunk(size_t numberOfInputs, Bundler* parent, ChunkIdType chunkId) : m_numberOfInputs(numberOfInputs), m_parent(parent), m_chunkId(chunkId) { const BundlerChunkDescription&