deep

利用Deep Exploration导出Revit模型为3D PDF文档

笑着哭i 提交于 2020-01-13 12:11:05
老早听说过Deep Exploration这个软件的,好像叫3D文件转换大师,如其名所示,就是把各种格式的3D模型文件转来转去的东西,它能够支持DWG三维模型的导入,最最关键是的它能将各种三维模型导出为3D PDF格式文档(要的就是这种功能),可以点击这里查看 关于Deep Exploration的更多信息 。 仍然以Revit2013版本自带的哪个建筑示例为例进行简单的说明(真是辛苦这个文档了),RVT导出DWG简单一步完成,然后打开Deep Exploration,看着界面感觉这是一个功能相当复杂的软件,密密麻麻的工具栏,选项卡,我们来新建一个文档,然后将刚刚导出的哪个DWG文档拖放到Deep Exploration界面中,多么高端的拖放操作(时至今日,本人仍然没有在那些密密麻麻的工具栏中找到”导入“的命令在哪里,惭愧惭愧!!!)。哇,漂亮的三维模型跃然于屏幕,仿佛呼之欲出。 然后”文件》保持“,将其保存为3D PDF文档(还好,输出PDF的命令比较好找,不然真的木法度了),用Adobe reader打开效果如下。 这3D PDF的显示效果,丝毫不输给 用Autodesk Inventor Publisher导出的PDF 文档,但是这个PDF只有874K大小,比起 用Autodesk Inventor Publisher导出的PDF 文档2.48M的大小来说,其体积缩小了3倍

[Vue]vue-preview的使用以及坑

无人久伴 提交于 2020-01-10 04:18:11
首先贡献 vue-preview 的地址,如下 https://github.com/LS1231/vue-preview vue-preview 的使用说明 <template> <vue-preview :slides="slide1" @close="handleClose"></vue-preview> </template> <script> export default { data () { return { slide1: [] } }, methods: { handleClose () { console.log('close event') } } } </script> 按照如上的 引用,会出现一个问题,照片无法正常加载,点击后却有放大的效果 解决方法,我们只要将 src的内容赋值给msrc就可以(对照github的例子,发现缺缺少msrc这个属性),代码如下 getThumbs() { // 获取缩略图 this.$http.get('api/getthumimages/'+this.id).then( result=> { if (result.body.status === 0) { result.body.message.forEach(item =>{ item.msrc = item.src item.alt= 'picture2' item

埃及分数(迭代加深搜索)

女生的网名这么多〃 提交于 2020-01-09 00:57:50
使用单位分数的和表示有理数。 例如 2/3 = 1/2 + 1/6; 加数不能有重复。0<a<b<1000。(有一个条件这里还没实现: 如果加数个数相同, 则最小分数越大越好。) 此题目解答树宽度和深度都没有上限,不能直接用bfs或者dfs。 解决方案是采用迭代加深搜索:从小到大枚举深度上限。 int a, b; int tree[1000]; bool dfs(int deep, int cb, int sa, int sb ) { tree[deep] = cb; int _a = sb + cb * sa; int _b = cb * sb; // 同一层向右平移, 找一个更小的分数。 if ((_a * b) > (a * _b)) return dfs(deep, cb + 1, sa, sb); // 递归边界:是否达到最大层数限制。 if ( deep == 0 ) { if ((_a * b) == (a * _b)) return true; else return false; } else return dfs( deep-1, 2, _a, _b); // 移向下一层 return false; } void iterativeDeepening() { int deep = 0; for (; deep <= 1000; deep++ ) { //

计算广告中常用深度学习网络

﹥>﹥吖頭↗ 提交于 2020-01-06 05:19:35
https://www.infoq.cn/article/XA055tpFrprUy*0UBdCb 1、Wide & Deep 模型 https://arxiv.org/abs/1606.07792 https://blog.csdn.net/google19890102/article/details/78171283 在Wide & Deep模型中包括两个部分,分别为Wide部分和Deep部分,Wide部分如上图中的左图所示,Deep部分如上图中的右图所示。 wide模型:实际上,Wide模型就是一个广义线性模型, $y = w^T x+b$ deep模型:Deep模型是一个前馈神经网络 联合训练:同时训练Wide模型和Deep模型,并将两个模型的结果的加权和作为最终的预测结果:$P(Y = 1 | x) = \sigma(W^T_{wide}[x, \phi(x)] + W^T_{deep}a^{l_f} + b)$ 优化方法: wide模型:FTRL deep模型:AdaGrad keras: http://www.atyun.com/18823.html 2、DeepFM模型 https://ask.hellobi.com/blog/wenwen/11840 https://www.cnblogs.com/ljygoodgoodstudydaydayup/p

论文笔记-DeepFM: A Factorization-Machine based Neural Network for CTR Prediction

烈酒焚心 提交于 2020-01-06 05:19:17
针对交叉(高阶)特征学习提出的DeepFM是一个end-to-end模型,不需要像wide&deep那样在wide端人工构造特征。 网络结构: sparse features的构造:类别型特征one-hot,连续型特征数值表示,或者分段离散后one-hot FM与NN分别输出预测y后,对两个结果进行sigmoid FM部分: paper指出在数据稀疏的情况下,FM仍能有效地学出二阶特征,最后FM的预测为: deep部分: papar指出这个网络结构两个特别的点: 1)虽然input的field vector长度不一,但是它们embedding出来的长度是固定的 2)FM的latent vector V向量作为原始特征到embedding vector的权重矩阵,放在网络里学习,如下图。 (个人理解,也就是说在网络的一二层,学出来的weight就是FM的latent vector,然后在FM component中使用,计算y_fromFM) deepFM中FM与deep部分共享一份embedding数据,有两点好处: 1)能够从原始特征同时学习低阶和高阶特征 2)不需要像W&D做特征工程 paper之后比较了该模型与W&D在内的好几个模型,因为还没有读它们的原始论文,暂不记了。 来源: https://www.cnblogs.com/akanecode/p/8093742.html

深度学习八(总结)

纵然是瞬间 提交于 2020-01-05 07:57:12
转载:http://blog.csdn.net/zouxy09/article/details/8782018 接上 十、总结与展望 1)Deep learning总结 深度学习是关于自动学习要建模的数据的潜在(隐含)分布的多层(复杂)表达的算法。换句话来说,深度学习算法自动的提取分类需要的低层次或者高层次特征。高层次特征,一是指该特征可以分级(层次)地依赖其他特征,例如:对于机器视觉,深度学习算法从原始图像去学习得到它的一个低层次表达,例如边缘检测器,小波滤波器等,然后在这些低层次表达的基础上再建立表达,例如这些低层次表达的线性或者非线性组合,然后重复这个过程,最后得到一个高层次的表达。 Deep learning能够得到更好地表示数据的feature,同时由于模型的层次、参数很多,capacity足够,因此,模型有能力表示大规模数据,所以对于图像、语音这种特征不明显(需要手工设计且很多没有直观物理含义)的问题,能够在大规模训练数据上取得更好的效果。此外,从模式识别特征和分类器的角度,deep learning框架将feature和分类器结合到一个框架中,用数据去学习feature,在使用中减少了手工设计feature的巨大工作量(这是目前工业界工程师付出努力最多的方面),因此,不仅仅效果可以更好,而且,使用起来也有很多方便之处,因此,是十分值得关注的一套框架

New Machine Learning Server for Deep Learning in Nuke(翻译)

六月ゝ 毕业季﹏ 提交于 2020-01-04 08:46:32
最近一直在开发Orchestra Pipeline System,歇两天翻译点文章换换气。这篇文章是无意间看到的,自己从2015年就开始关注机器学习在视效领域的应用了,也曾利用碎片时间做过一些算法移植的工作,所以看到这篇文章的时候很有共鸣,遂决定翻译一下。 原文链接: https://www.fxguide.com/fxfeatured/new-machine-learning-server-for-deep-learning-in-nuke/ 正文: Recent years have seen the arrival of Machine Learning (ML) research into the area of visual effects. From noise reduction to facial pipelines, Deep Learning has proven to be a rich tool for major effects projects. One of the hallmarks of Machine Learning and Deep Learning, as we discuss in the next section, has been the widescale publishing and sharing of code and

[TJOI2015]线性代数(最小割)

十年热恋 提交于 2019-12-26 19:48:20
题目描述 给出一个N*N的矩阵B和一个1*N的矩阵C。求出一个1*N的01矩阵A.使得 D=(A*B-C)*A^T最大。其中A^T为A的转置。输出D 题解 观察上面那个式子发现,当一个 bij 有贡献时当且仅当 a[i]=1&&a[j]=1 。 且当 a[i]=1 时会产生 -c[i] 的贡献。 然后我naive的以为这是个二元关系最小割。 其实没那么复杂,我们建立源点向矩阵中的每一个元素连 b[i][j] 的边,然后每个元素向t连 c[i] 的边。 然后 (i,j) 向 i 和 j 分别连 inf 的边。 这样割左边相当于 i 和 j 至少有一个不选,割右边相当于全选。 代码 #include<iostream> #include<cstdio> #include<cstring> #include<queue> #define N 502 #define M 260020 #define inf 2e9 using namespace std; typedef long long ll; queue<int>q; typedef long long ll; int head[M],deep[M],cur[M],tot=1,n,c[N],b[N][N],top; ll sum,ans; inline ll rd(){ ll x=0;char c=getchar();bool f

从Playing Atari with Deep Reinforcement Learning 看神经网络的输入,学习的状态空间

我的未来我决定 提交于 2019-12-26 02:47:04
Introduction: 学习直接从高维的感观输入(视觉,语音)去直接控制智能体是强化学习一个长期的挑战。一些成功的RL应用都是依赖于hand-crafted的特征。最近深度学习的进步使提取高水平的特征成为了可能。 参考传送门: https://blog.csdn.net/qq_34718684/article/details/89386302 Playing Atari with Deep Reinforcement Learning 1、预处理:剪裁、灰度化、下采样 Atari 游戏之Breakout,原始图像是:每帧128color的210x160pixel图像,为减小状态空间维数和满足gpu的2d卷积神经网络需要方形输入,对原始图像进行与处理。 预处理前 预处理后 注释1:img函数,剪裁31-195像素,游戏相关图像。 注释2:img_temp.mean(axis=2)函数 原图像的灰度图 注释3:IM_SIZE 下采样参数,缩放后的图像大小,设置为80 注释3:imresize函数 下采样,等比例压缩图片尺寸 参考传送门: http://c.biancheng.net/view/1976.html DQN算法原理及应用(实现Atari游戏) 2、定义输入 输入为84*84*4 为什么输入为4帧?只看上图不能确定板子是向左还是向右,要理解游戏当前的状态