mu

深入理解卷积网络的卷积

谁都会走 提交于 2020-12-28 10:07:00
卷积神经网络是一种特殊的神经网络结构,是自动驾驶汽车、人脸识别系统等计算机视觉应用的基础,其中基本的矩阵乘法运算被卷积运算取代。它们专门处理具有网格状拓扑结构的数据。例如,时间序列数据和图像数据可以看作是一个二维像素网格。 历史 卷积神经网络最初是由福岛核电站在1980年引入的,当时名为Neocognitron。它的灵感来自于Hubel和Weisel提出的神经系统的层次模型。但由于其复杂的无监督学习算法,即无监督学习,该模型并不受欢迎。1989年,Yann LeCun利用反向传播和Neocognitron的概念提出了一种名为LeNet的架构,该架构被美国和欧洲用于手写的邮政编码识别。邮政服务。Yann LeCun进一步研究了这个项目,最终在1998年发布了LeNet-5——第一个引入了我们今天在CNN仍然使用的一些基本概念的现代卷积神经网络。他还发布了MNIST手写数字数据集,这可能是机器学习中最著名的基准数据集。在20世纪90年代,计算机视觉领域转移了它的焦点,许多研究人员停止了对CNN架构的研究。神经网络的研究经历了一个寒冷的冬天,直到2012年,多伦多大学的一组研究人员在著名的ImageNet挑战赛中进入了一个基于CNN的模型(AlexNet),最终以16.4%的错误率赢得了比赛。此后,卷积神经网络不断向前发展,基于CNN的体系结构不断赢得ImageNet, 2015年

0编程基础学python之print()函数的学习

橙三吉。 提交于 2020-12-25 11:50:10
面向0编程基础的python教学~ 手打搬砖操作!大佬勿喷! 以下不定时更新python课程教学,具体还看柯忙不忙。。 现在学习的python中的输入输出函数~ 首先柯用的是windows系统。 用的编译器pycharm或者mu看我心情用。 建议还是用pycharm里面的库比较完备,mu适合打一些伪代码,或者初学者学习语法用。 好进入正题: 我们学习一个东西要了解其本质,学习编程就像谈恋爱一样,有“输入”,也要有“输出”。 你发送一堆代码指令给机器,他不反馈给你信息, 就好比你天天给你对象发信息,she/he不回消息,你难不难受。 首先我们先看看python当中的输出(打印)函数print(),顾名思义,print就是打印。 在这里,打印的意思是:让计算机把你给它的指令结果,显示在屏幕的终端上。 print()函数由两部分构成:1. 指令:print;2. 指令的执行对象:在print后面的括号里的内容。 这两部分合起来的意思就是:我们对电脑下指令——把括号里的内容打印给我瞧瞧。 说太多无用,上图: 具体怎么用呢,来实际操作一下: import time print ('在'+time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())+'这一刻 ,' ) print(520) 在这里,柯皮了一下,调用了时间库里面的本地时间函数

[转]积性函数,狄利克雷卷积

一世执手 提交于 2020-12-19 05:58:16
注意:这是个人学习笔记,如果有人因为某些原因点了进来并且要看一下,请一定谨慎地阅读,因为可能存在各种奇怪的错误,如果有人发现错误请指出谢谢! 转自: https://www.cnblogs.com/jianglangcaijin/p/6035766.html 1、积性函数:对于函数f(n),若满足对任意互质的数字a,b,a*b=n且f(n)=f(a)f(b),那么称函数f为积性函数。显然f(1)=1。 2、狄利克雷卷积:对于函数f,g,定义它们的卷积为$(f*g)(n)=\sum_{d|n}f(d)g(\frac{n}{d})$。 3、两个积性函数的狄利克雷卷积仍为积性函数。 证明: 设f,g的狄利克雷卷积为h,即$h(n)=\sum_{d|n}f(d)g(\frac{n}{d})$,设n=a*b,a或b为1时显然成立,下面证明a和b均不为1 设$n=p_{1}^{\alpha _{1}}p_{2}^{\alpha _{2}}...p_{m}^{\alpha _{m}}$,$a=p_{1}^{\alpha _{1}}p_{2}^{\alpha _{2}}...p_{k}^{\alpha _{k}}$,$b=p_{k+1}^{\alpha _{k+1}}p_{k+2}^{\alpha _{k+2}}...p_{m}^{\alpha _{m}}$ 其中$m\geq 2,1\leq k

[JVM工具(1)] 堆栈检查利器jstat的使用

会有一股神秘感。 提交于 2020-12-19 00:19:25
jstat 可以检查 JVM 整体的运行情况,可以看到 新生代,老年代等的内存使用情况,以及 GC 次数和耗时 命令格式 如 jstat -<option> [-t] [-h<lines>] <vmid> [<interval> [<count>]] 其中 -option 必选参数表示命令参数 如 gc 等, -t 为可选参数表示是否打印时间(秒), -h<lines> 可选参数,表示每隔多少行打印头部列表,如设置 -h 5 , 那么每五条记录就会重新打印表头, vmid 必选参数, Java 进程 id , interval 可选参数表示采样的时间间隔, count 可选参数表示需要采样多少条, jstat -gc pid jstat -gc pid 这是最常用的语法,可以直接查看内存和垃圾回收情况 首先我们要获得 Java 进程的 PID 信息,可以通过 jps 命令来获取 之后执行 jstat -gc pid 即可看到对应 Java 进程的内存情况,如下: 这里说明一下关于这些列名的含义 : S0C : 新生代中第一个 Survivor (即 From 区)的容量大小 (千字节) S1C : 新生代中第二个 Survivor (即 To 区)的容量大小 (千字节) S0U : 新生代 From Survivor 区已使用内存大小(千字节) S1U : 新生代 To

数论函数——莫比乌斯反演

若如初见. 提交于 2020-12-17 02:18:14
一些函数的一些性质 取整函数 $\lfloor x \rfloor$ (一)$\lfloor x \rfloor <= x < \lfloor x \rfloor +1$ (二)对任意x与正整数a,b$\lfloor \lfloor \frac{x}{a} \rfloor /b\rfloor=\lfloor \frac{x}{ab}\rfloor$ (三)对于正整数n,1 -- n中d的倍数个数为 $\lfloor \frac{n}{d} \rfloor$ (四)若n为正整数,$\lfloor \frac{n}{d}\rfloor$不同取值个数不超过$2\times\sqrt{n}种$ 证明: $(1)若d \leq{\sqrt{n}},\lfloor \frac{n}{d}\rfloor只有不超过\sqrt{n}种$ $(2)若d>\sqrt{n},\lfloor \frac{n}{d} \rfloor \leq \frac{n}{d} \leq \sqrt{n},\lfloor \frac{n}{d}\rfloor 不超过\sqrt{n}种$ $综上,\lfloor \frac{n}{d}\rfloor 不超过2\times{\sqrt{n}}种$ 调和数 定义 $$Hn=\sum\limits_{k=1}^{n}\frac{1}{k}$$运算得$$ Hn=ln(n)+r+o

Python generator 类型

我只是一个虾纸丫 提交于 2020-12-16 20:15:10
场景: 使用gurobi求解优化问题时,遇到quicksum()函数用法如下: quicksum(mu[i] for i in range(n)) 读着很流畅而且好像并没什么问题欸,但 mu[i] for i in range(n) 返回的又是什么? 看了下quicksum()函数的介绍: def quicksum(p_list): # real signature unknown; restored from __doc__ """ ROUTINE: quicksum(list) PURPOSE: A quicker version of the Python built-in 'sum' function for building Gurobi expressions. ARGUMENTS: list: A list of terms. RETURN VALUE: An expression that represents the sum of the input arguments. EXAMPLE: expr = quicksum([x, y, z]) expr = quicksum([1.0, 2*y, 3*z*z]) """ pass 所以,上述代码返回的是个list? python console中试了下: x = [1,2,3 ] print (x[i] for i

Generative Adversarial Nets[AAE]

我只是一个虾纸丫 提交于 2020-12-16 10:24:50
本文来自《Adversarial Autoencoders》,时间线为2015年11月。是大神Goodfellow的作品。本文还有些部分未能理解完全,不过代码在 AAE_LabelInfo ,这里实现了文中2.3小节,当然实现上有点差别,其中one-hot并不是11个类别,只是10个类别。 本文提出“对抗自动编码器(AAE)”,其本质上是自动编码器和GAN架构的合体,通过将AE隐藏层编码向量的聚合后验与任意先验分布进行匹配完成变分推论(variational inference)。将聚合后验与先验进行匹配确保从该先验任何部分都能够生成有意义的样本。AAE的解码层可以看成是一个深度生成模型,可以将强加的先验映射到数据分布上。本文并介绍如何将AAE用在如半监督分类,图像分类,无监督聚类,维度约间和数据可视化。 本文主要是介绍了几种AAE的应用: Basic AAE (文中2到2.1之间的部分) Incorporatiing Label Information in the Adversarial Regularization (文中2.3小节) Supervised AAE (文中4小节) Semi-supervised AAE (文中5小节) Unsupervised Clustering with AAE (文中6小节) Dimensionality Reduction with

[数论]莫比乌斯反演2

亡梦爱人 提交于 2020-12-15 08:40:19
索引 莫比乌斯反演1 定理 莫比乌斯反演2 证明 莫比乌斯反演3 技巧 前言 本篇内容为定理的证明 定理请参考: >传送门< 三个性质的证明 性质1 证明: 这个式子是莫比乌斯函数真正的定义式 但是我们还是有证明 当$n=1$时,显然 $$\sum_{d|n}\mu(d)=\mu(1)=1$$ 根据定义直接得到的结论 当$n\neq1$时, $$\sum_{d|n}=\mu(a_1)+\mu(a_2)+\dots+\mu(a_m)+\mu(a_1a_2)+\dots+\mu(a_1a_2 \dots a_m)$$ 这里的a指质因数,m是质因数的个数,这一步是直接展开。 $$=\sum_{i=0}^{m}(-1)^iC^i_m$$ ·上式在下文中被称为第二个式子 如果选择i个质因子作为d的值,有$C_m^i$种选法 $$=0$$ 这里博主给一个杨辉三角的解释,我们假设m为奇数,那么显然因为$C_m^i=C_m^{m-i}$,又因为$(-1)^i=-(-1)^{m-i}$,所以第二个式子的值肯定为0,若m为偶数,我们设上一层的杨辉三角的 值为$1+a_1+a_2+\dots+a_{m-1}+1$,且m为奇数,那么本层的杨辉三角值珂通过上一层推出,带入第二个式子得$1-1-a_1+a_1+a_2-a_2-a_3+\dots+a_{m-1}-a_{m-1}-1+1$ 得到 $0$。

micro:bit的三大python彩蛋

怎甘沉沦 提交于 2020-12-15 04:47:28
在很多软件中,开发者都喜欢隐藏一些彩蛋,让使用者去发现,为大家带来一些乐趣。在micro:bit的python程序中,同样隐藏了三个彩蛋,非常有趣,大家都可以试一试。 首先,我们需要下载一个python程序到microbit,可以使用mu或者社区的在线PythonEditor( http://microbit.site/ ),写入一个空白程序到microbit。然后在mu 的 REPL 下,按照下面方式就可以看到彩蛋了。 彩蛋1: 在REPL下输入 import this ,就可以看到第一个彩蛋,python之禅。 彩蛋2: 在REPL下,输入 import love ,就可以看到爱心彩蛋。 彩蛋3: 反重力彩蛋,方法请点击下方的 阅读原文 。 注: 彩蛋只有第一次运行才有效,第二次输入就无效了,需要复位后才能再次看到效果。 本文分享自微信公众号 - MicroPython中文社区(MicroPython_cn)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina.net/u/609160/blog/4401056

GDOI2018滚粗记

南楼画角 提交于 2020-12-01 01:49:05
day-50: 高中全体成员去了北京训练,我被虐成傻逼(貌似总分全校倒数第2)。 day-20: 回广州了,间断式略微考好55555..... day0: 早上起床好像有点晚qwq 然后简单打了个FFT的板子,然后又打了个kmp的板子,最后简单看了下扩k的原理 期间我居然把FFT的2pi/h的h打成了n.... 下午在初中部门口集中, 集体乘坐大巴去中山。 中山一中在市区(不像我们那里),然后宾馆在走路10分钟可到的地方,终于不用像往年一样坐15分钟大巴通勤了yes! 今年运气不错,酒店分房间分到一个套房有客厅哈哈哈~~~(结果这里就变成娱乐中心了~!@#¥%……&*()——) 晚上打了下吃鸡和jokebird。 day1: 7点40到达学校 8点进场,试机十分钟后被告知8点半开考23333。 看完T1,瞬间想出$O(n \times d(n))$的做法,考虑到$n≤10^6$。则d(n)最大为240,花了10分钟就写完了。 做完T1后,去看了T2和T3,感觉T2放在前面照理来说应该比T3简单吧,于是就开始搞T2。 然后花了30分钟想了一个O(n)的dp,结果发现过不了第二个样例。 于是做了一些简单的优化,过了第二个样例但过不了大样例...... 于是乎共计死磕了2+h,然而并没有磕出来然后就大写GG了...,这个优化过的错误dp貌似只能拿20分。 还剩下一个钟的时候