gk

wordpress图片主题GK Portfolio以及图片分页,页码缩略,点击翻页

亡梦爱人 提交于 2020-03-05 18:24:12
GK Protfolio主题 如果你是摄影爱好者,旅行者,设计师,又或者是个人工作室,那么这款主题非常合适,可以很轻松,优雅的展示你的作品。 主题功能: 1.主题多屏自适; 2.主题常规设置可以通过主题–自定义功能操作; 3.主题在线演示: DEMO 图片分页 文章中有很多图片,如何让图片分页展示呢,可以使用wordpress内置的分页区块 ### 页码缩略 图片分页之后有一个问题,所有的页码都显示了出来,结果不够友好。可以使用wordpress的filter机制,添加一个filter如下 add_filter('wp_link_pages_link', 'hhs_wp_link_pages_link',10,2); function hhs_wp_link_pages_link($link,$i){ global $page, $numpages, $more, $pagenow; //$page 当前页码 //$numpages 总页码 //$more 是否是最后一页 // 上一页 1 2 3 4 ... 45 下一页 //如果numpages大于10则显示...,否则直接显示页码 if ($numpages < 11){ return $link; } else{ //第1页和最后1页总是显示 //当前页码相邻的4个页码显示,其他的以。。。替代 // 如果前后的相邻不够4个

04-02 AdaBoost算法

℡╲_俬逩灬. 提交于 2020-03-03 10:11:48
文章目录 AdaBoost算法 AdaBoost算法学习目标 AdaBoost算法详解 Boosting算法回顾 AdaBoost算法 AdaBoost算法目标函数优化 AdaBoost算法流程 输入 输出 强分类器流程 强回归器流程 AdaBoost算法优缺点 优点 缺点 小结 AdaBoost算法   集成学习中弱学习器之间有强依赖关系的,称之为Boosting系列算法,而AdaBoost则是Boosting系列算法中最著名的算法之一。   AdaBoost算法强大之处在于既可以解决分类问题,又可以解决回归问题。 AdaBoost算法学习目标 AdaBoost算法目标函数优化 强分类器和强回归器流程 AdaBoost算法优缺点 AdaBoost算法详解 Boosting算法回顾   Boosting算法的流程是:首先训练处一个弱学习器,根据弱学习器的误差率更新训练样本的权重,然后基于调整权重后的训练集训练第二个弱学习器,直到弱学习器达到事先指定的数目T,停止算法。   对于Boosting算法的流程,可以看到如果我们解决以下4个问题,既可以得到完整的Boosting算法 弱学习器的误差率 训练样本的权重 w w w 更新方法 更新样本权重的方法 结合策略 AdaBoost算法   上面讲到了Boosting算法需要解决的4个问题

【mysql】查询过滤器ON,WHERE,HAVING

佐手、 提交于 2020-03-02 00:47:47
一、mysql查询的五种子句 where(条件查询)、having(筛选)、group by(分组)、order by(排序)、limit(限制结果数) 1、where常用运算符: 比较运算符 > , < ,= , != (< >),>= , <= in(v1,v2..vn) between v1 and v2 在v1至v2之间(包含v1,v2) 逻辑运算符 not ( ! ) 逻辑非 or ( || ) 逻辑或 and ( && ) 逻辑与 where price>=3000 and price <= 5000 or price >=500 and price <=1000 取500-1000或者3000-5000的值 where price not between 3000 and 5000 不在3000与5000之间的值 模糊查询 like 像 通配符: % 任意字符 _ 单个字符 where goods_name like '诺基亚%' where goods_name like '诺基亚N__' 2、group by 分组 一般情况下group需与统计函数(聚合函数)一起使用才有意义 如:select goods_id,goods_name,cat_id,max(shop_price) from goods group by cat_id; 这里取出来的结果中的good

最小生成树计数

情到浓时终转凉″ 提交于 2020-02-28 04:53:57
Minimum Spanning Tree http://acm.hdu.edu.cn/showproblem.php?pid=4408 模板题 1 #include<cstdio> 2 #include<cstring> 3 #include<queue> 4 #include<stack> 5 #include<algorithm> 6 #define mt(a,b) memset(a,b,sizeof(a)) 7 using namespace std; 8 typedef __int64 LL; 9 class MinST_count { ///最小生成树计数o(~=MV^3)+o(MElogME) 10 typedef int typec;///边权的类型 11 typedef LL typer;///返回值类型 12 static const int ME=1024;///边的个数 13 static const int MV=128;///点的个数 14 struct E { 15 int u,v; 16 typec w; 17 friend bool operator <(E a,E b) { 18 return a.w<b.w; 19 } 20 } e[ME]; 21 typer mod,ans,mat[MV][MV]; 22 int n,le,fa[MV],ka

MySql存储过程总结

笑着哭i 提交于 2020-01-21 00:07:20
之前总是在MSSQL上写存储过程,没有在MYSQL上写过,也基本没有用过,今天需要用到MYSQL,研究了下,把项目的需要的存储过程写了一部分,写一下工作总结。这里没有给出数据库结构,不讨论SQL语句的细节,主要探讨存储过程语法,适合有基础的人。 发表地址: http://www.cnblogs.com/zxlovenet/p/3783136.html #查询文章回复 -- ---------------------------- -- Procedure structure for `sp_select_reply_article` -- ---------------------------- DROP PROCEDURE IF EXISTS `sp_select_reply_article`; DELIMITER ;; CREATE DEFINER=`root`@`localhost` PROCEDURE `sp_select_reply_article`(IN `ra_id` int,IN `pagefrom` int,IN `pagesize` int) BEGIN #Routine body goes here... SET @ra_id = ra_id; SET @pagefrom = pagefrom; SET @pagesize = pagesize; SET

Adaboost – 分类

为君一笑 提交于 2020-01-14 20:37:33
  Adaboost(Adaptive boosting)是boosting(提升)家族的重要算法。boosting家族算法的核心是串行训练学习器,可以理解为"站在巨人的肩膀",后一个学习器的学习是基于前一个学习器的学习基础之上的,对应的是bagging学习器,学习器之间没有依赖关系。 Adaboost基本流程描述   我们先来了解一下boosting的基本流程:   先来过一下Adaboost学习的全流程:   拥有数据集T={(x1, y1), (x2, y2), (x3, y3),... (xm, ym)};   第一步:设置样本权重   初始化样本权重(sample weight)D={ω11, ω12,...,ω1m}, ω1i = 1/m;权重之和=1,不仅仅是初始化,后面的标准化目的都是要保证ω之和为1;   第二步:训练数据   使用数据T训练模型,同时传入样本权重D,比如如果弱学习器采用的是决策树(Decision Tree),则是在调用fit(T, D)。   第三步:计算学习器权重   模型训练出来之后,需要计算一下该模型(学习器)的权重,为了计算权重首先计算一下错误率(统计所有的样本的):   ωki这里代表的样本i(共有m个样本)在第k轮学习器训练中的权重,这里I(·)是一个指示函数,代表如果Gk(xi)≠yi,则I(·)值为1,反之为0

51nod1847 奇怪的数学题 (Min_25筛+第二类斯特林数)

可紊 提交于 2019-12-21 00:52:39
link \(\sum_{i=1}^n\sum_{j=1}^n\mathrm{sgcd}(i,j)^k=\sum_{p=1}^ns(p)^k\sum_{i=1}^n\sum_{j=1}^n[\gcd(i,j)=p]=\sum_{p=1}^ns(p)^k(-1+2\sum_{i=1}^{n/p}\varphi(i))\) 由于 \(n\) 的范围是 \(10^9\) ,对于后面的我们最多只有根号种取值,根据套路,可以杜教筛/Min_25筛一波。 至于前面的东西,我们可以考虑Min_25筛的过程: Min_25筛我们设 \(g(n,j)\) 为2~n内素数或最小质因子 \(\ge p_j\) 的数的 \(k\) 次方的和 考虑转移: \(g(n,j)=g(n,j-1)-p_j^k(g(a/p_j,j-1)-g(p_{j-1},j-1)) (n\ge p_j^2)\) 我们发现后面减去的 \(p_j^k(g(a/p_j,j-1)-g(p_{j-1},j-1))\) 就是最小质因子恰为 \(p_j\) 的合数的k次方的和 那么 \(g(a/p_j,j-1)-g(p_{j-1},j-1)\) 就是[1, n]内这最小质因子为 \(p_j\) 的合数的 \(s(x)^k\) 的和。 我们对于每个n/x向下取整开一个数,记录每个 j 的这个值,然后差分一下就是区间的答案了。(注意加上质数的贡献

梯度下降法、牛顿法与拟牛顿法markdown

匿名 (未验证) 提交于 2019-12-02 23:49:02
前人栽树,后人乘凉,既然前人已经完成了的工作,我觉得没必要做重复的工作,“拿来主义”对于我个人的入门和学习是必要的。在此谢谢他们。内容来自: https://cloud.tencent.com/developer/article/1326787,如果有侵权,联系我删除。 梯度下降算法 先上个公式,镇一下: Θ 1 = Θ 0 α J ( Θ ) \Theta^{1}=\Theta^{0}-\alpha \nabla J(\Theta) Θ 1 = Θ 0 α J ( Θ ) 其中 J ( Θ ) \nabla J(\Theta) J ( Θ ) 就是梯度, \nabla 称为梯度算子。此公式的意义是:J是关于Θ的一个函数,我们当前所处的位置为 Θ 0 \Theta^{0} Θ 0 点,要从这个点走到J的最小值点,也就是山底。首先我们先确定前进的方向,也就是梯度的反向,然后走一段距离的步长,也就是α,走完这个段步长,就到达了 Θ 1 \Theta^{1} Θ 1 这个点!下面就这个公式的几个常见的疑问: α是什么含义? α在梯度下降算法中被称作为学习率或者步长,意味着我们可以通过α来控制每一步走的距离,以保证不要步子跨的太大扯着蛋,哈哈,其实就是不要走太快,错过了最低点。同时也要保证不要走的太慢,导致太阳下山了,还没有走到山下。所以α的选择在梯度下降法中往往是很重要的

【优化方法】拟牛顿法之DFP算法

匿名 (未验证) 提交于 2019-12-02 23:34:01
上一篇 牛顿法(Newton Method) 中介绍了牛顿法的基本思路,牛顿法具有二阶收敛性,相比较最速下降法,收敛的速度更快。 但是牛顿法也有一个缺点就是:求解Hessian矩阵复杂度比较大 对于函数 f ( X ) f(X) f ( X ) ,其中 X = [ x 1 , x 2 , … , x n ] T X=[x_1,x_2,…,x_n ]^T X = [ x 1 , x 2 , … , x n ] T 为向量。在牛顿法的求解过程中,首先是将 f ( X ) f(X) f ( X ) 函数在 X k + 1 X^{k+1} X k + 1 处展开,并且令 f ( X ) f(X) f ( X ) 函数在 X k + 1 X^{k+1} X k + 1 处的梯度为: f ( X k + 1 ) = [ f x 1 , f x 2 , … , f x n ] T f ( X k + 1 ) = [ x 1 f , x 2 f , … , x n f ] T 泰勒展开为: f ( X ) = f ( X k + 1 ) + f ( X k + 1 ) T ( X X k + 1 ) + 1 2 ( X X k + 1 ) T G k + 1 ( X X k + 1 ) + + o f ( X ) = f ( X k + 1 ) + f ( X k + 1 ) T ( X X k

牛顿法和拟牛顿法

半腔热情 提交于 2019-11-28 16:03:55
牛顿法和拟牛顿法 牛顿法(Newton method)和拟牛顿法(quasi Newton method)是求解无约束最优化问题的常用方法,收敛速度快。牛顿法是迭代算法,每一步需要求解海赛矩阵的逆矩阵,计算比较复杂。拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵或海赛矩阵,简化了这一计算过程。 牛顿法 我们假设点 x ∗ 为函数 f ( x ) 的根,那么有 f ( x ∗ ) =0。现在我们把函数 f ( x ) 在点 x k 处一阶泰勒展开有: 假设点 x k + 1 为该方程的根,则有: 可以得到 这样我们就得到了一个递归方程,我们可以通过迭代的方式不断的让 x趋近于 x ∗ 从而求得方程 f ( x ) 的解。 最优化问题 对于最优化问题,其极值点处一阶导数为0。因此我们可以在一阶导数处利用牛顿法通过迭代的方式来求得最优解,即相当于求一阶导数对应函数的根。 首先,我们对函数在 x 0 点处进行二阶泰勒展开 对x求导可得 由于在极值点处 ,于是 从而可以得出下一个x的位置 其迭代形式为 对于多维函数, 二阶导数就变成了一个海森矩阵 , 二阶泰勒展开公式如下: 图中的 便是海森矩阵 。 迭代公式就变成了 。 我们可以看到,当 H k 为正定( H k -1 也正定 )的时候,可以保证牛顿法的搜索方向是向下搜索的。 拟牛顿法 当特征特别多的时候,求海森矩阵的逆矩阵,运算量是非常大且慢