Delta

ISODATA聚类算法的matlab程序

折月煮酒 提交于 2020-08-19 03:23:29
ISODATA聚类算法的matlab程序 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 参考: Kmeans及ISODATA算法的matlab实现 算法简介: 聚类算法:ISODATA算法 数据见: MATLAB实例:PCA降维 中的iris数据集,保存为:iris.data,最后一列是类标签。 demo_isodata.m clear clc data_load=dlmread('iris.data'); [~,dim]=size(data_load); x=data_load(:,1:dim-1); K=3; theta_N=1; theta_S=1; theta_c=4; L=1; I=5; ISODATA(x,K,theta_N,theta_S,theta_c,L,I) ISODATA.m function ISODATA(x,K,theta_N,theta_S,theta_c,L,I) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%input parameters%%%%%% % x : data % K : 预期的聚类中心数 % theta_N : 每一聚类中心中最少的样本数,少于此数就不作为一个独立的聚类 % theta_S

Qt QGraphics类应用——图片移动+选点缩放+控制移动区域

泪湿孤枕 提交于 2020-08-18 12:20:05
记录:本博客用来记录学习,引用博客 https://blog.csdn.net/weixin_43935474/article/details/89327314 功能:   1、图片可以使用鼠标进行拖动   2、图片可以在鼠标位置放大缩小   3、图片移动的区域固定 需求:   图片一张 成品: 代码: ImageWidget.h 1 #ifndef IMAGEWIDGET_H 2 #define IMAGEWIDGET_H 3 4 #include <QWidget> 5 #include <QtGui> 6 #include <QPixmap> 7 #include <QPainter> 8 #include <QRectF> 9 #include <QMouseEvent> 10 #include <QPointF> 11 #include <QDragEnterEvent> 12 #include <QGraphicsSceneWheelEvent> 13 #include <QGraphicsItem> 14 15 enum Enum_ZoomState{ 16 NO_STATE, 17 RESET, 18 ZOOM_IN, 19 ZOOM_OUT 20 }; 21 // class ImageWidget :public QObject, QGraphicsItem

《计算方法 》

雨燕双飞 提交于 2020-08-18 08:07:16
一、4种插值方法及其误差估计 1、多项式插值(以单项式为基地) (Ⅰ)解题思路 \[P_n(x)=a_0+a_1x+……+a_nx^n \] 将 \(\{x\}_{i=0}^n\) 代入,构造出一个关于系数 \(a_0,a_1,……,a_n\) 的 \(n+1\) 元线性方程组,并解出 \(\{a\}\) 。 由于这种插值方法是最繁杂的,所以一般不会用到(除非在小学生面前装*),所以也不会考虑其误差,如果非得考虑的话,由 范德蒙德矩阵 可知,矩阵非奇异所以 \(P_n(x)\) 存在且唯一,故而误差和其他插值方法的误差是一样的,这里就不做讨论了。 (Ⅱ)例题(参考《数值分析 第五版》 \(P_{48}\ T_1\) ) 题目: 当 \(x=1,-1,2\) 时, \(f(x)=0,-3,4\) ,用单项式基底求 \(f(x)\) 的二次差值多项式。 解答: 构造插值函数: \(P_2(x)=a_0+a_1x+a_2x^2\) ,这时代入 \(\{x\}_{i=0}^2\) ,得到如下的3元线性方程组: \[\begin{cases} P_2(x_0)=a_0+a_1x_0+a_2x_{0}^2=0\\\\ P_2(x_1)=a_0+a_1x_1+a_2x_{1}^2=-3\\\\ P_2(x_2)=a_0+a_1x_2+a_2x_{2}^2=4 \end{cases}

图Lasso求逆协方差矩阵(Graphical Lasso for inverse covariance matrix)

泄露秘密 提交于 2020-08-18 04:53:02
图Lasso求逆协方差矩阵(Graphical Lasso for inverse covariance matrix) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 1. 图Lasso方法的基本理论 2. 坐标下降算法 3. 图Lasso算法 4. MATLAB程序 数据见参考文献 [2] 4.1 方法一 demo.m load SP500 data = normlization(data); S = cov(data); %样本协方差 [X, W] = glasso_1(double(S), 0.5); %X:sigma^(-1), W:sigma [~, idx] = sort(info(:,3)); colormap gray imagesc(X(idx, idx) == 0) axis off %% Data Normalization function data = normlization(data) data = bsxfun(@minus, data, mean(data)); data = bsxfun(@rdivide, data, std(data)); end glasso_1.m function [X, W] = glasso_1(S, lambda) %% Graphical Lasso -

简易PID算法的快速扫盲(超详细+过程推导+C语言程序)

ぐ巨炮叔叔 提交于 2020-08-18 03:33:44
网上关于 PID 算法的文章很多,但是感觉有必要自己再进行一次总结,抽丝剥茧地重新认识了一下 PID ; 文章目录 1 前言 2 开环控制 3 闭环控制 4 PID 4.1 系统架构 4.2 理论基础 4.3 离散化 4.4 伪算法 5 C++实现 6 总结 1 前言 控制系统通常根据有没有反馈会分为开环系统和闭环系统,在闭环系统的控制中, PID 算法非常强大,其三个部分分别为; P :积分环节; I :比例环节; D :微分环节; PID 算法可以自动对控制系统进行准确且迅速的校正,因此被广泛地应用于工业控制系统。 2 开环控制 首先来看开环控制系统,如下图所示,隆哥 蒙着眼 ,需要走到 虚线旗帜 所表示的目标位置,由于缺少反馈(眼睛可以感知当前距离和位置,由于眼睛被蒙上没有 反馈 ,所以这也是一个 开环系统 ),最终隆哥会较大概率偏离预期的目标,可能会运行到途中 实线旗帜 所表示的位置。 开环系统的整体结构如下所示; 这里做一个不是很恰当的比喻; Input :告诉隆哥目标距离的直线位置( 10米 ); Controller :隆哥大脑中计算出到达目标所需要 走多少步 ; Process :双腿作为执行机构,输出了相应的步数,但是最终仍然偏离了目标; 看来没有反馈的存在,很难准确到达目标位置。 3 闭环控制 所以为了准确到达目标位置,这里就需要引入反馈,具体如下图所示;

TiDB 的列式存储引擎是如何实现的?

落花浮王杯 提交于 2020-08-17 08:22:45
作者:韦万 TiDB 是一款分布式 HTAP 数据库,它目前有两种存储节点,分别是 TiKV 和 TiFlash。TiKV 采用了行式存储,更适合 TP 类型的业务;而 TiFlash 采用列式存储,擅长 AP 类型的业务。TiFlash 通过 raft 协议从 TiKV 节点实时同步数据,拥有毫秒级别的延迟,以及非常优秀的数据分析性能。它支持实时同步 TiKV 的数据更新,以及支持在线 DDL。我们把 TiFlash 作为 Raft Learner 融合进 TiDB 的 raft 体系,将两种节点整合在一个数据库集群中,上层统一通过 TiDB 节点查询,使得 TiDB 成为一款真正的 HTAP 数据库。 为了在列式存储上支持实时更新,我们专门为 TiFlash 研发了新的列存引擎 Delta Tree。它可以在支持高 TPS 写入的同时,仍然能保持良好的读性能。本文为大家详细解释 Delta Tree 的设计思路,欢迎讨论。 整体架构 Delta Tree 的架构设计充分参考了 B+ Tree 和 LSM Tree 的设计思想。从整体上看,Delta Tree 将表数据按照主键进行 range 分区,切分后的数据块称为 Segment;然后 Segment 内部则采用了类似 LSM Tree 的分层结构。分区是为了减少每个区的数据量,降低复杂度

【图机器学习】cs224w Lecture 13 & 14

泪湿孤枕 提交于 2020-08-17 06:32:00
目录 Influence Maximization Propagation Models Linear Threshold Model Independent Cascade Model Greedy Hill Climbing Algorithm Sketch-Based Algorithm OutBreak Detection CELF: Cost-Effective Lazy Forward-selection Lazy Evaluation Data Dependent Bound 转自本人: https://blog.csdn.net/New2World/article/details/106431424 Influence Maximization Influence maximization 字面意思,很好理解。比如 Twitter 要推一则广告,肯定希望这则广告能被更多的人看到,于是他们会选择一些用户投放广告,让这些用户转发广告然后推荐给他们的朋友。如何选择这些初始的用户才能让广告的传播更广就是一个影响最大化的问题。也就是说,我现在要选择 \(k\) 个初始传播点 \(S\) ,并且从这些点开始能传播到的最多的点的期望为 \(f(S)\) ,那么 influence maximization 就是一个优化问题 \(\max\limits_{S\ of\ size\

dph系统部署说明

放肆的年华 提交于 2020-08-17 04:29:22
Env env description alpha 开发环境 beta 测试环境 gamma 预发环境 delta 生产环境 common 通用环境 Service env service ip port username passwd gamma mysql 192.168.3.73 3306 root gamma redis 192.168.3.71 6379 - gamma nacos 192.168.3.74 8848 - - gamma api-usr 192.168.3.77 19000 - - gamma api-ops 192.168.3.77 19001 - - gamma user 192.168.3.77 - - - common nginx 192.168.3.73 80/443 - - common gitlab 192.168.3.78 80 - - common zentao 192.168.3.77 80 - - common jenkins 192.168.3.68 8080 - - Deployment directory host directory 192.168.3.77~192.168.3.77 /data/dph/service/dph-service-xxxx-impl/ 192.168.3.77 /data/dph/api/dph

希腊字母读法及含义

六月ゝ 毕业季﹏ 提交于 2020-08-17 03:02:12
文章转载,参考 https://blog.csdn.net/chehec2010/article/details/90204622 序号 大写 小写 英语音标注音 英文 汉语名称 常用指代意义 1 Α α /'ælfə/ alpha 阿尔法 角度、系数、角加速度、第一个、电离度、转化率 2 Β β /'bi:tə/ 或 /'beɪtə/ beta 贝塔 磁通系数、角度、系数 3 Γ γ /'gæmə/ gamma 伽玛 电导系数、角度、比热容比 4 Δ δ /'deltə/ delta 得尔塔 变化量、焓变、熵变、屈光度、一元二次方程中的判别式、化学位移 5 Ε ε /'epsɪlɒn/ epsilon 艾普西隆 对数之基数、介电常数、电容率 6 Ζ ζ /'zi:tə/ zeta 泽塔 系数、方位角、阻抗、相对黏度 7 Η η /'i:tə/ eta 伊塔 迟滞系数、机械效率 8 Θ θ /'θi:tə/ theta 西塔 温度、角度 9 Ι ι /aɪ'əʊtə/ iota 约(yāo)塔 微小、一点 10 Κ κ /'kæpə/ kappa 卡帕 介质常数、绝热指数 11 ∧ λ /'læmdə/ lambda 拉姆达 波长、体积、导热系数 普朗克常数 12 Μ μ /mju:/ mu 谬 磁导率、微、动摩擦系(因)数、流体动力黏度、货币单位,莫比乌斯函数 13 Ν ν

Pytorch 基本操作

ぐ巨炮叔叔 提交于 2020-08-16 19:36:31
Pytorch 基础操作 主要是在读 深度学习入门之PyTorch 这本书记的笔记。强烈推荐这本书 1. 常用类numpy操作 torch.Tensor(numpy_tensor) torch.from_numpy(numpy_tensor) GPU上的Tensor不能直接转换为Numpy ndarry,要用 .cpu() 将其转换到CPU # 第一种方式是定义 cuda 数据类型 dtype = torch.cuda.FloatTensor # 定义默认 GPU 的 数据类型 gpu_tensor = torch.randn(10, 20).type(dtype) # 第二种方式更简单,推荐使用 gpu_tensor = torch.randn(10, 20).cuda(0) # 将 tensor 放到第一个 GPU 上 gpu_tensor = torch.randn(10, 20).cuda(1) # 将 tensor 放到第二个 GPU 上 # 将tensor放回CPU cpu_tensor = gpu_tenor.cpu() 得到tensor大小 .size() 得到tensor数据类型 .type() 得到tensor的维度 .dim() 得到tnsor的所有元素个数 .numel() 全1矩阵。数据类型是floatTensor torch.ones(n, m)