欧式距离

实现两个点集的欧式距离和索引值寻找(含有两种解法,for循环和矩阵操作)

给你一囗甜甜゛ 提交于 2019-12-04 01:28:55
一,直接for循环 两个点集points1,points2,用dist来存储距离 points1=np.array([[1,2],[3,4]]) points2 = np.array([[5, 6],[7,8]]) dist = np.zeros(shape=[points1.shape[0],points2.shape[0]]) for i in range(points1.shape[0]): for j in range(points2.shape[0]): print(points1[i, :] - points2[j, :]) 遍历两个点集的索引相减值 加上这句话 print(np.square(points1[i, :] - points2[j, :])) print(np.sum(np.square(points1[i, :] - points2[j, :]))) print(np.sqrt(np.sum(np.square(points1[i, :] - points2[j, :])))) points1=np.array([[1,2],[3,4]]) points2 = np.array([[5, 6],[7,8]]) dist = np.zeros(shape=[points1.shape[0],points2.shape[0]]) for i in range

triplets 、triplet Loss和 hard triplets

匿名 (未验证) 提交于 2019-12-03 00:30:01
本文大多数知识来源于此文:https://blog.csdn.net/fire_light_/article/details/79592804 triplets 设左一的图为 Anchor(参考点),左二为 Negative(反例),右一为 Positive(正例),这三张图片构成一个三元组(t riplet ),其中 A和P的欧式距离可能很大,A和N的欧式距离可能很小。 triplet Loss 什么是Triplet Loss呢?顾名思义,也就是根据三张图片组成的三元组(Triplet)计算而来的损失(Loss)。 其中,三元组由Anchor(A),Negative(N),Positive(P)组成,任意一张图片都可以作为一个基点(A),然后与它属于同一人的图片就是它的P,与它属于同一人的图片就是它的N。 Triplet Loss 的学习目标可以形象的表示如下图: 网络没经过学习之前,A和P的欧式距离可能很大,A和N的欧式距离可能很小,如上图左边,在网络的学习过程中,A和P的欧式距离会逐渐减小,而A和N的距离会逐渐拉大。 也就是说,网络会直接学习特征间的可分性:同一类的特征之间的距离要尽可能的小,而不同类之间的特征距离要尽可能的大。 意思就是说通过学习,使得类间的距离要大于类内的距离。 损失函数 为: 其中,左边的二范数表示类内距离,右边的二范数表示类间距离,α是一个常量

向量空间、内积空间、欧式空间以及希尔伯特空间的关系

匿名 (未验证) 提交于 2019-12-03 00:18:01
在数学中有许多空间表示,比如向量空间、内积空间、欧式空间以及希尔伯特空间等。 具体的距离:实际上距离除了我们经常用到的直线距离外,还有向量距离, 函数距离、 曲面距离、折线距离等等,这些具体的距离与距离之间的关系类似于苹果、香蕉等与水果的关系,前面是具体的事物,后面是抽象的概念。 距离就是一个抽象的概念,其定义为: 设X是任一非空集,对X中任意两点x,y,有一实数d(x,y)与之对应且满足: 1. d(x,y) ≥0,且d(x,y)=0当且仅当x=y; 2. d(x,y)=d(y,x); 3. d(x,y) ≤d(x,z)+d(z,y)。 称d(x,y)为X中的一个距离。 定义了距离后,我们再加上线性结构,如向量的加法、数乘,使其满足加法的交换律、结合律、零元、负元;数乘的交换律、单位一;数乘与加法的结合律(两个)共八点要求,从而形成一个线性空间,这个线性空间就是 向量空间 。 在向量空间中,我们定义了范数的概念,表示某点到空间零点的距离: 1. ||x|| ≥0; 2. ||ax||=|a|||x||; 3. ||x+y||≤||x||+||y||。 将范数与距离比较,可知,范数比距离多了一个条件2,数乘的运算,表明其是一个强化了的距离概念。范数与距离的关系可以类似理解为与红富士苹果与苹果的关系。 接下来对范数和距离进行扩展,形成如下: 下面在已经构成的线性赋范空间上继续扩展

数据挖掘概念

匿名 (未验证) 提交于 2019-12-02 22:56:40
数据挖掘所挖掘的结果是面向全部的数据,而机器学习则是预测测试样本的检测结果。 1. 2. 3. 4. 5. 2.互信息值: 2 4V Volume ( ) Variety ( ) Velocity Value 4.数据挖掘的主要功能 5.多站点处理: 1. 单机多进程 2. 集群分布式计算效果 6.频繁项集: (min_sup) : : ―― Apriori Growth C 2 C C R R R R R R rd:() → yd yd 11.凝聚法分层聚类 有一堆方法可以用来算两点( pair)之间的距离:欧式,欧式平方,manhattan等,还有一堆方法可以算类(cluster)与类之间的距离,什么single-linkage、complete-linkage、还有这个ward linkage。(即最短最长平均,离差平方和) Extrapolation 关联规则的评价指标是支持度、置信度 13.分类规则的挖掘方法 通常有:决策树法、贝叶斯法、人工神经网络法、粗糙集法和遗传算法。 14.模型的具体化 就是预测公式,公式可以产生与观察值有相似结构的输出,这就是预测值。 15.频繁闭项集 “ - - 楗煎共 ” “ - 楗煎共 ” “ - - 楗煎共 ” g(f(X)) DM DB/DM DB DM DB/DW 原文:https://www.cnblogs.com/lgx