置信度

贝叶斯的三个参数估计

匿名 (未验证) 提交于 2019-12-02 23:52:01
概率与统计 概率:在给定数据生成过程下观测研究数据的性质;模型和参数->数据;推理 统计:根据观测的数据,反向思考其数据的生成过程;数据->模型和参数:归纳 关系:概率论是统计学的数学基础,统计是对概率论的应用 描述统计和推断统计 描述统计:描绘或总结观察量基本情况(均值,方差,中位数,四分位数等) 推断统计:根据得到的部分数据推测总体数据的情况(参数统计,非参数统计,估计量,真实分布,经验分布) “似然”与“概率”: 在英语中:似然(likelihood)和概率(probability)都指事件发生的可能性 在统计中:概率是已知参数,对结果可能性的预测,似然是已知结果,对参数是某一个值的可能性预测。 对于函数 \(P(x|\theta)\) 如果 \(\theta\) 已知且保持不变, \(x\) 是变量,则函数 \(P(x|\theta)\) 称为概率函数,表示不同 \(x\) 出现的概率 如果 \(x\) 已知且保持不变, \(\theta\) 是变量,则函数 \(P(x|\theta)\) 称为似然函数,表示不同 \(\theta\) 下, \(x\) 出现的概率,也记做 \(L(\theta|x)\) 或 \(L(X;\theta)\) 或 \(f(x;\theta)\) 频率学派与贝叶斯学派 频率学派与贝叶斯学派只是解决问题的角度不同 频率学派从「自然」角度出发

YOLOv3 Loss构建详解

匿名 (未验证) 提交于 2019-12-02 23:36:01
Ŀ¼ Yolov3 网络框架 Loss构建 Yolov3 YOLOv3 是YOLO系列目前最新的网络结构,YOLO系列可以说是打破了以FasterRCNN为例的two-stage框架的一统天下的局面。已经有很多博文介绍了 YOLOv3的网络结构和思路 ,github上也有很多开源代码,这里我推荐一个 Pytorch的实现 和 自己写的一个用于车牌检测的实现 。 但对于一个神经网络来说,另一个重要的部分是Loss的构建。大多数文章关注于网络框架的搭建,忽略了Loss构建,使得读完之后虽然知道了网络的输出,但不知道这些输出到底对应着什么,从而很难理解网络具体的含义。本文就详细阐述YOLOV3的Loss的构建 网络框架 要讲Loss,就不得不讲网络的输出,这里我们略讲一下。具体可以参考 yolo系列之yolo v3【深度解析】 图1 YOLOv3 ssp 网络框架 可以看到,YOLOv3的输出是有3个:y1,y2,y3。分别对应不同的分辨率的feature map。 Loss构建 首先理解一下网络的输出。以y1为例,y1的输出为13*13*255,表示整张图被分为13*13个格子,每个格子预测3个框,每个框的预测信息包括:80个类别+1个框的置信度+2个框的位置偏差+2个框的size偏差。输出可以理解为是13*13*(3*(80+1+2+2))。具体可见 从YOLOv1到YOLOv3

置信度传播算法(Belief Propagation)

匿名 (未验证) 提交于 2019-12-02 23:26:52
基础知识 条件概率(Conditional Probability) 相互独立时,p(A | B) = p(A) 贝叶斯规则 贝叶斯网络(Bayesian Network)定了一个独立的结构:一个节点的概率仅依赖于它的父节点。贝叶斯网络适用于稀疏模型,即大部分节点之间不存在任何直接的依赖关系。 联合概率(Joint Probability) ,表示 所有节点 共同发生的概率,将所有条件概率相乘: 我们最终的目标是计算准确的 边缘概率(Marginal Probability) ,比如计算Hangover的概率, 边缘概率为各种状态下所有其他节点对本节点影响的概率的和 。 边缘概率(Marginal Probability):即 某个事件发生的概率,而与其它事件无关。边缘概率是这样计算的:在联合概率中,把最终结果中不需要的那些事件合并成其事件的全概率而消失(在两个离散随机变量的条件下,对于其中任一行或任一列求和,得到的概率就是边缘概率)。在本例中,针对不同的 Hangover进行求和,得到的就是Hangover的边缘概率: 优化 接下来就是要获得观测变量 x h h )的值最大, 即: 马尔科夫随机场(Markov Random Field,MRF) 在概率图模型中,每个结点表示一个随机变量,结点之间的边表示这些随机变量之间的概率关系。在概率图模型中

关联规则――基于 Python 的 Apriori 算法实现

匿名 (未验证) 提交于 2019-12-02 22:56:40
Apriori 核心思想: 通过连接产生候选项与其支持度,然后通过剪枝生成频繁项集。 关键概念: 项集:项的集合。包含 k 个项的项集称为 k 项集,如{a,s,d}是一个3项集。 支持度:项集A、B同时发生的概率。 最小支持度 :项集在统计意义上的最低重要性。 置信度:项集A发生,则项集B发生的概率。 最小置信度 :关联规则的最低可靠性。 同时满足最小支持度阈值和最小置信度阈值的规则称作 强规则。 项集的支持度计数(绝对支持度):项集的出现频率,即所有包含项集的事务计数。 频繁项集:项集的相对支持度满足预定义的最小支持度阈值 实现步骤: 主要思想:找出存在于事务数据集中的最大的频繁项集,再利用得到的最大频繁项集与预先设定的最小置信度阈值生成强关联规则。 Apriori的性质:频繁项集的所有非空子集也必须是频繁项集。 步骤: 找出所有频繁项集(支持度必须大于等于给定的最小支持度阈值),将连接步和剪枝步互相融合, 最终得到最大频繁项集LK 连接步 :找到 K 项集。 剪枝步 :紧接着连接步,在产生候选项 Ck 的过程中起到减小搜索空间的目的 由频繁项集产生强关联规则 :过程1已 剔除那些 未超过预定的最小支持度阈值的项集 。如果剩下这些规则又 满足了预定的最小置信度阈值 ,那么就挖掘出了强关联规则。 示例: Apriori 算法: #-*- coding: utf-8 -*-

百度智能云平台调用食物识别api Java实现

匿名 (未验证) 提交于 2019-12-02 21:52:03
1.2. 百度智能云简介 1.2.1 百度图像识别服务 百度图像识别服务,基于深度学习及大规模图像训练,准确识别图片中的物体类别、位置、置信度等综合信息。 1.2.2 菜品识别 支持识别5万种菜品,适用于识别只含有单个菜品的图片,接口返回菜品的名称、置信度、卡路里、百科信息等综合信息。支持自建菜品图库,适用于识别含有多个菜品的图片,接口返回菜品的名称、位置、相关性等综合信息。 1.2.3 菜品识别应用场景 根据拍摄照片,识别图片中菜品名称,获取菜品参考卡路里含量和百科信息,可结合识别结果进一步提供饮食推荐、健康管理方案等相关功能,增强用户体验,广泛应用于餐饮娱乐类和健康管理类APP中。根据拍摄照片,识别图片中菜品名称和位置,提高结算效率,减少人工录入成本,广泛应用于餐饮行业的智能结算中。 1.2.4 菜品识别接口介绍 接口能力:该请求用于菜品识别。即对于输入的一张图片(可正常解码,且长宽比适宜),输出图片的菜品名称、卡路里信息、置信度。 请求格式:POST方式调用(Content-Type为application/x-www-form-urlencoded,然后通过urlencode格式化请求体) 返回格式:JSON格式 请求限制: 请求图片需经过base64编码:图片的base64编码指将一副图片数据编码成一串字符串,使用该字符串代替图像地址。您可以首先得到图片的二进制

关联算法

↘锁芯ラ 提交于 2019-12-02 11:49:43
一、概念 关联算法常用于购物篮分析:找到正向、强关联的商品集合,用来优化货架商品摆放和捆绑销售。 关联算法需要明确:频繁项集(A,B),A->B和B->A的关联方向(正、负)与关联程度(强、弱)。 频繁项集:出现次数不小于设定阀值的商品集合 电商常用单品推荐单品,称为频繁2项集,形如(A,B)。 关联算法重要定理: 频繁项集的所有非空子集也都必须是频繁的。 比如(A,B,C)是频繁项集,那 (A,B)肯定也是频繁项集。如果(A,B)不 是频繁项集,那 (A,B,C)肯定也不是频繁项集。 支持度(Support): 用来找频繁项集、计算作用度和置信度 Support(A,B)=A、B两件商品同时出现的次数 / 总购物车次数。 分母N是固定的,所以很多文章都用分子frq(X,Y)取名"支持计数"来比较支持度小大。 支持度不小于用户设定的最小支持度阀值的项集,称为频繁项集。 作用度(Lift):又名提升度, 用来衡量关联方向 传统关联算法是没有作用度指标的,很多文章示例都没有提及。 加入这个指标的用意是:看两个商品之间的关联是正向的还是负向的。 也就是说看一个商品的出现会提高还是会降低另一个商品的出现概率。 Life(A,B)=Support(A,B)/(Support(A)*Support(B))有A的情况下有B的概率/有B的概率。 大于1说明正相关、提高购买概率。小于1说明负相关

支持度、置信度和提升度

你。 提交于 2019-12-02 04:57:11
转自: https://www.jianshu.com/p/dc053deb94f2 购物篮分析 购物篮数据的二元0/1表示 利用关联分析的方法可以发现 关联规则或频繁项集 。 二元表示 每一行对应一个事务,每列对应一个项,项用二元变量表示 项在事务中出现比不出现更重要,因此项是非对称的的二元变量。 项集(Itemset) :包含0个或多个项的集合,如果包含k个项,则称为k-项集。 事务的宽度 :事务中出现的项的个数 一般我们使用三个指标来度量一个关联规则,这三个指标分别是:支持度、置信度和提升度。 Support(支持度):表示同时包含A和B的事务占所有事务的比例。如果用P(A)表示使用A事务的比例,那么Support=P(A&B) Confidence(可信度):表示使用包含A的事务中同时包含B事务的比例,即同时包含A和B的事务占包含A事务的比例。公式表达:Confidence=P(A&B)/P(A) Lift(提升度):表示“包含A的事务中同时包含B事务的比例”与“包含B事务的比例”的比值。公式表达:Lift=( P(A&B)/P(A))/P(B)=P(A&B)/P(A)/P(B)。 提升度反映了关联规则中的A与B的相关性,提升度>1且越高表明正相关性越高,提升度<1且越低表明负相关性越高,提升度=1表明没有相关性。 举例子: 10000个超市订单(10000个事务)

yolov1详细讲解

戏子无情 提交于 2019-12-02 03:38:06
前言 当我们谈起计算机视觉时,首先想到的就是图像分类,没错,图像分类是计算机视觉最基本的任务之一,但是在图像分类的基础上,还有更复杂和有意思的任务,如目标检测,物体定位,图像分割等,见图1所示。其中目标检测是一件比较实际的且具有挑战性的计算机视觉任务,其可以看成图像分类与定位的结合,给定一张图片,目标检测系统要能够识别出图片的目标并给出其位置,由于图片中目标数是不定的,且要给出目标的精确位置,目标检测相比分类任务更复杂。目标检测的一个实际应用场景就是无人驾驶,如果能够在无人车上装载一个有效的目标检测系统,那么无人车将和人一样有了眼睛,可以快速地检测出前面的行人与车辆,从而作出实时决策。 近几年来,目标检测算法取得了很大的突破。比较流行的算法可以分为两类,一类是基于Region Proposal的R-CNN系算法(R-CNN,Fast R-CNN, Faster R-CNN),它们是two-stage的,需要先使用启发式方法(selective search)或者CNN网络(RPN)产生Region Proposal,然后再在Region Proposal上做分类与回归。(这里还是蛮重要的)而另一类是Yolo,SSD这类one-stage算法,其仅仅使用一个CNN网络直接预测不同目标的类别与位置。第一类方法(RCNN系列)是准确度高一些,但是速度慢,但是第二类算法是速度快

图像拼接(image stitching)

一个人想着一个人 提交于 2019-12-01 02:49:22
# OpenCV中stitching的使用 OpenCV提供了高级别的函数封装在Stitcher类中,使用很方便,不用考虑太多的细节。 低级别函数封装在detail命名空间中,展示了OpenCV算法实现的很多步骤和细节,使熟悉如下拼接流水线的用户,方便自己定制。 可见OpenCV图像拼接模块的实现是十分精密和复杂的,拼接的结果很完善,但同时也是费时的,完全不能够实现实时应用。 官方提供的stitching和stitching_detailed使用示例,分别是高级别和低级别封装这两种方式正确地使用示例。两种结果产生的拼接结果相同,后者却可以允许用户,在参数变量初始化时,选择各项算法。 具体算法流程: 命令行调用程序,输入源图像以及程序的参数 特征点检测,判断是使用surf还是orb,默认是surf。 对图像的特征点进行匹配,使用最近邻和次近邻方法,将两个最优的匹配的置信度保存下来。 对图像进行排序以及将置信度高的图像保存到同一个集合中,删除置信度比较低的图像间的匹配,得到能正确匹配的图像序列。这样将置信度高于门限的所有匹配合并到一个集合中。 对所有图像进行相机参数粗略估计,然后求出旋转矩阵 使用光束平均法进一步精准的估计出旋转矩阵。 波形校正,水平或者垂直 拼接 融合,多频段融合,光照补偿, 来源: https://www.cnblogs.com/carsonzhu/p

NMS(Non-Maximum Suppression) 非极大值抑制

独自空忆成欢 提交于 2019-11-30 20:53:33
NMS 非极大值抑制:找到局部最大值,并删除邻域内其他的值。 简单说一下流程: 首先剔除背景(背景无需NMS),假设有6个边界框,根据分类置信度对这6个边界框做降序排列,假设顺序为A、B、C、D、E、F。 从置信度最大的边界框A开始,分别判断B-F这5个边界框与A的交并比IOU是否大于设定的阈值; 如果B、C和A的IOU超过阈值,则删除B、C,其余D、E、F保留;并且A 是我们的一个输出 ; 在保留的边界框D、E、F中选出置信度最大的D,继续判断D与E、F的IOU,和步骤2一样,如果IOU大于阈值,则删除该边界框,这里假设E、F都删除,则 D是我们的第二个输出 ; NMS就是 一直重复上述过程,并且输出过程中所有的输出 ,这里的输出即为A、D。 交并比(IOU):两边界框相交部分面积与相并部分面积之比。 参考: https://blog.csdn.net/zchang81/article/details/70211851 https://zhuanlan.zhihu.com/p/78504109 来源: https://www.cnblogs.com/darky/p/11639569.html