阈值

2019-12-15 stm32项目

我是研究僧i 提交于 2019-12-15 12:06:01
stm32项目: 硬件平台: 华清远见stm32开发板,pc电脑,jlink调试 软件 : keil5 ,c语言 时间: 2019年12月19-12月23日 基本功能: 1.下位机完成温湿度采集,led灯控制,蜂鸣器控制 2.下位机能上报(给上位机)当前温度值,湿度值 3.(上位机)能设置温度阈值(上限和下限),湿度阈值(上限和下限),led灯亮度(0-100),蜂鸣器响和关闭 4.下位机能根据阈值自动做出相关的灯光报警(温湿度使用不同的灯光或声音) 可选扩展功能: 5.能记忆温湿度阈值(掉电数据不丢失),下次上电重启之后能按该阈值进行自动警报。 6.温度上报功能,可以设置为单次上报(上位机请求一次,上报一次),定时汇报(定时时间可设置,最小单位1s,即每1s自动上报一次数据)开启或关闭 7.双机通信,两个开发板之间相互传递数据(温度值,湿度值)。(uart或者wifi) 8.双机通信,开发板A的上位机可以发送指令控制B开发板的温度阈值和湿度阈值,反之B的上位机也可以控制A开发板(基本功能必须正常有效) 9.上位机图形界面开发。 注: 上位机指的是pc电脑,pc电脑的控制可以是命令行,或者图形界面(qt) 下位机指的是stm32开发板 基本功能:必须完成 可选功能:部分能力较强的同学完成。 请大家根据项目的要求,做好项目进度计划(18号下午8点30之前提交)

算子dyn_threshold解析

会有一股神秘感。 提交于 2019-12-14 22:38:53
算子结构 首先看dyn_threshold 算子参数 dyn_threshold(OrigImage, ThresholdImage : RegionDynThresh : Offset, LightDark ) 参数分析: OrigImage:需要进行阈值分割的原始图像 ThresholdImage: 通过一定图像预处理得到的阈值图像(这个预处理通常是对原图应用mean_image/gauss_image/binomial_filter 处理后的图像) RegionDynThresh: 对原图进行阈值分割后输出图像 Offset: 是一个阈值调节值,在做对比时,需要和ThresholdImage上某一点像素值同时作用。 LightDark:是一个关键选择,’dark’, ‘light’, ‘equal’, ‘not_equal’一共有4种选择,明、暗、同、不同 关键点分析 根据Halcon帮助文档种给出的 dyn_threshold的分割阈值的计算方式 g_o=g_[OrigImage] g_t=g_[ThresholdImage] 当选择light模式 阈值计算公式: for LightDark = ‘light’ is: g_o >= g_t + Offset 即为原图中大于等于g_t + Offset点的像素值被选中。 当选择dark 模式 For LightDark =

Flash原理介绍

回眸只為那壹抹淺笑 提交于 2019-12-14 05:43:46
Flash原理介绍 转载地址: http://www.cnblogs.com/sankye/articles/1638852.html 硬件特性: 【Flash 的硬件实现机制】 Flash全名叫做Flash Memory,属于非易失性存储设备(Non-volatile Memory Device),与此相对应的是易失性存储设备(Volatile Memory Device)。关于什么是非易失性/易失性,从名字中就可以看出,非易失性就是不容易丢失,数据存储在这类设备中,即使断电了,也不会丢失,这类设备,除了Flash,还有其他比较常见的入硬盘,ROM等,与此相对的,易失性就是断电了,数据就丢失了,比如大家常用的内存,不论是以前的SDRAM,DDR SDRAM,还是现在的DDR2,DDR3等,都是断电后,数据就没了。 Flash的内部存储是MOSFET,里面有个悬浮门(Floating Gate),是真正存储数据的单元。 在Flash之前,紫外线可擦除(uv-erasable)的EPROM,就已经采用用Floating Gate存储数据这一技术了。 图 1 . 典型的 Flash 内存单元的物理结构 数据在Flash内存单元中是以电荷(electrical charge) 形式存储的。存储电荷的多少,取决于图中的外部门(external gate)所被施加的电压

从自动化到智能化,网易杭研的AIOps探索与实践

风流意气都作罢 提交于 2019-12-11 07:51:53
在大数据时代下,我们借助机器学习、数据仓库、大数据平台等大数据技术手段,将运维产生的数据进行分析、处理,得出最佳运维策略,以期实现对故障的事先干预,将风险降低到最低,从而降低运维成本,提升运维效率,最终实现运维智能化。本文分享网易杭州研究院在这个领域的实践经验。 本文由作者授权发布,未经许可,请勿转载。 作者:席晶晶,网易杭州研究院运维与账号中心工程师 一、运维面临问题与挑战 眼下,随着信息化、数字化的深入发展,技术飞速迭代,应用服务也不断升级,企业面临的运维压力也越来越大,传统运维受到了前所未有的挑战。 (1) 运维内容:传统的互联网运维的内容仅是关注软硬件、网络、应用系统及基础设备的运维,而当前将面临数十万台主机、容器,复杂的网络环境,以及复杂的部署环境:私有云、公有云、跨IDC混合部署。 (2) 运维工具:传统的互联网运维尽管也利用了工具实现了部分工作的自动化,但主要依赖人力,工作量较大,并效率低下,业务快速增长,技术飞速迭代,意味着工具也要顺势升级。 (3) 运维模式:7*24小时服务模式,PE\SA\DBA 成为了“救火式”英雄,监听着成千上万的监控指标,一旦故障出现,SA、PE、DBA、开发童鞋齐上阵,被故障牵着走,被动性强且风险高。 面对新的挑战,网易杭州研究院运维服务团队不仅要打造信息化、数字化的综合管理体系,为企业带来全方位IT运维服务,同时还要提供定制化、专业化

从自动化到智能化,网易杭研的AIOps探索与实践

荒凉一梦 提交于 2019-12-10 16:19:55
在大数据时代下,我们借助机器学习、数据仓库、大数据平台等大数据技术手段,将运维产生的数据进行分析、处理,得出最佳运维策略,以期实现对故障的事先干预,将风险降低到最低,从而降低运维成本,提升运维效率,最终实现运维智能化。本文分享网易杭州研究院在这个领域的实践经验。 本文由作者授权发布,未经许可,请勿转载。 作者:席晶晶,网易杭州研究院运维与账号中心工程师 一、运维面临问题与挑战 眼下,随着信息化、数字化的深入发展,技术飞速迭代,应用服务也不断升级,企业面临的运维压力也越来越大,传统运维受到了前所未有的挑战。 (1) 运维内容:传统的互联网运维的内容仅是关注软硬件、网络、应用系统及基础设备的运维,而当前将面临数十万台主机、容器,复杂的网络环境,以及复杂的部署环境:私有云、公有云、跨IDC混合部署。 (2) 运维工具:传统的互联网运维尽管也利用了工具实现了部分工作的自动化,但主要依赖人力,工作量较大,并效率低下,业务快速增长,技术飞速迭代,意味着工具也要顺势升级。 (3) 运维模式:7*24小时服务模式,PE\SA\DBA 成为了“救火式”英雄,监听着成千上万的监控指标,一旦故障出现,SA、PE、DBA、开发童鞋齐上阵,被故障牵着走,被动性强且风险高。 面对新的挑战,网易杭州研究院运维服务团队不仅要打造信息化、数字化的综合管理体系,为企业带来全方位IT运维服务,同时还要提供定制化、专业化

Kafka笔记2--Kafka的服务端配置

久未见 提交于 2019-12-09 17:06:24
下载解压 kafka 后,在 kafka/config 下有 3 个配置文件与主题的生产、消费相关。 server.properties--服务端配置 producer.properties--生产端配置 consumer.properties--消费端配置 这里主要介绍服务端的参数配置。 server.properties #指定 kafka集群中 broker 的全局编号,每一个 broker 的编号不能重复。 broker.id=0 #Listeners 指明 broker 监听客户端连接的地址列表,即客户端要连接 broker 的入口地址列表, #配置格式为protocol://hostname:port,多个地址中间以逗号隔开, #其中 protocol 代表协议类型,Kafka 当前支持的协议类型有 PLAINTEXT、SSL、SASL_SSL 等,如果未开启安全认证,则使用简单的 PLAINTEXT 即可; #hostname 代表主机名,主机名最好不要为空,这里是 localhost; #port 代表服务端口,producer或consumer将在此端口建立连接,这里是 9092。 listeners=PLAINTEXT://localhost:9092 #advertised.listeners 主要用于 IaaS(Infrastructure as a

【弄nèng - Grafana】入门篇(四)—— Elasticsearch数据源绘制singlestat Panel

那年仲夏 提交于 2019-12-09 12:33:18
文章目录 1. General 1.1 Drilldown / detail link 2. Metrics 3. Options 3.1 Value 3.2 Coloring 3.3 Spark lines 3.4 Gauge 4. Value Mappings 5. Time range 项目推荐 Singlestat panel 允许您显示SINGLE系列的一个主要摘要状态。它将序列简化为一个数字(通过查看序列中的最大值,最小值,平均值或总和)。Singlestat还提供用于为统计信息或面板背景着色的阈值。它还可以将单个数字转换为文本值,并显示该系列的迷你图摘要。 官网 传送门 1. General General和Metrics页面属性同graph一样, Graph教程传送门 点击Title – Edit进入编辑界面 属性解释 Repeat: 可以选择变量,根据变量增加减少图形(之后博客会详解复制)。 detail link: 可以添加http链接或者dashboard链接。 Title: 可以使用变量(之后博客会详解变量) 1.1 Drilldown / detail link dashboard和超链接属性不同 absolute使用 配置好后返回主页面,点击图形右上角进行跳转,生成的连接是 https://www.baidu.com/?from=now-6h&to

secret sharing

纵然是瞬间 提交于 2019-12-09 11:15:20
上一篇文章介绍了混淆电路(Garbled Circuit),参与双方通过传输加密电路实现安全计算。理论上各种计算都可以用这种方法实现。对于各种纯粹由位运算(就是AND、OR、XOR这些)组成的算法(如比较操作或AES加密),GC效率是比较高的。但有一个问题是,即便一些常见的算术操作(如乘法、乘方等),电路也非常复杂,这意味着很多常见算法GC应付起来都很吃力。比如下面是两位整数的乘法电路,我们平时用的都是32位甚至64位乘法,还包括浮点运算等,直接用GC解决,效率是不敢恭维的。而现实生活中很多常用的算法,如目前比较火的机器学习深度学习算法包含了大量的浮点数/定点数乘法、除法、指数运算等等,纯靠GC是不能指望的。而本文介绍的密钥分享(secret sharing)则正好对算术操作比较拿手。 密钥分享的基本思路是将每个数字 拆散成多个数 ,并将这些数分发到多个参与方 那里。然后每个参与方拿到的都是原始数据的一部分,一个或少数几个参与方无法还原出原始数据,只有大家把各自的数据凑在一起时才能还原真实数据。计算时,各参与方直接用它自己本地的数据进行计算,并且在适当的时候交换一些数据(交换的数据本身看起来也是随机的,不包含关于原始数据的信息),计算结束后的结果仍以secret sharing的方式分散在各参与方那里,并在最终需要得到结果的时候将某些数据合起来。这样的话

图像的二值化

徘徊边缘 提交于 2019-12-07 20:35:28
#include <opencv2/opencv.hpp> #include <iostream> #include <math.h> using namespace cv; using namespace std; Mat src, dst,dst2,gray_src; char* INPUT_WIN = "input image"; char* output_title = "binary image"; int threshold_value = 127; int threshold_max = 255; int type_value = 2; int type_max = 4; void Threshold_Demo(int, void*) { cvtColor(src, gray_src, CV_BGR2GRAY); //threshold(gray_src, dst, threshold_value, threshold_max, THRESH_BINARY); //反二值化 //threshold(gray_src, dst, threshold_value, threshold_max, THRESH_BINARY_INV); //type_value有如下类型: //THRESH_BINARY //THRESH_BINARY_INV //THRESH_THRESH

用Spark学习FP Tree算法和PrefixSpan算法

核能气质少年 提交于 2019-12-07 19:43:27
 转自 https://www.cnblogs.com/pinard/p/6340162.html    在FP Tree算法原理总结和PrefixSpan算法原理总结中,我们对FP Tree和PrefixSpan这两种关联算法的原理做了总结,这里就从实践的角度介绍如何使用这两个算法。由于scikit-learn中没有关联算法的类库,而Spark MLlib有,本文的使用以Spark MLlib作为使用环境。 1. Spark MLlib关联算法概述     在Spark MLlib中,也只实现了两种关联算法,即我们的FP Tree和PrefixSpan,而像Apriori,GSP之类的关联算法是没有的。而这些算法支持Python,Java,Scala和R的接口。由于前面的实践篇我们都是基于Python,本文的后面的介绍和使用也会使用MLlib的Python接口。      Spark MLlib关联算法基于Python的接口在pyspark.mllib.fpm包中。FP Tree算法对应的类是pyspark.mllib.fpm.FPGrowth(以下简称FPGrowth类),从Spark1.4开始才有。而PrefixSpan算法对应的类是pyspark.mllib.fpm.PrefixSpan(以下简称PrefixSpan类),从Spark1.6开始才有