Sampler

分布式06-Spring Cloud Sleuth & zipkin 链路追踪

て烟熏妆下的殇ゞ 提交于 2020-04-15 22:15:16
【推荐阅读】微服务还能火多久?>>> 一.Zipkin 是什么?  Zipkin的官方介绍: https://zipkin.apache.org/  Zipkin是一款开源的分布式实时数据追踪系统(Distributed Tracking System),基于 Google Dapper的论文设计而来,由 Twitter 公司开发贡献。其主要功能是聚集来自各个异构系统的实时监控数据。分布式跟踪系统还有其他比较成熟的实现,例如:Naver的Pinpoint、Apache的HTrace、阿里的鹰眼Tracing、京东的Hydra、新浪的Watchman,美团点评的CAT,skywalking等。 二.为什么用 Zipkin? 随着互联网发展越来越壮大,系统也越来越复杂。分布式系统中系统之间的互相调用也越来越错综复杂,这时我们排查一个服务来龙去脉也越加困难,甚至我们都很难定位到哪个服务拖慢了整体的响应速度。 Zipkin分布式跟踪系统就能很好的解决这样的问题。 1.zipkin帮我们定位系统用了哪些服务 2.服务之间是怎么互相依赖的 3.请求的执行路径 4.服务之间调用的耗时 三.链路追踪的原理 每个请求会生成一个TraceId(可以理解一条链路的ID)串联每次SpanId形成一条完整的链路。 1.Span :基本的工作单位‘ 2.Trace :一组Span组成的树形结构(链路) 3

ML-Agents(六)Tennis

白昼怎懂夜的黑 提交于 2020-04-12 15:27:14
目录 ML-Agents(六)Tennis 一、Tennis介绍 二、环境与训练参数 三、场景基本结构 四、代码分析 环境初始化脚本 Agent脚本 Agent初始化与重置 矢量观测空间 Agent动作反馈 Agent手动操控 五、训练 普通训练(不带可变参数) 可变参数设置 一个可变参数训练 两个可变参数训练 总结 ML-Agents(六)Tennis 喜欢的童靴希望大家多多点赞收藏哦~ 这次Tennis示例研究费了我不少劲,倒不是因为示例的难度有多大,而重点是这个示例的训练过程中遇到了许多问题值得记录下来,其次这个训练是一个 对抗训练 ,也是比较有意思的示例。 一、Tennis介绍 首先来看看效果~ OK,可以看到画面中有18个网球场,然后蓝色的球拍和紫色的球拍互相对打。这里注意一下,场景虽然都是3D的,但实际上球拍和球只在球场的中轴线上上下左右移动,也就是说其实换个相机位置的话,这里其实是个二维打球模拟。 当然了,这样算是简化了训练的过程,这个示例大部分所用到的内容和3D Ball差不多,主要有一个可以深化学习的就是 对抗训练 。下面我们来先看一下官方对该示例的参数。 二、环境与训练参数 老规矩,先来看一下官方文档参数: 设定:两个agents控制球拍进行双人游戏,来回击打球过球网 目标:一方agent必须打击球,以使对手无法击回球 Agent:在这个环境中

ML-Agents(六)Tennis

自古美人都是妖i 提交于 2020-04-12 15:16:25
目录 ML-Agents(六)Tennis 一、Tennis介绍 二、环境与训练参数 三、场景基本结构 四、代码分析 环境初始化脚本 Agent脚本 Agent初始化与重置 矢量观测空间 Agent动作反馈 Agent手动操控 五、训练 普通训练(不带可变参数) 可变参数设置 一个可变参数训练 两个可变参数训练 总结 ML-Agents(六)Tennis 喜欢的童靴希望大家多多点赞收藏哦~ 这次Tennis示例研究费了我不少劲,倒不是因为示例的难度有多大,而重点是这个示例的训练过程中遇到了许多问题值得记录下来,其次这个训练是一个 对抗训练 ,也是比较有意思的示例。 一、Tennis介绍 首先来看看效果~ OK,可以看到画面中有18个网球场,然后蓝色的球拍和紫色的球拍互相对打。这里注意一下,场景虽然都是3D的,但实际上球拍和球只在球场的中轴线上上下左右移动,也就是说其实换个相机位置的话,这里其实是个二维打球模拟。 当然了,这样算是简化了训练的过程,这个示例大部分所用到的内容和3D Ball差不多,主要有一个可以深化学习的就是 对抗训练 。下面我们来先看一下官方对该示例的参数。 二、环境与训练参数 老规矩,先来看一下官方文档参数: 设定:两个agents控制球拍进行双人游戏,来回击打球过球网 目标:一方agent必须打击球,以使对手无法击回球 Agent:在这个环境中

jmeter(一)基础介绍

点点圈 提交于 2020-04-12 11:15:51
参考书籍:段念《软件性能测试与案例剖析》——第二版 推荐一本书《零成本实现web性能测试——基于Apache—jmeter》,主要内容是一些关于jmeter的实战使用,想学习的可以去看看。。。 jmeter是一款优秀的开源性能测试工具,目前最新版本3.0版本,官网文档地址: http://jmeter.apache.org/usermanual/index.html 一、优点 1、开源工具,可扩展性非常好 2、高可扩展性,用户可自定义调试相关模块代码 3、精心简单的GUI设计,小巧灵活 4、完全的可移植性和100%纯java 5、完全swing和轻量组件支持(预编译的HAR使用javax.swing.*)包 6、完全多线程框架,允许通过多个线程并发取样以及单独的线程对不同的功能同时取样 7、支持脚本取样器 二、安装及下载 这里附一个最新的jmeter官网下载地址: http://jmeter.apache.org/download_jmeter.cgi 该链接是3.0版本的jmeter安装包 jmeter本身不需要安装,只需要配置好JDK环境,然后在在jmeter文件中的bin文件中打开jmeter.bat文件即可 最新版本,建议配置的JDK最好用1.7及以上版本 三、基础构成 1、组成部分 1)负载发生器:产生负载,多进程或多线程模拟用户行为 2)用户运行器:脚本运行引擎

高品质后处理:十种图像模糊算法的总结与实现

徘徊边缘 提交于 2020-04-07 13:43:20
本文由@浅墨_毛星云 出品,转载请注明出处 CSDN版文章链接: https://qianmo.blog.csdn.net/article/details/105350519 知乎专栏版文章链接: https://zhuanlan.zhihu.com/p/125744132 后处理(Post-Processing),在图形学和游戏开发等领域是提升最终画面呈现品质的重要渲染技术。后处理渲染技术的好坏,往往决定了游戏画面是否能够达到令人惊艳的级别。 图像模糊算法在后处理渲染领域中占据着重要的地位。很多产品级后处理的实现,都会直接或间接依赖于图像模糊算法中的一种或多种。无论是基于高斯模糊(Gaussian Blur)或其改进算法的Bloom特效,还是基于径向模糊(Radial Blur)的Sun Shaft(God Ray),或是基于方向模糊(Directional Blur)的镜头眩光光晕(Glare Lens Flare),抑或是景深(Depth of Field)特效中摄影级失焦感的散景模糊(Bokeh Blur),都以模糊算法作为重要的支撑。所以说,后处理中所采用模糊算法的优劣,决定了后处理管线最终的渲染品质和消耗性能的多少。 本文将对后处理管线中会使用到的如下十种模糊算法进行总结、对比和盘点,以及提供了这十种模糊算法以及其衍生算法对应的Unity Post Processing

jmeter测试websocket不会?别闹,so简单

冷暖自知 提交于 2020-04-06 13:22:31
1、jmeter版本为5.0 2、添加插件,在工具栏>>>>Options>>>Plugins Manager>>>Available Plugins中搜索"WEBSOCKET" 如下图,我使用的"WebSocket Sampler by Maciej Zaleski",勾选并点击下面的Apply and restart jmeter,这时manager会自动帮你下载依赖包并安装到lib目录下 3、新建线程组,添加sampler>>WebSocket Sampler 获得以下的sampler,添加查看结果树,如下图(忽略画红线的测试请求,我太懒了懒得改了,将就看),注意将 Message backlog 选项设置大一点,默认为3 Response Pattern – sampler将等待含有该标识的消息并继续通信(或者直到timeout,该连接关闭) Close Connection Pattern – 如果服务器返回的消息含有这样的字符,就结束会话。 Message Backlog – 定义服务器返回消息保留的最大长度。 4、然后查看结果树里面就能看到推送信息了: 来源: oschina 链接: https://my.oschina.net/u/4336916/blog/3221322

ML-Agents(五)GridWorld

感情迁移 提交于 2020-04-06 12:57:27
目录 ML-Agents(五)GridWorld Visual Observations Masking Discrete Actions 环境与训练参数 场景基本结构 代码分析 环境初始化代码 Agent脚本 初始化与重置 动作遮罩 Agent动作反馈 FixedUpdate() 手动操作代码 关于GridSetting 关于其他 训练模型 泛化参数配置 开始训练 总结 ML-Agents(五)GridWorld GridWorld这个例子比较有意思,它还是运用了Reinforcement Learning来进行学习的,不同的是它运用了视觉观察值(Visual Observations)来训练agent。 如上图所示,Agent就是蓝色的方块,每次它可以移动一格(上、下、左、右),要求不能碰到红叉,最终到达绿色加号目标。 Visual Observations 先来了解一下视觉观察值是怎么回事。在ml-agents里主要通过 CameraSensor 或 RenderTextureSensor 两种方式来向Agent提供视觉观察。通过这两个组件收集的图像信息输入到agent policy的CNN(卷积神经网络)中,这使得agent可以从观察图像的图像规律中学习。Agent可以同时使用视觉观察值( Visual Observations)和矢量观察值( Vector

ML-Agents(五)GridWorld

▼魔方 西西 提交于 2020-04-06 11:20:46
目录 ML-Agents(五)GridWorld Visual Observations Masking Discrete Actions 环境与训练参数 场景基本结构 代码分析 环境初始化代码 Agent脚本 初始化与重置 动作遮罩 Agent动作反馈 FixedUpdate() 手动操作代码 关于GridSetting 关于其他 训练模型 泛化参数配置 开始训练 总结 ML-Agents(五)GridWorld GridWorld这个例子比较有意思,它还是运用了Reinforcement Learning来进行学习的,不同的是它运用了视觉观察值(Visual Observations)来训练agent。 如上图所示,Agent就是蓝色的方块,每次它可以移动一格(上、下、左、右),要求不能碰到红叉,最终到达绿色加号目标。 Visual Observations 先来了解一下视觉观察值是怎么回事。在ml-agents里主要通过 CameraSensor 或 RenderTextureSensor 两种方式来向Agent提供视觉观察。通过这两个组件收集的图像信息输入到agent policy的CNN(卷积神经网络)中,这使得agent可以从观察图像的图像规律中学习。Agent可以同时使用视觉观察值( Visual Observations)和矢量观察值( Vector

001-webaudio

空扰寡人 提交于 2020-04-06 02:36:47
这是学习Three.js 官方案例系列 001-webaudio - visualizer 体验地址 片元 shader: // tAudioData: 0~64数组,只在 tAudioData[0].a 有数值,该数值表示该通道上的音值大小。 uniform sampler2D tAudioData ; uniform float style ; varying vec2 vUv ; void main ( ) { vec3 backgroundColor = vec3 ( 0.8 , 0.8 , 0.8 ) ; vec3 color = vec3 ( 0.0 , 0.65 , 0.97 ) ; float f = texture2D ( tAudioData , vec2 ( vUv . x , 1.0 ) ) . a ; float i2 = step ( vUv . y , f ) * step ( f - 0.0125 , vUv . y ) ; float i1 = step ( vUv . y , f ) ; float i ; if ( style == 1.0 ) { i = i1 ; } else { i = i2 ; } vec3 tt = mix ( backgroundColor , color , i ) ; gl_FragColor = vec4 (

PyTorch 分布式训练教程

柔情痞子 提交于 2020-03-27 18:47:16
3 月,跳不动了?>>> 感谢参考原文- http://bjbsair.com/2020-03-27/tech-info/7154/ 神经网络训练加速的最简单方法是使用GPU,对弈神经网络中常规操作(矩阵乘法和加法)GPU运算速度要倍超于CPU。随着模型或数据集越来越大,一个GPU很快就会变得不足。例如,BERT和GPT-2等大型语言模型是在数百个GPU上训练的。对于多GPU训练,需要一种在不同GPU之间对模型和数据进行切分和调度的方法。 PyTorch是非常流行的深度学习框架,它在主流框架中对于灵活性和易用性的平衡最好。Pytorch有两种方法可以在多个GPU上切分模型和数据:nn.DataParallel和nn.distributedataparallel。DataParallel更易于使用(只需简单包装单GPU模型)。然而,由于它使用一个进程来计算模型权重,然后在每个批处理期间将分发到每个GPU,因此通信很快成为一个瓶颈,GPU利用率通常很低。而且,nn.DataParallel要求所有的GPU都在同一个节点上(不支持分布式),而且不能使用Apex进行混合精度训练。nn.DataParallel和nn.distributedataparallel的主要差异可以总结为以下几点(译者注): DistributedDataParallel支持模型并行