offset

jQuery中position()与offset()区别

泪湿孤枕 提交于 2020-03-16 10:52:08
使用jQuery获取元素位置时,我们会使用position()或offset()方法,两个方法都返回一个包含两个属性的对象-左边距和上边距,它们两个的不同点在于位置的相对点不同。 可以看看下边的图: 从图中我们可以大体看出两者的区别。position()获取相对于它最近的具有相对位置(position:relative)的父级元素的距离,如果找不到这样的元素,则返回相对于浏览器的距离。offset()始终返回相对于浏览器文档的距离,它会忽略外层元素。 <div id="outer" style="width:200px;position:relative;left:100px;"> <div id="inner" style="position:absolute;left:50px;top:60px;"> </div> </div> //获取相对于最近的父级(position:relative)的位置 var vposition = $("#inner").position(); alert(vposition.left); //输出:50 alert(vposition.top); //输出:60 var voffset = $("#inner").offset(); alert(voffset.left); //输出:$("#outer").offset().left+50

HTML5网页录音和压缩,边猜边做..(附源码)

可紊 提交于 2020-03-13 19:27:24
宣传一下自己的qq群: 5946699 (暗号: C#交流 ) 欢迎喜欢C#,热爱C#,正在学习C#,准备学习C#的朋友来这里互相学习交流,共同进步 群刚建,人不多,但是都是真正热爱C#的 我也是热爱C#的 希望大家可以一起交流,共同进步 最近公司需要用到web录音的功能 本人接手了这个任务 在网上找了一些资料 http://www.jsjtt.com/webkaifa/html5/2013-08-28/34.html http://javascript.ruanyifeng.com/bom/webrtc.html 讲的都差不多 也就是怎么使用 getUserMedia 下载来的栗子也比较简单,可以直接运行 问题1:怎么上传 栗子中最后返回的是Blob数据 return new Blob([dataview], { type: type }) 因为对html5不熟,所以又查了一些数据 原来HTML5中使用FormData这个对象好方便 var fd = new FormData(); fd.append("audioData", blob); var xhr = new XMLHttpRequest(); xhr.open("POST", url); xhr.send(fd); 在C#服务器端 如下代码就可以接收了 public void ProcessRequest

在centos7(EL7.3 即 kernel-3.10.0-514.X )上安装BCM4312无线网卡驱动要注意的问题

北城以北 提交于 2020-03-13 14:56:49
broadcom bcm4312为比较老的无线网卡了,在centos7.7上默认是驱动不起来的。需要手动编译安装。按照centos官方的说法很多网卡都需要重新编译驱动后才能正常运行。包括: Broadcom Corporation BCM4311, BCM4312, BCM4313, BCM4321, BCM4322, BCM43224, BCM43225, BCM43227 and BCM43228 Based Wireless NICs 在安装过程中参考了几位大神的文章(文章链接附后)在执行make过程遇到各种个这样的问题,就是执行不下去,总结起来有两点:一是大神门的文章没有细看,二是,官方补丁更新、步骤也有所更新,三是,基于针对报错选择方案。 以下过程结合了几位大神文章和官方文档,写下来供后来的同道中人参考。 1.识别网卡的型号 执行lspci | grep '802' 官方: [user@host ~]$ /sbin/lspci | grep Broadcom 0b:00.0 Network controller: Broadcom Corporation BCM4312 802.11a/b/g (rev 01) 2.确认kernel-headers kernel-devel gcc是否已经安装 rpm -qa kernel-headers kernel-devel gcc

MyBatis源码解析 - 解析器模块

依然范特西╮ 提交于 2020-03-12 02:43:12
MyBatis源码解析 - 解析器模块 1. 前言 在MyBatis中涉及多个xml文件,解析这些xml文件自然离不开解析器。本文就来分析一下解析器模块。 2. 准备工作 xml常见的解析方式分为以下三种: DOM ( Document Object Model)解析方式 SAX (Simple APIfor XML)解析方式 StAX( Streaming API for XML)解析方式 - JDK 6.0版本开始,JDK开始支持 详细的解析xml学习可以参考 Java解析XML 在这里我们需要重点看下DOM解析,DOM解析主要的好处就是易于编程,可以跟根据需求在树形结构的各个节点之间导航。 3. XPathParser MyBatis 在初始化过程中处理 mybatis-config.xml 以及映射文件时使用的是DOM解析方式,并结合使用XPath解析XML配置文件。DOM会将整个XML文档加载到内存中形成数据结构。 XPathParser类封装了XPath 、Document和EntityResolver 依赖关系如图所示 XPathParser中字段含义和功能如下 private final Document document; //Document 对象 private boolean validation; //是否开启校验 private

六边形网格笔记

落花浮王杯 提交于 2020-03-11 16:06:44
using System.Collections; using System.Collections.Generic; using UnityEngine; public class Hexagonal : MonoBehaviour { public GameObject prefab; public Transform root; private const float size = 0.59f; private Offset offset_x, offset_y, offset_z; private List<Cell> cells = new List<Cell>(); // Start is called before the first frame update void Start() { offset_x = new Offset(size * Mathf.Cos(Mathf.PI / 6), size / 2); offset_y = new Offset(-size * Mathf.Cos(Mathf.PI / 6), size / 2); offset_z = new Offset(0, -size); Cell cell_o = new Cell(0, 0, 0); cells = GetCellsByStep(cell_o, 2, true);

spark streaming读kafka写elasticsearch(真实生产环境)

感情迁移 提交于 2020-03-11 10:12:00
spark streaming作为当下依然火热的流计算引擎,对于kafka和elasticsearch都有很好的api支持,以下是笔者在实际生产环境中的一个数据从kafka到es案例。 首先说一下几个重点: kafka消费offset使用mysql保存 ,一开始使用了 ScalikeJDBC 这个包来实现对数据库的访问,后来感觉用起来不太灵活,所以就写了原生的mysql JDBC工具类,也有不少好处,比如事务控制更加灵活,不再需要导入ScalikeJDBC的那好几个jar包 数据库获取offset后,会与kafka最早的offset做一个校验 ,因为机器资源紧张,kafka里数据只保存一天,如果spark streaming任务因为故障或是其他原因停了一段时间,这时再开启任务从mysql获取的offset有可能会超出kafka里offset的范围,这时就要把当前的offset进行替换。如果对数据处理速度有要求的话这一步可以注释掉,等需要的时候再开启。 第一步 Maven配置 这里相关工具的版本: scala:2.11.8 spark:2.3.4 kafka:0.10.1.0 elasticsearch:7.0.0 maven配置如下: < properties > < scala.version > 2.11.8 </ scala.version > < spark.version

【Kafka】(二十二)Kafka Exactly Once 语义与事务机制原理

你离开我真会死。 提交于 2020-03-08 20:18:37
写在前面的话 本文所有Kafka原理性的描述除特殊说明外均基于Kafka 1.0.0版本。 为什么要提供事务机制 Kafka事务机制的实现主要是为了支持 Exactly Once 即正好一次语义 操作的原子性 有状态操作的可恢复性 Exactly Once 《 Kafka背景及架构介绍 》一文中有说明Kafka在0.11.0.0之前的版本中只支持 At Least Once 和 At Most Once 语义,尚不支持 Exactly Once 语义。 但是在很多要求严格的场景下,如使用Kafka处理交易数据, Exactly Once 语义是必须的。我们可以通过让下游系统具有幂等性来配合Kafka的 At Least Once 语义来间接实现 Exactly Once 。但是: 该方案要求下游系统支持幂等操作,限制了Kafka的适用场景 实现门槛相对较高,需要用户对Kafka的工作机制非常了解 对于Kafka Stream而言,Kafka本身即是自己的下游系统,但Kafka在0.11.0.0版本之前不具有幂等发送能力 因此,Kafka本身对 Exactly Once 语义的支持就非常必要。 操作原子性 操作的原子性是指,多个操作要么全部成功要么全部失败,不存在部分成功部分失败的可能。 实现原子性操作的意义在于: 操作结果更可控,有助于提升数据一致性 便于故障恢复。因为操作是原子的

linux ARM64开启kaslr地址转换

我的未来我决定 提交于 2020-03-07 23:53:58
开启kaslr后,kernel image 在vmalloc区域. 运行地址与链接地址会有一个offset addr_run = addr_link + offset //开启KASLR addr_run = addr_link + _text - (KIMAG_VADDR+TEXT_OFFSET)//_text为重定向后的值 addr_link = addr_run - _text_start + (vmalloc_start+TEX_OFFSET)//ARM64 KIMAGE_VADDR==vmalloc_start kimage_vaddr= _text - TEXT_OFFSET //如果开启KASLR后,_text会重定向, kimage_voffset //kernel image虚拟地址-kernel image物理地址 kaslr_offset= kimage_vaddr - KIMAGE_VADDR memstart_addr //the base of physical memory #define KERNEL_START _text #define KERNEL_END _end #define PAGE_OFFSET ((-1)<<VA_BITS)//PAGE_OFFSET - the virtual address of the start of the

SSM学习之人力资源管理系统

血红的双手。 提交于 2020-03-07 13:53:25
原作者Github:https://github.com/GenshenWang/SSM_HRMS 配置文件 db.properties jdbc.driver=com.mysql.jdbc.Driver jdbc.url=jdbc:mysql://localhost:3306/zl?useSSL=false&useUnicode=true&characterEncoding=UTF-8&serverTimezone=UTC jdbc.username=root jdbc.password=1870535196 Log4j.properties # Configure logging for testing: optionally with log file log4j.rootLogger=WARN, stdout # log4j.rootLogger=WARN, stdout, logfile log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n log4j.appender

kafka概念扫盲

左心房为你撑大大i 提交于 2020-03-05 23:42:47
一、kafka概述 1.1、定义 Kakfa是一个分布式的基于发布/订阅模式的消息队列(message queue),主要应用于大数据的实时处理领域 1.2、消息队列 1.2.1、传统的消息队列&新式的消息队列的模式 上面是传统的消息队列,比如一个用户要注册信息,当用户信息写入数据库后,后面还有一些其他流程,比如发送短信,则需要等这些流程处理完成后,在返回给用户 而新式的队列是,比如一个用户注册信息,数据直接丢进数据库,就直接返回给用户成功 1.2.2、使用消息队列的好处 A、 解耦 B、 可恢复性 C、 缓冲 D、 灵活性&峰值处理能力 E、 异步通信 1.2.3、消息队列的模式 A、点对点模式 消息生产者发送消息到消息队列中,然后消息消费者从队列中取出并且消费消息,消息被消费后,队列中不在存储。所以消息消费者不可能消费到已经被消费的消息;队列支持存在多个消费者,但是对于一个消息而言,只会 有一个消费者可以消费;如果想发给多个消费者,则需要多次发送该条消息 B】发布/订阅模式(一对多,消费者消费数据之后不会清除消息) 消息生产者将消息发布到topic中,同时有多个消息消费者(订阅)消费该消息,和点对点的方式不同,发布到topic的消息会被所有的订阅者消费;但是数据保留是期限的,默认是7天,因为他不是存储系统;kafka就是这种模式的;有两种方式,一种是是消费者去主动去消费(拉取