多路复用

rddis处理高并发

谁说胖子不能爱 提交于 2019-12-04 18:26:28
参考: https://www.cnblogs.com/wanlei/p/10464517.html 关于Redis处理高并发 Redis的高并发和快速原因 1.Redis是基于内存的,内存的读写速度非常快; 2.Redis是单线程的,省去了很多上下文切换线程的时间; 3.Redis使用多路复用技术,可以处理并发的连接。非阻塞IO 内部实现采用epoll,采用了epoll+自己实现的简单的事件框架。epoll中的读、写、关闭、连接都转化成了事件,然后利用epoll的多路复用特性,绝不在io上浪费一点时间。 下面重点介绍单线程设计和IO多路复用核心设计快的原因 为什么Redis是单线程的 1.官方答案 因为Redis是基于内存的操作,CPU不是Redis的瓶颈,Redis的瓶颈最有可能是机器内存的大小或者网络带宽。既然单线程容易实现,而且CPU不会成为瓶颈,那就顺理成章地采用单线程的方案了。 2.性能指标 关于Redis的性能,官方网站也有,普通笔记本轻松处理每秒几十万的请求。 3.详细原因 1)不需要各种锁的性能消耗 Redis的数据结构并不全是简单的Key-Value,还有list,hash等复杂的结构,这些结构有可能会进行很细粒度的操作,比如在很长的列表后面添加一个元素,在hash当中添加或者删除 一个对象。这些操作可能就需要加非常多的锁,导致的结果是同步开销大大增加。 总之

day1 初识Nginx

可紊 提交于 2019-12-04 14:31:11
一. Nginx的诞生 Nginx是一个高效的web及反向代理服务器,它的第一版发布于2012年,晚于如今占据最大市场份额的Apache。那么Nginx的诞生肩负了哪些使命呢?或者说它于Apache的差别在哪里? 低效的Apache!Apahce诞生于上世纪90年代。那个时候硬件技术还不是很成熟,服务器大多是单核单cpu的,而且网络请求数也不是很多。和大多数那个年代诞生的组件一样,Apache的底层采用的是同步多进程的模型。如今服务器向着多核多cpu发展,处理的网络请求也动辄十万级 百万级,尤其是物联网的诞生,以亿为单位的qps也出现在大家的视野中。在这样的场景下,Apache低效的底层模型就无法应对了。一个服务器能开启的进程数是有限的,而且操作系统在多个进程之间的切换也会消耗大量的资源和时间,导致Apache无法跑满多核cpu的性能。 高效的Nginx!Nginx的底层采用了多路复用的技术,轻松应对百万级的连接。如果说同步 多进程代表着低效,那么异步 多路复用就是高性能的代名词了。Nginx可以在一个线程中处理多个请求,避免了进程、线程间的切换,在用户态中实现并发的处理。而且Nginx几乎是由纯C语言开发的,也是其的运行效率大大提升。 比较一下Apache和Nginx,Nginx用户如下几个优点:1. 高并发,高性能;2. 可扩展性好(拥有丰富的模块);3. 高可靠性;4.

Redis性能解析--Redis为什么那么快?

久未见 提交于 2019-12-04 12:18:08
Redis性能解析--Redis为什么那么快? https://www.cnblogs.com/xlecho/p/11832118.html echo编辑整理,欢迎转载,转载请声明文章来源。欢迎添加echo微信(微信号:t2421499075)交流学习。 百战不败,依不自称常胜,百败不颓,依能奋力前行。——这才是真正的堪称强大!!! Redis的实际被应用都是因为它的性能,在众多缓存中Redis也是一个比较快的中间件,而且它是单线程操作,没有过的内存开销,给程序带来了更多的扩展空间。 Redis的性能展示 在保证网络通畅的情况下,相同的CPU和相同的Redis版本,处理不同大小的数据,Redis的吞吐量如下图所示,该图来自Redis的官方网站。我们可以在网站中看到。Redis在处理1000字节的数据的时候,都是稳定位置吞吐量在10w,当处理的数据不断增大的时候,吞吐量才慢慢开始下降。 图片来自redis官网 下图是提供的QPS测试图,官方提供的数据是可以达到100000+的QPS(每秒内查询次数)。 图片来自redis官网 Redis为什么那么快? 纯内存KV操作 内部是单程实现的(不需要创建/销毁线程,避免上下文切换,无并发资源竞争的问题) 异步非阻塞的I/O(多路复用) 存内存KV操作快在哪里? 我们从上面的介绍里面我们看到了Redis是一个纯kv的操作

非阻塞套接字与IO多路复用(转,python实现版)

半城伤御伤魂 提交于 2019-12-04 11:16:57
我们了解了socket之后已经知道,普通套接字实现的服务端的缺陷: 一次只能服务一个客户端! 并且, 为了使一个客户端能够不断收发消息,我们还要使用while循环来轮询 ,这极大地降低了我们的效率 accept阻塞! 在没有新的套接字来之前,不能处理已经建立连接的套接字的请求 recv 阻塞! 在没有接受到客户端请求数据之前,不能与其他客户端建立连接 可以用非阻塞接口来尝试解决这个问题! 阻塞IO模型 阻塞IO(blocking IO)的特点:就是在IO执行的两个阶段(等待数据和拷贝数据两个阶段)都被block了。 什么是阻塞呢?想象这种情形:你要去车站接朋友,到了车站之后发现车还没到站,你现在有两种选择: 继续在等着,直到朋友的车到站。 先去干点别的,然后时不时地联系你的朋友询问车是否到站,朋友说到了,你再去车站 很明显,大多数人都会选择第二种方案。 而在计算机世界,这两种情形就对应阻塞和非阻塞忙轮询。 非阻塞轮询:数据没来,进程就不停的去检测数据,直到数据来。 阻塞:数据没来,啥都不做,直到数据来了,才进行下一步的处理。 非阻塞IO模型 非阻塞套接字和阻塞套接字的区别: 把套接字设置为非阻塞之后,如果没有得到想要的数据,就会抛出一个BlockingIOError的异常。我们可以通过捕获处理这个异常,让程序正常完成 非阻塞式IO中

聊聊Linux 五种IO模型

▼魔方 西西 提交于 2019-12-04 04:48:18
#0 系列目录# 聊聊远程通信 Java远程通讯技术及原理分析 聊聊Socket、TCP/IP、HTTP、FTP及网络编程 RMI原理及实现 RPC原理及实现 轻量级分布式 RPC 框架 使用 RMI + ZooKeeper 实现远程调用框架 深入浅出SOA思想 微服务、SOA 和 API对比与分析 聊聊同步、异步、阻塞与非阻塞 聊聊Linux 五种IO模型 聊聊IO多路复用之select、poll、epoll详解 聊聊C10K问题及解决方案 上一篇 《聊聊同步、异步、阻塞与非阻塞》 已经通俗的讲解了,要理解同步、异步、阻塞与非阻塞 重要的两个概念点 了,没有看过的,建议先看这篇博文理解这两个概念点。在认知上,建立统一的模型。这样,大家在继续看本篇时,才不会理解有偏差。 那么,在正式开始讲Linux IO模型前,比如:同步IO和异步IO,阻塞IO和非阻塞IO分别是什么,到底有什么区别?不同的人在不同的上下文下给出的答案是不同的。所以先限定一下本文的上下文。 #1 概念说明# 在进行解释之前,首先要说明几个概念: 用户空间和内核空间 进程切换 进程的阻塞 文件描述符 缓存 IO ##1.1 用户空间与内核空间## 现在操作系统都是采用虚拟存储器,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)。 操作系统的核心是内核,独立于普通的应用程序

Redis性能解析--Redis为什么那么快?

假装没事ソ 提交于 2019-12-04 04:47:53
echo编辑整理,欢迎转载,转载请声明文章来源。欢迎添加echo微信(微信号:t2421499075)交流学习。 百战不败,依不自称常胜,百败不颓,依能奋力前行。——这才是真正的堪称强大!!! Redis的实际被应用都是因为它的性能,在众多缓存中Redis也是一个比较快的中间件,而且它是单线程操作,没有过的内存开销,给程序带来了更多的扩展空间。 Redis的性能展示 在保证网络通畅的情况下,相同的CPU和相同的Redis版本,处理不同大小的数据,Redis的吞吐量如下图所示,该图来自Redis的官方网站。我们可以在网站中看到。Redis在处理1000字节的数据的时候,都是稳定位置吞吐量在10w,当处理的数据不断增大的时候,吞吐量才慢慢开始下降。 图片来自redis官网 下图是提供的QPS测试图,官方提供的数据是可以达到100000+的QPS(每秒内查询次数)。 图片来自redis官网 Redis为什么那么快? 纯内存KV操作 内部是单程实现的(不需要创建/销毁线程,避免上下文切换,无并发资源竞争的问题) 异步非阻塞的I/O(多路复用) 存内存KV操作快在哪里? 我们从上面的介绍里面我们看到了Redis是一个纯kv的操作。并且Redis绝大部分请求是纯粹的内存操作,所以速度非常快。数据存在内存中,类型与存在hashMap中,那么为什么那么快呢

Go netpoll I/O 多路复用构建原生网络模型之源码深度解析

北慕城南 提交于 2019-12-04 04:22:14
Go netpoll I/O 多路复用构建原生网络模型之源码深度解析 (转载) 导言 Go 基于 I/O multiplexing 和 goroutine 构建了一个简洁而高性能的原生网络模型(基于 Go 的I/O 多路复用 netpoll ),提供了 goroutine-per-connection 这样简单的网络编程模式。在这种模式下,开发者使用的是同步的模式去编写异步的逻辑,极大地降低了开发者编写网络应用时的心智负担,且借助于 Go runtime scheduler 对 goroutines 的高效调度,这个原生网络模型不论从适用性还是性能上都足以满足绝大部分的应用场景。 然而,在工程性上能做到如此高的普适性和兼容性,最终暴露给开发者提供接口/模式如此简洁,其底层必然是基于非常复杂的封装,做了很多取舍,也有可能放弃了一些『极致』的设计和理念。事实上 netpoll 底层就是基于 epoll/kqueue/iocp 这些系统调用来做封装的,最终暴露出 goroutine-per-connection 这样的极简的开发模式给使用者。 Go netpoll 在不同的操作系统,其底层使用的 I/O 多路复用技术也不一样,可以从 Go 源码目录结构和对应代码文件了解 Go 在不同平台下的网络 I/O 模式的实现。比如,在 Linux 系统下基于 epoll,freeBSD 系统下基于

多路复用

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-03 12:13:16
为什么会考虑到深入理解多路复用?在Http/2,Redis等内容中,反复提到多路复用带来的效率提升,也只有了解了基础概念,才能掌握它们,一步一步来吧。 了解多路复用前,先对五中IO模型进行初步了解。 省略--后续补充 多路复用最重要的知识点是因为内部用了一个红黑树记录添加的socket,用了一个双向链表接收内核触发的事件(双向链接描述错误,“双向链表的每个节点都是基于epitem结构中的rdllink成员”) 红黑树 就是因为多了这个存储,可以直接拿到就绪socket,而不用像select那样一个个检查。由于epoll需要往这个结构里添加或删除数据,就要求这个结构能够快速的添加和删减元素,双向链表刚好比较适合。 情况分类|添加|删除 双向链表 时间复杂度 情况分类 添加 删除 最好头节点 O(1) O(1) 最好尾节点 O(1) O(1) 平均 O(n) O(n) 细节 当某一进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。eventpoll结构体如下所示: - struct eventpoll{ .... /*红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件*/ struct rb_root rbr; /*双链表中则存放着将要通过epoll

聊聊IO多路复用之select、poll、epoll详解

血红的双手。 提交于 2019-12-03 01:44:39
#0 系列目录# 聊聊远程通信 Java远程通讯技术及原理分析 聊聊Socket、TCP/IP、HTTP、FTP及网络编程 RMI原理及实现 RPC原理及实现 轻量级分布式 RPC 框架 使用 RMI + ZooKeeper 实现远程调用框架 深入浅出SOA思想 微服务、SOA 和 API对比与分析 聊聊同步、异步、阻塞与非阻塞 聊聊Linux 五种IO模型 聊聊IO多路复用之select、poll、epoll详解 聊聊C10K问题及解决方案 IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,它就通知该进程。IO多路复用适用如下场合: 当客户处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用。 当一个客户同时处理多个套接口时,而这种情况是可能的,但很少出现。 如果一个TCP服务器既要处理监听套接口,又要处理已连接套接口,一般也要用到I/O复用。 如果一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用。 如果一个服务器要处理多个服务或多个协议,一般要使用I/O复用。 与多进程和多线程技术相比, I/O多路复用技术的最大优势是系统开销小,系统不必创建进程/线程 ,也不必维护这些进程/线程,从而大大减小了系统的开销。 目前支持I/O多路复用的系统调用有 select,pselect,poll,epoll ,I/O多路复用就是 通过一种机制

redis在分布式中的使用

匿名 (未验证) 提交于 2019-12-03 00:44:02
作者:孤独烟 来自:http://rjzheng.cnblogs.com/ 为什么要用redis :为了并发和性能,使用redis做为缓冲 使用redis有什么缺点 主要是四个问题 (һ) 缓存和数据库双写一致性问题 分析:一致性问题是分布式常见问题,还可以再分为最终一致性和强一致性。数据库和缓存双写,就必然会存在不一致的问题。答这个问题,先明白一个前提。就是如果对数据有强一致性要求,不能放缓存。我们所做的一切,只能保证最终一致性。 另外,我们所做的方案其实从根本上来说,只能说降低不一致发生的概率,无法完全避免。因此,有强一致性要求的数据,不能放缓存。 回答:首先,采取正确更新策略,先更新数据库,再删缓存。其次,因为可能存在删除缓存失败的问题,提供一个补偿措施即可,例如利用消息队列。 (二) 缓存雪崩问题 解决方案 : (一)给缓存的失效时间,加上一个随机值,避免集体失效。 (二)使用互斥锁,但是该方案吞吐量明显下降了。 (三)双缓存。我们有两个缓存,缓存A和缓存B。缓存A的失效时间为20分钟,缓存B不设失效时间。自己做缓存预热操作。然后细分以下几个小点 I 从缓存A读数据库,有则直接返回 II A没有数据,直接从B读数据,直接返回,并且异步启动一个更新线程。 III 更新线程同时更新缓存A和缓存B。 (三) 缓存击穿问题 解决方案: (一)利用互斥锁,缓存失效的时候,先去获得锁