高并发高性能服务器是如何实现的
当在读这篇文章的时候,你有没有想过,服务器是怎么把这篇文章发送给你的呢? 说简单也简单,不就是一个用户请求吗?服务器根据请求从数据库中捞出这篇文章,然后通过网络发回去。 说复杂也复杂,服务器是如何 并行处理成千上万个用户请求呢 ?这里面涉及到哪些技术呢? 这篇文章就来为你解答这个问题。 多进程 历史上最早出现也是最简单的一种并行处理多个请求的方法就是利用 多进程 。 比如在Linux世界中,我们可以使用fork、exec等 系统调用 创建多个进程,我们可以在父进程中接收用户的连接请求,然后创建子进程去处理用户请求,就像这样: 这种方法的优点就在于: 编程简单,非常容易理解 由于各个进程的地址空间是相互隔离的,因此一个进程崩溃后并不会影响其它进程 充分利用多核资源 多进程并行处理的优点很明显,但是缺点同样明显: 各个进程地址空间相互隔离,这一优点也会变成缺点,那就是进程间要想通信就会变得比较困难,你需要借助进程间通信(IPC,interprocess communications)机制,想一想你现在知道哪些进程间通信机制,然后让你用代码实现呢?显然,进程间通信编程相对复杂,而且性能也是一大问题 我们知道创建进程开销是比线程要大的,频繁的创建销毁进程无疑会加重系统负担。 幸好,除了进程,我们还有线程。 多线程 不是创建进程开销大吗?不是进程间通信困难吗?这些对于线程来说统统不是问题。