nfs

Linux nfs

谁说胖子不能爱 提交于 2020-03-26 10:52:31
nfs简介 1.1 nfs特点 ●NFS (Network File System) 即网络文件系统,是FreeBSDP支持的文件系统中的一种, 它允许网络中的计算机之间通过TCP/IP网络共享资源。 ●在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样。 ●nfs适用于Linux与Unix之间实现文件共享,不能实现L inux与Windows间的文件共享功能。 ●nfs是运行在应用层的协议,其监听于2049/tcp和2049/udp套接字上 ●nfs服务只能基于IP进行认证,这也是它的缺点之一 TCP/IP协议: TCP/IP协议不仅仅指的是TCP 和IP两个协议,而是指一个由FTP、SMTP、TCP、UDP、IP等协议构成的协议簇, 只是因为在TCP/IP协议中TCP协议和IP协议最具代表性,所以被称为TCP/IP协议。 OSI七层模型: 应用层 网络服务与最终用户的一个接口。 协议有:HTTP FTP TFTP SMTP SNMP DNS TELNET HTTPS POP3 DHCP 表示层 数据的表示、安全、压缩。(在五层模型里面已经合并到了应用层) 格式有,JPEG、ASCll、DECOIC、加密格式等 会话层 建立、管理、终止会话。(在五层模型里面已经合并到了应用层) 对应主机进程,指本地主机与远程主机正在进行的会话

NFS

折月煮酒 提交于 2020-03-25 17:37:03
NFS 。1.nfs简介 1.1nfs特点 1.2使用nfs的好处 1.3nfs的体系组成 1.4nfs的应用场景 。2.nfs工作机制 2.1RPC 2.2NIS 2.3nfs工作机制 。3.exports文件的格式 。4.nfs管理 1.nfs简介 1.1nfs特点 ●NFS (Network File System)即网络文件系统,是FreeBSD支持的文件系统中的一种,它允 许网络中的计算机之间通过TCP/P网络共享资源 ●在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就 像访问本地文件一样 ●nfs适用 于Linux与Unix之间实现文件共享,不能实现L inux与Windows间的文件共享功能 ●nfs是运行在应用层的协议,其监听于2049/tcp和2049/udp套接字上 ●nfs服务只能基于IP进行认证,这也是它的缺点之. - 1.2使用nfs的好处 ●节省本地存储空间,将常用的数据存放在一台NFS服务器上且可以通过网络访问,那么本地 终端将可以减少自身存储空间的使用 ●用户不需要在网络中的每个机器上都建有Home目录,Home目录可以放在NFS服务器上且可 以在网络上被访问使用 ●一些存储设备如软驱、CDROM和Zip (一种高储存密度的磁盘驱动器与磁盘)等都可以在网 络上被别的机器使用

nfs entry in /etc/fstab fails but manually mounting works

可紊 提交于 2020-03-23 08:23:16
问题 Client is Ubuntu Xenial, manually mounting works just fine: mount 10.0.0.12:/mnt/d1 /mnt/d1 I then copy that line from /etc/mtab to /etc/fstab: 10.0.0.12:/mnt/d1 /mnt/d1 nfs4 user,rw,relatime,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=10.0.0.23,local_lock=none,addr=10.0.0.12 0 0 umount /mnt/d1 and then mount it again using fstab: mount /mnt/d1 and it times out at that time. The nfs server is centos7 Updated firewalld: firewall

NFS,FTP

守給你的承諾、 提交于 2020-03-23 07:13:43
一. NFS 1. NFS简介 NFS全称是network file system NFS允许一个系统在网络上与他人共享目录和文件。通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件。 假如有三台机器A, B, C,它们需要访问同一个目录,目录中都是图片,传统的做法是把这些图片分别放到A, B, C. 但是使用NFS只需要放到A上,然后A共享给B和C即可。访问的时候,B和C是通过网络的方式去访问A上的那个目录的。 2. 安装、配置NFS服务 需要安装两个包(nfs-utils和rpcbind) yum install -y nfs-utils 会同时安装上rpcbind 提供nfs服务的机器上 vim /etc/exports //内容如下: /home/ 192.168.137.0/24(rw,sync,all_squash,anonuid=501,anongid=501) 共分为三部分,第一部分就是本地要共享出去的目录,第二部分为允许访问的主机(可以是一个IP也可以是一个IP段)第三部分就是小括号里面的,为一些权限选项。它表示:共享的目录为/home,信任的主机为192.168.137.0/24这个网段,权限为读写,同步,限定所有使用者,并且限定的uid和gid都为501。 启动 /etc/init.d/rpcbind start; /etc/init.d

NFS性能优化

南楼画角 提交于 2020-03-23 07:10:03
参考: http://www.techrepublic.com/blog/linux-and-open-source/tuning-nfs-for-better-performance/ 1.服务器端查看是否有瓶颈 # nfsstat -rc Client rpc stats: calls retrans authrefrsh 3409166 330 0 retrans过高,说明NFS线程数不足,一般安装缺省设置为8个. centos 下/etc/rc.d/init.d/nfs # Number of servers to be started by default [ -z "$RPCNFSDCOUNT" ] && RPCNFSDCOUNT=8 修改后需要重启NFS 2.客户端mount优化 缺省为8KB,,增加到32KB block size rsize=32768,wsize=32768,intr,noatime noatime 这个参数来禁止记录最近一次访问时间戳 linux在每次文件被访问的时候会记录访问时间,查看方法 ls –lu 来源: https://www.cnblogs.com/jjkv3/p/3869599.html

Kubernetes系列之基于NFS的PV动态供给(StorageClass)

被刻印的时光 ゝ 提交于 2020-03-22 23:28:41
一、简介 PersistentVolume(PV)是指由集群管理员配置提供的某存储系统上的段存储空间,它是对底层共享存储的抽象,将共享存储作为种可由用户申请使的资源,实现了“存储消费”机制。通过存储插件机制,PV支持使用多种网络存储系统或云端存储等多种后端存储系统,例如,NFS、RBD和Cinder等。PV是集群级别的资源,不属于任何名称空间,用户对PV资源的使需要通过PersistentVolumeClaim(PVC)提出的使申请(或称为声明)来完成绑定,是PV资源的消费者,它向PV申请特定大小的空间及访问模式(如rw或ro),从创建出PVC存储卷,后再由Pod资源通过PersistentVolumeClaim存储卷关联使,如下图: 尽管PVC使得用户可以以抽象的方式访问存储资源,但很多时候还是会涉及PV的不少属性,例如,由于不同场景时设置的性能参数等。为此,集群管理员不得不通过多种方式提供多种不同的PV以满不同用户不同的使用需求,两者衔接上的偏差必然会导致用户的需求无法全部及时有效地得到满足。Kubernetes从1.4版起引入了一个新的资源对象StorageClass,可用于将存储资源定义为具有显著特性的类(Class)而不是具体的PV,例如“fast”“slow”或“glod”“silver”“bronze”等。用户通过PVC直接向意向的类别发出申请

运维工程师职业技能发展路线框架

你。 提交于 2020-03-20 12:38:47
运维框架 目录 运维框架 1 1. 基础知识 5 1.1 系统原理 5 1.2 命令基础 6 1.3 网络基础 6 1.4 排错基础 6 1.5 优化基础 6 1.6 安全基础 6 1.7 原理基础 6 2. WEB 管理 7 2.1 Nginx 7 2.1.1 部署 7 2.1.2 优化 7 2.1.3 备份 7 2.1.4 恢复 7 2.2 Httpd 7 2.3 Tomcat 7 2.4 IIS 7 3. 数据库 7 3.1 MySQL 7 3.1.1 部署 7 3.1.2 优化 7 3.1.3 备份 7 3.1.4 恢复 7 3.2 Oracle 8 3.3 MongoDB 8 3.4 Redis 8 3.5 Memcached 8 4. 消息队列 8 4.1 ActiveMQ 8 4.2 RabbitMQ 8 4.2.1 部署环境 8 4.2.2 版本依赖 8 4.2.3 安装包下载地址 8 4.2.4 安装步骤 8 4.2.5 常用命令 9 5. 监控 11 5.1 Zabbix 11 5.2 Prometheus 11 5.3 Cacti 11 5.4 Nagios 11 6. CI/CD 12 6.1 Jenkins 12 7. 日志管理 12 7.1 ELK 12 8. 高可用 / 集群 12 8.1 Lvs 12 8.2 Keepalived 12 8.3

NFS 优化

我只是一个虾纸丫 提交于 2020-03-19 21:03:00
1. NFS I/O性能测试工具 1.1 dd dd 只能测试连续读写性能 dd 测试写性能的命令(连续写16384个16KB的块到nfs目录下的testfile文件) # time dd if=/dev/zero of=/nfsfolder/testfile bs=16k count=16384 dd 测试读性能的命令 # time dd if=/nfsfolder/testfile of=/dev/null bs=16k 1.2 nfsstat 在NFS客户端运行 nfsstat -4 --all (对于NFSv4) Client packet stats: packets udp tcp tcpconn 0 0 0 0 Client rpc stats: calls retrans authrefrsh 24932703 9 0 Client nfs v4: null read write commit open open_conf 0 0% 19359418 77% 513478 2% 513295 2% 1880475 7% 9 0% open_noat open_dgrd close setattr fsinfo renew 0 0% 0 0% 1209733 4% 0 0% 4 0% 0 0% setclntid confirm lock lockt locku

Proxmox 使用nfs备份及存储iso

非 Y 不嫁゛ 提交于 2020-03-18 13:42:43
作者:田逸(sery@163.com) 使用nfs的目的 Proxmox集群中,如果将ISO文件存储于本地,只能供本节点存取,要用于集群的其它节点进行安装,将无法如愿。 现已经在物理节点pve48的本地存储上传了可以使用的ISO镜像,接下来,试着创建虚拟机,用此ISO镜像来安装虚拟机操作系统。 此虚拟机创建在集群中另外一个物理节点pve50上,随便给其命名进行测试。 这样有些麻烦,如果要在每个节点给虚拟机安装操作系统,按常规的方式,每个物理节点,都得上传好所需的操作系统ISO镜像,既费时又浪费宝贵的存储资源。 那么,有没有好的解决方案呢?有的,nfs就是很好的工具。外挂nfs服务,即解决了容量扩展问题,又能让所有的虚拟机都可以共享读取。可能会有人质疑,这nfs可用性差,而超融合可行性确实极高,何必多此一举呢? 我们用nfs来存储ISO镜像以及定时备份虚拟机,并不需要很高的可用性。因此,作为超融合高可用私有云的辅助手段,是非常经济和适用的。因为独立的物理nfs作为私有云集群的补充,并不需要较高的配置,只要磁盘容量足够大就行(不像集群计算节点,需要性能极佳的磁盘)。 挂接NFS服务 Proxmox web管理界面,在“数据中心”之下,选中“存储”,点击“添加按钮”。 只要nfs服务器权限设置正常,在管理界面输入nfs服务器的ip地址之后,可自动探测到设定的共享目录(实际是调用系统指令

NFS client under WSL - mount.nfs: No such device

烈酒焚心 提交于 2020-03-18 10:54:07
问题 I am getting the following error trying to mount a nfs export. sudo mount 192.168.1.175:/mnt/nas /mnt/c/nas mount.nfs: No such device Any ideas on how to fix this? 回答1: The error indicates the nfs kernel modules are not loaded correctly and also verify the exported path "/mnt/nas" exists on sever "192.168.1.175" or not. 来源: https://stackoverflow.com/questions/43952569/nfs-client-under-wsl-mount-nfs-no-such-device