spec

Python绘制语谱图(修改版)

痞子三分冷 提交于 2019-11-26 12:25:23
1 """Python绘制语谱图""" 2 3 # 导入相应的包 4 import matplotlib.pyplot as plt 5 import matplotlib.mlab as mlab 6 import numpy as np 7 import wave 8 import os 9 10 11 filepath = 'E:/普米/2/' # 添加路径 12 for root, dirs, files in os.walk(filepath): 13 for i in range(len(files)): 14 label = np.array(int(files[i].split('-')[0][3:])) 15 Time = np.array(int(files[i].split('-')[1][:1])) 16 17 f = wave.open(root + "/" + files[i], 'rb') # 调用wave模块中的open函数,打开语音文件。 18 params = f.getparams() # 得到语音参数 19 nchannels, sampwidth, framerate, nframes = params[:4] # nchannels:音频通道数,sampwidth:每个音频样本的字节数,framerate:采样率,nframes

k8s之statefulset控制器

守給你的承諾、 提交于 2019-11-26 09:17:23
operator: statefulset: 有状态副本集 特点 运行在 : 1, 稳定且唯一的网络标识符 2,稳定且持久的存储 3,有序,平滑地部署和扩展 4,有序,平滑地删除和终止 5,有序的滚动更新 三个组件 :headless service( 无头服务 ), statefuleset,volumeClaimTemplate( 存储卷申请模板 ) 先准备 pv apiVersion: v1 kind: PersistentVolume metadata: name: pv001 labels: name: pv001 polity: fast spec: nfs: path: /data/volumes/v1 server: node2 accessModes: ["ReadWriteMany","ReadWriteOnce"] capacity: storage: 5Gi --- apiVersion: v1 kind: PersistentVolume metadata: name: pv002 labels: name: pv002 polity: fast spec: nfs: path: /data/volumes/v2 server: node2 accessModes: ["ReadWriteOnce"] capacity: storage: 5Gi ---

有关于FIH测试使用工具的集合

こ雲淡風輕ζ 提交于 2019-11-26 09:10:52
1.pvcs tracker 2.Nokia pc sync 3.Nokia pc suit 4.Nokia care suit 5.FIH pc-suit testing program_v31.exe 6.Nokia developer Tools 7.Qpst Qxdm 8.Bt dongle 9.SecureCRT auto testing base AT command 10.8960 testing tools all above, it is for sahara project . [Nokia spec and some standard spec] 转载于:https://www.cnblogs.com/jason0085/archive/2009/04/17/1438317.html 来源: https://blog.csdn.net/weixin_30585437/article/details/98774898

k8s实践(四):Controller

和自甴很熟 提交于 2019-11-26 06:12:21
环境说明: 主机名 操作系统版本 ip docker version kubelet version 配置 备注 master Centos 7.6.1810 172.27.9.131 Docker 18.09.6 V1.14.2 2C2G 备注 node01 Centos 7.6.1810 172.27.9.135 Docker 18.09.6 V1.14.2 2C2G 备注 node02 Centos 7.6.1810 172.27.9.136 Docker 18.09.6 V1.14.2 2C2G 备注 k8s集群部署详见: Centos7.6部署k8s(v1.14.2)集群 k8s学习资料详见: 基本概念、kubectl命令和资料分享 一、Kubernetes核心组件 1. 核心组件概述 Kubernetes主要由以下几个核心组件组成: etcd 保存了整个集群的状态; apiserver 提供了资源操作的唯一入口,并提供认证、授权、访问控制、API 注册和发现等机制; controller manager 负责维护集群的状态,比如故障检测、自动扩展、滚动更新等; scheduler 负责资源的调度,按照预定的调度策略将 Pod 调度到相应的机器上; kubelet 负责维护容器的生命周期,同时也负责 Volume(CVI)和网络(CNI)的管理; Container

Istio 服务部署

耗尽温柔 提交于 2019-11-25 23:42:52
此篇博文istio相关介绍和测试用例来源于网络,这里结合自己配置加以整理。 istio 介绍 官方中文参考文档 官方英文参考文档 服务网格(Service Mesh)这个术语通常用于描述构成这些应用程序的微服务网络以及应用之间的交互。随着规模和复杂性的增长,服务网格越来越难以理解和管理。它的需求包括服务发现、负载均衡、故障恢复、指标收集和监控以及通常更加复杂的运维需求,例如 A/B 测试、金丝雀发布、限流、访问控制和端到端认证等。 Istio 提供了一个完整的解决方案,通过为整个服务网格提供行为洞察和操作控制来满足微服务应用程序的多样化需求。 使用istio的目标 Istio 提供一种简单的方式来为已部署的服务建立网络,该网络具有负载均衡、服务间认证、监控等功能,只需要对服务的代码进行一点或不需要做任何改动。想要让服务支持 Istio,只需要在您的环境中部署一个特殊的 sidecar 代理,使用 Istio 控制平面功能配置和管理代理,拦截微服务之间的所有网络通信: HTTP、gRPC、WebSocket 和 TCP 流量的自动负载均衡。 通过丰富的路由规则、重试、故障转移和故障注入,可以对流量行为进行细粒度控制。 可插入的策略层和配置 API,支持访问控制、速率限制和配额。 对出入集群入口和出口中所有流量的自动度量指标、日志记录和跟踪。 通过强大的基于身份的验证和授权

kubernetes 存储卷与数据持久化

为君一笑 提交于 2019-11-25 20:31:06
一 总述 1 存储卷概念 POD 自身具有生命周期,因此其内部运行的容器及相关数据无法完成持久化,docker支持配置容器使用存储卷将数据持久存储于自身文件系统之外的存储系统,其可以是节点文件系统或网络文件系统。相应的Kubernetes 提供的存储卷属于POD资源级别,共享与POD内的所有容器,可用于在勇气的文件系统之外存储应用程序的相关数据,甚至还可独立于POD生命周期之外实现数据持久化 存储卷: 定义在POD资源之上,可被其内部的所有容器挂载的共享目录,它关联至某外部的存储设备之上的存储空间,从而独立于容器自身的文件系统,而数据是否具有持久能力则取决于存储卷自身能否支持持久化 2 存储卷类型 1 节点级别的存储卷 empty: 其生命周期和POD资源相同 hostPath:其虽然可实现持久化存储,但若POD被调度至其他节点,则该节点的存储资源需要被迁移到指定节点,否则将无法持久化 2 网络级别存储卷 NFS ceph GlusterFS ... 其可实现数据的持久化存储 3 特殊存储卷 secret: 用于向POD传递某些敏感信息,如密码、私钥、证书等。 configmap:用于向POD中注入非敏感数据,如配置文件,其可实现容器配置文件集中化定义和管理 3 存储卷使用方式 1 直接在POD中进行指定和配置 POD中定义的存储有两部分组成: 1 pods.spec

K8S与Ceph RBD集成-多主与主从数据库示例

孤街浪徒 提交于 2019-11-25 20:21:09
参考文章: https://ieevee.com/tech/2018/05/16/k8s-rbd.html https://zhangchenchen.github.io/2017/11/17/kubernetes-integrate-with-ceph/ https://docs.openshift.com/container-platform/3.5/install_config/storage_examples/ceph_rbd_dynamic_example.html https://jimmysong.io/kubernetes-handbook/practice/using-ceph-for-persistent-storage.html 感谢以上作者提供的技术参考,这里我加以整理,分别实现了多主数据库集群和主从数据库结合Ceph RDB的实现方式。以下配置只为测试使用,不能做为生产配置。 K8S中存储的分类 在K8S的持久化存储中主要有以下几种分类: volume: 就是直接挂载在pod上的组件,k8s中所有的其他存储组件都是通过volume来跟pod直接联系的。volume有个type属性,type决定了挂载的存储是什么,常见的比如:emptyDir,hostPath,nfs,rbd,以及下文要说的persistentVolumeClaim等

使用nfs在k8s集群中实现持久化存储

倖福魔咒の 提交于 2019-11-25 20:18:15
准备NFS服务192.168.1.244 $ yum -y install nfs-utils rpcbind $ systemctl start nfs-server rpcbind $ systemctl enable nfs-server rpcbind $ mkdir -p /data/k8s $ cd /data/k8s $ echo 11111111 > index.html $ vim /etc/exports /data/k8s *(rw,async,no_root_squash) $ systemctl restart nfs-server $ exportfs -arv 客户端测试,所有k8s节点都要安装nfs客户端 $ yum -y install nfs-utils rpcbind $ systemctl start nfs rpcbind $ systemctl enable nfs rpcbind $ showmount -e 192.168.1.244 创建pod直接挂载nfs服务器 apiVersion: v1 kind: Pod metadata: labels: run: nginx name: podxx spec: volumes: - name: nfs nfs: server: 192.168.1.244 path: /data/k8s