spec

制作RPM包

匿名 (未验证) 提交于 2019-12-03 00:39:02
RPM包制作过程 1.1 前期工作 1)创建打包用的目录rpmbuild/{BUILD,SPECS,RPMS, SOURCES,SRPMS} 建议使用普通用户,在用户家目录中创建 2)确定好制作的对象,是源码包编译打包还只是一些库文件打包 3)编写SPEC文件 4)开始制作 1.2 RPM制作过程 1)读取并解析 filename.spec 文件 2)运行 %prep 部分来将源代码解包到一个临时目录,并应用所有的补丁程序。 3)运行 %build 部分来编译代码。 4)运行 %install 部分将代码安装到构建机器的目录中。 5)读取 %files 部分的文件列表,收集文件并创建二进制和源 RPM 文件。 6)运行 %clean 部分来除去临时构建目录。 补充说明: BUILD目录:制作车间,二进制tar.gz包的解压后存放的位置,并在此目录进行编译安装 SPECS目录:存放SPEC文件 RPMS目录:存放制作好的rpm包 SOURCES目录:存放源代码 SRPMS目录:存放编译好的二进制rpm包 BUILDROOT目录:此目录是在BUILD目录中执行完make install之后生成的目录,里面存放的是编译安装好的文件,他是./configure中―prefix指定path的根目录 1.3制作工具:rpmbuild 制作过程的几个状态 rpmbuild -bp 执行到

pytorch简单框架

匿名 (未验证) 提交于 2019-12-03 00:05:01
网络搭建: mynn.py: import torchfrom torch import nnclass mynn ( nn . Module ): def __init__ ( self ): super ( mynn , self ). __init__ () self . layer1 = nn . Sequential ( nn . Linear ( 3520 , 4096 ), nn . BatchNorm1d ( 4096 ), nn . ReLU ( True ) ) self . layer2 = nn . Sequential ( nn . Linear ( 4096 , 4096 ), nn . BatchNorm1d ( 4096 ), nn . ReLU ( True ) ) self . layer3 = nn . Sequential ( nn . Linear ( 4096 , 4096 ), nn . BatchNorm1d ( 4096 ), nn . ReLU ( True ) ) self . layer4 = nn . Sequential ( nn . Linear ( 4096 , 4096 ), nn . BatchNorm1d ( 4096 ), nn . ReLU ( True ) ) self . layer5 = nn .

9、kubernetes之statefulset控制器

匿名 (未验证) 提交于 2019-12-02 23:57:01
必要的三个组件:headless service、StatefulSet、volumeClaimTemplate 准备pv apiVersion : v1 kind : PersistentVolume metadata : name : pv001 labels : name : pv001 spec : nfs : path : /data/ volumes / v1 server : 192.168 . 100.1 accessModes : [ "ReadWriteOnce" ] capacity : storage : 5Gi --- apiVersion : v1 kind : PersistentVolume metadata : name : pv002 labels : name : pv002 spec : nfs : path : /data/ volumes / v2 server : 192.168 . 100.1 accessModes : [ "ReadWriteOnce" ] capacity : storage : 5Gi --- apiVersion : v1 kind : PersistentVolume metadata : name : pv003 labels : name : pv003 spec : nfs : path :

k8s-gitlab搭建

匿名 (未验证) 提交于 2019-12-02 23:55:01
Gitlab 官方提供了 Helm 的方式在 Kubernetes 集群中来快速安装,但是在使用的过程中发现 Helm 提供的 Chart 包中有很多其他额外的配置,所以我们这里使用自定义的方式来安装,也就是自己来定义一些资源清单文件。 Gitlab 主要涉及到3个应用:Redis、Postgresql、Gitlab 核心程序,实际上我们只要将这3个应用分别启动起来,然后加上对应的配置就可以很方便的安装 Gitlab 了,我们这里选择使用的镜像不是官方的,而是 Gitlab 容器化中使用非常多的一个第三方镜像: sameersbn/gitlab ,基本上和官方保持同步更新,地址: http://www.damagehead.com/docker-gitlab/ 如果我们已经有可使用的 Redis 或 Postgresql 服务的话,那么直接配置在 Gitlab 环境变量中即可,如果没有的话就单独部署。 首先部署需要的 Redis 服务,对应的资源清单文件如下:(gitlab-redis.yaml) apiVersion: apps/v1beta1 kind: Deployment metadata: name: redis namespace: kube-ops labels: name: redis spec: template: metadata: name: redis

JS数组分类方法

匿名 (未验证) 提交于 2019-12-02 23:52:01
var spec = [{     "id": 167,     "goods_id": 24,     "spec_id": 20,     "spec_value_id": 55,     "create_time": 1562495035,     "spec_value_pid": "颜色",     "spec_value": "红色"    }, {     "id": 168,     "goods_id": 24,     "spec_id": 20,     "spec_value_id": 56,     "create_time": 1562495035,     "spec_value_pid": "颜色",     "spec_value": "褐色"    }, {     "id": 169,     "goods_id": 24,     "spec_id": 25,     "spec_value_id": 57,     "create_time": 1562495035,     "spec_value_pid": "重量",     "spec_value": "400g"    }, {     "id": 170,     "goods_id": 24,     "spec_id": 25,     "spec_value_id": 58

k8s之pod控制器

匿名 (未验证) 提交于 2019-12-02 23:43:01
a.用户期望的pod副本数量; b.标签选择器,判断哪个pod归自己管理; c.pod资源模板,当现存的pod数量不足,会根据pod资源模板进行新建. cat rs-demo.yaml apiVersion: apps/v1 kind: ReplicaSet metadata: name: rs-myapp namespace: default spec: replicas: 2 selector: matchLabels: run: myapp release: canary template: metadata: name: whatever labels: run: myapp release: canary env: test spec: containers: - name: nginx-web image: ikubernetes/myapp:v1 ports: - name: http containerPort: 80 template:资源模板中定义的name其实不生效,pod运行起来之后,真正的名字是控制器名+随机字符串 kubectl create -f rs-demo.yaml kubectl get pods -o wide NAME READY STATUS RESTARTS AGE IP NODE rs-myapp-2hxc9 1/1 Running

Ingress使用示例

匿名 (未验证) 提交于 2019-12-02 23:38:02
Ingress概念介绍 Ingress反代到后端的web服务器 apiVersion: v1 kind: Service metadata: name: myapp namespace: default spec: selector: app: myapp release: canary ports: - name: http targetPort: 80 port: 80 --- apiVersion: apps/v1 kind: Deployment metadata: name: myapp-deploy namespace: default apiVersion: v1 kind: Service metadata: name: myapp namespace: default spec: selector: app: myapp release: canary ports: - name: http targetPort: 80 port: 80 --- apiVersion: apps/v1 kind: Deployment metadata: name: myapp-deploy namespace: default spec: replicas: 3 selector: matchLabels: app: myapp release: canary template

spring-data-solr

匿名 (未验证) 提交于 2019-12-02 23:05:13
  Spring Data SolrSolr SolrJ API <field name="item_goodsid" type="long" indexed="true" stored="true"/> <field name="item_title" type="text_ik" indexed="true" stored="true"/> <field name="item_price" type="double" indexed="true" stored="true"/> <field name="item_image" type="string" indexed="false" stored="true" /> <field name="item_category" type="string" indexed="true" stored="true" /> <field name="item_seller" type="text_ik" indexed="true" stored="true" /> <field name="item_brand" type="string" indexed="true" stored="true" /> <field name="item_keywords" type="text_ik" indexed="true" stored=

用实例理解k8s群集(干货)

孤人 提交于 2019-12-02 21:57:08
一些概念: 1、 pods是一组容器的集合,以pods为单位来管理,共享PID,网络IP和CUTS命名空间; 2、 容器共享存储卷;用yml文件来定义容器,是k8s里的最小单位。 3、本实验要先准备好一个master,至少一个node,搭建过程略(请看本博客其它发布)。 一、实例: 示例1,一般的pods: [root@master ~]# cat pod.yaml apiVersion: v1 kind: Pod metadata: name: nginx spec: containers: - name: nginx image: nginx ports: - containerPort: 80 kubectl create -f pod.yaml ##创建 kubectl delete pods nginx ##删除名为nginx的pods 示例2,带自定义存储的pods: [root@master ~]# cat vol.yaml apiVersion: v1 kind: Pod metadata: name: redis spec: containers: - name: redis image: redis volumeMounts: - name: redis-persistent-storage mountPath: /data/redis volumes: -