tmp

01-学习vue前的准备工作

别说谁变了你拦得住时间么 提交于 2019-12-04 18:11:15
es6语法:let和const es6新增了let命令,用来声明变量。它的用法类似于var,但是所声明的变量,只在let命令所在的代码块内有效 <!DOCYTPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport content=width=device-width,initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" content="ie=edge"> <title>Document</title> </head> <body> <script type="text/javascript"> //var 声明的是全局作用域 //let 声明的变量是块级作用域 { let a =12 } alert(a) console.log(a) </script> </body> </html> 上面代码在代码块之中,分别用 let 和 var 声明了两个变量。然后在代码块之外调用这两个变量,结果 let 声明的变量报错, var 声明的变量返回了正确的值。这表明, let 声明的变量只在它所在的代码块有效。 2 .for循环相信大家都玩过。下面这种现象扭曲了我们块级作用域的思想!如果将var改成let就可以了! <!DOCYTPE

nfs服务器配置和autofs自动挂载

此生再无相见时 提交于 2019-12-04 18:03:13
NFS 服务端:xuegod63.cn IP:192.168.1.63 NFS 客户端:xuegod64.cn IP:192.168.1.64 NFS服务端概述: NFS ,是Network File System的简写,即 网络文件系统 。网络文件系统是FreeBSD支持的文件系统中的一种,也被称为NFS. NFS允许一个系统在网络上与他人共享目录和文件。通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件。 模式: C/S 模式 端口: RHEL6 是以 NFSv4 作为默认版本, NFSv4 使用TCP协议(端口号是2049)和NFS服务器建立连接 安装nfs 1 、安装NFS软件包 [root@xue63 ~]#rpm -vih /mnt/Packages/nfs-utils-1.2.3-15.el6.x86_64.rpm yum -y install nfs-utils 安装客户端: 命令:mount showmount 配置文件位置: [root@xue63 ~]# ls /etc/exports 启动NFS服务 先查看2049端口是否开放: [root@xue63 ~]#netstat -anutp | grep 2049 [root@xue63 ~]# service nfs start Startingntpd: [ OK ] [root

oracle rac 常见安装、管理错误

穿精又带淫゛_ 提交于 2019-12-04 17:36:28
常见安装、管理错误   1. 安装CRS失败,或执行root.sh报错,可能原因:   (1) 节点间的时间不同步,解决方法:使用ntp服务   (2) Linux下启用了默认的防火墙,导致执行root.sh报错:   Failure at final check of Oracle CRS stack.   10   解决方法:禁用iptables ,注释/etc/pam.d/other ;   # service iptables stop; # chkconfig iptables off.   (3) 裸设备的权限问题,可能因为 操作系统 重新启动后权限发生变化。(RHEL4)   解决方法: 把 chown oracle:dba /dev/raw/raw* 命令加入到/etc/rc.local中,每次开机自动执行   或者修改文件/etc/udev/permissions.d/50-udev.permissions   第113行raw/*:root:disk:0660 改成 raw/*:oracle:dba:0660   (4) Solaris使用了包括cylinder 0的磁盘分区来 存储 OCR或者vote disk。   解决办法:相关分区不应该包括cylinder 0,可以从1开始。   (5) 使用的公网IP地址不可路由,   解决方法:添加相关 网关   

tempfile:临时文件系统对象

ぐ巨炮叔叔 提交于 2019-12-04 16:37:01
介绍 想要安全的创建名字唯一的临时文件,以防止被试图破坏应用或窃取数据的人猜出,这很有难度。tempfile模块提供了多个函数来安全创建临时文件系统资源。TemporaryFile函数打开并返回一个未命名的文件,NamedTemporaryFile打开并返回命名文件,SpooledTemporaryFile在将文件写入磁盘之前会先将其保存在内存中,TemporaryDirectory是一个上下文管理器,上下文关闭时会删除这个目录,我们下面来一一介绍 临时文件 import tempfile ''' 如果应用需要临时文件来存储数据,而不需要与其他程序共享这些文件,则应当使用TemporaryFile函数来创建文件。 这个函数会创建一个文件,而且如果平台支持,它会立即断开这个新文件的链接。 这样一来,其他程序就不可能找到或者打开这个文件,因为文件系统表中根本没有这个文件的引用。 对于TemporaryFile函数创建的文件,不论通过调用close函数,还是结合使用上下文管理器API、with语句,关闭文件时都会自动删除这个临时文件 ''' # mode:默认是w+b,二进制形式。这里使用w+,可读可写 with tempfile.TemporaryFile(mode="w+", encoding="utf-8") as tmp: print(tmp) # <tempfile.

JS中判断null、undefined与NaN的方法

假装没事ソ 提交于 2019-12-04 15:22:37
1.判断undefined: var tmp = undefined; if ( typeof (tmp) == "undefined" ){ console.log( "undefined" ); } 说明:typeof 返回的是字符串,有六种可能:"number"、"string"、"boolean"、"object"、"function"、"undefined" 2.判断null: var tmp = null ; if (!tmp && typeof (tmp)!= "undefined" && tmp!=0){ console.log( "null" ); } 3.判断NaN: var tmp = 0/0; if (isNaN(tmp)){ console.log( "NaN" ); } 说明:如果把 NaN 与任何值(包括其自身)相比得到的结果均是 false,所以要判断某个值是否是 NaN,不能使用 == 或 === 运算符。 提示:isNaN() 函数通常用于检测 parseFloat() 和 parseInt() 的结果,以判断它们表示的是否是合法的数字。当然也可以用 isNaN() 函数来检测算数错误,比如用 0 作除数的情况。 4.判断undefined和null的关系: var tmp = undefined; if (tmp == undefined) {

分批次删除大表数据

試著忘記壹切 提交于 2019-12-04 13:44:14
#!/bin/bash OK="2019-05-31" tmp="" dt=`date -d "-${i} day" '+%Y-%m-%d %H:%M:%S'` for i in {793..168} do dt=`date -d "-${i} day" '+%Y-%m-%d %H:%M:%S'` tmp=${dt:0:10} echo $tmp if [ ${tmp} == ${OK} ];then exit 0 fi dt=\'${dt}\' echo ${dt} #mysql -hXXX table_name -P3306 -e "select count(*) from event where id < ${dt};" mysql -hXXX table_name -P3306 -e "delete from event where id < ${dt};" sleep 5 done # 这里一天一天地删除数据,但是需要注意,这里是根据date命令推算出来需要删除数据的时间段,需要根据自己的具体情况而定循环的开始与结束时间 来源: https://www.cnblogs.com/igoodful/p/11868843.html

DFS判断图是否有环

前提是你 提交于 2019-12-04 12:17:49
  利用_DFS_来判断无向图是否存在环的条件思路,我看一次_DFS_是否能访问到之前访问到的节点,如果能够访问到,就说明图存在环,那么 关键问题就是判断是一次DFS? ,追根到_DFS_算法的实现细节,发现我们设置_visited_数组时只有设置0和1两个状态,那么就可以改进以下之前的_DFS_算法,将_visited_各个状态表示成如下状态: 0 : 没有被访问过 1 : 刚刚访问,但是邻接点没有被全部访问完 2 : 所有的邻接点都被访问完了,这里就可以判定_DFS_一定退出了   关键问题就解决了,看下面的简易的测试代码,同时也运用到了并查集的数据结构: #include<iostream> #include<stdlib.h> #define maxsize 100 #define INF 0x3f3f3f3f using namespace std; int g[maxsize][maxsize]; int vexnum, arcnum; int visited[maxsize], father[maxsize]; int flag = 0; void InitGraph(){ cout << "输入顶点数和边数: "; cin >> vexnum >> arcnum; for(int i = 0; i < vexnum; i++){ /

Spark入门01

一曲冷凌霜 提交于 2019-12-04 11:53:05
一, Spark概述 spark框架地址 1、官网: http://spark.apache.org/ 2、源码托管: https://github.com/apache/spark 3、母公司网站: https://databricks.com/ 官方博客:https://databricks.com/blog/、https://databricks.com/blog/category/engineering/spark 1,官方定义 http://spark.apache.org/docs/2.2.0/ Spark框架,类似于MapReduce框架,针对大规模数据分析框架。 2,大数据分析类型 离线处理:处理分析的数据是静态不变的,类似MapReduce和Hive框架等 交互式分析:即席查询,类似于impala 实时分析:针对流式数据实时处理,展示结果等 3,Spark框架介绍 在磁盘上对100TB的数据进行排序,可以看到Spark比hadoop快的多,效率高。 为什么Spark框架如此快? 数据结构 RDD:弹性分布式数据集,Spark将要处理的数据封装到集合RDD中,调用RDD中函数处理数据。 RDD数据可以放到内存中,内存不足可以放到磁盘中。 Task任务运行方式不一样 MapReduce应用运行:MapTask和ReduceTask都是JVM进程。启动一个jvm进程很慢

单链表

血红的双手。 提交于 2019-12-04 11:52:13
链表 * 链表由节点组成,节点是由next域连接起来的,每个节点=data+next, * 同时链表在内存中是不连续的。 * 特点: * 1)访问某个特定的节点,从头开始去找 * 2)删除、添加某一个特定的节点到某一个位置,只需要找到前一个节点,即可直接添加/删除 * 3)链表是一种内存上不连续的数据结构 class SingleLinekdListTakeHead<E> { protected Node<E> head;//头节点 class Node<E> { protected E data;//数据域 protected Node<E> next;//next引用域 public Node(E data, Node<E> next) { this.data = data; this.next = next; } } //初始化head public SingleLinekdListTakeHead() { head = new Node(new Object(), null); } //在head之后直接插入一个节点,头插法 public void addHead(E element) { Node<E> newNode = new Node(element, null); newNode.next = head.next;/

php session获取不到的解决方法

邮差的信 提交于 2019-12-04 10:53:56
php session获取不到的解决方法 因为sesson数据是存在服务器端的硬盘 一般临时空间不足 /tmp/ 1 这个需要清空下系统盘就可以了 2 你可以在空间充足的地方mkdir 文件夹——你可以使用的文件夹,例如:mkdir /home/username/tmp 为了是设置生效,需要设置环境变量,只要export TMPDIR=/home/username/tmp,编辑完成记得source ~/.bashrc 这样就不会出现 tmp文件夹不够用的情况。 来源: https://www.cnblogs.com/newmiracle/p/11856315.html