tmp

使用mysql的source批量导入多个sql文件

痞子三分冷 提交于 2019-12-04 00:31:26
需求: 有一个文件,文件里面包含100多个sql文件,想要把这些sql文件都导入到mysql中 做法: 使用 mysql 的 source 可以将文件导入到 mysql 中,但是一次只能导入一个 sql 文件,我有100多个sql。。。 用传统的方式肯定不行,这里可以参考下 Nginx 配置文件,在 Nginx 中,可以使用“include”将一些域名配置文件统一到一个.conf文件中集中管理,那么 mysql 是否也可以这样呢?答案是肯定的 首先,进入到你的sql文件列表里面 vim shell.sh 输入下面的内容 #!/bin/bash dir=`ls ~/tmp/` #定义遍历的目录,这个是你sql的存放路径echo "" > all.sql #创建一个总的sql文件,注意别跟你现有的重名即可! for i in $dir do echo "source ~/tmp/$i;" >> all.sql done 保存后执行 # sh shell.sh 然后我们查看下all.sql文件 # cat all.sql source ~/tmp/a.sql; source ~/tmp/b.sql; ... ... ... 然后我们登录到mysql中,用source导入sql mysql > source ~/tmp/all.sql; 批量导入sql over 来源: https:/

sed 面试题

蹲街弑〆低调 提交于 2019-12-03 21:12:00
#oldboy my qq num is 49000448.$ not 4900000448. my god ,i am not oldbey,but clsn!$ #oldboy my name is oldboy.$ not oldman. my god ,i am not oldbey,but clsn!$ i like linux 1:Unix中在当前目录下所有.cc 的文件中找到含有“asiainfo”内容的文件,命令为 2:在/tmp/file.txt文件中不以#开头的行的行首增加#号 [root@web01 shell]# sed -n '/^[ a-Z]/p' /tmp/file.txt | sed 's/^/#/g' 3:用命令行更改/tmp/file.txt文件,把里面所有的“name”更改为“address” [root@web01 shell]# sed 's/name/address/g' /tmp/file.txt 4:利用sed命令将/tmp/file.txt中所有的回车替换成空格? [root@web01 shell]# cat -A /tmp/file.txt | sed 's/^\$//g' 5:为/tmp/file.txt文件中前2行的行首加#号 [root@web01 shell]# sed -n '1,2p' /tmp/file.txt

使用 supervisor 管理进程遇到的问题

ぐ巨炮叔叔 提交于 2019-12-03 18:12:03
# supervisorctl status unix:///var/tmp/supervisor.sock refused connection # supervisord -c /etc/supervisord.conf Error: could not find config file /etc/supervisor/supervisord.conf For help, use /usr/bin/supervisord -h # whereis supervisord.conf supervisord: /usr/bin/supervisord /etc/supervisord.conf /etc/supervisord # supervisord -c /etc/supervisord.conf Unlinking stale socket /var/tmp/supervisor.sock # unlink /tmp/supervisor.sock unlink: cannot unlink `/tmp/supervisor.sock’: No such file or directory # unlink /var/tmp/supervisor.sock # supervisorctl status unix:///var/tmp/supervisor.sock no

解决unix:///tmp/supervisor.sock no such file的问题

自古美人都是妖i 提交于 2019-12-03 18:11:29
1、打开配置文件 vim /etc/supervisord.conf 这里把所有的/tmp路径改掉,/tmp/supervisor.sock 改成 /var/run/supervisor.sock,/tmp/supervisord.log 改成 /var/log/supervisor.log,/tmp/supervisord.pid 改成 /var/run/supervisor.pid 要不容易被linux自动清掉 2、修改权限 sudo chmod 777 /run sudo chmod 777 /var/log 如果没改,启动报错 IOError: [Errno 13] Permission denied: '/var/log/supervisord.log' 3、创建supervisor.sock sudo touch /var/run/supervisor.sock sudo chmod 777 /var/run/supervisor.sock 4、启动supervisord,注意stop之前的实例或杀死进程 supervisord 来源: CSDN 作者: Horizon_LGMH 链接: https://blog.csdn.net/qq_28885149/article/details/79364685

ghostscript之pdf处理

女生的网名这么多〃 提交于 2019-12-03 14:51:11
ghostscript安装:   yum install ghostscript 使用: #把tmp目录下的a.pdf压缩成b.pdf gs -sDEVICE=pdfwrite -dPDFSETTINGS=/screen -dNOPAUSE -dBATCH -dQUIET -sOutputFile=/tmp/b.pdf /tmp/a.pdf # -r204x196 -g1728x2292 参数等同于 -sPAPERSIZE=a4 可不加默认 gs -q -r204x196 -g1728x2292 -sDEVICE=pdfwrite -dPDFSETTINGS=/screen -dNOPAUSE -dBATCH -dQUIET -sOutputFile=/tmp/b.pdf /tmp/a.pdf   #把pdf转化为图片 图片为a1.png a2.png a3.png .... gs -dQUIET -dNOSAFER -dBATCH -sDEVICE=pngalpha -dNOPAUSE -dNOPROMPT -sOutputFile=/tmp/a%d.png /tmp/a.pdf 参数说明: -sDEVICE=pdfwrite 表示输出格式为pdf -dPDFSETTINGS -dPDFSETTINGS=/screen质量较低,体积较小。 -dPDFSETTINGS=

线段树+矩阵快速幂 codeforces718C Sasha and Array

放肆的年华 提交于 2019-12-03 13:22:54
传送门: 点击打开链接 题意:操作1,区间[l,r]的数字+x 操作2,求sigma f(i),l<=i<=r,f是斐波那契数列。 答案取模1e9+7 首先斐波那契数列用矩阵快速幂求,谁都会的。 这里有一个矩阵乘法的性质,A*B+A*C=A*(B+C) 有了这个性质,这题就非常傻逼了。 在求斐波那契数列中,是A*F,A是变换矩阵,F是列矩阵 那么我们用线段树的懒惰标记维护A矩阵,然后用sum维护F矩阵 之后在线段树上,就变成了区间更新乘以x。 就是一个很简单的手速题了。 #include <map> #include <set> #include <cmath> #include <ctime> #include <stack> #include <queue> #include <cstdio> #include <cctype> #include <bitset> #include <string> #include <vector> #include <cstring> #include <iostream> #include <algorithm> #include <functional> #define fuck(x) cout<<"["<<x<<"]"; #define FIN freopen("input.txt","r",stdin); #define FOUT

Why are RackMultipart* files persisting in my Rails /tmp directory?

江枫思渺然 提交于 2019-12-03 12:05:56
问题 I'm using Paperclip (2.3) to handle image uploads on a Rails 3.0.3 app running on Ubuntu. Paperclip is handling the uploads as advertised BUT the RackMultipart* files that are created in the application's /tmp folder persist -- that is, they simply accumulate rather than deleting themselves. I realize that I could use tmpreaper to delete old tmpfiles but I'd really like to find a more elegant (and scalable) solution. I had a previous issue with temp files (i.e. RackMultipart* files)

Php has its own /tmp in /tmp/systemd-private-nABCDE/tmp when accessed through nginx

◇◆丶佛笑我妖孽 提交于 2019-12-03 11:03:44
问题 I found strange behaviour concerning php and /tmp folder. Php uses another folder when it works with /tmp . Php 5.6.7, nginx, php-fpm. I execute the same script in two ways: via browser and via shell. But when it is launched via browser, file is not in real /tmp folder: <?php $name = date("His"); echo "File /tmp/$name.txt\n"; shell_exec('echo "123" > /tmp/'.$name.'.txt'); var_dump(file_exists('/tmp/'.$name.'.txt')); var_dump(shell_exec('cat /etc/*release | tail -n 1')); php -f script.php File

windoes运行spark程序,报错:Error while instantiating 'org.apache.spark.sql.hive.HiveExternalCatalog'(转载)

房东的猫 提交于 2019-12-03 10:47:15
本文将介绍spark在windows下本地模式的搭建 Spark的运行模式基本可以分为两种: 本地模式 即Driver程序只在本机运行 集群模式 即Dirver程序会在集群中运行,具体到集群模式,又可以分为spark集群、MESOS、YARN等。 作为初学者入坑,自然是本地模式调通最方便。Spark在Mac、Linux下的安装步骤不必说,基本没有额外的问题,但windows下的安装还是要注意一下的。 基本步骤: 1.到spark官网 https://spark.apache.org/downloads.html 下载with hadoop版本的 这里要注意的是,下载with hadoop版本的,即本地不需要再进行hadoop集群的安装部署。 image.png 下载后解压,到bin目录下执行spark-shell.cmd,此时会报 java.lang.IllegalArgumentException: Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState': ........ Caused by: java.lang.reflect.InvocationTargetException: java.lang.IllegalArgumentException: Error while

归并排序 - 递归非递归实现java

瘦欲@ 提交于 2019-12-03 09:33:21
1.归并排序思想: 以2路归并为例,一个有n个记录的序列可以看作n个长度为1的有序子序列,将其两两合并成n/2(向上取整)个长度为2或1的有序序列,当有奇数个记录时为1,重复归并,直到得到一个长度为n的有序序列。 2.归并排序的复杂度: 递归:时间复杂度O( nlongn ),空间复杂度O( n+longn ) 非递归:时间复杂度O( nlongn ),空间复杂度O( n ) 所以用到归并排序,还是优先考虑非递归吧。 3.递归实现 1 public void mergeSort1(int[] data){ 2 msort(data,0,data.length-1); 3 } 4 5 public void msort(int[] data, int start, int end){ 6 if(start < end){ 7 int mid = (start + end) >>> 1; 8 msort(data,start,mid); 9 msort(data,mid+1,end); //当mid+1 == end时,子序列长度为1,退出msort,进入merge()排序 10 merge(data,start,mid,end); 11 } 12 } 13 14 public void merge(int[] data, int start, int mid, int end){