compress

Java 压缩/混淆 JavaScript 代码

限于喜欢 提交于 2020-08-11 13:29:16
基本上都是自己写的工具构建前端工程,压缩/混淆 JavaScript 代码的工具必不可少。我们是 Java 平台的,就是说用 Java 去压缩 JS,这样比较方便。虽然咱们可以外部调用 node 等专门的前端构建工具,但那样不省事,能在 Java 圈子里面搞定就行,我们不搞太复杂的。好~闲话不多说,先看看低配版的。 低配版 这个低配版就几个函数组成,没以前来其他第三方的包,故称为“低配版”。简单实用也可以,我也用了很久。 /** * This file is part of the Echo Web Application Framework (hereinafter "Echo"). * Copyright (C) 2002-2009 NextApp, Inc. * * Compresses a String containing JavaScript by removing comments and * whitespace. */ public class JavaScriptSimpleCompressor { private static final char LINE_FEED = '\n'; private static final char CARRIAGE_RETURN = '\r'; private static final char SPACE = ' ';

Linux命令总结大全,包含所有linux命令

女生的网名这么多〃 提交于 2020-08-11 06:03:58
此文档显示内容不全建议去CSDN进行阅读 Linux命令总结大全,包含所有linux命令 使用说明:此文档包含所有的Linux命令,只有你想不到的没有你看不到的,此文档共计10万余字,有8400多行,预计阅读时间差不多需要3个小时左右,所以要给大家说一说如何阅读此文档 为了方便大家阅读,我这里做了相关索引,建议使用搜索的方式阅读,如果您有大把时光去阅读的话您可以试着去 第二个方法就是找我要电子版文档 搜索的话直接使用浏览器的搜索方式就可以了,我这里使用谷歌浏览器进行演示 打开文档 打开谷歌的搜索,键入ctrl+f 右上角出现搜索框后,直接在搜索框中输入要查询的命令,但是查询结果有很多,如我直接输入ls 共计123个结果,如果要准确搜索您需要在命令前面加三个*号,注意后面不要加空格 这下只有6个结果了 文件传输 ***bye 说明 : 中断FTP连线并结束程序 语法 : bye 补充说明 : 在ftp模式下,输入bye即可中断目前的连线作业,并结束ftp的执行 ***ftp 说明 : 设置文件系统相关功能 语法 : ftp [-dignv][主机名称或IP地址] 补充说明 : FTP是ARPANet的标准文件传输协议,该网络就是现今Internet的前身 参数 : ​ -d 详细显示指令执行过程,便于排错或分析程序执行的情形。 ​ -i 关闭互动模式,不询问任何问题。 ​ -g

tar压缩解压缩命令详解

不羁的心 提交于 2020-08-11 02:34:46
tar命令详解 -c: 建立压缩档案 -x:解压 -t:查看内容 -r:向压缩归档文件末尾追加文件 -u:更新原压缩包中的文件 这五个是独立的命令,压缩解压都要用到其中一个,可以和别的命令连用但只能用其中一个。 下面的参数是根据需要在压缩或解压档案时可选的。 -z:有gzip属性的 -j:有bz2属性的 -Z:有compress属性的 -v:显示所有过程 -O:将文件解开到标准输出 参数-f是必须的 -f: 使用档案名字,切记,这个参数是最后一个参数,后面只能接档案名。 # tar -cf all.tar *.jpg 这条命令是将所有.jpg的文件打成一个名为all.tar的包。-c是表示产生新的包,-f指定包的文件名。 # tar -rf all.tar *.gif 这条命令是将所有.gif的文件增加到all.tar的包里面去。-r是表示增加文件的意思。 # tar -uf all.tar logo.gif 这条命令是更新原来tar包all.tar中logo.gif文件,-u是表示更新文件的意思。 # tar -tf all.tar 这条命令是列出all.tar包中所有文件,-t是列出文件的意思 # tar -xf all.tar 这条命令是解出all.tar包中所有文件,-x是解开的意思 查看 tar -tf aaa.tar.gz 在不解压的情况下查看压缩包的内容 压缩 tar

JAVA 实现将多目录多层级文件打成ZIP包后保留层级目录下载 ZIP压缩 下载

流过昼夜 提交于 2020-08-11 01:56:44
将文件夹保留目录打包为 ZIP 压缩包并下载 上周做了一个需求,要求将数据库保存的 html 界面取出后将服务器下的css和js文件一起打包压缩为ZIP文件,返回给前台;在数据库中保存的是html标签,查出后,我把这些内容写入css和js等其他文件所在目录的一个文件内,然后将这整个文件夹压缩打包下载,解决过程中遇到了下载出来后并没有保存层级目录,在查了好久方法后完成了如下版本,已经可以正常下载并保留层级目录。 话不多说,直接上代码,有不足的地方希望大哥们提出来一起探讨 1 // ZIP文件包压缩下载 2 @Override 3 public void downloadZip(String id,HttpServletResponse response) { 4 String zipPath = "你的路径" ; 5 File file = new File(zipPath,"index.html"); // 创建指定目录和文件名称的文件对象 6 BufferedWriter bw = null ; // 创建缓冲流 7 try { 8 // 校验文件目录是否存在,文件是否存在 9 chenkFile(file,zipPath); 10 // 这一步是我将指定内容从数据库写入文件 11 ModuleInfo moduleInfo = moduleDao.getByModId(id);

Linux递归压缩图片脚本

佐手、 提交于 2020-08-10 23:51:29
1 压缩图片 使用 ImageMagick 的 convert 命令进行压缩图片,一般只需要一个指定压缩质量的参数,比如: convert -quality 75 1.jpg 1_compress.jpg 可以支持压缩 jpg / png / jpeg 。 2 递归压缩 递归压缩使用 find 配合 grep 列出所有的图片,接着通过一个循环传递给 convert 进行压缩。 originalPic=`find $compressDir | grep -iE "*.jpg|*.png|*.jpeg"` for i in $originalPic do convert -quality $1 $i $i done 3 使用 sh compress.sh 75 # 默认递归压缩当前目录,备份在~/Desktop sh compress.sh 75 ~/Downloads # 压缩指定目录,会在后面加后缀_bak备份,比如这里备份在~/Downloads_bak 压缩之前会先进行备份,压缩好的图片直接默认覆盖原图片,带有简单的错误检测,比如当前或者指定目录下有没有图片,第一个参数是否为数字。压缩完成后会计算压缩比率: 4 完整脚本 Github 5 其他 压缩当前目录的图片 批量压缩 jpg / png 来源: oschina 链接: https://my.oschina.net/u

文件系统和本地存储管理 1

瘦欲@ 提交于 2020-08-10 20:05:41
Linux系统管理 1.存储管理 传统的磁盘分区 RAID技术,软RAID的实现 LVM 文件系统管理 ext,xfs,btrfs(了解) 2.程序包管理 rpm、yum、dnf 3.sed、gawk 4.进程管理 5.网络管理 网络基础知识(Cisco CCNA+CCNP) 网络属性管理 网络参数监测 6.Linux内核管理 内核编译和安装 内核的裁剪 定制内核 7.Linux系统启动流程 CentOS5、6、7 8.系统安装 kickstart、dhcp、pxe 9.shell脚本的完善 Linux存储管理 磁盘的接口类型: IDE:并口,来源于ATA,133Mbps SCSI:并口, UltraSCSI320:320Mbps UltraSCSI640:640Mbps 窄带:7 14 宽带:15 30 SATA:Serial ATA,串口 SATA1 2 3 6Gbps SAS:串口 6Gbps USB: 1.0 1.1 2.0 3.0:480Mbps 3.1:10Gbps 双通道:160MBps IOPS:每秒IO次数 IDE:机械硬盘,50IOPS SCSI:机械硬盘,100-200IOPS 固态硬盘,400左右 SATA:机械硬盘:100左右 固态硬盘,400 SAS:机械硬盘,200左右 固态硬盘,800左右 PCI-E固态硬盘:100000+ ES3000 DEC

Java zip压缩及客户端下载

|▌冷眼眸甩不掉的悲伤 提交于 2020-08-10 13:26:58
package cn.jxjycn.ckadmin.core.utils; import java.io.*; import java.net.URL; import java.net.URLEncoder; import java.util.ArrayList; import java.util.List; import java.util.zip.ZipEntry; import java.util.zip.ZipOutputStream; import org.apache.poi.ss.usermodel.Workbook; import org.springframework.beans.factory.annotation.Value; import org.springframework.util.StringUtils; import javax.servlet.http.HttpServletResponse; /** * @program: ckadmin * @description 压缩文件 * @author: ZhangXu * @create: 2020-06-30 16:22 **/ public class ZipUtils { public static void zip(List<String> filePaths,String

Redis 列表[4]

╄→гoц情女王★ 提交于 2020-08-09 21:29:01
1,概述 在前面提到过,Redis在3.2版本之前,用的是ziplist用来存储512个以下的64字节以下的小整型,短字符串,而用linkedlist来存储其他数据。 然而,由于链表的附加空间相对太高,prev 和 next 指针就要占去 16 个字节 (64bit 系统的指针是 8 个字节),另外每个节点的内存都是单独分配,会加剧内存的碎片化,影响内存管理效率。在redis3.2版本之后,对列表的数据结构进行了改造,使用 quicklist 代替了 ziplist 和 linkedlist. 2,数据结构 quicklist 是 ziplist 和 linkedlist 的混合体。它仍然是一个双向链表,它将 linkedlist 按段切分,每一段成为一个quicklist节点,每个quicklist节点,都使用 ziplist 来紧凑存储,多个quicklist节点之间使用双向指针串接起来。 quicklist.c 和 quicklist.h 文件中分别是这样定义的 A doubly linked list of ziplists //一个双向连接的由ziplist构成的列表 A generic doubly linked quicklist implementation 2.2.1 整体 * quicklist is a 32 byte struct (on 64-bit

HBase的优化

不想你离开。 提交于 2020-08-09 20:33:23
一、HBase的优化 1,高可用   在 HBase 中 HMaster 负责监控 HRegionServer 的生命周期,均衡 RegionServer 的负载,如果 HMaster 挂掉了,那么整个 HBase 集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以 HBase 支持对 HMaster 的高可用配置。 1 .关闭 HBase 集群(如果没有开启则跳过此步)   [xcc@linux01 hbase]$ bin /stop- hbase.sh 2 .在 conf 目录下创建 backup- masters 文件   [xcc@linux01 hbase]$ touch conf /backup- masters 3 .在 backup- masters 文件中配置高可用 HMaster 节点   [xcc@linux01 hbase]$ echo linux02 > conf/backup- masters 4 .将整个 conf 目录 scp 到其他节点   [xcc@linux01 hbase]$ scp -r conf/ linux02:/opt/module/hbase/   [xcc@linux01 hbase]$ scp -r conf/ linux03:/opt/module/hbase/ 5 .打开页面测试查看   http: //

图片压缩脚本

我是研究僧i 提交于 2020-08-09 15:43:43
1 概述 使用convert命令做的小型图片压缩脚本,只需要一个参数指定压缩质量,会压缩当前文件夹的jpg/jpeg/png。 sh compress.sh 75 压缩完成后会显示最大最小以及平均压缩率。 2 主要流程 先判断当前文件夹是否存在图片,以及获取图片数量: picNums=`ls | grep -iE "*.jpg|*.png|*.jpeg" | grep -v "_compress" | wc -l` 接着计算原来文件大小,并分离文件名,得到主文件名与后缀名: originalSize=`ls -l $i | awk '{print $5}'` basename=`basename $i` filename="${basename%.*}" suffix="${basename##*.}" compressFileName="$filename._compress.$suffix" 再判断主文件名是否含compress(已压缩过的会添加compress,保留原文件),接着计算比率: convert -quality $1 $i $compressFileName compressedSize=`ls -l $compressFileName | awk '{print $5}'` ratio=$(printf "%.2f" `echo "scale=2;