- 工信部备案号 滇ICP备05000110号-1
- 滇公安备案 滇53010302000111
- 增值电信业务经营许可证 B1.B2-20181647、滇B1.B2-20190004
- 云南互联网协会理事单位
- 安全联盟认证网站身份V标记
- 域名注册服务机构许可:滇D3-20230001
- 代理域名注册服务机构:新网数码
如何删除服务器上面的顽固文件近期有一些服务器被攻击后留下一些文件,这些文件有的被设置为设备文件,很难清除,在网上查询了一些资料,找到了一种最简单的,在此转发分享给大家,同时感谢原作的分享。aux.*as*,com1.*as*,com2.*as*,com3.*as*,com4.*as*,com5.*as*,com6.*as*, com7.*as*,com8.*as*,com9.*as*,con.*as*,lpt?.*as*,prn.*as*类似于这种文件。经过测试把以下内容保存为一个批处理,就能把一些系统默认为是设备文件或一些正常情况删不掉的文件能够删除:打开文本文档输入: DEL /F /A /Q \\?\%1 RD /S /Q \\?\%1保存后缀为.bat,将要删的拖到上面就可以了。但有些 windows 服务器里面,会有很多像这种文件:(这些文件都隐藏的,而且当你在备份时,它会提示错误,以致于备份不能完成)如果在用上面这条命令,就会显得非常的吃力,因为他只能一个一个文件的删除,如果服务器上有几百个像这样的文件,那工作量就非常大了。所以,经过研究,终于写了一个能够一次性删除多个的批处理,这样就方便多了,也节省时间了。在这给大家贡献出来,希望对大家有用。打开文本文档输入::START DEL /F /A /Q \\?\%1 2>NUL RD /S /Q \\?\%1 2>NUL SHIFT /0 IF [%1]==[] GOTO :END GOTO :START :END保存后缀为.bat,将要删的拖到上面就可以了。
去除文件BOM头当我们使用记事本编辑UTF-8的php文件时,有可能造成bom头,从而造成错误。这里推荐个去除bom的方法。我这里使用notepad++来进行去除使用notepad++打开文件---点击编码---转为UTF-8编码---然后保存即可
Windows 下一键安装 Cacti 监控其实监控系统不管是cacti,还是nagios,或其它Check_MK、Centreon等等,最好都是有独立的服务器(哪怕是PC机也行,只要是独立就可以),且是Linux、Unix环境下来搭建进行监控,稳定性绝对高于Windows,但是总有人想在Windows系统下搭建Cacti来监控,运维网 也在努力集成一个Windows环境下的一键安装包,可时间、精力有限……不过,今天还是要分享一份 Windows 下一键安装 Cacti 监控的集成安装包,和 Cnyunwei-Cacti+Nagios 还是有区别的,Windows环境下的只有 Cacti 监控,没有Nagios、Check_MK、Centreon……,所以呢,还是建议大家下载使用 Cnyunwei-Cacti+Nagios 最新版本Windows 下一键安装 Cacti 包,它就是一个集成打包好的 exe 文件,下载后直接双击安装即可,适用于 Windows XP/2003/2008/Vista/7 环境……Cnyunwei-Cacti+Nagios 最新版本下载地址 (集成有Cacti、Nagios、Check_MK、Centreon、Nconf…… 更多详情查看这里)Windows 环境下一键安装 Cacti ( 仅集成Cacti )************最新版本************Cacti-0.88c版本更新说明:* Updated core components. Current Versions Installed:-Cacti 0.8.8c-Spine 0.8.8c (x86/x64)-Apache 2.4.10 VC11 (x86/x64)-MySQL 5.6.20.0 (x86/x64)-PHP 5.6.3 VC11 (x86/x64)-Net-SNMP 5.7.0 (x86/x64)-RRDTool 1.4.5 VC10 (x86)下载地址
首先去官网下载代码,这里一定要注意安装分两种,一种是Source Code源码,一种是编译后的文件。(一) 编译好的文件像上图中红色框里面的就是已经编译好的文件,选择好对应的linux版本下载即可,简单说就是解压后,在bin文件夹中已经存在node以及npm,如果你进入到对应文件的中执行命令行一点问题都没有,不过不是全局的,所以通过建立软链接的方式将这个设置为全局就好了。tar xf node-v5.10.1-linux-x64.tar.gz -C /usr/local/cd /usr/local/mv node-v5.10.1-linux-x64/ nodejsln -s /usr/local/nodejs/bin/node /usr/local/binln -s /usr/local/nodejs/bin/npm /usr/local/bin(二)通过源码编译这种方式你下载的文件是Source code,由于我的linux版本是6.x的,默认的gcc-c++为4.4.7 版本,而下过来之后源码编译要求gcc-c++版本最低为4.8,于是我就去升级GCC-C++版本,结果因为是源码编译升级GCC-C++,编译了一个多小时,都没有编译完成!root># ./configure WARNING: C++ compiler too old, need g++ 4.8 or clang++ 3.4 (CXX=g++)creating ./icu_config.gypi { 'target_defaults': { 'cflags': [], 'default_configuration': 'Release', 'defines': [], 'include_dirs': [], 'libraries': []}, 'variables': { 'asan': 0, 'gas_version': '2.20', 'host_arch': 'x64', 'icu_small': 'false', 'node_byteorder': 'little', 'node_install_npm': 'true', 'node_prefix': '/usr/local', 'node_release_urlbase': '', 'node_shared_http_parser': 'false', 'node_shared_libuv': 'false', 'node_shared_openssl': 'false', 'node_shared_zlib': 'false', 'node_tag': '', 'node_use_dtrace': 'false', 'node_use_etw': 'false' , 'node_use_lttng': 'false', 'node_use_openssl': 'true', 'node_use_perfctr': 'false', 'openssl_fips': '', 'openssl_no_asm': 0, 'target_arch': 'x64', 'uv_parent_path': '/deps/uv/', 'uv_use_dtrace': 'false', 'v8_enable_gdbjit': 0, 'v8_enable_i18n_support': 0, 'v8_no_strict_aliasing': 1, 'v8_optimized_debug': 0, 'v8_random_seed': 0, 'v8_use_snapshot': 'true', 'want_separate_host_toolset': 0}}creating ./config.gypicreating ./config.mkWARNING: warnings were emitted in the configure phase
PS:有时候你发现用root权限都不能修改某个文件,大部分原因是曾经用chattr命令锁定该文件了。chattr命令的作用很大,其中一些功能是由Linux内核版本来支持的,不过现在生产绝大部分跑的linux系统都是2.6以上内核了。通过chattr命令修改属性能够提高系统的安全性,但是它并不适合所有的目录。chattr命令不能保护/、/dev、/tmp、/var目录。lsattr命令是显示chattr命令设置的文件属性。这两个命令是用来查看和改变文件、目录属性的,与chmod这个命令相比,chmod只是改变文件的读写、执行权限,更底层的属性控制是由chattr来改变的。chattr命令的用法:chattr [ -RVf ] [ -v version ] [ mode ] files…最关键的是在[mode]部分,[mode]部分是由+-=和[ASacDdIijsTtu]这些字符组合的,这部分是用来控制文件的属性。+ :在原有参数设定基础上,追加参数。- :在原有参数设定基础上,移除参数。= :更新为指定参数设定。A:文件或目录的 atime (access time)不可被修改(modified), 可以有效预防例如手提电脑磁盘I/O错误的发生。S:硬盘I/O同步选项,功能类似sync。a:即append,设定该参数后,只能向文件中添加数据,而不能删除,多用于服务器日志文件安全,只有root才能设定这个属性。c:即compresse,设定文件是否经压缩后再存储。读取时需要经过自动解压操作。d:即no dump,设定文件不能成为dump程序的备份目标。i:设定文件不能被删除、改名、设定链接关系,同时不能写入或新增内容。i参数对于文件 系统的安全设置有很大帮助。j:即journal,设定此参数使得当通过mount参数:data=ordered 或者 data=writeback 挂 载的文件系统,文件在写入时会先被记录(在journal中)。如果filesystem被设定参数为 data=journal,则该参数自动失效。s:保密性地删除文件或目录,即硬盘空间被全部收回。u:与s相反,当设定为u时,数据内容其实还存在磁盘中,可以用于undeletion。各参数选项中常用到的是a和i。a选项强制只可添加不可删除,多用于日志系统的安全设定。而i是更为严格的安全设定,只有superuser (root) 或具有CAP_LINUX_IMMUTABLE处理能力(标识)的进程能够施加该选项。应用举例:1、用chattr命令防止系统中某个关键文件被修改:# chattr +i /etc/resolv.conf然后用mv /etc/resolv.conf等命令操作于该文件,都是得到Operation not permitted 的结果。vim编辑该文件时会提示W10: Warning: Changing a readonly file错误。要想修改此文件就要把i属性去掉: chattr -i /etc/resolv.conf# lsattr /etc/resolv.conf会显示如下属性----i-------- /etc/resolv.conf2、让某个文件只能往里面追加数据,但不能删除,适用于各种日志文件:# chattr +a /var/log/messages
whoami功能说明:显示用户名称语法:whoami补充说明:显示自身的用户名称,本指令相当于执行 id -un 指令whoami 与 who am i的区别who这个命令重点在用来查看当前有那些用户登录到了本台机器上who -m的作用和who am i的作用是一样的who am i显示的是实际用户的用户名,即用户登陆的时候的用户ID。此命令相当于who -mwhoami显示的是有效用户ID ,是当前操作用户的用户名命令实践:[test@test~]$ whoami 显示当前用户名称test[test@test~]$ who 查看当前有哪些用户登录了本机root tty1 2013-04-18 19:30test pts/0 2013-04-18 19:31 (10.0.0.131)[test@test~]$ who am i 显示实际用户的用户名,登录的时候的用户IDtest pts/0 2013-04-18 19:31 (10.0.0.131)[test@test~]$ who -mtest pts/0 2013-04-18 19:31 (10.0.0.131)
教程目的:使用Linux系统自带的命令logrotate对Nginx日志进行切割。Nginx安装目录:/usr/local/nginx/Nginx日志目录:/usr/local/nginx/logs/、/usr/local/nginx/logs/nginx_logs/1、添加nginx日志切割脚本cd /etc/logrotate.d #进入目录vi /etc/logrotate.d/nginx #编辑脚本/usr/local/nginx/logs/*.log /usr/local/nginx/logs/nginx_logs/*.log{su root wwwmissingokdateextnotifemptydailyrotate 7create 0640 www admsharedscriptspostrotateif [ -f /usr/local/nginx/logs/nginx.pid ]; thenkill -USR1 `cat /usr/local/nginx/logs/nginx.pid`fiendscript}:wq! #保存退出chmod +x /etc/logrotate.d/nginx #添加执行权限chmod 644 /etc/logrotate.d/nginx #修改权限 2、执行脚本/usr/sbin/logrotate -vf /etc/logrotate.d/nginx3、添加定时任务crontab -e #添加以下代码0 0 * * * /usr/sbin/logrotate -vf /etc/logrotate.d/nginx #每天凌晨定时执行脚本至此,Linux下nginx日志每天定时切割教程完成。备注:logrotate相关参数说明missingok:忽略错误,如“日志文件无法找到”的错误提示。dateext:切换后的日志文件会附加上一个短横线和YYYYMMDD格式的日期,没有这个配置项会附加一个小数点加一个数字序号notifempty:如果日志文件为空,不执行切割。daily:按天切割日志。可用值月:monthly 周:weekly 年:yearlyrotate 7:保留最近7天的日志记录sharedscripts:只为整个日志组运行一次的脚本postrotate和endscript:里面指定的命令将被执行。compress::在轮循任务完成后,已轮循的归档将使用gzip进行压缩。delaycompress::总是与compress选项一起用,delaycompress选项指示logrotate不要将最近的归档压缩,压缩将在下一次轮循周期进行。这在你或任何软件仍然需要读取最新归档时很有用。create 644 root root: 以指定的权限创建全新的日志文件,同时logrotate也会重命名原始日志文件。
linux下WordPress apache伪静态规则设置1、首先确定Apache是否加载了Mod_rewrite 模块方法: 检查 /etc/httpd/conf/httpd.conf 中是否存在以下两段代码 (具体路径可能会有所不同,但形式基本是一样的):(一)LoadModule rewrite_module libexec/mod_rewrite.so(二)AddModule mod_rewrite.c2、检查Apache是否开启.htaccess支持vi /etc/httpd/conf/httpd.conf AllowOverride All #如果后面参数为None需要修改为All(大概在338行)3、在文件/etc/httpd/conf/httpd.conf相应的主机目录配置中加入如下代码(此时须注意,如果网站是通过虚拟主机来定义,请务必加到虚拟主机配置中去,否则可能无法使用。) RewriteEngine On RewriteBase / RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L]例如:vi /etc/httpd/conf/httpd.conf #编辑<Directory "/var/www/html"> Options Includes ExecCGI FollowSymLinks AllowOverride All Order allow,deny Allow from all<IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L]</IfModule></Directory>4、重启Apache/etc/init.d/httpd restart 5、设置WordPress在WordPress后台-设置-固定链接-自定义结构,输入下面的代码,最后保存更改即可。 /archives/%post_id%.html
linux 安装 pypy自己使用的系统是 centos 7(其他linux机器的安装方法类似)首先下载pypy 的rpm包。http://pkgs.org/search/?keyword=pypy依次下载pypy-libs-2.2.1-2.el7.x86_64.rpmpypy-2.2.1-2.el7.x86_64.rpmpypy-devel-2.2.1-2.el7.x86_64.rpm依次安装,libs 文件一定要先与解释器安装。 rpm -ivh pypy-libs-2.2.1-2.el7.x86_64.rpmrpm -ivh pypy-2.2.1-2.el7.x86_64.rpmrpm -ivh pypy-devel-2.2.1-2.el7.x86_64.rpm安装完后,在终端中输入pypy,即可调用pypy解释器。安装virtualnev在终端中,直接使用命令 pip install virtualenv 当然前提是已经安装完pip, 自己电脑自带。在终端中输入 virtualenv, 可以看到相关的命令。建立基本的虚拟环境在终端输入virtualenv –no-site-packages -p pypy app解释:-p 表示之后的为默认解释器,即pypy app 表示创建一个文件目录,放置虚拟环境所使用到的文件。然后进入app目录 cd app输入命令,激活虚拟环境 source bin/activate然后你会发现app会出现在命令最前面安装要使用的python包 pip install package现在可以使用pypy解释器,包括在pypy中调用之前pip安装的packages再次使用虚拟环境再次使用虚拟环境时,不需要重建目录,只要终端中进入之前已经配置完的虚拟环境目录app,然后像上面那样激活环境即可使用。
一.安装ntp软件1.检查是否安装了ntp相关包。rpm -qa | grep ntp2.安装ntp软件。yum -y install ntp二.参数讲解ignore :关闭所有的 NTP 联机服务nomodify:客户端不能更改服务端的时间参数,但是客户端可以通过服务端进行网络校时。notrust :客户端除非通过认证,否则该客户端来源将被视为不信任子网noquery :不提供客户端的时间查询:用户端不能使用ntpq,ntpc等命令来查询ntp服务器notrap :不提供trap远端登陆:拒绝为匹配的主机提供模式 6 控制消息陷阱服务。陷阱服务是 ntpdq 控制消息协议的子系统,用于远程事件日志记录程序。nopeer :用于阻止主机尝试与服务器对等,并允许欺诈性服务器控制时钟kod : 访问违规时发送 KoD 包。三.修改配置文件1.查看未修改的配置文件# grep ^[^#] /etc/ntp.conf driftfile /var/lib/ntp/driftrestrict default nomodify notrap nopeer noqueryrestrict 127.0.0.1restrict ::1server 0.centos.pool.ntp.org iburstserver 1.centos.pool.ntp.org iburstserver 2.centos.pool.ntp.org iburstserver 3.centos.pool.ntp.org iburstincludefile /etc/ntp/crypto/pwkeys /etc/ntp/keysdisable monitor1.设置允许任何IP的客户机都可以进行时间同步(修改后的配置文件)# grep ^[^#] /etc/ntp.conf driftfile /var/lib/ntp/driftrestrict default nomodify notraprestrict 127.0.0.1restrict ::1server 0.centos.pool.ntp.org iburstserver 1.centos.pool.ntp.org iburstserver 2.centos.pool.ntp.org iburstserver 3.centos.pool.ntp.org iburstincludefile /etc/ntp/crypto/pwkeys /etc/ntp/keysdisable monitor2.只允许192.168.1.0网段的客户机进行时间同步(修改后的配置文件)# grep ^[^#] /etc/ntp.conf driftfile /var/lib/ntp/driftrestrict default nomodify notrap nopeer noqueryrestrict 127.0.0.1restrict ::1restrict 192.168.1.0 mask 255.255.255.0 nomodify notrapserver 0.centos.pool.ntp.org iburstserver 1.centos.pool.ntp.org iburstserver 2.centos.ntp.org iburstserver 3.centos.pool.ntp.org iburstincludefile /etc/ntp/crypto/pwkeys /etc/ntp/keysdisable monitor四.启动NTP服务和防火墙systemctl start ntpdsystemctl enable ntpdiptables -A INPUT -p UDP -i eno16777736 -s 192.168.1.0/24 --dport 123 -j ACCEPTsetsebool -P ntp_disable_trans 1#SELinux设置vi /etc/sysconfig/ntpd#允许BIOS与系统时间同步,添加下面一行。SYNC_HWCLOCK=yes五.检测NTP1.检测NTP服务是否运行# netstat -tlunp | grep ntpudp 0 0 192.168.1.101:123 0.0.0.0:* 2563/ntpd udp 0 0 127.0.0.1:123 0.0.0.0:* 2563/ntpd udp 0 0 0.0.0.0:123 0.0.0.0:* 2563/ntpd udp6 0 0 fe80::20c:29ff:fe7b:123 :::* 2563/ntpd udp6 0 0 ::1:123 :::* 2563/ntpd udp6 0 0 :::123 :::* 2563/ntpd 2.查看ntp服务器有无和上层ntp连通# ntpstatsynchronised to NTP server (120.25.108.11) at stratum 3 time correct to within 99 ms polling server every 64 s3.查看ntp服务器与上层ntp的状态# ntpq -p remote refid st t when poll reach delay offset jitter============================================================================== news.neu.edu.cn .INIT. 16 u - 64 0 0.000 0.000 0.000x202.118.1.130 202.118.1.47 2 u 7 64 377 153.659 9.605 19.941*time4.aliyun.co 10.137.38.86 2 u 10 64 377 39.666 -47.661 15.944remote - 本机和上层ntp的ip或主机名,“+”表示优先,“*”表示次优先refid - 参考上一层ntp主机地址st - stratum阶层when - 多少秒前曾经同步过时间poll - 下次更新在多少秒后reach - 已经向上层ntp服务器要求更新的次数delay - 网络延迟offset - 时间补偿jitter - 系统时间与bios时间差六.配置时间同步客户机1.执行ntpdate命令:ntpdate 192.168.1.101 #192.168.1.101为ntp服务器IP地址2.写入BIOShclock -w3.crond服务vi /etc/crontab30 8 * * * root /usr/sbin/ntpdate 192.168.1.101; /sbin/hwclock -w4.重启crond服务service crond restart
1、验证内核是否加载了MPPE模块:modprobe ppp-compress-18 && echo MPPE is ok2、安装所需的软件包:yum -y install pppwget ftp://rpmfind.net/linux/epel/7/x86_64/p/pptpd-1.4.0-2.el7.x86_64.rpmrpm -ivh pptpd-1.4.0-2.el7.x86_64.rpm3、配置PPP和PPTP的配置文件:grep ^[^#] /etc/ppp/options.pptpdvi /etc/ppp/options.pptpdname pptpd#refuse-pap#refuse-chap#refuse-mschaprequire-mschap-v2require-mppe-128ms-dns 8.8.8.8ms-dns 8.8.4.4proxyarplocknobsdcompnovjnovjccompnologfdvi /etc/ppp/chap-secretsusername pptpd passwd *vi /etc/pptpd.confoption /etc/ppp/options.pptpdlogwtmplocalip 192.168.0.1remoteip 192.168.0.207-2174、打开内核的IP转发功能:vi /etc/sysctl.confnet.ipv4.ip_forward = 1/sbin/sysctl -p5、配置防火墙和NAT转发yum install iptables-servicessystemctl stop firewalld.servicesystemctl disable firewalld.servicesystemctl enable iptables.servicesystemctl start iptables.service开启包转发:iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o eno16777736 -j MASQUERADEservice iptables saveservice iptables restart开放端口和gre协议:iptables -A INPUT -p tcp -m state --state NEW,RELATED,ESTABLISHED -m tcp --dport 1723 -j ACCEPTiptables -A INPUT -p gre -m state --state NEW,RELATED,ESTABLISHED -j ACCEPTiptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o eno16777736 -j MASQUERADE添加规则:iptables -A INPUT -p gre -j ACCEPTiptables -A INPUT -p tcp -m tcp --dport 1723 -j ACCEPTiptables -A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPTiptables -A FORWARD -s 192.168.0.0/24 -o eno16777736 -j ACCEPTiptables -A FORWARD -d 192.168.0.0/24 -i eno16777736 -j ACCEPTiptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o eno16777736 -j MASQUERADEservice iptables save启动和查看服务:systemctl start pptpdsystemctl enable pptpdsystemctl status pptpd6.查看pptpd服务进程和端口:#ps -ef | grep pptpdroot 25100 1 0 14:19 ? 00:00:00 /usr/sbin/pptpd -froot 25463 24275 0 14:52 pts/0 00:00:00 grep --color=auto pptpd# netstat -nutap | grep pptpdtcp 0 0 0.0.0.0:1723 0.0.0.0:* LISTEN 25100/pptpd
首先我同步了一下时间,发现同步之后时间还是不对。ntpdate cn.pool.ntp.org怀疑自己看错了,然后输入date查看时间,发现确实不是看错了,而是真的不对。于是我想到是时区不对。[root@rico ~]# date -R Sat, 10 Nov 2018 17:06:18 +0000仔细想了一下,我是处于东八区,时间应该是+0800,而我这里是+0000了,为了求证,我决定cat /etc/sysconfig/clock看一下,输出如下[root@rico ~]# cat /etc/sysconfig/clock ZONE="UTC"所以需要改一下,于是使用tzselect进行更改。[root@rico ~]# tzselect#? 5#? 9#? 1#? 1然后得到了我们需要的东西You can make this change permanent for yourself by appending the line TZ='Asia/Shanghai'; export TZ to the file '.profile' in your home directory; then log out and log in again.大概意思是说,tzselect命令只是输出一个标准的TZ写法,并不生效,你还需要将这个TZ放到你的.profile文件里,然后刷新一下这个文件生效于是接下来我们编辑文件[root@rico ~]# vim /etc/profile在文件的末尾另起一行加上TZ='Asia/Shanghai'; export TZ 然后保存退出,接下来重新加载一下[root@rico ~]# source /etc/profile进行验证测试[root@rico ~]# dateSun Nov 11 01:32:40 CST 2018[root@rico ~]# date -RSun, 11 Nov 2018 01:36:25 +0800好了,大功告成!更改时区的关键就是:在/etc/profile里面写上TZ='Asia/Shanghai'; export TZ ,然后重新加载使生效我们之所以要去操作这个,是为了确保写在文件里面的写法是标准的,若是能肯定怎么写,直接写上这句就可以。若是时区对了,时间不对,重新同步一下时间就好。[root@rico ~]# ntpdate cn.pool.ntp.org将系统时间写入硬件时间# hwclock --systohc接下来附上我操作时候的记录[root@rico ~]# ntpdate cn.pool.ntp.org 10 Nov 17:05:24 ntpdate[1824]: the NTP socket is in use, exiting [root@rico ~]# date Sat Nov 10 17:05:32 UTC 2018 [root@rico ~]# date -R Sat, 10 Nov 2018 17:06:18 +0000 [root@rico ~]# cat /etc/sysconfig/clock ZONE="UTC" [root@rico ~]# tzselect Please identify a location so that time zone rules can be set correctly. Please select a continent or ocean. 1) Africa 2) Americas 3) Antarctica 4) Arctic Ocean 5) Asia 6) Atlantic Ocean 7) Australia 8) Europe 9) Indian Ocean 10) Pacific Ocean 11) none - I want to specify the time zone using the Posix TZ format. #? 5 Please select a country. 1) Afghanistan 18) Israel 35) Palestine 2) Armenia 19) Japan 36) Philippines 3) Azerbaijan 20) Jordan 37) Qatar 4) Bahrain 21) Kazakhstan 38) Russia 5) Bangladesh 22) Korea (North) 39) Saudi Arabia 6) Bhutan 23) Korea (South) 40) Singapore 7) Brunei 24) Kuwait 41) Sri Lanka 8) Cambodia 25) Kyrgyzstan 42) Syria 9) China 26) Laos 43) Taiwan 10) Cyprus 27) Lebanon 44) Tajikistan 11) East Timor 28) Macau 45) Thailand 12) Georgia 29) Malaysia 46) Turkmenistan 13) Hong Kong 30) Mongolia 47) United Arab Emirates 14) India 31) Myanmar (Burma) 48) Uzbekistan 15) Indonesia 32) Nepal 49) Vietnam 16) Iran 33) Oman 50) Yemen 17) Iraq 34) Pakistan #? 9 Please select one of the following time zone regions. 1) Beijing Time 2) Xinjiang Time #? 1 The following information has been given: China Beijing Time Therefore TZ='Asia/Shanghai' will be used. Local time is now:Sun Nov 11 01:08:22 CST 2018. Universal Time is now:Sat Nov 10 17:08:22 UTC 2018. Is the above information OK? 1) Yes 2) No #? 1 You can make this change permanent for yourself by appending the line TZ='Asia/Shanghai'; export TZ to the file '.profile' in your home directory; then log out and log in again. Here is that TZ value again, this time on standard output so that you can use the /usr/bin/tzselect command in shell scripts: Asia/Shanghai [root@rico ~]# vim /etc/profile [root@rico ~]# source /etc/profile [root@rico ~]# date Sun Nov 11 01:32:40 CST 2018 [root@rico ~]# date -R Sun, 11 Nov 2018 01:36:25 +0800
使用wget克隆站点镜像使用wget克隆站点镜像# wget -r -p -np -k http://xxx.edu.cn-r 表示递归下载,会下载所有的链接,不过要注意的是,不要单独使用这个参数,因为如果你要下载的网站也有别的网站的链接,wget也会把别的网站的东西下载下来,所以要加上-np这个参数,表示不下载别的站点的链接. -np 表示不下载别的站点的链接. -k 表示将下载的网页里的链接修改为本地链接.-p 获得所有显示网页所需的元素,比如图片什么的.-E 或 –html-extension 将保存的URL的文件后缀名设定为“.html”+++++++++++++++++++++++++++++++++++++++# wget -c -t 0 -O rhel6_x86_64.iso http://zs.kan115.com:8080/rhel6_x86_64.iso-c 断点续传-t 0 反复尝试的次数,0为不限次数-O rhel6_x86_64.iso 把下载的文件命名为rhel6_x86_64.isohttp://zs.kan115.com:8080/rhel6_x86_64.iso 要下载的文件的网址wget高级用法http://blog168.chinaunix.net/space.php?uid=26050273&do=blog&id=1742503摘要:本文讲述了wget的一些高级用法,比如另存为,后台下载,断点下载。批量下载。增加下载尝试次数和测试下载链接是否生效。记录下载日志,下载和排除指定类型文 件。1、下载单个文件wget url+filename下载过程中同时可以看到四项信息已经下载的比例已经下载的大小当前下载的速度剩余的时间2、使用一个大写O做参数表示另存为wget -O save_name url这种方法适用于对应链接中没有显式文件名的情况。例如: wget -O xx.zip http://www.vim.org/scripts/download_script.php?src_id=7701再用不带-O参数的下载一次。ls -al总计 132drwxr-xr-x 2 root root 4096 07-12 10:43 .drwxr-xr-x 4 root root 4096 07-11 16:26 ..-rw-r–r– 1 root root 50243 07-12 10:43 download_script.php?src_id=7701-rw-r–r– 1 root root 50243 07-12 10:43 xx.zip我们发现,下载的大小都是一样。但是不带-O参数的,文件名还要转换一次。不如用-O参数方便。mv "download_script.php?src_id=7701" yy.zip3、指定下载速率方法是使用wget –limit-ratewget程序默认是使用所有的带宽,如果是在生产服务器上下载很大的文件就不可接受了。为了避免这种情况使用–limit-rate参数wget –limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz24、断点下载使用wget -c完成未完成的下载下载到一半需要停下来干别的事情,用^c就可以停顿住。回来后,继续下载可以加一个-c参数。注意:如果不加入-c,那么下载的文件会多出一个.1的后缀。5、在后台下载方法:加一个-b的参数wget -b url/filename为后台下载。下载经过写入到wget-log文件中。用tail -f wget-log查看下载日志6、模拟在浏览器下下载有的网站不允许客户在非浏览器环境下下载。使用–user-agent来设置wget –user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD7、测试下载链接方法:使用–spider试图做计划下载时候,需要先检查一下下载链接是否有效。wget –spider DOWNLOAD-URL如果返回OK,则表示下载链接是正确的!例如wget –spider "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"Spider mode enabled. Check if remote file exists.–2010-07-12 11:36:32– http://ip138.com/ips.asp?ip=58.251.193.137&action=2正在解析主机 ip138.com… 221.5.47.136Connecting to ip138.com|221.5.47.136|:80… 已连接。已发出 HTTP 请求,正在等待回应… 200 OK长度:7817 (7.6K) [text/html]Remote file exists and could contain further links,but recursion is disabled — not retrieving.8、增加尝试次数方法:–tries=1000如果网速有问题,下载大文件的时候可能会发生错误,默认wget尝试20次链接。如果尝试75次,可以wget –tires=75 DOWNLOAD-URL9、下载多个文件使用wget -i将多个下载链接写入到一个download-file-list.txt文件中,而后用wget -i download-file-list.txt10、下载整站方法:用–mirror参数当你要下载一个完整站点并实现本地浏览的时候,wget –mirror -p –convert-links -P ./LOCAL-DIR WEBSITE-URL参数讲解:–mirror:设置这个参数用来建立本地镜像-p:下载所有html文件适合显示的元素–convert-links:下载完成后,将文档链接都转换成本地的-P ./LOCAL-DIR:保存所有的文件和目录到指定文件夹下11、下载时候禁止下载指定类型的文件例如下载站点时候,不打算下载gif动画图片。wget –reject=gif WEBSITE-TO-BE-DOWNLOADED12、记录下载日志方法:使用小写字母owget -o xx.html.log -O xx.html "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"检查一下日志:[root@localhost opt]# cat xx.html.log–2010-07-12 11:57:22– http://ip138.com/ips.asp?ip=58.251.193.137&action=2正在解析主机 ip138.com… 221.5.47.136Connecting to ip138.com|221.5.47.136|:80… 已连接。已发出 HTTP 请求,正在等待回应… 200 OK长度:7817 (7.6K) [text/html]Saving to: `xx.html' 0K ……. 100% 65.5K=0.1s2010-07-12 11:57:22 (65.5 KB/s) – `xx.html' saved [7817/7817]13、是第9条的增强版。可以限制下载容量wget -Q5m -i FILE-WHICH-HAS-URLS当下载的文件达到5兆的时候,停止下载。注意:如果不是对一个文件下载链接清单,对单个文件,这个限制不会生效的。14、和第11条正好相反,这条技巧是讲述如何仅仅下载指定类型的文件从一个网站中下载所有的pdf文件wget -r -A.pdf http://url-to-webpage-with-pdfs/15、使用wget完成ftp下 载匿名ftp下载类似于http下载wget ftp-url即可。如果是需要输入用户名和密码,则是wget –ftp-user=USERNAME –ftp-password=PASSWORD DOWNLOAD-URL+++++++++++++++++++++++++++++++++++++++WEB采集研究之 WGET 使用手册http://stream2080.blog.163.com/blog/static/299032852008769409368/WEB采集也快3年了,多多少少碰到不少问题,总结总结牢骚一下~有用人得到那更好今天上经典工具wget的使用吧(奇怪blog的附件该怎么放?)http://www.gnu.org/software/wget/WGET 手册适用于版本 wget 1.11. WGet的功能(1) 后台工作(2) 支持HTTP、HTTPS、FTP(3) 支持HTTP Proxy(4) 跟踪HTML、XHTML中的超链接(5) 创建远程站点为本地镜像(6) 转换下载后HTML文件的链接(7) 下载FTP文件时支持含通配符的文件名(8) 慢网速、不稳定网络支持(9) 支持IPv62. WGet命令 wget [option]… [URL]…(1) URL格式http://host%5B:port%5D/directory/fileftp://host%5B:port%5D/directory/fileftp://user:password@host/pathhttp://user:password@host/path*可以对URL中的不安全字符进行“%编码”ftp://host/directory/file;type=a*“type=a”表示以ASCII格式下载FTP文件*“type=i”表示以Binary格式下载FTP文件(2) Option语法使用GNU getopt处理命令行参数,每个选项都有简写形式(以“-”开头)和完整形式(以“–”开头),如:wget -r –tries=10 http://fly.srk.fer.hr/ -o log可以将不需要额外参数的选项连接在一起,如:wget -drc URL 等效于 wget -d -r -c URL可以用“–”来结束选项,如:wget -o log — -x中的“-x”被当作URL来解析。大多数选项因为是开关参数而不接受参数(3) WGet基本启动选项-V–version显示wget的版本号-h–help打印描述wget所有选项的帮助信息-b–background启动后立即转到后台执行;若未使用“-o”选项指定输出文件名,则输出重定向到2 / 13“wget-log”文件中-e command–execute command执行.wgetrc配置文件中的命令,关于.wgetrc配置文件的详细内容见后面的“启动文件”部分(4) 日志记录及输入文件选项-o logfile–output-file=logfile将所有信息记录到日志文件logfile中-a logfile–append-output=logfile将日志内容添加到logfile尾部,而不是覆盖旧的logfile-d–debug打开调试输出信息,该选项对于wget的开发者非常有用。若wget编译时未打开调试支持,则此选项无效-q–quiet关闭wget的输出-v–verbose打开详细输出,显示所有变化信息,默认此选项是打开的-nv–non-verbose关闭详细输出,但仍然会输出错误信息和基本信息-i file–input-file=file从文件file中读URL,若这里“file”=“-”,则URL从标准输入读取,请使用“./-”来读取文件名为“-”的文件-F–force-html当URL输入是从一个文件中读取时,可以强制指定该文件为HTML文件,而不管此文件实际是什么格式的。这样使您可以下载现有HTML文件中的相对链接到本地,但需要添加“<base href="url">”到HTML中,或使用–base command-line选项。-B URL–base=URL与“-F”选项协同工作,相当于添加“<base href="url">”到“-i”指定的文件中(5) 下载选项–bind-address=ADDRESS当建立客户端TCP/IP连接时,将ADDRESS绑定到本地机器,ADDRESS可以是主机名或IP地址,当您的主机绑定了多个IP时,该选项非常有用-t number–tries=number设定网络不好时wget的重连次数,默认是20次,当number =0时代表无限次重连,3 / 13当遇到致命错误如“connection refused”或“not found”(404),则停止自动重连-O file–output-document=file将下载的文件全部连接在一起写入文件file-nc–no-clobber若同一路径下存在相同文件名的文件则不再下载,这里clobber有点用词不当-c–continue继续下载未完成的下载,例如wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z如果本地存在的ls-lR.Z这个文件的长度小于对应的远程文件,则wget将从本地文件长度的偏移量处开始下载远程同名文件–progress=type选择下载进度条的形式,合法的type有“dot”和“bar”(默认)两种-N–timestamping打开时戳,详见“时戳”部分-S–server-response打印HTTP服务器发送的HTTP头部及FTP服务器发送的响应–spider当打开此选项,wget将工作在Web Spider模式下。Wget不下载页面,仅仅是检查这些页面是否还存在。例如,可以使用wget来检查您的书签:wget –spider –force-html -i bookmarks.html-T seconds–timeout=seconds设定网络超时时间为seconds秒,等效于同时设定“–dns-timeout”,“–connect-timeout”以及“–read-timeout”。默认是900秒读超时,超时相关选项仅接受十进制数值,支持小数(如0.1秒)–dns-timeout=seconds设定DNS查询超时时间,默认无DNS超时时间–connect-timeout=seconds设定连接超时时间,默认无DNS超时时间–read-timeout=seconds设定读写超时时间(即进程挂起时间),该选项不直接影响整个下载过程,默认读超时时间是900秒waitretry=seconds若不需要在重新获取页面时等待,而仅当下载失败时等待指定时间。在默认的wgetrc配置文件中此选项是关闭的–random-wait在0~2倍等待时间之间随机选择重新获取文件的等待时间,以躲过网站日志分析。–no-proxy不使用代理(即使定义了*_proxy环境变量)4 / 13-Q quota–quota=quota指定自动下载的限额,quota值是字节数;配额不影响单个文件的下载,主要用于回归下载和URL输入是文件时–no-dns-cache关闭DNS查询缓冲–restrict-file-names=mode替换远端URL中在本机受限制的字符,例如,用%编码替换。默认情况下,wget是跳过这些字符(包括控制字符)。当设定mode为“unix”时,wget跳过字符“/”以及ASCII值在0–31和128–159之间的控制字符,这在unix类操作系统中的默认规定;当设定mode为“windows”时,wget跳过的字符包括“\”、“|”、“/”、“:”、“?”“"”、“*”、“<”、“>”,以及与unix系统中相同的控制字符。在windows模式中,wget使用“+”代替“:”以分隔本地文件名中的主机和端口;使用“@”代替“?”以分隔文件名中的查询参数。例如:在unix模式下的URL:www.xemacs.org:4300/search.pl?input=blah,在windows模式下则表示为:www.xemacs.org+4300/search.pl@input=blah。若要跳过控制字符,则可以使用:–restrict-file-names=nocontrol-4–inet4-only-6–inet6-only强制连接IPv4地址或IPv6地址–prefer-family=IPv4/IPv6/none指定优先考虑特定地址族,默认是IPv4–retry-connrefused把“connection refused”当成是暂态错误并再次尝试–user=user–password=password为HTTP或FTP文件获取指定用户名密码(6) 目录选项-nd–no-directories当递归地获取文件是,不创建分层的目录-x–force-directories强迫创建一个分层目录,即使该目录本地不存在-nH–no-host-directories禁用主机名前缀的目录–protocol-directories使用协议名作为本地文件名的一个路径项–cut-dirs=number忽略number部分的目录成分,例如:无选项 -> http://ftp.xemacs.org/pub/xemacs/-nH -> pub/xemacs/5 / 13-nH –cut-dirs=1 -> xemacs/-nH –cut-dirs=2 -> .无选项 -> http://ftp.xemacs.org/pub/xemacs/–cut-dirs=1 -> http://ftp.xemacs.org/xemacs/-P prefix–directory-prefix=prefix设定目录前缀为prefix。默认是“.”(7) HTTP选项-E–html-extension将保存的URL的文件后缀名设定为“.html”–http-user=user–http-password=password指定某个HTTP服务器上的用户名和密码,wget使用基本授权方案或消息摘要方案对用户名和密码进行加密–no-cache禁用Server端的cache,这对从代理服务器上重新获取本地已经过期的文档非常有效。wget默认是允许使用cache–no-cookies禁用cookie;wget默认允许使用cookie–load-cookies file在第一次的HTTP重新获取前,从txt文件file中加载cookie–save-cookies file退出前将cookie保存到file文件中,但不保存已过期的cookie和无有效期的cookie(会话cookie)–keep-session-cookies若设定此项,则–save-cookies file也保存会话cookie–ignore-length忽略HTTP中的Content-Length头,不仅仅下载Content-Length指定的长度–header=header-line在下载的HTML文件中添加头部header-line,例如:wget –header='Accept-Charset: iso-8859-2' \–header='Accept-Language: hr' \http://fly.srk.fer.hr/wget –header="Host: foo.bar" http://localhost/意义是:wget连接到localhost,但是在Host头部指定foo.bar–proxy-user=user–proxy-password=password为代理服务器的授权指定用户名和密码,wget采用基本授权方法对用户名和密码编码–referer=url在HTTP请求中添加“Referer: url”–save-headers6 / 13保存HTTP发送的头部到文件中-U agent-string–user-agent=agent-string将自己标识为agent-string–post-data=string–post-file=file使用POST方法在HTTP请求中发送特定数据。注意,wget需要事先知道数据长度应用举例:#登陆到服务器wget –save-cookies cookies.txt \–post-data 'user=foo&password=bar' \http://server.com/auth.php#开始“爬”网页wget –load-cookies cookies.txt \-p http://server.com/interesting/article.php(8) HTTPS (SSL/TLS)选项–secure-protocol=protocol选择使用的安全协议,protocol合法值包括:auto,SSLv2,SSLv3及TLSv1–no-check-certificate不按照有效证书授权检查服务器授权证书–certificate=file使用客户端保存在file中的证书–certificate-type=type设定客户端认证方式,默认方式是PEM以及DER(也就是ASN1)–private-key=file从文件中读取私钥–private-key-type=type设定私钥类型,合法值包括:PEM(默认)和DER–ca-certificate=file用指定文件对对等端(peer)进行CA(certificate authorities)认证–ca-directory=directory指定包含PEM格式的CA认证目录–random-file=file指定特定文件为伪随机数生成器的数据源–egd-file=file指定特定文件为EGD(Entropy Gathering Daemon) socket(9) FTP选项–ftp-user=user–ftp-password=password指定某个FTP服务器上的用户名和密码–no-remove-listing不删除在获取FTP文件时生成的临时的.listing文件–no-glob关闭FTP通配符,默认允许使用通配符7 / 13–no-passive-ftp禁用被动FTP传输模式–retr-symlinks转换符号链接,并指向下载的文件–no-http-keep-alive关闭HTTP下载的“keep-alive”特性(10) 递归获取选项-r–recursive打开递归获取选项-l depth–level=depth指定递归的最大深度,默认最大深度是5–delete-after在单一文档下载后立即删除-k–convert-links下载完成后,转换页面中的链接以方便本地浏览链接转换的两种方式:a. 指向已下载文件的链接,则转换为相对链接b. 指向未能下载成功的文件的链接,转换为“http://localhost/…”形式-K–backup-converted转换链接前将原始文件备份(后缀为.orig)-m–mirror打开适合与做镜像的选项(recursion、time-stamping等)-p–page-requisites下载能够完全显示一个给定的HTML网页的所有文件–strict-comments精确解析HTML注释,默认是遇到第一个“–>”即终止解析(11) 递归接受/拒绝选项-A acclist–accept acclist-R rejlist–reject rejlist设定接受/拒绝递归下载以逗号分开的文件名前缀或模式列表-D domain-list–domains=domain-list设定要追踪的域–exclude-domains domain-list指定不要求追踪的域8 / 13–follow-ftp追踪HTML文档中的FTP链接,默认忽略所有FTP链接–follow-tags=listWget包含一个HTML标记/属性对列表,按照list列表文件追踪HTML标记–ignore-tags=list不追踪list列表文件指定的HTML标记-H–span-hosts允许跨越服务器进行递归下载-L–relative仅追踪相对链接-I list–include-directories=list指定追踪目录-X list–exclude-directories=list指定不追踪的目录-np–no-parent不向上追踪到父目录3. 递归下载(1) 遍历万维网的一部分或一台HTTP服务器或FTP服务器(2) 追踪链接或目录结构(3) 利用输入的URL或文件解析HTML(4) HTTP递归下载采用广度优先算法,最大深度可以设定(默认为5)(5) FTP递归下载采用深度优先算法,能够下载FTP服务器直到给定深度的所有数据(6) 能够镜像FTP站点(7) 默认按照远程站点目录结构创建本地目录(8) 使用递归下载时注意使用延时操作(9) 一些例子? 下载单一网页,使用–page-requisites选项? 下载单一目录下的某些文件,使用-np选项? 下载单一目录下的所有文件,使用-l 1选项4. 链接追踪 如何避免下载不想要的链接(1) 访问主机的树型扩展(默认情况下,每次下载仅访问一台主机)? 扩展至任何关联主机XX-H选项? 限制扩展至某些域XX-D选项例如:wget -rH -Dserver.com http://www.landui.com/可以从所有*.server.com域下载文件? 禁止扩展至某些域XX–exclude-domains选项例如:wget -rH -Dfoo.edu –exclude-domains sunsite.foo.edu \9 / 13http://www.foo.edu/从所有foo.edu域下载文件,而禁止从sunsite.foo.edu下载文件(2) 文件类型限制-A acclist–accept acclistaccept = acclist–accept选项的参数是一个文件名后缀(如gif或.gif)或字符串模式列表(如czy*or czyBear*196[0-9]*)-R rejlist–reject rejlistreject = rejlist–reject选项与–accept选项工作方式相同,但逻辑相反注意:这两个选项不影响HTML文件下载(3) 基于目录的限制-I list–include listinclude_directories = list下载目录列表中的目录-X list–exclude listexclude_directories = list禁止下载目录列表中的目录-np–no-parentno_parent = on禁止访问远端当前目录的上层(4) 相对链接打开-L选项可以仅下载超链接中的相对链接,而不下载绝对链接(5) 追踪FTP链接由于FTP与HTTP协议的不同,所以要追踪FTP链接请使用–follow-ftp选项5. 使用时戳对下载的文件进行增量更新使用-S选项可以在本地保留页面对应的时戳,进行增量下载是使用-N选项,例如:初次下载网页使用:wget -S http://www.gnu.ai.mit.edu/以后更新网页使用:wget -N http://www.gnu.ai.mit.edu/对于HTTP协议,时戳需要“Last-Modified”头部支持,而对于FTP协议,取决于wget能够解析获得目录列表中包含的日期的格式6. 启动文件(wgetrc)(1) Wgetrc的位置wget启动时,将查找全局的启动配置文件,默认情况下,这个文件位于:“/usr/local/etc/wgetrc”;若该位置不存在此文件,则查找环境变量WGETRC指定的位置;若WGETRC环境变量未设定,wget会加载$HOME/.wgetrc;否则报错!10 / 13(2) Wgetrc语法wgetrc命令行的语法非常简单:“variable = value”。wgetcrc命令行语法不区分大小写,不区分有无下划线,忽略空行和以“#”开头的行(3) Wgetrc命令wgetrc命令全集如下表:一些说明: 合法值都列在“=”后面;Bool值得设定可以用on/off或1/0;某些命令使用了伪随机数;“address”可以是主机名或以点分十进制表示的IP地址;“n”可以是正整数或无穷大(inf)“string”可以是任何非空字符串命令 说明accept/reject = string 相当于-A/-Radd_hostdir = on/off 允许/禁止使用主机名前缀的文件名;可以用-nH禁用continue = on/off 允许/禁止继续完成下载部分完成的文件background = on/off 允许/禁止后台运行;相当于-bbackup_converted =on/off允许/禁止用后缀名.orig保存转换前的文件;相当于-Kbase = string 用于绝对地址于相对地址的替换;相当于–base=stringbind_address = address 地址绑定;相当于–bind-address=addressca_certificate = file 设定权限认证文件;相当于–ca-certificate=fileca_directory = directory 设定权限认证文件的目录;相当于–ca-directory=directorycache = on/off 打开/关闭服务器cache;相当于–no-cachecertificate = file 设定客户端认证文件;相当于–certificate=filecertificate_type = string 设定认证类型;相当于–certificate-type=stringcheck_certificate =on/off设定是否进行授权确认;相当于–check-certificateconvert_links = on/off 是否转换非相对链接;相当于-kcookies = on/off 是否允许cookies;相当于–cookiesconnect_timeout = n 设定连接超时时间;相当于–connect-timeoutcut_dirs = n 忽略远程第n层目录成分;相当于–cut-dirs=ndebug = on/off 调试模式;相当于-ddelete_after = on/off 下载后是否删除;相当于–delete-afterdir_prefix = string 设定目录树的最顶级目录名;相当于-P stringdirstruct = on/off 打开/关闭目录结构;相当于-x 或 -nddns_cache = on/off 打开/关闭DNS cache;相当于–no-dns-cachedns_timeout = n 设定DNS超时时间;相当于–dns-timeoutdomains = string 相当于-Ddot_bytes = n 进度条使用点时,设定每个点代表的Byte数(默认1024)dots_in_line = n 进度条使用点时,设定每行的点数(默认50)11 / 13dot_spacing = n 设定一串中点的个数(默认10)egd_file = file 设定EGD socket文件名为file;相当于–egd-file=fileexclude_directories =string设定不用下载的目录;相当于-Xexclude_domains =string相当于–exclude-domains=stringfollow_ftp = on/off 是否追踪HTML文件中的FTP链接;相当于–follow-ftpfollow_tags = string 仅追踪指定的HTML标记;相当于–follow-tags=stringforce_html = on/off 是否强制将输入文件名的对应文件当成HTML文件(-F)ftp_password = string 设定FTP密码ftp_proxy = string 将string当作FTP下载的代理ftp_user = string 设定FTP用户名glob = on/off 打开或关闭成团下载;相当于–glob和–no-globheader = string 为下载的HTTP文件添加头部;相当于–header=stringhtml_extension = on/off 在text/html或application/xhtml+xml类无后缀名的文件名后添加“.html”后缀;相当于-Ehttp_keep_alive = on/off 是否保持HTTP链接活跃;相当于–no-http-keep-alivehttp_password = string 设定HTTP下载用的密码;相当于–http-password=stringhttp_proxy = string 设定HTTP代理http_user = string 设定HTTP 下载用户名;相当于–http-user=stringignore_length = on/off 是否忽略Content-Length头部;相当于–ignore-lengthignore_tags = string 递归下载时忽略某些标记;相当于–ignore-tags=stringinclude_directories =string设定下载时追踪的目录;相当于-I stringinet4_only = on/off 强制连接IPv4地址;相当于–inet4-only或-4inet6_only = on/off 强制连接IPv6地址;相当于–inet6-only或-6input = file 从文件中读取URL;相当于-i filekill_longer = on/off 是否将超出Content-Length头部值的数据当作无效数据limit_rate = rate 限定下载速率;相当于–limit-rate=rateload_cookies = file 从文件中加载cookie;相当于–load-cookies filelogfile = file 设定日志文件;相当于-o filemirror = on/off 打开/关闭镜像功能;相当于-mnetrc = on/off 是否读netrc文件noclobber = on/off 相当于-ncno_parent = on/off 是否允许下载当前目录的上层;相当于–no-parentno_proxy = string 避免某些代理的加载output_document = file 设定输出文件名;相当于-O filepage_requisites = on/off 是否下载用于完全显示页面的元素;相当于-ppassive_ftp =on/off/always/never更改被动FTP的设定;相当于–passive-ftppassword = string 同时设定FTP和HTTP下载的密码12 / 13post_data = string 用POST方法发送所有HTTP请求,此请求的内容为一个字符串;相当于–post-data=stringpost_file = file 用POST方法发送所有HTTP请求,此请求的内容为一个文件;相当于–post-file=fileprefer_family =IPv4/IPv6/none设定优先考虑的地址族;相当于–prefer-familyprivate_key = file 设定私钥文件;相当于–private-key=fileprivate_key_type =string设定私钥类型;相当于–private-type=stringprogress = string 设定进度条类型;相当于–progress=stringprotocol_directories =on/off是否用协议名作为目录成分;相当于–protocol-directoriesproxy_user = string 设定代理授权用户名;相当于–proxy-user=stringproxy_password = string 设定代理授权密码;相当于–proxy-password=stringquiet = on/off 是否打开安静模式;相当于-qquota = quota 设定下载限额random_file = file 在系统无/dev/random的情况下,设定随机数生成目录read_timeout = n 设定读超时时间;相当于–read-timeout=nreclevel = n 设定递归下载的深度;相当于-l nrecursive = on/off 打开或关闭递归下载;相当于-rreferer = string 设定HTTP Referer,相当于–referer=stringrelative_only = on/off 是否仅追踪相对链接;相当于-Lremove_listing = on/off 是否删除wget 下载过程中生成的 FTP 列表; 相当于–no-remove-listingrestrict_file_names =unix/windows相当于–restrict-file-namesretr_symlinks = on/off 当下在普通页面文件时, 是否获取符号链接; 相当于–retr-symlinksretry_connrefused =on/off是否将“connection refused” 当作暂时错误; 相当于–retry-connrefusedrobots = on/off 设定是否参考智能机器人的设定,默认是启用save_cookies = file 将cookies保存到文件中;相当于–save-cookies filesecure_protocol = string 设定使用的安全协议;相当于–secure-protocol=stringserver_response = on/off 设定是否打印服务器响应;相当于-Sspan_hosts = on/off 是否对主机名进行扩展;相当于-Hstrict_comments = on/off 相当于–strict-commentstimeout = n 设定超时时间;相当于-T ntimestamping = on/off 设定是否打开时戳功能;相当于-Ntries = n 设定下载每个URL的最大尝试次数;相当于-t nuse_proxy = on/off 设定是否使用代理;相当于–no-proxyuser = string 同时设定下载HTTP和FTP文件的用户名verbose = on/off 打开或关闭详细输出结果;相当于-v/-nv13 / 13wait = n 设定两次下载之间的间隔;相当于-w nwaitretry = n 设定下载尝试失败时等待的时间;相当于–waitretry=nrandomwait = on/off 是否设定请求之间的等待时间为随机数
VPS 简单测试脚本一般大家买到VPS之后都是习惯于迅速安装锐速,搭建上网工具等。但是偶尔也是会用测试工具来测试VPS的性能,来看看自己到底买了个什么样的货。网上主流的VPS测试脚本我这里收集了一些,需要的朋友们可以根据自己的需求来使用。一、硬盘IO及全球下载速度测试脚本使用秋水逸冰大佬的一键Bench脚本,代码:wget -qO- bench.sh | bash测试效果如下:二、全国网络测试这个脚本来自于91yun,包括了全国PING值的测试和各地路由的走法,偏向于网络测试。代码:1wget -N --no-check-certificate https://raw.githubusercontent.com/91yun/91yuntest/master/test_91yun.sh && chmod +x test_91yun.sh && ./test_91yun.sh效果如下:三、服务器性能测试简单的对CPU进行运算测试,需要跑的时间很长,请耐心等好最后测试出来的跑分。脚本如下:123wget --no-check-certificate https://github.com/teddysun/across/raw/master/unixbench.shchmod +x unixbench.sh./unixbench.sh测试效果如下:1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677BYTE UNIX Benchmarks (Version 5.1.3) System: vpn: GNU/Linux OS: GNU/Linux -- 2.6.32-042stab076.8 -- #1 SMP Tue May 14 20:38:14 MSK 2013 Machine: i686 (i386) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Intel(R) Xeon(R) CPU L5520 @ 2.27GHz (4533.6 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization CPU 1: Intel(R) Xeon(R) CPU L5520 @ 2.27GHz (4533.6 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 09:41:17 up 31 days, 9:21, 1 user, load average: 0.23, 0.05, 0.02; runlevel 3 ------------------------------------------------------------------------Benchmark Run: Mon Jul 29 2013 09:41:17 - 10:09:292 CPUs in system; running 1 parallel copy of tests Dhrystone 2 using register variables 17172222.3 lps (10.0 s, 7 samples)Double-Precision Whetstone 2600.2 MWIPS (10.0 s, 7 samples)Execl Throughput 4152.8 lps (30.0 s, 2 samples)File Copy 1024 bufsize 2000 maxblocks 622759.5 KBps (30.0 s, 2 samples)File Copy 256 bufsize 500 maxblocks 172634.3 KBps (30.0 s, 2 samples)File Copy 4096 bufsize 8000 maxblocks 1218236.9 KBps (30.0 s, 2 samples)Pipe Throughput 1416230.5 lps (10.0 s, 7 samples)Pipe-based Context Switching 206509.4 lps (10.0 s, 7 samples)Process Creation 8568.6 lps (30.0 s, 2 samples)Shell Scripts (1 concurrent) 3145.9 lpm (60.0 s, 2 samples)Shell Scripts (8 concurrent) 528.3 lpm (60.0 s, 2 samples)System Call Overhead 1528474.7 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEXDhrystone 2 using register variables 116700.0 17172222.3 1471.5Double-Precision Whetstone 55.0 2600.2 472.8Execl Throughput 43.0 4152.8 965.8File Copy 1024 bufsize 2000 maxblocks 3960.0 622759.5 1572.6File Copy 256 bufsize 500 maxblocks 1655.0 172634.3 1043.1File Copy 4096 bufsize 8000 maxblocks 5800.0 1218236.9 2100.4Pipe Throughput 12440.0 1416230.5 1138.4Pipe-based Context Switching 4000.0 206509.4 516.3Process Creation 126.0 8568.6 680.0Shell Scripts (1 concurrent) 42.4 3145.9 742.0Shell Scripts (8 concurrent) 6.0 528.3 880.5System Call Overhead 15000.0 1528474.7 1019.0 ========System Benchmarks Index Score 960.4 ------------------------------------------------------------------------Benchmark Run: Mon Jul 29 2013 10:09:29 - 10:39:562 CPUs in system; running 2 parallel copies of tests Dhrystone 2 using register variables 16851634.7 lps (10.0 s, 7 samples)Double-Precision Whetstone 5182.9 MWIPS (10.0 s, 7 samples)Execl Throughput 4101.9 lps (30.0 s, 2 samples)File Copy 1024 bufsize 2000 maxblocks 635244.9 KBps (30.0 s, 2 samples)File Copy 256 bufsize 500 maxblocks 174430.2 KBps (30.0 s, 2 samples)File Copy 4096 bufsize 8000 maxblocks 1219982.0 KBps (30.0 s, 2 samples)Pipe Throughput 1387297.9 lps (10.0 s, 7 samples)Pipe-based Context Switching 196296.1 lps (10.0 s, 7 samples)Process Creation 10889.9 lps (30.0 s, 2 samples)Shell Scripts (1 concurrent) 4073.7 lpm (60.0 s, 2 samples)Shell Scripts (8 concurrent) 550.5 lpm (60.2 s, 2 samples)System Call Overhead 1538517.4 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEXDhrystone 2 using register variables 116700.0 16851634.7 1444.0Double-Precision Whetstone 55.0 5182.9 942.3Execl Throughput 43.0 4101.9 953.9File Copy 1024 bufsize 2000 maxblocks 3960.0 635244.9 1604.2File Copy 256 bufsize 500 maxblocks 1655.0 174430.2 1054.0File Copy 4096 bufsize 8000 maxblocks 5800.0 1219982.0 2103.4Pipe Throughput 12440.0 1387297.9 1115.2Pipe-based Context Switching 4000.0 196296.1 490.7Process Creation 126.0 10889.9 864.3
忘记Linux 3.X/4.x/5.x 宝塔面板密码的解决方案在SSH中通过以下命令查看默认管理员密码:cat /www/server/panel/default.pl如果你忘记了面板用户名,只能通过重置密码才能看见当前登陆面板用户名:/www/server/panel/tools.pyc panel 'testpasswd'这样面板管理密码就改成testpasswd了紫框即你要修改的密码红框即面板账户如果出现没有编辑权限,使用以下命令更改cd /www/server/panel && python tools.pyc panel testpasswd 新装面板用户获取默认账号密码命令:bt default1bt default执行效果如下:如果提示多次登录失败,暂时禁止登录 请输入以下命令 清除登录限制1rm -f /www/server/panel/data/*.login
服务热线:
4006-75-4006(7*24小时在线)
总机直拨:
0871-63886388(工作日9:00-18:00)
售前咨询
售后咨询
备案咨询
电话
二维码
TOP