edit_note帖子
414
stars积分
156,791
event加入
2011-05-09
电脑网络
提高网站安全性以及其他小技巧
schedule发表于 2013-12-21 00:23:00
visibility查看 1,564
chat_bubble回复 4
#1 楼主
一个网站的好与坏不仅仅取决于表面的光鲜亮丽,内部的稳定性和后台数据安全性也是至关重要的衡量标准。后台安全性不够很容易招致黑客的攻击,甚至竞争对手也会使用恶劣手段来打击你的网站以达到自身的目的,作为一个站长,保护网站是最基本的职责所在。接下来,我会以我的切身体会给大家分享一下我的心得。
一、如何给网站后台和目录安全加密
1)首先,通过国外的在线加密生成网站http://www.htaccesstools.com/htpasswd-generator/ 来生成用户名和加密密码,也可以用apache自带的程序生成,但是挺麻烦的,要用doc命令。完成后,复制生成的字符串到txt文本,选择所有文件,另存为.htpasswd即可。
2)把.htpasswd文件放到网站根目录外的地方(保证FTP访问不到)。然后在.htaccess文件中加入下面指令:
AuthUserFile XXX/.htpasswd
AuthType Basic
AuthName “restricted“
Order Deny,Allow
Deny from all
Require valid-user
Satisfy any
AuthUserFile是.htpasswd文件的所在目录,要绝对路径,不能用相对路径。
AuthName是提示信息文字
Require valid-user是允许的用户是全部用户,如果要限定用户,则用Require user XX,只有用户XX能登陆
3).htaccess文件会暴露网站的配置以及秘钥文件的路径,所以需要保护起来。我试过一下午,只有一种方法暂时可行,那就是修改.htaccess配置文件本身的名字。
在httpd.conf配置文件中找到下面的指令,注释掉
AllowOverride None
然后,再加入这行指令
AccessFileName .AA
其中,AA是你要给.htaccess命名的新名字。然后把你的.htaccess文件改名成.AA,上传到网站根目录即可。
PS:.htaccess手册教的方法是用下面的指令来禁止其他人通过URL的方式访问.htaccess文件,但是我试过很多次,没有用,不知道是不是哪里出了纰漏,希望大家如果可以用请告诉原因。
order allow,deny
deny from all
二、通过robots和.htaccess文件屏蔽一些无用吸血蜘蛛
User-agent: Ezooms
Disallow:/
User-agent: AhrefsBot
Disallow:/
屏蔽这两个蜘蛛爬取网站所有目录
另外以防这两个蜘蛛不遵守robots协议,所以写入.htaccess指令
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Ezooms[NC]
RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot/5.0[NC]
RewriteRule ^(.*)$$$$ http://www.google.com/
.htaccess指令,让Ezooms和AhrefsBot这两个爬取网站的时候,返回的是google首页
一、如何给网站后台和目录安全加密
1)首先,通过国外的在线加密生成网站http://www.htaccesstools.com/htpasswd-generator/ 来生成用户名和加密密码,也可以用apache自带的程序生成,但是挺麻烦的,要用doc命令。完成后,复制生成的字符串到txt文本,选择所有文件,另存为.htpasswd即可。
2)把.htpasswd文件放到网站根目录外的地方(保证FTP访问不到)。然后在.htaccess文件中加入下面指令:
AuthUserFile XXX/.htpasswd
AuthType Basic
AuthName “restricted“
Order Deny,Allow
Deny from all
Require valid-user
Satisfy any
AuthUserFile是.htpasswd文件的所在目录,要绝对路径,不能用相对路径。
AuthName是提示信息文字
Require valid-user是允许的用户是全部用户,如果要限定用户,则用Require user XX,只有用户XX能登陆
3).htaccess文件会暴露网站的配置以及秘钥文件的路径,所以需要保护起来。我试过一下午,只有一种方法暂时可行,那就是修改.htaccess配置文件本身的名字。
在httpd.conf配置文件中找到下面的指令,注释掉
AllowOverride None
然后,再加入这行指令
AccessFileName .AA
其中,AA是你要给.htaccess命名的新名字。然后把你的.htaccess文件改名成.AA,上传到网站根目录即可。
PS:.htaccess手册教的方法是用下面的指令来禁止其他人通过URL的方式访问.htaccess文件,但是我试过很多次,没有用,不知道是不是哪里出了纰漏,希望大家如果可以用请告诉原因。
order allow,deny
deny from all
二、通过robots和.htaccess文件屏蔽一些无用吸血蜘蛛
User-agent: Ezooms
Disallow:/
User-agent: AhrefsBot
Disallow:/
屏蔽这两个蜘蛛爬取网站所有目录
另外以防这两个蜘蛛不遵守robots协议,所以写入.htaccess指令
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Ezooms[NC]
RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot/5.0[NC]
RewriteRule ^(.*)$$$$ http://www.google.com/
.htaccess指令,让Ezooms和AhrefsBot这两个爬取网站的时候,返回的是google首页
全部回复 (4)
2013-12-21 01:09:00
沙发
顶起
2013-12-21 07:43:00
板凳
YY要
2013-12-22 15:48:00
地板
狼外婆人气颇居民阿胶
2013-12-22 23:16:00
#5
真的
登录 后才能回复
flag举报帖子