以下是小编帮大家整理的防范网站被采集的ASP编程代码(共含9篇),仅供参考,大家一起来看看吧。同时,但愿您也能像本文投稿人“尺八蝉”一样,积极向本站投稿分享好文章。
防范网站被采集的ASP编程代码如下: % Dim AppealNum,AppealCount AppealNum=10 '同一IP60秒内请求限制10次 AppealCount=Request.Cookies(AppealCount) If AppealCount= Then Response.Cookies(AppealCount)=1 AppealCount=1 Response.Cookies(AppealCount).
采集就是使用程序通过自动化操作复制数据. 首先说明,只要是能让浏览器访问的,就没有不能采集的. 但是可以通过一定的手段让采集变得非常...
采集就是使用程序通过自动化操作复制数据.
首先说明,只要是能让浏览器访问的,就没有不能采集的.
但是可以通过一定的手段让采集变得非常麻烦,进而在大量数据的情况下延迟采集完成时间,加大采集难度.
一般的情况略过不说,几种情况比较特别的:
1、验证来路,cookie,session这些,比如PHP可以用fsockopen自定义HTTP Header,基本上这些方法没什么效果.
2、限速,限制某段时间内打开页面数量.这个只是推迟了下,大部分时间效果一般.比如某站限制一分钟之内只能打开30个网页,页面大小平均30K,则用迅雷批量下载就OK了,设置限速为2K,一觉醒来什么都好了.这个方法效果也基本没有.
3、比较特别的方法,设置一个数量级的阀值,达到这样数量后,必须验证方能继续,比如打开10个页面需要输入验证码,这个时候只需要保证验证码不可识别,分配一个session,以后的浏览过程中用session保证用户合法性,这样不影响后续访问,同时可以有效防止采集.
4、第三条对蜘蛛是致命的,此时可通过手机蜘蛛IP段,放行,其它的按照严格规则来.
5、3+4真是无敌的吗?远非可以高枕无忧,比如此站有10万个页面,则设置100个代理,在阀值前循环使用代理,这样实际上绕过了3的限制.
6、还有别的办法吗?不能,因为你的网站能用浏览器打开.
7、另外的方案,开发专有浏览器,专有数据加密.
8、社会工程学来说,进行知识产权保护,让采集的风险远大于成本,前提是你的数据值得你付出这么多来折腾.
从另外的角度来说,数据并非最重要的,就像钱不如人重要.回想百多年前,你家大清帝国装备一流,也还是败的一塌糊涂.
厚诚集智 成长无限 企业大学网 www.51hlht.com
1、strconn=Driver={Microsoft Access Driver(*.mdb)}; _ DBQ=F:Inetpubwwwrootsomedirdb1.mdb;DefaultDir= _ f:Inetpubwwwrootsomedir;uid=LoginID; _ pwd=Password;DriverId=25;FIL=MSAccess; set conn = server.createobject(adodb.connection) co
由于ASP它本身是服务器提供的一贡服务功能,特别是最近由dvbbs的upfile文件出现漏洞以来,其高度的隐蔽性和难查杀性,对网站的安全造成了严重的威胁,因此针对ASP木马的防范和清除,为网管人员提出了更高的技术要求.
我们首先来说一下怎么样防范好了,说到防范我们自然要对asp木马的原理了,大道理我也不讲了,网上的文章有的是,简单的说asp木马其实就是用asp编写的网站程序,甚至有些asp木马就是由asp网站管理程序修改而来的。就比如说我们常见的asp站长助手,等等
它和其他asp程序没有本质区别,只要是能运行asp的空间就能运行它,这种性质使得asp木马非常不易被发觉。它和其他asp程序的区别只在于asp木马是入侵者上传到目标空间,并帮助入侵者控制目标空间的asp程序。严重的从而获取服务器管理员的权限,要想禁止asp木马运行就等于禁止asp的运行,显然这是行不通的,这也是为什么asp木马猖獗的原因!有人要问了,是不是就没有办法了呢,不,有办法的:
第一:从源头入手,入侵者是怎么样上传asp木马的呢?一般哟几种方法,通过sql注射手段,获取管理员权限,通过备份数据库的功能将asp木马写入服务器。或者进入后台通过asp程序的上传功能的漏洞,上传木马等等,当然正常情况下,这些可以上传文件的asp程序都是有权限限制的,大多也限制了asp文件的上传。(比如:可以上传图片的新闻发布、图片管理程序,及可以上传更多类型文件的论坛程序等),如果我们直接上传asp木马的话,我们会发现,程序会有提示,是不能直接上传的,但由于存在人为的asp设置错误及asp程序本身的漏洞,给了入侵者可乘之机,实现上传asp木马。
因此,防范asp木马的重点就在于虚拟主机用户如何确保自己空间中asp上传程序的安全上,如果你是用别人的程序的话,尽量用出名一点的大型一点的程序,这样漏洞自然就少一些,而且尽量使用最新的版本,并且要经常去 查看新版本或者是最新补丁,还有就是那些数据库默认路径呀,管理员密码默认呀,一定要改,形成习惯保证程序的安全性。
那么如果你是程序员的话,我还想说的一点就是我们在网站程序上也应该尽量从安全的角度上编写涉及用户名与口令的程序最好封装在服务器端,尽量少的在ASP文件里出现,涉及到与数据库连接地用户名与口令应给予最小的权限; 需要经过验证的ASP页面,可跟踪上一个页面的文件名,只有从上一页面转进来的会话才能读取这个页面,
防止ASP主页.inc文件泄露问题; 防止UE等编辑器生成some.asp.bak文件泄露问题等等特别是上传功能一定要特别注意
上面的只是对客户的一些要求,但是空间商由于无法预见虚拟主机用户会在自己站点中上传什么样的程序,以及每个程序是否存在漏洞,因此无法防止入侵者利用站点中客户程序本身漏洞上传asp木马的行为。空间商只能防止入侵者利用已被入侵的站点再次入侵同一服务器上其他站点的行为。这也更加说明要防范asp木马,虚拟主机用户就要对自己的程序严格把关! 为此我总结了ASP木马防范的十大原则供大家参考:
网站 防范ASP木马的十大基本原则
1、建议用户通过ftp来上传、维护网页,尽量不安装asp的上传程序。
2、对asp上传程序的调用一定要进行身份认证,并只允许信任的人使用上传程序。
这其中包括各种新闻发布、商城及论坛程序,只要可以上传文件的asp都要进行身份认证!
3、asp程序管理员的用户名和密码要有一定复杂性,不能过于简单,还要注意定期更换。电脑知识
4、到正规网站下载asp程序,下载后要对其数据库名称和存放路径进行修改,数据库文件名称也要有一定复杂性。
5、要尽量保持程序是最新版本。
6、不要在网页上加注后台管理程序登陆页面的链接。
7、为防止程序有未知漏洞,可以在维护后删除后台管理程序的登陆页面,下次维护时再通过ftp上传即可。
8、要时常备份数据库等重要文件。
9、日常要多维护,并注意空间中是否有来历不明的asp文件。记住:一分汗水,换一分安全!
10、一旦发现被入侵,除非自己能识别出所有木马文件,否则要删除所有文件。
重新上传文件前,所有asp程序用户名和密码都要重置,并要重新修改程序数据库名称和存放路径以及后台管理程序的路径。
做好以上防范措施,您的网站只能说是相对安全了,决不能因此疏忽大意,因为入侵与反入侵是一场永恒的战争
这篇文章主要介绍了python登陆asp网站页面的实现代码,需要的朋友可以参考下
使用python来登录asp网站和登录其他网站差不多,只是因为asp页面在每次请求的时候都要带上viewstate,因此使用python来登录的话就多了一个步骤,获得这个页面的viewstate之后带上这个和你要post或get到该页面的请求数据就好了,下面这段程序是登录一个asp系统,然后搜索某些数据并将这些数据保存下来.
#coding=utf-8 import urllib2 from bs4 import BeautifulSoup import urllib import cookielib import re import httplib import time loginUrl=“登录地址”headers={“User-Agent”:“Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.120 Safari/537.36”} studentCookie = cookielib.CookieJar pageOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(studentCookie)) loginPageRequest = urllib2.Request(loginUrl) loginPageHTML = pageOpener.open(loginPageRequest).read() “”“ s=requests.Session() s.headers.update(headers) r=s.get(loginUrl) ”“” print loginPageHTML soup=BeautifulSoup(loginPageHTML) __VIEWSTATE=soup.find(id=“__VIEWSTATE”)[‘value‘] __EVENTVALIDATION=soup.find(id=“__EVENTVALIDATION”)[‘value‘] print __VIEWSTATE print __EVENTVALIDATION login_data={ ‘ __EVENTTARGET‘:‘‘, ‘__EVENTARGUMENT‘:‘‘, ‘__LASTFOCUS‘:‘‘, ‘__VIEWSTATE‘:__VIEWSTATE, ‘__EVENTVALIDATION‘:__EVENTVALIDATION, ‘ClienScreentHeight‘:‘768‘, ‘TextBoxUserID‘:‘username‘, ‘TextBoxPWD‘:‘password‘, ‘drpLanguage‘:‘zh-CN‘, ‘ButtonConfirm.x‘:‘45‘, ‘ButtonConfirm.y‘:‘64‘ } loginHeader = { ‘User-Agent‘:‘sssssssssssssssssssssss‘ } loginData=urllib.urlencode(login_data) loginRequest = urllib2.Request(loginUrl , loginData , headers) loginResponse = pageOpener.open(loginRequest) print loginResponse theurl=‘登录后搜索页面地址‘ mainPageRequest = urllib2.Request(theurl) mainPageHTML = pageOpener.open(mainPageRequest).read() soup=BeautifulSoup(mainPageHTML) __VIEWSTATE=soup.find(id=“__VIEWSTATE”)[‘value‘] #__EVENTVALIDATION=soup.find(id=“__EVENTVALIDATION”)[‘value‘] print __VIEWSTATE #print __EVENTVALIDATION searchdata={ ‘__VIEWSTATE‘:__VIEWSTATE, ‘__EVENTVALIDATION‘:‘‘, ‘txtCopNO‘:‘‘, ‘txtCAR_NO_S‘:‘‘, ‘drpStatus‘:‘‘, ‘txtHiddenOrOnline‘:‘none‘, ‘txtAuto_id‘:‘‘, ‘drpType‘:‘‘, ‘drpBaseType‘:‘‘, ‘ddlIsStatus‘:0, ‘txtICCard‘:‘‘, ‘txtBILL_NO‘:‘‘, ‘txtGDateTime1‘:‘‘, ‘txtGDateTime2‘:‘‘, ‘drpFromKA‘:‘‘, ‘drpToKA‘:‘‘, ‘btnSearch‘:‘%E6%9F%A5+%E8%AF%A2%28F%29‘} data2=urllib.urlencode(searchdata)searchData=urllib.urlencode(searchdata) searcgRequest=urllib2.Request(theurl , searchData , headers) searchResponse=pageOpener.open(searcgRequest) print loginResponse print searchResponse searchHtml=searchResponse.read() filename= r‘C:UsersDellDesktopgetloginfile‘+time.strftime(‘%d%H%M‘,time.localtime(time.time()))+‘.html‘ file=open(filename,‘w‘) file.write(searchHtml) file.close() print ‘end‘ #raw_input()
原文:python登陆asp网站页面
1、网站内容采用多套模板,随机模板,给采集程序设置过高的门槛;但这招对整站采集器不起作用,
2、网站内容里随机插入本网站的版权,如域名,网站名称,网站主人,而这些标识可以分开来写,或中间加短横-,或换成全角字符,防止被自动过滤。
3、给我们网站里的图片打上自己的logo标识,比如在图片的右下角打上网站的名称+域名;采集者把我们的网站的图片采集过去,不可能一张一张图片都ps;所以,他们采集我们的网站内容,等于变相地帮助我们宣传网站,
4、这招比较损。如果对方采集的程序几乎和你的网站同步,那么你可以采用这招了。先在我们的网站里添加几篇标题以及文章开头结尾都很正规的内容,而在文章内容中间偷偷插入非法关键字,有多非法就要多非法,多插入几个,隐蔽工作做的也要到位,然后在我们的网站robots.txt文件里禁止搜索引擎抓取这几篇文章。等对方采集了这几篇文章后,我们立即删除自己网站上的这些文章,然后向采集者服务器当地网警举报。呵呵。后果如何,大家可想而知了。
很久以前,我用CMS搭建了一个站点,采集了一些内容,之后就没有打理了,成为了一个没人维护的垃圾站,昨天偶尔发现网站不知何时被挂了黑链,网站之前就被黑过一次,造成了整站数据被下载,模板被贩卖…
以前总是在分享如何对别人的网站进行入侵检测,这次自己的网站也被入侵了。呵呵,正好借此机会分享一下网站被入侵后的修复和防范措施,在攻与防的对立统一中寻求突破。
1、发现问题
虽然是一个不再打理的小站,但偶尔也会打开看一下。看看互链接网站,清理下友情链接什么的。这次就是在清理友情链接的时候,发现了代码中多了一段:
首页发现黑链代码
由此可以判定,网站已经被入侵,并控制。
2、查找被篡改文件,确定入侵时间
找到篡改文件,可以根据文件修改时间确定被入侵时间,并根据时间反推,查找该时间断内的访问日志。以便定位到 入侵源。
定位到被篡改文件
被入侵站点采用的是我自己写的模板,所以直接找到了被篡改的首页模板位置。并发现文件的最后修改时间是 /10/31 18:49,可以确定最后被挂黑链的时间。
3、根据入侵时间,查找日志
由于当前CMS是全站生成HTML进行访问的,所以日志排查比较简单一点。网站的入侵过程中取得WebShell往往是第一步,直接查找页面篡改时间前后的动态文件访问日志即可。
定位到WebShell
这一些需要有一定的判断能力,因为入侵者必定会对WebShell的位置和名字进行伪装。本着几个原则进行筛查:不该出现的文件出现到了不该出现的位置、不该访问的文件被访问了。定位到common.php后,发现是一个PHP小马。
4、修复网站漏洞和被篡改内容
由于是采用的发布版CMS系统,存在何种漏洞在网上搜索便知。根据提示进行修复即可。控制目录写入访问权限及动态文件执行权限;修改网站数据库及后台密码;修复被篡改页面,替换原页面,
5、排查PHP木马
在网上下载一份PHP木马查找的代码,进行扫描。或使用如下命令搜索文件:
find /site/* -type f -name “*.php” |xargs grep “eval(”
find /site/* -type f -name “*.php” |xargs grep “base64_decode”
find /site -name “*.php” |xargs egrep “phpspy|c99sh|milw0rm|eval(gunerpress|eval(base64_decoolcode|spider_bc”
通过分析搜索结果,进行排查和删除后门。
6、根据IP反查入侵者
自行反查,涉及到的因素太多很难查找到真实的攻击者。例如是伪装过的IP、ADSL的动态IP、宽带共用的公网IP,都将不易进行追踪。如果情节严重的攻击,请直接联系公安机关,保留信息证据,要知道郭嘉的系统是有上网行为记录的。
咱们小P民就试试在搜索引擎里搜索日志中获取的IP地址吧,或许会有收获的。意外的是,在搜索结果里居然有与入侵IP完全一致的搜索结果。
在搜索引擎中搜索IP
打开页面后发现IP来源于某用户,不过实际上这还说明不了什么。如果是与入侵在同一时间断内的话就有说服力了。如果有兴趣的话,其实还可以对这个用户利用社工展开分析,以确认是否为入侵者。
7、简单总结下
网络安全是木桶效应的完美体现,一个漏洞、一个权限的安全配置问题,都将是造成被入侵的重要因素。在日常的运维过程中,一定细心细致的做好每一步的安全防范,防患于未然。
关于入侵:在入侵结束后,最重要的一步就是咱们常说和擦PP,清除各类日志信息,以免给自己留下后患。另外一点是,如果需要留后门的情况下就将后门隐藏的深一些,以备后需;如果不需要留后门,一定要将相关文件清理干净,以免后患。
顺便说一下,入侵者的篡改文件操作已经是触犯了法律,也请各位网络安全爱好者,不要随意模仿
本来草根站长做个站不容易,奈何某些前辈不自重,还来难为咱们,为了他们的一己私欲,牺牲了我们的站点不说,关键是打击了咱们的建站激情...
本来草根站长做个站不容易,奈何某些前辈不自重,还来难为咱们,为了他们的一己私欲,牺牲了我们的站点不说,关键是打击了咱们的建站激情,我就我所知道的给一些新手站长写点防范和解决之道,高手可以一笑带过,有不对的地方敬请指正!
第一,免费的网站论坛什么的,就不要作为自己的主要精力投入点了,因为即使被挂马或者被删除,他们也不用负什么责任;免费空间也一样;
第二,程序的选择请尽量选择一些口碑比较好的,比较有名的程序,当然不是说他们不会有安全漏洞,相对来说,他们的漏洞少得多,而且修补很即时;
第三,现在的程序一般都有验证码,安全问题等功能,建议打开,特别是对于管理员来说,一定要,后台登录页面的名字,建议更改下,改成自己记得住但不是默认管理页面的名字;顺便提下,install目录一定要删除,很多程序都有这个提示的;
第四,一个强健的管理密码,虽然说中了键盘记录之类的工具你的密码再复杂都没用,但是,对于一些基本的猜解工具来说,它就是你安全的保障!另外,输入密码的时候也请注意,现在的输入法都有软键盘,嘿嘿,大家要利用起来,用鼠标点击软键盘输入你的密码,这样,那些键盘记录工具也就能防范一部分了;
第五,管理者本身的电脑环境也很重要,杀毒软件一定要装,也不推荐哪款,毕竟各有所长,我用的瑞星,卡巴不是说他不好,只是我有些地方忍受不了它;装了杀毒软件不是就万事大吉了,还得经常更新,保证对于最新的病毒也能有所防范;
第六,良好的上网习惯,现在一些马儿很牛的,能直接关闭你的杀毒软件,但是,前提是你要触发它,比如,你上网的时候,看见一个东西很吸引人,一点,中招厄…这就是触发;很多马儿也就是这样下载下来的,中间的过程可以多上网了解下;
第七,备份,这点很重要,而且是要经常备份,如果你的服务提供商有这个服务,那是最好不过的了,不过,自己有时间的话,还是要经常备份自己的网站,一旦发生点什么事情,嘿嘿,你就知道备份的好处了,备份,首先要有一个完整程序的备份,然后,是模板文件的定期备份,而且不能只有一个备份,比如,按日期存档备份,每星期一个存档,多好~~ 出问题还原就行了;数据库也记得备份哦~~ 不过挂马者一般不会动你的数据库和其他文件,他的目的,就是让你帮他宣传或者传播;
第八,遇到挂马的时候,不要把你的挂马页面到处乱发,即使发,也要经过处理,不然别人一点击你发的页面,他也中招,那你不是也成了帮凶?怎么处理过? 在你的网址字母中间加一些干扰的汉字啊什么都行,别人就打不开了,但是他能看得懂;(有些牛人很喜欢点挂马页面,为啥? 他喜欢收集别人的小马,哈哈,但是如果没那个技术能防得住,劝大家还是不要去试)
第九,挂马页面一般都在首页,页头,页脚,这些地方都是被加了代码,仔细检查下就能发现,删除就完了,不能发现的直接用以前的备份还原,建议还是加上第十条,要彻底解决,还得有个好的环境加好的习惯;
第十,发现中马以后,第一时间联系你的服务商,看看是不是他们的网络环境出现问题,也好及时处理,等他们那边把问题都解决以后,你这边再还原一下就ok了,
网站建立初期,为了丰富网站内容,采集就成了站长们的拿手锏和必杀技,如何控制采集的量以及过度采集的后果可能很多站长都需要学习和了解的....
网站建立初期,为了丰富网站内容,采集就成了站长们的拿手锏和必杀技,如何控制采集的量以及过度采集的后果可能很多站长都需要学习和了解的.今天本人就现身说法给大家讲讲我网站从狂采集后排名快速上升到一夜之间被K的经历,希望广大站长引以为戒.
网站内容采集是任何搜索引擎都打击的作弊方式,一旦被发现,网站被搜索引擎惩罚肯定的,什么是内容采集呢?总体说来,内容采集具有以下特征:
1、内容多来自一两个网站,而且栏目相似或者相同.
2、内容代码不改变,也就是文章内容或者是其他的一些基本代码都是不变的,搜索引擎很容易识别.
3、添加内容速度巨快.采集内容添加速度很快,这个也是站长喜欢采集的原因.
告诉大家什么情况下内容采集将会给你的网站带来惩罚:
1、内容采集过多,而且来自一两个相同的网站.一般来说,网站采集超过20%基本已经超过了搜索引擎的忍耐范围.
2.申请百度联盟类账号人工审核网站的时候容易被发现采集带来惩罚.这个情况我已经证实过了,我有朋友的站做个实验,所以,一旦是对自己网站用户体验没有信心的朋友情主要不要去申请百度的东西,手工审核可能带来你网站的惩罚.
3、采集内容网站流量达到一定高度的时候会被百度发现.我有一个娱乐网站,里面有较多的采集内容,当IP达到3000的时候,整站被K了.也就是说,百度对有一定流量的网站可能会经过一些手工的审核.这只是猜测,反正百度K站是经常的事.
百度对内容采集网站有哪些惩罚方式?
1、直接K站,这种情况一般K只会剩下首页,其他的全部拔毛.
2、网站整体降权,流量大减.这种情况出现的几率比较大.
3、网站收录减少,网站采集和内容复制过多是网站收录不理想的直接原因.
4、最不可理解的惩罚措施是直接将你的网站在关键词上定位到你所采集的网站.具体的看下面的图片.我的网站kanshenme.com中的看足球,看篮球栏目是大量采集的论坛数据,当我在百度搜索我的网站“看什么娱乐网”的时候,最让我哭笑不得的结果出来了.排名第一位的是我所采集的的网站,有图有真相.
建议站长,网站建设内容不易要求过多,一定要注重质量,不要去贪图采集,采集对网站没有任何好处.老实做站,多加些原创内容,这样才是你的网站长久生存之道.
厚诚集智 成长无限 www.51hlht.com