今天给各位分享网站日志中的蜘蛛数据,怎么用PHP统计,显示在一个网页的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
本文目录一览:
- 1、搜索引擎蜘蛛访问日志查看器php版如何使用
- 2、如何在php网页加统计代码
- 3、php如何排除网络爬虫,统计出访问量。
- 4、蜘蛛抓取问题
- 5、PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
- 6、搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?
搜索引擎蜘蛛访问日志查看器php版如何使用
这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。
使用方法:把你下载的文件解压出来有一个目录为phpzz的目录吧,把这个一起传到你的空间根目录下面,让后在你的页面用一下方式调用
!--#include file="robot.php"-- ----插入php页面调用
SCRIPT src="robot.php"/SCRIPT ----插入html页面JS调用
bot.mdb 记录数据库
访问蜘蛛记录的话就在 你域名后面加上 /phpzz/zhizhu.php可以查看蜘蛛访问记录记录
如何在php网页加统计代码
首先在CNZZ、51.LA 等统计系统申请一个帐号,然后放入网站指定的JS代码就可以统计了。
如果说没有显示出来,你可以使用F12代码控制台来参考具体的错误位置和原因。
例如一个PHP页面,直接在 body/body中加入一段 script统计代码/script
以下为示例代码:
body
p这里是网页的具体内容/p
!--统计代码建议放在末尾--
script这里是cnzz给的统计代码/script
/body
php如何排除网络爬虫,统计出访问量。
PHP可以通过$_SERVER['HTTP_USER_AGENT']函数来判断是否是蜘蛛以及是什么蜘蛛!
代码如下:$useragent=$_SERVER['HTTP_USER_AGENT'];
if(substr_count($useragent,"Baiduspider")){echo "百度蜘蛛";}还有就是从IIS或者APACHE的访问日志里的报头来判断,但是这样的话,必须用程序去只读日志文件,如果多的情况下,有可能产生的日志文件大小非常大,而每次读这个文件,基本上你服务器可以不干别的了!
蜘蛛抓取问题
这些直接用一个函数每个页面调用这个函数,或者使用包含,只要放在每个页面开始执行就OK了,主要是判断USERAGENT的参数,根据我的经验,USERAGENT里边 含有 + 就是爬虫,里边 在摘抄出分出来 就OK了.
PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
1、推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2
?php
function checkrobot($useragent=''){
static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla');
static $kw_browsers = array('msie', 'netscape', 'opera', 'konqueror', 'mozilla');
$useragent = strtolower(empty($useragent) ? $_SERVER['HTTP_USER_AGENT'] : $useragent);
if(strpos($useragent, 'http://') === false dstrpos($useragent, $kw_browsers)) return false;
if(dstrpos($useragent, $kw_spiders)) return true;
return false;
}
function dstrpos($string, $arr, $returnvalue = false) {
if(empty($string)) return false;
foreach((array)$arr as $v) {
if(strpos($string, $v) !== false) {
$return = $returnvalue ? $v : true;
return $return;
}
}
return false;
}
if(checkrobot()){
echo '机器人爬虫';
}else{
echo '人';
}
?
实际应用中可以这样判断,直接不是搜索引擎才执行操作
?php
if(!checkrobot()){
//do something
}
?
2、第二种方法:
使用PHP实现蜘蛛访问日志统计
$useragent = addslashes(strtolower($_SERVER['HTTP_USER_AGENT']));
if (strpos($useragent, 'googlebot')!== false){$bot = 'Google';}
elseif (strpos($useragent,'mediapartners-google') !== false){$bot = 'Google Adsense';}
elseif (strpos($useragent,'baiduspider') !== false){$bot = 'Baidu';}
elseif (strpos($useragent,'sogou spider') !== false){$bot = 'Sogou';}
elseif (strpos($useragent,'sogou web') !== false){$bot = 'Sogou web';}
elseif (strpos($useragent,'sosospider') !== false){$bot = 'SOSO';}
elseif (strpos($useragent,'360spider') !== false){$bot = '360Spider';}
elseif (strpos($useragent,'yahoo') !== false){$bot = 'Yahoo';}
elseif (strpos($useragent,'msn') !== false){$bot = 'MSN';}
elseif (strpos($useragent,'msnbot') !== false){$bot = 'msnbot';}
elseif (strpos($useragent,'sohu') !== false){$bot = 'Sohu';}
elseif (strpos($useragent,'yodaoBot') !== false){$bot = 'Yodao';}
elseif (strpos($useragent,'twiceler') !== false){$bot = 'Twiceler';}
elseif (strpos($useragent,'ia_archiver') !== false){$bot = 'Alexa_';}
elseif (strpos($useragent,'iaarchiver') !== false){$bot = 'Alexa';}
elseif (strpos($useragent,'slurp') !== false){$bot = '雅虎';}
elseif (strpos($useragent,'bot') !== false){$bot = '其它蜘蛛';}
if(isset($bot)){
$fp = @fopen('bot.txt','a');
fwrite($fp,date('Y-m-d H:i:s')."\t".$_SERVER["REMOTE_ADDR"]."\t".$bot."\t".'http://'.$_SERVER['SERVER_NAME'].$_SERVER["REQUEST_URI"]."\r\n");
fclose($fp);
}
第三种方法:
我们可以通过HTTP_USER_AGENT来判断是否是蜘蛛,搜索引擎的蜘蛛都有自己的独特标志,下面列取了一部分。
function is_crawler() {
$userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);
$spiders = array(
'Googlebot', // Google 爬虫
'Baiduspider', // 百度爬虫
'Yahoo! Slurp', // 雅虎爬虫
'YodaoBot', // 有道爬虫
'msnbot' // Bing爬虫
// 更多爬虫关键字
);
foreach ($spiders as $spider) {
$spider = strtolower($spider);
if (strpos($userAgent, $spider) !== false) {
return true;
}
}
return false;
}
下面的php代码附带了更多的蜘蛛标识
function isCrawler() {
echo $agent= strtolower($_SERVER['HTTP_USER_AGENT']);
if (!empty($agent)) {
$spiderSite= array(
"TencentTraveler",
"Baiduspider+",
"BaiduGame",
"Googlebot",
"msnbot",
"Sosospider+",
"Sogou web spider",
"ia_archiver",
"Yahoo! Slurp",
"YoudaoBot",
"Yahoo Slurp",
"MSNBot",
"Java (Often spam bot)",
"BaiDuSpider",
"Voila",
"Yandex bot",
"BSpider",
"twiceler",
"Sogou Spider",
"Speedy Spider",
"Google AdSense",
"Heritrix",
"Python-urllib",
"Alexa (IA Archiver)",
"Ask",
"Exabot",
"Custo",
"OutfoxBot/YodaoBot",
"yacy",
"SurveyBot",
"legs",
"lwp-trivial",
"Nutch",
"StackRambler",
"The web archive (IA Archiver)",
"Perl tool",
"MJ12bot",
"Netcraft",
"MSIECrawler",
"WGet tools",
"larbin",
"Fish search",
);
foreach($spiderSite as $val) {
$str = strtolower($val);
if (strpos($agent, $str) !== false) {
return true;
}
}
} else {
return false;
}
}
if (isCrawler()){
echo "你好蜘蛛精!";
}
else{
echo "你不是蜘蛛精啊!";
搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?
bot.mdb 记录数据库 这是access数据库asp上用的。但看你的提问标题,真的有些难易理解。以下是网上的查的:asp版。你也可以用的,不过得空间支付asp,且你得通过 这句代码来调用 ----插入html页面JS调用搜索引擎蜘蛛访问日志查看器V1.0(asp版)这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。使用方法: ----插入asp页面调用 ----插入html页面JS调用bot.mdb 记录数据库访问 zhizhu.asp 可以查看蜘蛛访问记录记录优点:1、程序简洁易用。2、记录所有爬行的页面。3、可以批量删除数据。4、用数据库记录而不是txt。不足:1、程序小,功能也少。2、不能记录返回值,如200 404等。3、适合小型的网站程序,或者流量不是太大的站。4、因为是测试版本功能不多,以后会有更新,现在够用就好。
网站日志中的蜘蛛数据,怎么用PHP统计,显示在一个网页的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于、网站日志中的蜘蛛数据,怎么用PHP统计,显示在一个网页的信息别忘了在本站进行查找喔。