关于不蒜子访问统计的利用

今天本来打算写一个网站seo优化的pytools,但是在分析数据包时意外发现不蒜子的加载也太慢了吧,往往网页内容加载完了,不蒜子还要加载10+,于是想到很多访问都没通过不蒜子记录。于是随手写了个脚本来刷不蒜子访问统计量。没用的代码,纯属自娱自乐。

每次博客加载时我发现,不蒜子的统计数据总是最后才加载出来,比我这静态网页还慢。于是看看他怎么加载的。

通过网页源码发现不蒜子的js

分析网页加载数据包

推测这应该就是不蒜子通过访问其官网api来记录访问统计的url

http://busuanzi.ibruce.info/busuanzi?jsonpCallback=BusuanziCallback_890848530338

url是这样的格式又考虑到这get值可能是随机生成的,先这样,脚本写好测测看。

因为不蒜子访问统计是记录ip访问量总访问量。于是开启进程池。

这里推荐一个超好用的进程池,docker安装体验更佳。

然后代码完成:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
import requests
from threading import Thread

proxypool_url = 'http://127.0.0.1:5555/random'
target_url = 'http://busuanzi.ibruce.info/busuanzi?jsonpCallback=BusuanziCallback_9437822328'
headers = {
'Host': 'busuanzi.ibruce.info',
'Origin': 'http://www.zjun.info',
'Referer': 'http://www.zjun.info/',
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36'
}

def get_random_proxy(i):
try:
proxy = requests.get(proxypool_url).text.strip()
proxies = {'http': 'http://' + proxy}
re = requests.get(url=target_url, proxies=proxies, headers=headers, timeout=3)
if re.status_code == 200:
print('seo成功 %-24s%s' % (proxy, i))
print(re.text)
else:
return None
except:
pass

def main():
for i in range(10000):
t = Thread(target=get_random_proxy, args=(i, ))
t.start()

if __name__ == '__main__':
main()

先用代理池不断访问一万次看看效果

10000次访问完成

这是最初是访问量:

这是脚本后的访问量:

增加了近2000,还行。

最后建议部署在github或是coding等,这样的静态页面最好不要使用不蒜子,或者其他动态效果的js,因为他加载真的挺慢。

Thank you very much if you can.

欢迎关注我的其它发布渠道