写了个搜索聚合网络小说的应用。基本写好后,想看看追书神器大概怎么搞的,于是分析了一下追书神器的网络协议。
仅作学习交流,请勿滥用。
【禁止手机上其他应用网络请求,减少数据干扰】
#cat /data/system/packages.list | grep com.ushaqi.zhuishushenqi | busybox awk '{print $2}'
10193
iptables -t filter -I OUTPUT -j DROP //block all
iptables -t filter -I OUTPUT -m owner --uid-owner=10193 -j ACCEPT //allow 追书神器
iptables -t filter -I OUTPUT -p udp -m owner --uid-owner=0 -j ACCEPT //allow dns
【抓包】
/data/misc/bin/tcpdump -n -iany -w/sdcard/alipay_wifi.pcap
【操作】
进入"完美世界"页面
5:34:50pm 打开来自snwx.com的章节列表
5:36:32pm 打开来自hunhun.net章节列表
5:37:15pm, 打开snwx.com, 1650章
5:38:50pm, 打开hunhun.net 1576章
结束,取结果
【分析】
【图书详情获取】
【源列表】--点击开始阅读
同一本书不同源的有不同的id,相同的book有个总的id,不同源的与总id关联
【源站章节列表】
【章节内容获取】
图书转码通过服务器(chapter2.zhuishushengqi.com)中转
发现我们目前的做法差不多。
在考虑要不要把文章内容的解析做到手机终端来,做一套智能分析规则,由服务器下发到终端,这样终端直接去源网页获取章节页面,根据规则提取章节内容。
优点是排除盗版之嫌,节省服务器资源
缺点是网页内容规则改变了,预先设计的规则不一定能有效了。