python爬虫app下载_Python爬虫之抓取APP下载链接

   日期:2024-12-25    作者:dgbaojinghuagong 移动:http://3jjewl.riyuangf.com/mobile/quote/10577.html

前言

python爬虫app下载_Python爬虫之抓取APP下载链接

最近有个需求是批量下载安卓APP。显然,刀耕火种用手点是不科学的。于是尝试用Python写了一个半自动化的脚本。所谓半自动化,就是把下载链接批量抓取下来,然后一起贴到迅雷里进行下载,这样可以快速批量下载。

准备工作Python 2.7.11:下载python

Pycharm:下载Pycharm

其中python2和python3目前同步发行,我这里使用的是python2作为环境。Pycharm是一款比较高效的Python IDE,但是需要付费。

基本思路首先我们的目标网站:安卓市场

点击【应用】,进入我们的关键页面

安卓市场.png跳转到应用界面后我们需要关注三个地方,下图红色方框标出

应用页面.png

首先关注地址栏的URL,再关注免费下载按钮,然后关注底端的翻页选项。点击“免费下载”按钮就会立即下载相应的APP,所以我们的思路就是拿到这个点击下载的连接,就可以直接下载APP了。

编写爬虫第一个需要解决的点:我们怎么拿到上面说的下载链接?这里不得不介绍下浏览器展示网页的基本原理。说简单点,浏览器是一个类似解析器的工具,它得到HTML等代码的时候会按照相应的规则解析渲染,从而我们能够看到页面。

这里我使用的是谷歌浏览器,对着页面右键,点击“检查”,可以看到网页原本的HTML代码

HTML代码.png看到眼花缭乱的HTML代码不用着急,谷歌浏览器的审查元素有一个好用的小功能,可以帮我们定位页面控件对应的HTML代码位置

定位HTML代码.png

如上图所示,点击上方矩形框中的小箭头,点击页面对应的位置,在右边的HTML代码中就会自动定位并高亮。接下来我们定位到下载按钮对应的HTML代码

下载按钮对应HTML.png

首先使用python拿到整个页面的HTML,很简单,使用“requests.get(url)”,url填入相应网址即可。

requestHTML.png接着,在抓取页面关键信息的时候,采取“先抓大、再抓小”的思路。可以看到一个页面有10个APP,在HTML代码中对应10个item

list_item.png

而每个 li 标签中,又包含各自APP的各个属性(名称、下载链接等)。所以第一步,我们将这10个 li 标签提取出来:def geteveryapp(self,source):

everyapp = re.findall('(

)',source,re.S)        #everyapp2 = re.findall('(
.*?
)',everyapp,re.S)

return everyapp```

这里用到了简单的正则表达式知识,这里提供一个链接:[正则表达式入门](http://www.oschina.net/question/12_9507)

* 提取 li 标签中的下载链接

```codedef getinfo(self,eachclass):

info = {}

str1 = str(re.search('', eachclass).group(0))

app_url = re.search('"(.*?)"', str1).group(1)

appdown_url = app_url.replace('appinfo', 'appdown')

info['app_url'] = appdown_url

print appdown_url        return info接下来需要说的难点是翻页,点击下方的翻页按钮后我们可以看到地址栏发生了如下变化

原始URL.png

带ID的URL.png

豁然开朗,我们可以在每次的请求中替换URL中对应的id值实现翻页。def changepage(self,url,total_page):

now_page = int(re.search('pi=(d)', url).group(1))

page_group = []        for i in range(now_page,total_page+1):

link = re.sub('pi=d','pi=%s'%i,url,re.S)

page_group.append(link)        return page_group

爬虫效果关键位置说完了,我们先看下最后爬虫的效果

爬取结果.png

在TXT文件中保存结果如下

最终结果.png

直接复制进迅雷就可以批量高速下载了。

附上全部代码#-*_coding:utf8-*-import requestsimport reimport sys

reload(sys)

sys.setdefaultencoding("utf-8")class spider(object):

def __init__(self):

print u'开始爬取内容'

def getsource(self,url):

html = requests.get(url)        return html.text    def changepage(self,url,total_page):

now_page = int(re.search('pi=(d)', url).group(1))

page_group = []        for i in range(now_page,total_page+1):

link = re.sub('pi=d','pi=%s'%i,url,re.S)

page_group.append(link)        return page_group    def geteveryapp(self,source):

everyapp = re.findall('(

)',source,re.S)        return everyapp    def getinfo(self,eachclass):

info = {}

str1 = str(re.search('', eachclass).group(0))

app_url = re.search('"(.*?)"', str1).group(1)

appdown_url = app_url.replace('appinfo', 'appdown')

info['app_url'] = appdown_url        print appdown_url        return info    def saveinfo(self,classinfo):

= open('info.txt','a')

str2 "http://apk.hiapk.com"

for each in classinfo:

f.write(str2)

f.writelines(each['app_url'] ' ')

f.close()if __name__ ='__main__':

appinfo = []

url 'http://apk.hiapk.com/apps/MediaAndVideo?sort=5&pi=1'

appurl = spider()

all_links = appurl.changepage(url, 5)    for link in all_links:        print u'正在处理页面+ link

html = appurl.getsource(link)

every_app = appurl.geteveryapp(html)        for each in every_app:

info = appurl.getinfo(each)

appinfo.append(info)

appurl.saveinfo(appinfo)

总结

选取的目标网页相对结构清晰简单,这是一个比较基本的爬虫。代码写的比较乱,见谅。

作者:CaptainXero


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号