分享好友 最新动态首页 最新动态分类 切换频道
超级简单的Python爬虫入门教程(非常详细),通俗易懂,看一遍就会了
2024-12-27 09:25

1、什么是爬虫

爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序。

从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码/JSON数据/二进制数据(图片、视频) 爬到本地,进而提取自己需要的数据,存放起来使用。

2、爬虫基本流程

用户获取网络数据的方式

方式1:浏览器提交请求—>下载网页代码—>解析成页面

方式2:模拟浏览器发送请求(获取网页代码)->提取有用的数据->存放于数据库或文件中

爬虫要做的就是方式 2

入门python爬虫,10分钟就够了,这可能是我见过最简单的基础教学

1、发起请求

使用http库向目标站点发起请求,即发送一个Request

Request包含:请求头、请求体等

Request模块缺陷:不能执行JS 和CSS 代码

2、获取响应内容

如果服务器能正常响应,则会得到一个Response

Response包含:html,json,图片,视频等

3、解析内容

解析html数据:正则表达式(RE模块)、xpath(主要使用)、beautiful soup、css

解析json数据:json模块

解析二进制数据:以wb的方式写入文件

4、保存数据

数据库(MySQL,Mongdb、Redis)或 文件的形式。


如果你也喜欢编程,想通过学习Python转行、做副业或者提升工作效率,我也为大家整理了一份【最新全套Python学习资料】一定对你有用

对于0基础小白入门

如果你是零基础小白,想快速入门Python是可以考虑的

1、学习时间相对较短,学习内容更全面更集中

2、可以找到适合自己的学习方案

Request:用户将自己的信息通过浏览器(socket client)发送给服务器(socket server

Response:服务器接收请求,分析用户发来的请求信息,然后返回数据(返回的数据中可能包含其他链接,如:图片,js,css等

ps:浏览器在接收Response后,会解析其内容来显示给用户,而爬虫程序在模拟浏览器发送请求然后接收Response后,是要提取其中的有用数据。

对Python感兴趣或者是正在学习的小伙伴,可以加入我们的Python学习扣qun:784758214,从0基础的python脚本到web开发、爬虫、django、数据挖掘数据分析等,0基础到项目实战的资料都有整理。送给每一位python的小伙伴!每晚分享一些学习的方法和需要注意的小细节,学习路线规划,利用编程赚外快。快点击加入我们的 python学习圈

1、request

(1)请求方式

常见的请求方式:GET / POST

(2)请求的URL

url全球统一资源定位符,用来定义互联网上一个唯一的资源 例如:一张图片、一个文件、一段视频都可以用url唯一确定

(3)请求头

User-agent:请求头中如果没有user-agent客户端配置,服务端可能将你当做一个非法用户host

cookies:cookie用来保存登录信息

注意:一般做爬虫都会加上请求头。

请求头需要注意的参数

Referrer:访问源至哪里来(一些大型网站,会通过Referrer 做防盗链策略;所有爬虫也要注意模拟

User-Agent:访问的浏览器(要加上否则会被当成爬虫程序

cookie:请求头注意携带

(4)请求体

请求体 如果是get方式,请求体没有内容 (get请求的请求体放在 url后面参数中,直接能看到) 如果是post方式,请求体是format data

ps:1、登录窗口,文件上传等,信息都会被附加到请求体内 2、登录,输入错误的用户名密码,然后提交,就可以看到post,正确登录后页面通常会跳转,无法捕捉到post

2、response

(1)响应状态码

200:代表成功

301:代表跳转

404:文件不存在

403:无权限访问

502:服务器错误

(2)response header

响应头需要注意的参数:Set-Cookie:BDSVRTM=0; path=/:可能有多个,是来告诉浏览器,把cookie保存下来

(3)preview就是网页源代码

json数据

如网页html,图片

二进制数据等。

1、requests

requests是python实现的简单易用的HTTP库,是由urllib的升级而来。

开源地址:https://github.com/pydmy…

中文API:http://docs.python-requests.o…

2、re 正则表达式

在 Python 中使用内置的 re 模块来使用正则表达式。

缺点:处理数据不稳定、工作量大

3、XPath

Xpath(XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

在python中主要使用 lxml 库来进行xpath获取(在框架中不使用lxml,框架内直接使用xpath即可

lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

4、BeautifulSoup

和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。

使用BeautifulSoup需要导入bs4库

缺点:相对正则和xpath处理速度慢

优点:使用简单

5、Json

JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台之间的数据交互。

在python中主要使用 json 模块来处理 json数据。Json解析网站

https://www.sojson.com/simple…

6、threading

使用threading模块创建线程,直接从threading.Thread继承,然后重写__init__方法和run方法

1、get方法实例

demo_get.py

2、post方法实例

demo_post.py

3、添加代理

demo_proxies.py

4、获取ajax类数据实例

demo_ajax.py

5、使用多线程实例

demo_thread.py

1、Srcapy框架

Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。

Scrapy 使用了 Twisted’twɪstɪd异步网络框架来处理网络通讯,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成各种需求。

2、Scrapy架构图

3、Scrapy主要组件

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。

Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

Downloader(下载器:负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理

Spider(爬虫:它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器)

Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

Downloader Middlewares(下载中间件:你可以当作是一个可以自定义扩展下载功能的组件。

Spider Middlewares(Spider中间件:你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests

4、Scrapy的运作流程

引擎:Hi!Spider, 你要处理哪一个网站

Spider:老大要我处理xxxx.com

引擎:你把第一个需要处理的URL给我吧

Spider:给你,第一个URL是xxxxxxx.com

引擎:Hi!调度器,我这有request请求你帮我排序入队一下

调度器:好的,正在处理你等一下

引擎:Hi!调度器,把你处理好的request请求给我

调度器:给你,这是我处理好的request

引擎:Hi!下载器,你按照老大的下载中间件的设置帮我下载一下这个request请求

下载器:好的!给你,这是下载好的东西。(如果失败:sorry,这个request下载失败了。然后引擎告诉调度器,这个request下载失败了,你记录一下,我们待会儿再下载

引擎:Hi!Spider,这是下载好的东西,并且已经按照老大的下载中间件处理过了,你自己处理一下(注意!这儿responses默认是交给de
parse()这个函数处理的

Spider(处理完毕数据之后对于需要跟进的URL,Hi!引擎,我这里有两个结果,这个是我需要跟进的URL,还有这个是我获取到的Item数据

引擎:Hi !管道
我这儿有个item你帮我处理一下!调度器!这是需要跟进URL你帮我处理下。然后从第四步开始循环,直到获取完老大需要全部信息

管道``调度器:好的,现在就做

5、制作Scrapy爬虫4步曲

1、新建爬虫项目scrapy startproject mySpider
2、明确目标 (编写items.py)打开mySpider目录下的items.py
3、制作爬虫 (spiders/xxspider.py)scrapy genspider gushi365 “gushi365.com”
4、存储内容 (pipelines.py)设计管道存储爬取内容

1、fidder

fidder是一款抓包工具,主要用于手机抓包。

2、XPath Helper

xpath helper插件是一款免费的chrome爬虫网页解析工具。可以帮助用户解决在获取xpath路径时无法正常定位等问题。

谷歌浏览器插件xpath helper 的安装和使用:https://jingyan.baidu.com/art…

在学习过程中有什么不懂得可以加我的python学习扣扣qun,784758214群里有不错的学习视频教程、开发工具与电子书籍。与你分享python企业当下人才需求及怎么从零基础学习好python,和学习什么内容

1、scrapy-redis

Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而提供了一些以redis为基础的组件(pip install scrapy-redis

2、分布式策略

Master端(核心服务器) :搭建一个Redis数据库,不负责爬取,只负责url指纹判重、Request的分配,以及数据的存储。

以下是我整理的python爬虫入门学习资料,都已经整理并打包好了。


点击免费领取《CSDN大礼包》

最新全套【Python入门到进阶资料 & 实战源码 &安装工具】


1、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

2、Python课程视频

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

3、全套PDF电子书

书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。

4、清华编程大佬出品《漫画看学Python》

用通俗易懂的漫画,来教你学习Python,让你更容易记住,并且不会枯燥乏味。

5、Python实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

6、互联网企业面试真题

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。


如果你觉得这篇文章有帮助,可以点个赞呀~

最新文章
百度收录慢?加速内容曝光的秘诀大公开! 百度收录很慢
百度收录为何迟缓?深度剖析与应对策略在当今信息爆炸的时代,搜索引擎已成为连接用户与海量信息的桥梁,而百度作为中国最大的搜索引擎,其收录速度直接影响到无数网站的内容曝光度和流量获取然而,不少网站管理员和内容创作者常常抱怨“百
百度蜘蛛池租用:万词霸屏推广蜘蛛池,揭秘高效SEO策略,助您轻松实现网络流量翻倍!
万词霸屏推广蜘蛛池助力SEO优化,高效策略翻倍网络流量,轻松实现网站快速排名!本文目录导读:什么是万词霸屏推广蜘蛛池?万词霸屏推广蜘蛛池的优势如何搭建万词霸屏推广蜘蛛池?在互联网时代,网络营销已成为企业发展的关键,如何提高网
百度网盘清爽精简纯净版
百度网盘清爽精简纯净版是一款百度公司推出的一款个人云服务产品。支持便捷地查看、上传、下载百度云端各类数据。通过百度网盘PC客户端存入的文件,不会占用本地空间。上传、下载文件过程更稳定,百度网盘不会因为浏览器、网络等突发问题中
模块不存在:know
Server/Request DataUSERwwwHOME/home/wwwSCRIPT_NAME/index.phpREQUEST_URI/know/huwei/20240911/56875.shtmlQUERY_STRINGs=/know/huwei/20240911/56875.shtmlREQUEST_METHODGETSERVER_PROTOCOLHTTP/1.1GATEWAY_INTERFACECGI/1.1REDIRECT_
(转载)图像检索:基于内容的图像检索技术
在Web2.0时代,尤其是随着Flickr、Facebook等社交网站的流行,图像、视频、音频、文本等异构数据每天都在以惊人的速度增长。例如, Facebook注册用户超过10亿,每月上传超过10亿的图片;Flickr图片社交网站2015年用户上传图片数目达7.28亿
怎样消除百度收录 彻底告别百度收录?这些策略助你隐形于搜索
怎样有效消除百度收录:全方位策略与行动指南在数字化时代,网站内容的被搜索引擎收录是提升网站曝光度和流量的重要途径然而,在某些情况下,我们可能需要消除百度对特定文章的收录,无论是出于版权保护、隐私安全还是SEO优化的考虑本文将
重庆SEO优化助力企业抢占网络市场巅峰
重庆网络SEO优化排名助力企业,通过专业技术提升网站排名,精准定位目标用户,抢占网络市场先机,实现品牌影响力与业绩的双提升。随着互联网技术的迅猛进步,企业对于网络营销的重视程度日益加深,许多企业致力于通过提升网站排名,以期增
【Aero翼支付下载】戴尔Aero翼支付10.93.60免费下载
翼支付是中国电信旗下的数字生活服务平台,致力于为用户提供优惠、便捷、安全的综合性移动支付业务。有玩有买福利多--全新购物商城,超值好物秒杀,逛玩家乡特产、精品大牌,更有超值星期五、嗨购生活节等福利活动;--天天团爆款,乐享霸王
蜻蜓fm听书app
蜻蜓fm听书app,一般又称蜻蜓FM。
物流一件代发是什么,看完你就了解了[物流知识]
物流一件代发是什么,在电子商务蓬勃发展的今天,物流行业作为连接商家与消费者的桥梁,其重要性日益凸显。随着消费者对购物体验要求的不断提高,以及商家对成本控制和效率提升的迫切需求,物流一件代发模式应运而生,并逐渐成为电商物流领
相关文章
推荐文章
发表评论
0评