3.网络爬虫——Requests模块get请求与实战

news/2024/7/4 7:45:10 标签: 爬虫, python, 云原生

Requests模块get请求与实战

    • requests简介:
    • 检查数据
    • 请求数据
    • 保存数据

前言: 前两章我们介绍了爬虫和HTML的组成,方便我们后续爬虫学习,今天就教大家怎么去爬取一个网站的源代码(后面学习中就能从源码中找到我们想要的数据)。
📝​📝​此专栏文章是专门针对Python零基础爬虫,欢迎免费订阅!
📝​📝第一篇文章获得全站热搜第一,python领域热搜第一,欢迎阅读!
🎈🎈欢迎大家一起学习,一起成长!!
在这里插入图片描述

urllib模块:

urllib是python的内置HTTP请求库,包含4个模块

request: http的请求模块,传入UPL及额外的参数,就模拟发送请求
error 异常处理模块,确保程序不会意外终止
parse : 一个工具模块,提供了许多URL处理方法。
robotparser : 用来识别robots.txt文件,判断那些网站可以爬

pycharm外部库的urilib下:
在这里插入图片描述

requests简介:

requests是一个Python第三方库,用于发送HTTP请求。它提供了一种简单而优雅的方式来发送HTTP/1.1请求,并且可以自动处理连接池和重定向等问题。requests库可以在Python 2.7和Python 3中使用,支持HTTP和HTTPS请求,支持Cookie、代理、SSL证书验证等功能。

使用requests库可以方便地发送GET、POST、PUT、DELETE等请求,并且支持上传文件和发送JSON数据等操作。通过requests库,我们可以轻松地与Web服务进行交互,获取数据或提交数据。requests库已经成为Python中最常用的HTTP客户端库之一,被广泛应用于Web开发、数据分析、爬虫等领域。

安装requests库:
点击终端,输入pip install requests
在这里插入图片描述

上面这就表示安装成功。

然后接下来安装requests镜像源:
如图所示,在终端输入代码,出现下面情况就代表安装完成。
在这里插入图片描述

检查数据

检查数据是否在链接里
1.数据不在链接中:

打开网页,右键点击检查,然后点击网络,刷新,接着选择第一个文档,点击预览,这个时候我们发现,左边的照片或者其他信息不在预览里面,这个时候我们就无法获得想要的数据了。这种数据就属于客户端渲染,

在这里插入图片描述

2.数据在链接中:
在这里插入图片描述

打开网页,点击右键,点击检查,然后点击左上角的小箭头,移动到左边我们需要的数据上面,如果右边代码中出现相应的代码,就说明数据就在代码中,接着我们就开始后面的操作,方便获取我们需要的数据。

请求数据

浏览器页面的网址一定是qet请求
举个栗子:(如何查看请求头,请求体,以及响应体,在第二节里面有详细介绍,此处以及后面就不在过多介绍,以免让文章太繁琐)
在这里插入图片描述

现在我们知道数据在链接中,我们就要通过链接去获取他:

python">import requests

url = 'http://slide.news.sina.com.cn'  # 我们需要数据的链接(就是我们需要爬取的链接,因为数据就在链接里面)

# 确认请求,get请求
html = requests.get(url)
print(html.text)  # 打印网页源代码
print(html.status_code)  # 状态码
if html.status_code == 200:
    print('数据访问成功')
else:
    print('请求失败了')

这段代码使用了Python第三方库requests,发送了一个HTTP GET请求,并获取了HTTP响应的正文和状态码,并根据状态码判断请求是否成功。其中,url是一个字符串类型的参数,表示要发送HTTP请求的URL地址。
使用requests.get()函数发送HTTP GET请求,并将HTTP响应对象赋值给变量html。
使用text属性获取HTTP响应正文,并将其打印出来。此外,使用status_code属性获取HTTP响应状态码,并将其打印出来。
根据HTTP响应状态码判断请求是否成功,如果状态码为200,则表示请求成功,否则表示请求失败。(状态码详情可查阅第二节,html页面组成)

在这里插入图片描述

python">import requests

url = 'http://slide.news.sina.com.cn'  # 我们需要数据的链接(就是我们需要爬取的链接,因为数据就在链接里面)

# 确认请求,get请求
html = requests.get(url)
print(html.text)  # 打印网页源代码
print(html.status_code)  # 状态码
if html.status_code == 200:
    print('数据访问成功')
else:
    print('请求失败了')
print(html.url)  # 访问的网址
print(html.request.headers)  # 输出请求头信息


使用url属性获取HTTP请求的URL地址,并将其打印出来。
然后,使用request.headers属性获取HTTP请求的请求头信息,并将其打印出来。request属性是HTTP响应对象的一个属性,表示该HTTP响应对象对应的HTTP请求对象。因此,html.request.headers表示HTTP请求的请求头信息。

在这里插入图片描述

在网页源代码中也能查看请求头,但是没有代码运行来的方便快捷。

在这里插入图片描述

请求头的作用
请求头是HTTP协议中的一个重要部分,它包含了HTTP请求的一些元信息,比如请求方法、请求地址、协议版本、请求头、请求体等。请求头可以帮助服务器理解客户端发送的HTTP请求,以便正确处理HTTP请求。

请求头的作用主要有以下几点:

  1. 指定请求方法和请求地址:请求头中包含了HTTP请求的方法(GET、POST、PUT、DELETE等)和请求地址,告诉服务器要执行哪种操作。

  2. 指定请求体和请求参数:请求头中还可以包含请求体和请求参数,用于向服务器传递数据。

  3. 指定请求头信息:请求头中还包含了一些元信息,比如用户代理、Cookie、Referer等,用于告诉服务器一些附加信息,以便服务器做出更好的响应。

  4. 安全性:请求头中可以包含一些安全相关的信息,比如身份验证、防止跨站点请求伪造(CSRF)等。

请求头对爬虫来说,就好像一个面具,去模仿人去浏览网站,就不会被网站发现,也可以理解为打开网站的钥匙,上面我们知道,数据在链接中,但是我们申请后,返回状态码是418,请求失败,所有我们现在戴上面具,或者说,拿着钥匙再去申请,看看能不能成功打开。

python">import requests
import chardet

url = 'http://slide.news.sina.com.cn/c/slide_1_86058_567500.html#p=1'
headers = {
    'User-Agent': 'python-requests/2.28.2',
    'Accept-Encoding': 'gzip, deflate',
    'Accept': '*/*',
    'Connection': 'keep-alive'
}
html = requests.get(url, headers=headers).content
encoding = chardet.detect(html)['encoding']
html = html.decode(encoding)

# 将网页内容写入文件中
with open('example.html', 'w', encoding='utf-8') as f:
    f.write(html)

现在就好比我们成功的进入到别人家里面,然后我们将要拿数据,现在先看一下代码里面的东西。

运行成功后,我们大概看一下,数据较多,不做过多展示,截取部分内容:
在这里插入图片描述

接着我们在里搜索我们想要的数据,例如:

在这里插入图片描述

红色方框里面就是我们需要的东西,我们可以点击查看一下:

在这里插入图片描述

现在我们找到了我们需要的数据,因为我们还没有学会数据解析,暂时不能提取,无法精确的获取想要的东西,今天就不在这里讲解,后面章节会讲怎么精确的拿取我们想要的数据

保存数据

输入文件保存的代码:

python">import requests
import chardet

url = 'http://slide.news.sina.com.cn/c/slide_1_86058_567500.html#p=1'
headers = {
    'User-Agent': 'python-requests/2.28.2',
    'Accept-Encoding': 'gzip, deflate',
    'Accept': '*/*',
    'Connection': 'keep-alive'
}
html = requests.get(url, headers=headers).content
encoding = chardet.detect(html)['encoding']
html = html.decode(encoding)
print(html)
# 将网页内容写入文件中
with open('example.html', 'w', encoding='utf-8') as f:
    f.write(html)

这段代码可以将 html 变量中的网页内容写入到名为 example.html 的文件中。具体来说,open() 函数用于打开文件,'w' 参数表示以写入模式打开文件,encoding='utf-8' 参数表示指定编码格式为 UTF-8。然后使用 write() 方法将网页内容写入文件中。with 语句用于自动关闭文件。

需要注意的是,如果该文件不存在,则会自动创建该文件;如果该文件已经存在,则会覆盖原文件中的内容。如果要在已经存在的文件中追加内容,可以将 'w' 参数改为 'a'

我们的文件就会保存到文件中(仅展示部分代码):

在这里插入图片描述

在这里插入图片描述

今天知识分享就到此结束,欲知后续如何,请听下回分析。
在这里插入图片描述
悲索之人烈焰加身,堕落者不可饶恕。永恒燃烧的羽翼,带我脱离凡间的沉沦。


http://www.niftyadmin.cn/n/146301.html

相关文章

maven依赖scope=compile和provided 区别

scope 的其他参数如下 compile 默认的 scope,表示 dependency (依赖) 都可以在生命周期中使用。而且,这些 dependencies 会传递到依赖的项目中。适用于所有阶段,会随着项目一起发布 provided 跟 compile 相似,但是表明了 depende…

想发一点酷官方网站--潘万丁

想发一点酷官方网站:xiangfa.cool

ctfshow【菜狗杯】misc

文章目录webweb签到web2 c0me_t0_s1gn我的眼里只有$抽老婆一言既出驷马难追TapTapTapWebshell化零为整无一幸免无一幸免_FIXED传说之下(雾)算力超群算力升级easyPytHon_P遍地飘零茶歇区小舔田?LSB探姬Is_Not_ObfuscateMisc杂项签到损坏的压缩…

【SWAT】SWAT中预定义河网及流域

Strahler分级 Strahler编码或Strahler数,可以用于描述河流的等级和流量,以及其他树状结构的分支等级。 对子流域进行编号的方法可以概括为以下几个步骤: 从流域出口开始,将其编号为1。沿着河网向上游遍历。 当遇到一个分叉点时&…

YGG 在确保 Web3 游戏生态系统安全方面的作用

作为区块链游戏最早的社区之一,Yield Guild Games (YGG)始终积极主动地建设、去中心化和保障web3生态系统。迄今为止,公会已与 80 多个游戏、基础设施项目和子公会合作,提供指导和资源以支持他们的持续发展。随着该行业的不断扩大&#xff0c…

【计算机图形学】绘制图形

模块0 绘制图案 一 实验目的 熟悉相关的图形软件的运行环境,掌握图形函数绘制图案的方法,包括图形初始化,画点、线、圆、填充等常用绘图函数二 实验要求 能利用图形函数,正确调试运行程序熟悉网站(http://www.easyx…

MySQL复合查询

文章目录基本查询回顾多表查询自连接子查询单行子查询多行子查询多列子查询在from子句中使用子查询合并查询unionunion all基本查询回顾 查询的员工部门表结构: mysql> show tables; ----------------- | Tables_in_scott | ----------------- | dept …

2023年3月西安/重庆/成都/深圳数据治理认证DAMA-CDGA/CDGP

弘博创新是DAMA中国授权的数据治理人才培养基地,贴合市场需求定制教学体系,采用行业资深名师授课,理论与实践案例相结合,快速全面提升个人/企业数据治理专业知识与实践经验,通过考试还能获得数据专业领域证书。 DAMA认…