广告位联系
返回顶部
分享到

Python中网络请求的12种方式

python 来源:互联网 作者:佚名 发布时间:2024-07-31 21:19:25 人浏览
摘要

1. 使用requests模块的基础请求 1 2 import requests; response = requests.get(https://api.example.com/data) 这是最基本的网络请求,用requests.get()函数向指定URL发送GET请求,response里装的就是响应数据。 2. GET请求带

1. 使用requests模块的基础请求

1

2

import requests;

response = requests.get('https://api.example.com/data')

这是最基本的网络请求,用requests.get()函数向指定URL发送GET请求,response里装的就是响应数据。

2. GET请求带参数

1

2

params = {'key': 'value'};

response = requests.get('https://example.com/search', params=params)

通过字典params传递查询参数,简单又高效。

3. POST请求发送数据

1

2

data = {'username': 'learner'};

response = requests.post('https://example.com/login', data=data)

POST请求常用于提交数据,比如登录表单,这里用data字典携带你的信息。

4. 设置请求头

1

2

headers = {'User-Agent': 'MyBot/0.1'};

response = requests.get('https://example.com', headers=headers)

模拟浏览器或添加特定的请求头,有时候是访问某些网站的关键。

5. 处理JSON响应

1

2

response = requests.get('https://api.example.com/data');

print(response.json())

直接用.json()方法解析JSON格式的响应,方便快捷。

6. 下载文件

1

2

with open('image.jpg', 'wb')

as f: f.write(requests.get('https://example.com/image.jpg', stream=True).content)

流式下载大文件,避免内存爆棚,记得以二进制模式打开文件哦。

7. 超时设置

1

response = requests.get('https://slow.example.com', timeout=3)

耐心有限,3秒内没响应就放弃,避免程序挂起。

8. 使用代理

1

proxies = {'http': 'http://proxy.example.com:8080', 'https': 'https://proxy.example.com:8080'}; response = requests.get('https://example.com', proxies=proxies)

当你需要通过代理服务器访问时,这个技巧很实用。

9. 自动处理重定向

1

response = requests.get('https://redirect-me.example.com', allow_redirects=False)

默认情况下会自动重定向,加allow_redirects=False可以控制是否跟随重定向。

10. 发送认证信息

1

response = requests.get('https://protected.example.com', auth=('user', 'pass'))

问需要认证的页面,用户名密码一提交,轻松搞定。

11. 会话管理(保持Cookie)

1

2

3

with requests.Session() as s:

    s.get('https://login.example.com')

    response = s.get('https://profile.example.com')

使用Session对象,可以维持登录状态,访问受限资源。

12. 错误处理

1

2

3

4

try:

    response = requests.get('https://never.exists.com')

except requests.exceptions.RequestException as e:

    print(e)

优雅地处理请求过程中可能遇到的错误,让你的程序更加健壮。

实战案例:网页内容抓取

想象一下,你想从一个博客网站上抓取最新的文章标题。假设这个网站的每篇文章链接都在一个类名为'article-title'的HTML元素中。你可以这样做:

1

2

3

4

5

6

7

8

from bs4 import BeautifulSoup; import requests

  

url = 'https://example-blog.com/latest'

response = requests.get(url)

soup = BeautifulSoup(response.text, 'html.parser')

  

titles = [title.text for title in soup.find_all(class_='article-title')]

print(titles)

这段代码首先发送GET请求获取网页内容,然后使用BeautifulSoup解析HTML,最后通过列表推导式提取所有文章标题。这就是一个简单的网络爬虫雏形。

练习技巧与方法提示

  • 分步调试:在复杂的请求逻辑中,分步执行并打印中间结果,有助于理解流程。

  • **使用requests.Session**:在频繁请求同一站点时,使用Session可以提高效率,减少握手时间。

  • 错误日志:记录请求过程中的错误,有助于排查问题。可以使用Python的logging模块。

注意事项

  • 遵守Robots协议(robots.txt):尊重网站规则,不爬取禁止抓取的内容。

  • 请求频率:合理控制请求间隔,避免对目标网站造成过大压力,可能导致IP被封禁。

  • 数据处理:获取的数据可能需要清洗和格式化,确保数据质量。

  • 安全性:在处理HTTP请求时,注意SSL证书验证,防止中间人攻击。

高级技巧:异步请求

随着Python的asyncio库的普及,异步请求成为提高效率的新方式。虽然不是“一行代码”,但了解其重要性是必要的。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

import aiohttp

import asyncio

  

async def fetch(session, url):

    async with session.get(url) as response:

        return await response.text()

  

async def main():

    async with aiohttp.ClientSession() as session:

        html = await fetch(session, 'https://example.com')

        print(html)

  

loop = asyncio.get_event_loop()

loop.run_until_complete(main())

这段代码展示了如何使用aiohttp库进行异步HTTP请求,大幅提升了并发请求的能力,适用于大量请求的场景。


版权声明 : 本文内容来源于互联网或用户自行发布贡献,该文观点仅代表原作者本人。本站仅提供信息存储空间服务和不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权, 违法违规的内容, 请发送邮件至2530232025#qq.cn(#换@)举报,一经查实,本站将立刻删除。
原文链接 :
相关文章
  • 本站所有内容来源于互联网或用户自行发布,本站仅提供信息存储空间服务,不拥有版权,不承担法律责任。如有侵犯您的权益,请您联系站长处理!
  • Copyright © 2017-2022 F11.CN All Rights Reserved. F11站长开发者网 版权所有 | 苏ICP备2022031554号-1 | 51LA统计