处理响应
Python 爬虫实例100例:探索数据抓取与分析的世界
Python作为一种强大的编程语言,拥有丰富的库支持和简洁的语法结构,使其成为进行网络爬虫开发的理想选择,本篇文章将详细介绍100个经典的Python爬虫实例,帮助读者深入了解如何使用Python编写高效、可靠的网络爬虫。
基础框架介绍
我们来了解一下常用的Python爬虫框架——Scrapy
。Scrapy
是一个开源的跨平台Web应用框架,主要用于构建大型动态网站的数据抓取任务,它具有模块化的结构,支持多种协议(如HTTP、HTTPS等)以及复杂的并发处理能力。
pip install scrapy
实例一:简单网页抓取
问题描述: 将某个网页上的所有文字内容提取出来并保存到本地文件中。
代码实现:
import requests from bs4 import BeautifulSoup def fetch_text(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') text = soup.get_text() return text if __name__ == "__main__": url = "https://example.com" with open("output.txt", "w") as file: file.write(fetch_text(url))
实例二:HTML解析与DOM操作
问题描述: 解析特定HTML文档中的表单信息,并提交表单以获取响应。
代码实现:
from urllib.parse import urlencode import requests data = {"username": "test_user", "password": "test_password"} url = "http://www.example.com/login" response = requests.post(url, data=urlencode(data)) print(response.text)
实例三:利用代理IP进行网页抓取
问题描述: 使用代理IP地址从互联网上抓取网页数据,提高数据采集效率。
代码实现:
proxies = { 'http': 'http://your_proxy_ip:port', 'https': 'https://your_proxy_ip:port' } try: response = requests.get('http://www.yourwebsite.com', proxies=proxies) except requests.exceptions.RequestException as e: print(e)
实例四:使用BeautifulSoup解析XML数据
问题描述: 提取XML文档中的标签属性值。
代码实现:
from bs4 import BeautifulSoup xml_data = """ <root> <person name="Alice" age="30"/> <person name="Bob" age="25"/> </root> """ soup = BeautifulSoup(xml_data, 'xml') for person in soup.find_all('person'): print(person.name, person['age'])
实例五:处理JavaScript渲染的网页
问题描述: 当网页被JavaScript渲染时,通过控制台访问原始HTML源码来获取所需数据。
代码实现:
import selenium from selenium.webdriver.common.keys import Keys driver = webdriver.Chrome() driver.get("https://example.com") # 使用JavaScript执行命令 element = driver.execute_script("return document.documentElement.outerHTML") print(element) driver.quit()
实例六:使用Selenium进行自动化测试
问题描述: 在不直接访问网页的情况下模拟用户行为。
代码实现:
from selenium import webdriver options = webdriver.ChromeOptions() options.add_argument("--start-maximized") driver = webdriver.Chrome(options=options) driver.get("https://example.com") input_box = driver.find_element_by_name("q") input_box.send_keys("selenium python") input_box.submit() results = driver.find_elements_by_css_selector(".result") for result in results:= result.find_element_by_tag_name("h3").text link = result.find_element_by_tag_name("a").get_attribute("href") print(title) print(link) print("-" * 50) driver.quit()
实例七:利用正则表达式提取特定格式的内容
问题描述: 自动化地从文本中提取符合预定义模式的信息。
代码实现:
import re pattern = r'[\w]+' with open("input.txt", "r") as file: content = file.read().replace('\n', '') matches = re.findall(pattern, content) for match in matches: print(match)
实例八:使用Requests库发送自定义请求
问题描述: 发送带有自定义头信息或参数的HTTP请求。
代码实现:
headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get("https://api.github.com/events", headers=headers) print(response.json())
实例九:使用Flask搭建轻量级Web服务
问题描述: 创建简单的Web服务用于存储和查询爬取的数据。
代码实现:
from flask import Flask, request, jsonify app = Flask(__name__) @app.route('/fetch', methods=['GET']) def fetch(): query = request.args.get('query') if not query: return jsonify({'error': 'Missing query parameter'}), 400 # Simulate fetching from database or API result = {'message': f'Retrieved {query} from the database'} return jsonify(result) if __name__ == '__main__': app.run(debug=True)
实例十:使用Pillow库处理图像
问题描述: 对网页图片进行下载和基本图像处理。
代码实现:
from PIL import Image img_path = "path/to/image.jpg" image = Image.open(img_path) width, height = image.size print(f"Image size: {width}x{height}") # Perform some operations here...
十个例子涵盖了Python爬虫的不同应用场景,包括网页抓取、数据解析、自动化测试、代理IP管理、JavaScript渲染处理、正则表达式匹配、自定义请求发送、Flask服务搭建以及图像处理等,每个实例都展示了如何在实际项目中有效地运用Python的爬虫功能,通过这些示例,读者可以对Python爬虫有更全面的认识和理解,为后续深入学习和实践打下坚实的基础。