共计 1171 个字符,预计需要花费 3 分钟才能阅读完成。
要使用 Python 抓取网页内容并保存到 CSV 文件,可以按照以下步骤进行操作:
- 导入所需的库,包括
requests
用于发送 HTTP 请求,csv
用于操作 CSV 文件。
import requests
import csv
- 发送 HTTP 请求获取网页内容,并将其存储在一个变量中。可以使用
requests.get()
方法来发送 GET 请求,并使用.text
属性来获取网页内容。
url = "http://example.com" # 替换为需要抓取的网页 URL
response = requests.get(url)
content = response.text
- 解析网页内容,提取所需的数据。可以使用 Python 内置的字符串操作方法或者使用第三方库(如
BeautifulSoup
)来解析网页。
# 使用示例:使用正则表达式从网页内容中提取所有的链接
import re
pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)
- 创建一个 CSV 文件,并将数据写入其中。可以使用
csv.writer
对象来写入 CSV 文件,通过调用其writerow()
方法来写入一行数据。
filename = "data.csv" # 替换为所需的 CSV 文件名
with open(filename, 'w', newline='') as file:
writer = csv.writer(file)
writer.writerow(["Link"]) # 写入表头
for link in links:
writer.writerow([link]) # 写入数据
完整的代码示例:
import requests
import csv
import re
url = "http://example.com" # 替换为需要抓取的网页 URL
response = requests.get(url)
content = response.text
pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)
filename = "data.csv" # 替换为所需的 CSV 文件名
with open(filename, 'w', newline='') as file:
writer = csv.writer(file)
writer.writerow(["Link"]) # 写入表头
for link in links:
writer.writerow([link]) # 写入数据
运行上述代码后,会在当前目录下生成一个名为 "data.csv" 的文件,其中包含了抓取到的网页链接信息。根据实际需求,可以调整代码来提取其他所需的数据并写入 CSV 文件。
丸趣 TV 网 – 提供最优质的资源集合!
正文完