怎么利用Python批量爬取网页图片

53次阅读
没有评论

共计 1072 个字符,预计需要花费 3 分钟才能阅读完成。

你可以使用 Python 的 requests 库来发起 HTTP 请求,并使用 BeautifulSoup 库来解析 HTML 文档以获取图片的 URL。
下面是一个简单的示例代码,用于批量爬取网页上的图片:

import requests
from bs4 import BeautifulSoup
import os
def download_image(url, save_dir):
response = requests.get(url)
filename = url.split("/")[-1]
filepath = os.path.join(save_dir, filename)
with open(filepath, "wb") as f:
f.write(response.content)
print(f"Downloaded {url} to {filepath}")
def get_image_urls(url):
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
img_tags = soup.find_all("img")
img_urls = [img["src"] for img in img_tags]
return img_urls
def batch_download_images(url, save_dir):
img_urls = get_image_urls(url)
for img_url in img_urls:
if not img_url.startswith("http"):
img_url = url + img_url  # 拼接相对路径
download_image(img_url, save_dir)
url = "https://example.com"  # 要爬取图片的网页
save_dir = "images"  # 图片保存的目录
batch_download_images(url, save_dir)

在代码中,get_image_urls函数用于获取网页上的所有图片 URL,download_image函数用于下载图片,batch_download_images函数用于批量下载图片。
你需要将 url 变量设置为要爬取图片的网页的 URL,将 save_dir 变量设置为图片保存的目录。然后运行 batch_download_images 函数即可开始批量爬取网页图片。
请注意,这只是一个简单的示例,实际中可能需要根据具体情况进行修改和完善。另外,爬取网页图片涉及到版权和合法问题,请确保你有权利或合法使用这些图片。

丸趣 TV 网 – 提供最优质的资源集合!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-12-22发表,共计1072字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)