前言大家早好、午好、晚好吖 ❤ ~ 环境使用:
模块使用:
基本思路流程: <通用的>二. 代码实现步骤
代码展示导入模块 # 导入数据请求模块 --> 第三方模块, 需要安装 pip install requests
import requests
# 导入数据解析模块 --> 第三方模块, 需要安装 pip install parsel
import parsel
# 导入文件操作模块 --> 内置模块, 不需要安装
import os
请求链接 <目录页url>
伪装模拟 headers = {
# user-agent 用户代理, 表示浏览器基本身份信息 Chrome 浏览器名字 101.0.0.0 浏览器版本 Windows 电脑系统
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
发送请求
提取漫画名字 name = selector.css('.de-info__box .comic-title::text').get()
自动创建文件夹 以漫画名字作为文件夹名
第一次提取所有li标签, 返回是对象, 我不需要提取li标签里的内容 lis = selector.css('.chapter__list .chapter__list-box .chapter__item')
如何一个一个提取列表当中元素? for循环遍历
请求链接: 漫画集合链接 --> f'{}' 字符串格式化方法, 相当于, 把chapter_id传入link这段字符串当中 link = f'https://comic.******.com/chapter/content/v1/?chapter_id={chapter_id}&comic_id=208707&format=1&quality=1&sign=5a5b72c44ad43f6611f1e46dd4d457bf&type=1&uid=61003965'
发送请求
for循环遍历, 一个一个提取列表元素 for index in json_data['data']['page']:
# 字典取值
image = index['image']
img_content = requests.get(url=image).content
with open(file + chapter_title + str(num) + '.jpg', mode='wb') as f:
f.write(img_content)
num += 1
print(image)
效果展示尾语 💝好了,今天的分享就差不多到这里了! 完整代码、更多资源、疑惑解答直接点击下方名片自取即可。 宁外给大家推荐一个好的教程: 【48小时搞定全套教程!你和大佬只有一步之遥【python教程】 有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง ·_·)ง 喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!! |
|
来自: NeighborMrSun > 《Python爬虫》