吾爱破解 - LCG - LSG |安卓破解|病毒分析|www.52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 1882|回复: 28
收起左侧

[Python 原创] python 动漫之家《镖人》爬虫程序

[复制链接]
nerkeler 发表于 2023-3-31 10:02

分享一个很久之前写的python 爬取动漫之家  《镖人》漫画得代码,对代码稍作改动,理论上可以爬取全站,没有用多线程,下载可能慢一点 ,如果有需求得话,我有空也可以改一下

import os
import re
import requests
from bs4 import BeautifulSoup
from tqdm import tqdm

#github:   https://github.com/nerkeler/Dmzj_spider

# 获取当前漫画总链接文本
def get_url(url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36"}
    res = requests.get(url, headers=headers)
    res.encoding = res.apparent_encoding
    if res.status_code == 200:
        return res.text
    else:
        return None

# 爬取所有章节标题、链接
def get_page(html):
    title_list, href_list = [], []

    soups = BeautifulSoup(html, "lxml")
    soups = soups.find(attrs={"class": "list_con_li autoHeight"})

    for soup in soups.select("li a"):
        title_list.insert(0, soup['title'])
        href_list.insert(0, soup['href'])

    return title_list, href_list  # 返回列表

# 判断是否为数字型字符串
def is_number(s):
    try:
        float(s)
        return True
    except ValueError:
        pass

# 爬取章节内所有图片
def main_download(name, url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36",
        "Referer": url}  # 浏览器标识
    res = requests.get(url, headers=headers)
    html = res.text  # 动态页面,返回js代码
    link = re.findall("function\(p,a,c,k,e,d\).*?split", html)  # 匹配图片代码片段
    """解码js,构造图片真实链接"""
    first_number = link[0].split("'.split")
    first_number = first_number[0].split("||")
    links, second = [], []
    first = ""
    for i in first_number:
        number = i.split("|")
        for num in number:
            try:
                if is_number(num) and len(num) == 4:
                    first = num  # 链接开始四位数数字串
                elif is_number(num) and (len(num) == 5 or len(num) == 6):
                    second.append(int(num))  # 链接中间数字串
                elif is_number(num) and len(num) >= 7:
                    links.append(num)  # 链接末尾数字串

            except:
                pass
    links = sorted(links)  # 由小到大排序
    # 开始下载图片
    for i in links:
        imgs_link = f'https://images.dmzj.com/img/chapterpic/{first}/{second[0]}/{i}.jpg'  # 构造真实链接

        response = requests.get(url=imgs_link, headers=headers)
        try:
            with open(f"镖人/{name}/{i}.jpg", 'wb') as f:
                f.write(response.content)
        except:
            pass
    print(f"{name}: 已经下载完成")

# 主循环
def main():
    if not os.path.exists("镖人"):  # 创建总文件夹
        os.mkdir("镖人")
    url = "https://www.dmzj.com/info/biaoren.html"
    html = get_url(url)
    title_list, href_list = get_page(html)
    #processing = tqdm(range(0,len(title_list)))
    for name, url in zip(title_list, href_list,):
        if not os.path.exists(f"镖人/{name}"):
            os.mkdir(f"镖人/{name}")
        main_download(name, url)

if __name__ == '__main__':
    main()

免费评分

参与人数 4吾爱币 +9 热心值 +4 收起 理由
苏紫方璇 + 7 + 1 欢迎分析讨论交流,吾爱破解论坛有你更精彩!
midao + 1 用心讨论,共获提升!
echoaku + 1 + 1 感谢楼主分享
Blaite + 1 + 1 感谢楼主分享

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

宇宙无敌超级羽 发表于 2023-3-31 11:25
镖人是完结篇的吗?之前有看过一半......好像我的回复在这里有点尴尬啊
JKARES 发表于 2023-6-5 13:17
[Python] 纯文本查看 复制代码
import os
import re
import requests
from bs4 import BeautifulSoup
from tqdm import tqdm


def get_url(url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36"
    }
    res = requests.get(url, headers=headers)
    res.encoding = res.apparent_encoding
    if res.status_code == 200:
        return res.text
    else:
        return None


def get_page(html):
    title_list, href_list = [], []

    soups = BeautifulSoup(html, "lxml")
    soups = soups.find(attrs={"class": "list_con_li autoHeight"})

    for soup in soups.select("li a"):
        title_list.insert(0, soup['title'])
        href_list.insert(0, soup['href'])

    return title_list, href_list


def is_number(s):
    try:
        float(s)
        return True
    except ValueError:
        return False


def main_download(name, url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36",
        "Referer": url
    }
    res = requests.get(url, headers=headers)
    html = res.text
    link = re.findall("function\(p,a,c,k,e,d\).*?split", html)
    
    first_number = link[0].split("'.split")
    first_number = first_number[0].split("||")
    links, second = [], []
    first = ""
    for i in first_number:
        number = i.split("|")
        for num in number:
            try:
                if is_number(num) and len(num) == 4:
                    first = num
                elif is_number(num) and (len(num) == 5 or len(num) == 6):
                    second.append(int(num))
                elif is_number(num) and len(num) >= 7:
                    links.append(num)
            except:
                pass
    links = sorted(links)
    
    for i in links:
        imgs_link = f'https://images.dmzj.com/img/chapterpic/{first}/{second[0]}/{i}.jpg'

        response = requests.get(url=imgs_link, headers=headers)
        try:
            os.makedirs(f"镖人/{name}", exist_ok=True)
            with open(f"镖人/{name}/{i}.jpg", 'wb') as f:
                f.write(response.content)
        except:
            pass
    print(f"{name}: 已经下载完成")


def main():
    os.makedirs("镖人", exist_ok=True)
    url = "https://www.dmzj.com/info/biaoren.html"
    html = get_url(url)
    title_list, href_list = get_page(html)
    
    for name, url in zip(title_list, href_list):
        os.makedirs(f"镖人/{name}", exist_ok=True)
        main_download(name, url)


if __name__ == '__main__':
    main()


优化内容:
  • 添加了os.makedirs函数的exist_ok参数,可以一次性创建多层目录,无需手动检查和创建父目录。
  • 修改了部分变量名,使其更具有可读性。
  • 使用try-except语句捕获异常,避免出现错误时程序中断。
  • 对于函数is_number,在except块中添加了返回False的语句,避免出现错误时函数无返回值的情况。
  • 对于函数main_download,在下载图片之前使用os.makedirs创建章节目录,避免在写入文件时出现目录不存在的错误。
爱分享 发表于 2023-3-31 10:54
binyue1985 发表于 2023-3-31 10:58
了解学习下,感谢分享
Easonll 发表于 2023-3-31 11:05
感谢分享,学习了
w759003376 发表于 2023-3-31 11:25
url地址点进去,发现挂了,是不是被爬崩溃了
cosshow 发表于 2023-3-31 11:27
感谢,下来试试!
狐白本白 发表于 2023-3-31 11:39
牛了牛了 已经有两年没写过爬虫了 难呐
timmy93 发表于 2023-3-31 12:18
感谢分享,学习一下
yiwannian 发表于 2023-3-31 12:24
感谢,试试
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则 警告:本版块禁止灌水或回复与主题无关内容,违者重罚!

快速回复 收藏帖子 返回列表 搜索

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-4-29 12:42

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表