一篇文章教会你利用Python网络爬虫获取分类图片

Python进阶学习交流
关注

【四、涉及的库和网站】

1、网址如下:

https://www.doutula.com/photo/list/?page={}

2、涉及的库:requests、lxml、fake_useragent、time、os

3、软件:PyCharm

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。导入需要的库和网址,创建保存文件夹。import requests, osfrom lxml import etreefrom fake_useragent import UserAgentimport timeclass bnotiank(object):    def __init__(self):        os.mkdir("图片")  # 在创建文件夹 记住只有第一次运行加上,如果多次运行请注释掉本行。    def main(self):          passif __name__ == '__main__':    Siper=bnotiank()    Siper.main()

2、随机UserAgent ,构造请求头,防止反爬。    ua = UserAgent(verify_ssl=False)    for i in range(1, 50):        self.headers = {            'User-Agent': ua.random        }

3、发送请求 ,获取响应,页面回调,方便下次请求。   '''发送请求  获取响应'''    def get_page(self, url):        res = requests.get(url=url, headers=self.headers)        html = res.content.decode("utf-8")        return html

4、定义parse_page函数,获取二级页面地址,for遍历获取需要的字段。

def parse_page(self, html):        parse_html = etree.HTML(html)        image_src_list = parse_html.xpath('//p/a/@href')        # print(image_src_list)

5、对二级页面发生请求,xpath解析数据,获取大图片链接。

reo = parse_html1.xpath('//div//div[@class="content"]') #父结点    for j in reo:        d = j.xpath('.//article[@class="article-content"]//p/img/@src')[0]        text = parse_html1.xpath('//h1[@class ="article-title"] //a/text()')[0].strip()

6、请求图片地址,写入文档。

html2 = requests.get(url=d, headers=self.headers).content    dirname = "./d/" + text + ".jpg" #定义图命名    with open(dirname, 'wb') as f:        f.write(html2)        print("%s 【下载成功!!!!】" % text)

7、调用方法,实现功能。    url = self.url.format(page)    print(url)    html = self.get_page(url)    self.parse_page(html)

8、设置延时。(防止ip被封)。

time.sleep(1) """时间延时"""

【六、效果展示】

1、点击绿色小三角运行输入起始页,终止页。

2、将下载成功信息显示在控制台。

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存