700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 爬取动漫美女 手把手教你用Python网络爬虫获取动漫图片

爬取动漫美女 手把手教你用Python网络爬虫获取动漫图片

时间:2022-07-18 23:49:57

相关推荐

爬取动漫美女 手把手教你用Python网络爬虫获取动漫图片

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理

以下文章来源于腾讯云 作者:砸漏

( 想要学习Python?Python学习交流群:1039649593,满足你的需求,资料都已经上传群文件流,可以自行下载!还有海量最新python学习资料。 )

引言

之前有些无聊(呆在家里实在玩的腻了),然后就去B站看了一些python爬虫视频,没有进行基础的理论学习,也就是直接开始实战,感觉跟背公式一样的进行爬虫,也算行吧,至少还能爬一些东西,hhh。我今天来分享一个我的爬虫代码。

正文

话不多说,直接上完整代码

ps:这个代码有些问题 每次我爬到fate的图片它就给我报错,我只好用个try来跳过了,如果有哪位大佬能帮我找出错误并给与纠正,我将不胜感激

import requests as rimport reimport osimport timefile_name = "动漫截图"if not os.path.exists(file_name):os.mkdir(file_name)for p in range(1,34):print("--------------------正在爬取第{}页内容------------------".format(p))url = '/shot/recommend?page={}'.format(p)headers = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.162 Safari/537.36"}resp = r.get(url, headers=headers) html = resp.textimages = re.findall('data-original="(.*?)" ', html)names =re.findall('title="(.*?)"', html)#print(images)#print(names)dic = dict(zip(images, names))for image in images:time.sleep(1)print(image, dic[image])name = dic[image]#name = image.split('/')[-1]i = r.get(image, headers=headers).contenttry:with open(file_name + '/' + name + '.jpg' , 'wb') as f:f.write(i)except FileNotFoundError:continue

先导入要使用的库

import requests as rimport reimport osimport time

然后去分析要去爬的网址: /shot/recommend

下图是网址的内容:

好了 url已经确定

下面去寻找headers

找到user-agent 将其内容复制到headers中

第一步就完成了

下面是代码展示

url = '/shot/recommend?page={}'.format(p)headers = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.162 Safari/537.36"}

然后检索要爬的图片内容

从上图就可以找到图片的位置:data-origina=后面的内容

以及图片的名字:title=后面的内容

然后用正则表达式re来检索就行了

images = re.findall('data-original="(.*?)" ', html)names =re.findall('title="(.*?)"', html)

最后将其保存就好了

i = r.get(image, headers=headers).contentwith open(file_name + '/' + name + '.jpg' , 'wb') as f:f.write(i)

还有就是一些细节了

比如换页

第一页网址:

/shot/recommend

第二页网址:/shot/recommend?page=2

然后将page后面的数字改动就可以跳到相应的页面

换页的问题也就解决了

or p in range(1,34):url = '/shot/recommend?page={}'.format(p)

以及将爬到的图片放到自己建立的文件zh

使用了os库

file_name = "动漫截图"if not os.path.exists(file_name):os.mkdir(file_name)

以及为了不影响爬取的网站 使用了sleep函数

虽然爬取的速度慢了一些

但是这是应遵守的道德

time.sleep(1)

以上 这就是我的爬虫过程

还是希望大佬能解决我的错误之处

万分感谢

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。