700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 解析网页--正则表达式--python爬虫知识点4

解析网页--正则表达式--python爬虫知识点4

时间:2019-12-10 05:20:35

相关推荐

解析网页--正则表达式--python爬虫知识点4

正则表达式

一、正则表达式的简介二、正则表达式的使用(一)re模块常用方法`match()``search()``findall()``compile() `` split()``sub()``分组模式group()`(二)pattern的模式二、正则爬虫应用爬虫要求不高,如果你写的表达式很复杂就说明该网站并不适合用正则来处理掌握基础

一、正则表达式的简介

概念

正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑特殊符号组合在一起的一个字符串,对你预知的一个字符串做一个验证,验证字符串的“机器、锁”逻辑就是对事物观察分析后概括判断后的结果

应用场景

爬虫表达验证(例如 : 手机号、邮箱、身份证… ) 登入网站app的时候填入的个人信息进行验证

二、正则表达式的使用

在python当中有一个内置模块re专门用来实现正则表达式

(一)re模块常用方法

pattern:正则表达式的模板string:表示要匹配、检验的字符串数据flags:标致位,匹配的方式,位用于控制正则表达式的匹配方式 ,如: 是否区分大小写,多行匹配等等,多行匹配re.S

match()

在文本内查找,返回第一个匹配到的字符串

match(pattern, string, flags=0) 有返回值,如果匹配成功了就返回一个match对象,否则返回一个None

如果不是空性的值一定是返回true,空性的0或者None以开头开始匹配,如果开头不符合就会报错

search()

在文本内查找,返回第一个匹配到的字符串

search(pattern, string, flags=0) 它的返回值类型和使用方法与match()是一样的,唯一的区别就是search()查找的位置不用固定在文本的开头

findall()

在文本内查找,返回所有匹配到的字符串

findall(pattern, string, flags=0)返回列表全文查找,它的返回值是一个匹配到的字符串的列表这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表作为re模块的三大搜索函数之一,findall()和match()、search()不同之处在于,match()、search()都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找

compile()

将字符串转化为Pattern

compile(pattern, flags=0) ⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。返回对象,类似高阶函数的返回对象第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。经过compile()转换的正则表达式对象就可以当成模板使用

split()

分割字符串

split(pattern, string, maxsplit=0, flags=0) 分割字符串返回列表maxsplit:用于指定分割的次数,剪断的次数re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。re模块的split()可以使用正则表达式,因此更灵活,更强大

sub()

指定替换次数

sub(pattern, repl, string, count=0, flags=0) sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数

分组模式group()

match().group() 、search().group()Python的re模块的一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待以前只匹配 我现在不仅匹配数据还要获取 就可以加分组group(): group() group(0) 匹配整个字符group(1) 匹配第1个分组 group(2) 匹配第2个分组 groups()匹配整个分组返回元组的格式不仅要匹配符合的字符,还要获取,就可以加分组

(二)pattern的模式

普通字符

字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因当前编程语言的不同而可能不同)

元字符

正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能

一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。例如下表所示

尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符

预定义匹配字符集

正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个

重复匹配

前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写\d\d\d\d\d\d\d\d\d\d\(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。

这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}

![在这里插入图片描述](https://img-/0427212703947.png?x-oss-

位置匹配和非贪婪匹配

位置匹配

有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等

贪婪与非贪婪模式

默认贪婪模式。在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式,总是尝试匹配尽可能多的字符 贪婪匹配与match、search只匹配一个,match和search匹配一个是满足条件的最长一个,所以贪婪匹配,非贪婪匹配是指满足条件最短的。

校验数字的相关表达式:

特殊场景的表达式:

二、正则爬虫应用

爬虫案例

需求:爬取7天的 天气情况 日期 天气状况温度 风力–> 保存到CSV /weather/101250101.shtml 目标url

/weather15d/101250101.shtml 8-15天 解决方案: requests re 第一步 分析页面

第二个 思路总结1.先获取网页的源代码 整个html文件

2.从网页的源代码当中去匹配ul标签的数据

3.从ul标签里面去匹配li标签的数据

4.去解析li标签里面的数据

5.保存数据

保存一天的数据,用到compile相同的获取数据模式获取7天

import requestsimport reimport csvheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'}class WeatherSpider:# 获取网页源代码# 类对象 实例对象 实例方法 类方法def getSource(self):# 目标urlurl = '/weather/101250101.shtml'resp = requests.get(url,headers=headers)# print(resp.content.decode('utf-8'))return resp.content.decode('utf-8')# 解析数据 保存数据def parseSource(self):content = self.getSource()# 匹配ul 正则表达式比较灵活 .*?ul标签前面的数据# 匹配并获取的 (<ul class="t clearfix">.*?</ul>) .*?ul标签后面的数据result = re.match(r'.*?(<ul class="t clearfix">.*?</ul>).*?',content,re.S)# print(result.group(1))# 匹配liul = result.group(1)lis = re.findall(r'<li.*?">.*?</li>',ul,re.S)lst_all = [] # 保存所有的天气数据pattern = pile(r'<li.*?">.*?<h1>(.*?)</h1>.*?<p.*?>(.*?)</p>.*?<i>(.*?)</i>.*?<i>(.*?)</i>.*?</li>',re.S)for li in lis:r = pattern.match(li)lst_one = [r.group(1),r.group(2),r.group(3),r.group(4)]lst_all.append(lst_one)return lst_all# 保存数据def saveData(self):content = self.parseSource()with open('weather7day.csv','w',encoding='utf-8',newline='') as file_obj:writer = csv.writer(file_obj)writer.writerow(['日期','天气','温度','风力'])writer.writerows(content)def main():WeatherSpider().saveData()if __name__ == '__main__':main()

获取7天各列的数据,在整合,主要用到findall

import reimport requestsimport csvheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'}class WeatherSpider:def getsouce(self):url = '/weather/101250101.shtml'req = requests.get(url, headers = headers).content.decode('utf-8')return reqdef parseSource(self):req = self.getsouce()content = re.search(r'<ul class="t clearfix">.*?</ul>', req, re.S).group()self.days = re.findall(r'<h1>(.*?)</h1>', content, re.S)self.weather = re.findall(r'<p title=\"(.*?)\" class', content, re.S)self.tem = re.findall(r'<p class="tem">.*?<span>(.*?)</span>/<i>(.*?)</i>', content, re.S)self.wind = re.findall(r'<p class="win">.*?<span title=\"(.*?)\".*?<i>(.*?)</i>', content, re.S)def saveData(self):self.parseSource()headers = ['日期', '天气', '最高温度', '最低温度', '风向', '风力']with open('weather7s.csv', 'w', encoding='utf-8', newline='') as file_obj:writer = csv.writer(file_obj)writer.writerow(headers)for i in range(7):list_one = [self.days[i], self.weather[i], self.tem[i][0], self.tem[i][1], self.wind[i][0], self.wind[i][1]]writer.writerow(list_one)def main():WeatherSpider().saveData()if __name__ == '__main__':main()

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。