avatar

爬虫回顾之正则表达式

引言

以前学的爬虫知识模糊了,来回顾一下

常用匹配规则

mode description
\w 匹配字母,数字,下划线
\W 匹配非字母,数字,下划线
\s 匹配任意空白字符,等价于 [\t\n\r\f]
\S 匹配任意空白字符
\d 匹配任意数字,等价于 [0~9]
\D 匹配任意非数字字符
\A 匹配字符串开头
\Z 匹配字符串结尾,如果存在换行,只匹配到换行前的结束字符串
\z 匹配字符串结尾,如果存在换行,同时还会匹配换行符
^ 匹配一行字符串的开头
$ 匹配一行字符串的结尾
. 匹配任意字符,除了换行符,当指定re.DOTALL时,则可以匹配包括换行符的任意字符
* 匹配 0 个或多个表达式
+ 匹配 1 个或多个表达式
? 匹配 0 个或 1 个前面的正则表达式定义的片段,非贪婪方式
{n} 精确匹配 n 个前面的表达式
{n,m} 匹配 n 到 m 次由前面正则表达式定义的片段,贪婪方式
() 匹配括号内的表达式,也表示一个组

match

match 方法是从字符串的开头开始匹配的,一旦开头不匹配,那么整个匹配就失败了。

1
2
3
4
5
6
7
8
9
10
11
12
import re

content = 'Hello 1234567 World_This is a Regex Demo'
result = re.match('^Hello\s(\d+)\sWorld', content)
print(result)
print(result.group())
print(result.group(1))


<_sre.SRE_Match object; span=(0, 19), match='Hello 1234567 World'>
Hello 1234567 World
1234567

通用匹配

1
2
3
4
5
6
7
8
9
10
import re

content = 'Hello 123 4567 World_This is a Regex Demo'
result = re.match('^Hello.*Demo$', content)
print(result)
print(result.group())


<_sre.SRE_Match object; span=(0, 41), match='Hello 123 4567 World_This is a Regex Demo'>
Hello 123 4567 World_This is a Regex Demo

贪婪与非贪婪

1
2
3
4
5
6
7
8
9
10
import re

content = 'Hello 1234567 World_This is a Regex Demo'
result = re.match('^He.*(\d+).*Demo$', content)
print(result)
print(result.group(1))


<_sre.SRE_Match object; span=(0, 40), match='Hello 1234567 World_This is a Regex Demo'>
7

这里的(\d+)只匹配到了7一个字符,因为是贪婪模式,所以第一个.* 会匹配尽量多的字符,只给后面的表达式留下一个满足条件的字符

1
2
3
4
5
6
7
8
9
10
import re

content = 'Hello 1234567 World_This is a Regex Demo'
result = re.match('^He.*?(\d+).*Demo$', content)
print(result)
print(result.group(1))


<_sre.SRE_Match object; span=(0, 40), match='Hello 1234567 World_This is a Regex Demo'>
1234567

findall

在爬虫代码中,一般使用findall方法,返回的是列表

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
html = '''<div id="songs-list">
<h2 class="title">经典老歌</h2>
<p class="introduction">
经典老歌列表
</p>
<ul id="list" class="list-group">
<li data-view="2">一路上有你</li>
<li data-view="7">
<a href="/2.mp3" singer="任贤齐">沧海一声笑</a>
</li>
<li data-view="4" class="active">
<a href="/3.mp3" singer="齐秦">往事随风</a>
</li>
<li data-view="6"><a href="/4.mp3" singer="beyond">光辉岁月</a></li>
<li data-view="5"><a href="/5.mp3" singer="陈慧琳">记事本</a></li>
<li data-view="5">
<a href="/6.mp3" singer="邓丽君">但愿人长久</a>
</li>
</ul>
</div>'''
1
2
3
4
5
results = re.findall('<li.*?href="(.*?)".*?singer="(.*?)">(.*?)</a>', html, re.S)
print(results)
print(type(results))

<class 'list'>

实战爬取古诗词

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
import requests
import re

def parse_page(url):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/78.0.3904.108 Safari/537.36'
}
res = requests.get(url, headers=headers)
text = res.text
# print(text)

poetries = []
contents = []
titles = re.findall(r'<div class="cont">.*?<b>(.*?)</b>', text, re.DOTALL)
dynasties = re.findall(r'<p class="source">.*?<a.*?>(.*?)</a>', text, re.DOTALL)
authors = re.findall(r'<p class="source">.*?<span>:</span><a.*?>(.*?)</a>', text, re.DOTALL)
contents_br = re.findall(r'<div class="contson".*?>(.*?)</div>', text, re.DOTALL)
for content_br in contents_br:
content = re.sub('<.*?>', '', content_br)
contents.append(content.strip())

for title, dynasty, author, content in zip(titles, dynasties, authors, contents):
poetry = {
'title': title,
'dynasty': dynasty,
'author': author,
'content': content
}
poetries.append(poetry)
print(poetries)


def main():
for x in range(1, 11):
url = 'https://www.gushiwen.org/default_%s.aspx' % x
parse_page(url)

if __name__ == '__main__':
main()
文章作者: gh
文章链接: https://ghclub.top/posts/31643/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 GHBlog
打赏
  • 微信
    微信
  • 支付寶
    支付寶

评论