天天看点

Python爬虫连载12-爬虫正则表示式、BeautifulSoup初步

一、正则常用的方法

1.match:从开始位置开始查找,一次匹配

2.search:从任何位置查找,一次匹配

3.findall:全部匹配,返回列表

4.finditer:全部匹配,返回迭代器

5.split:分割字符串,返回列表

6.sub:替换

7.匹配中文

中文unicode编码[u4e00-u9fa5]

8.贪婪算法和非贪婪算法

贪婪模式:在整个表达式匹配成功的前提下,尽可能的多的匹配

非贪婪模式:在整个表达式匹配成功的前提下,尽可能的少的匹配

python中默认时贪婪模式

import re

s = r"([a-z]+)( [a-z]+)"
pattern = re.compile(s,re.I)

m = pattern.match("Hello world wide web")
#group(0)表示返回匹配成功的整个字串
s = m.group(0)
print(s)
#返回匹配成功的整个子串的跨度
a = m.span(0)
print(a)
#group(1)表示返回的第一个分组匹配成功的字串
s = m.group(1)
print(s)
#span(1)返回匹配成功的第一个子串的跨度
a = m.span(1)
print(a)
#groups()返回的是匹配的所有分组子串都输出出来,不包含整个匹配的子串
b = m.groups()
print(b)
print("===============")
string = r"\d+"
pattern = re.compile(string)
m = pattern.search("one12two34three56")#返回第一个查找到的结果
print(m.group(0))#这里的0不写也没有关系,不写就是默认为0
m = pattern.search("one12two34three56",10,40)#从字符串的第十个位置进行查找,第四十结束,这里不够四十,那就直接到字符串结束位置即可
print(m)

m = pattern.findall("one12two34three56")#以列表的形式返回所有的结果
print(m)

m = pattern.finditer("one12two34three56")
print(m)
for i in m:
    print(i)
    print(i.group())

print("=======")
string2 = u"你好,世界"
pattern = re.compile(r"[\u4e00-\u9fa5]+")
print(pattern.search("你好,世界杯").group())
           
Python爬虫连载12-爬虫正则表示式、BeautifulSoup初步

二、BeatuifulSoup4 --CSS选择器

1.现在使用BeautifulSoup4

2.参考链接:https://beautifulsoup.readthedocs.io/zh_CN/latest/

3.几个常用的提取工具的比较:

(1)正则:很快,不好用,不允许安装

(2)beautifulsoup:慢,但是使用简单,安装简单

(3)lxml:比较快,使用简单,但是安装一般

from urllib import request
from bs4 import BeautifulSoup
url = "http://www.baidu.com"
rsp = request.urlopen(url)
content = rsp.read()
soup = BeautifulSoup(content,"html")
#bs自动转码
content = soup.prettify()
print(content)
           

三、源码

Reptitle12_1_TRegularExpression.py

Reptile12_2_BeautifulSoup.py

https://github.com/ruigege66/PythonReptile/blob/master/Reptitle12_1_TRegularExpression.py

https://github.com/ruigege66/PythonReptile/blob/master/Reptile12_2_BeautifulSoup.py

2.CSDN:https://blog.csdn.net/weixin_44630050

3.博客园:https://www.cnblogs.com/ruigege0000/

4.欢迎关注微信公众号:傅里叶变换,个人公众号,仅用于学习交流,后台回复”礼包“,获取大数据学习资料

Python爬虫连载12-爬虫正则表示式、BeautifulSoup初步

继续阅读