天天看点

[python] 常用正则表达式爬取网页信息及分析HTML标签总结

这篇文章主要是介绍Python爬取网页信息时,经常使用的正则表达式及方法。它是一篇总结性文章,实用性比较大,主要解决自己遇到的爬虫问题,也希望对你有所帮助~

当然如果会Selenium基于自动化测试爬虫、BeautifulSoup分析网页DOM节点,这就更方便了,但本文更多的是介绍基于正则的底层爬取分析。

涉及内容如下:

常用正则表达式爬取网页信息及HTML分析总结

1.获取<tr></tr>标签之间内容

2.获取<a href..></a>超链接之间内容

3.获取URL最后一个参数命名图片或传递参数

4.爬取网页中所有URL链接

5.爬取网页标题title两种方法

6.定位table位置并爬取属性-属性值

7.过滤<span></span>等标签

8.获取<script></script>等标签内容

------------------------------------------------------------------------------------------------------------------------------

该部分主要是通过正则表达式获取两个标签之间的内容,通常这种标签都是成对出现的。

开始标签如:<tr>、<th>、<td>、<a>、<table>、<div>...

后缀标签如:</tr>、</th>、</td>、</a>、</table>、</div>...

核心代码:

        res_tr = r'<tr>(.*?)</tr>'

        m_tr =  re.findall(res_tr,language,re.S|re.M)

例子:

输出如下所示:

python通过re模块提供对正则表达式的支持。使用re的一般步骤是先将正则表达式的字符串形式编译为Pattern实例,然后使用Pattern实例处理文本并获得匹配结果(一个Match实例),最后使用Match实例获得信息,进行其他的操作。

findall(string[, pos[, endpos]]) | re.findall(pattern, string[, flags]): 搜索string,以列表形式返回全部能匹配的子串。其中RE的常见参数包括:

        re.I(re.IGNORECASE): 忽略大小写(括号内是完整写法)

        re.M(re.MULTILINE): 多行模式,改变'^'和'$'的行为

        re.S(re.DOTALL): 点任意匹配模式,改变'.'的行为

2.获取超链接<a href=..></a>之间内容

通常在使用正则表达式时,需要分析网页链接,获取URL或网页内容。核心代码如下:

        res = r'<a .*?>(.*?)</a>'

        mm =  re.findall(res, content, re.S|re.M)

        urls=re.findall(r"<a.*?href=.*?<\/a>", content, re.I|re.S|re.M)

输出如下图所示:

当然如果是通过Selenium分析DOM树结构获取href对应的url或title中的值,其核心代码如下所示,这里主要是给大家做个对比,理解不同方法的优势:

      driver.get(link) 

      elem = driver.find_elements_by_xpath("//div[@class='piclist']/tr/dd[1]")   

      for url in elem:    

            pic_url = url.get_attribute("href")    

            print pic_url

通常在使用Python爬取图片过程中,会遇到图片对应的URL最后一个字段通常用于命名图片,如虎扑孙悦妻子图片:

此时需要通过该URL的"/"后面的参数命名图片,则方法如下:

在使用Python获取GET方法的URL链接中,还可能存在传递参数的值。

此时获取参数方法如下:

在学习爬虫过程中,你肯定需要从固有网页中爬取URL链接,再进行下一步的循环爬取或URL抓取。如下,爬取CSDN首页的所有URL链接。

获取网页标题也是一种常见的爬虫,如我在爬取维基百科国家信息时,就需要爬取网页title。通常位于<html><head><title>标题</title></head></html>中。

下面是爬取CSDN标题的两种方法介绍:

如果使用Python库的一些爬取,通常可以通过DOM树结构进行定位,如代码:

    login = driver.find_element_by_xpath("//form[@id='loginForm']") 

但如果是正则表达式这种相对传统傻瓜式的方法,通过通过find函数寻找指定table方法进行定位。如:获取Infobox的table信息。

通过分析源代码发现“程序设计语言列表”的消息盒如下:

<table class="infobox vevent" ..><tr><th></th><td></td></tr></table>

print infobox 输出其中一门语言ActionScript的InfoBox消息盒部分源代码如下:

然后再在这个infobox内容中通过正则表达式进行分析爬取。下面讲述爬取属性-属性值:

爬取格式如下:

        <table>

                <tr>

                      <th>属性</th>

                      <td>属性值</td>

                </tr>

        </table>

其中th表示加粗处理,td和th中可能存在属性如title、id、type等值;同时<td></td>之间的内容可能存在<a href=..></a>或<span></span>或<br />等值,都需要处理。下面先讲解正则表达式获取td值的例子:

Python代码如下:

如果<td id="">包含该属性则正则表达式为r'<td id=.*?>(.*?)</td>';同样如果不一定是id属性开头,则可以使用正则表达式r'<td .*?>(.*?)</td>'。

在获取值过程中,通常会存在<span>、<br>、<a href>等标签,下面举个例子过滤。

<td><span class="nickname">(字) 翔宇</span></td>过滤标签<span>核心代码:

    elif "span" in nn: #处理标签<span>

            res_value = r'<span .*?>(.*?)</span>'

            m_value = re.findall(res_value,nn,re.S|re.M) 

            for value in m_value:

                print unicode(value,'utf-8'),

代码如下,注意print中逗号连接字符串:

比如在获取游讯网图库中,图集对应的原图它是存储在script中,其中获取原图-original即可,缩略图-thumb,大图-big,通过正则表达式下载URL:

        res_original = r'"original":"(.*?)"' #原图

        m_original = re.findall(res_original,script)

代码如下:

运行结果如下图所示,同时下载图片至E盘。

[python] 常用正则表达式爬取网页信息及分析HTML标签总结

最后希望文章对你有所帮助,后面如果遇到新的相关知识,我也会即使的更新添加的。