天天看點

Python網絡爬蟲之三種資料解析方式

引入

資料爬取的流程為:

    1. 指定url
    2. 基于requests子產品發起請求
    3. 擷取響應中的資料
    4. 資料解析
    5. 進行持久化存儲

一.正解解析

常用的正規表達式

單字元:
        . : 除換行以外所有字元
        [] :[aoe] [a-w] 比對集合中任意一個字元
        \d :數字  [0-9]
        \D : 非數字
        \w :數字、字母、下劃線、中文
        \W : 非\w
        \s :所有的空白字元包,括空格、制表符、換頁符等等。等價于 [ \f\n\r\t\v]。
        \S : 非空白
    數量修飾:
        * : 任意多次  >=0
        + : 至少1次   >=1
        ? : 可有可無  0次或者1次
        {m} :固定m次 hello{3,}
        {m,} :至少m次
        {m,n} :m-n次
    邊界:
        $ : 以某某結尾 
        ^ : 以某某開頭
    分組:
        (ab)  
    貪婪模式: .*
    非貪婪(惰性)模式: .*?

    re.I : 忽略大小寫
    re.M :多行比對
    re.S :單行比對

    re.sub(正規表達式, 替換内容, 字元串)      

正則練習

import re
#提取出python
key="javapythonc++php"
re.findall(\'python\',key)[0]
#####################################################################
#提取出hello world
key="<html><h1>hello world<h1></html>"
re.findall(\'<h1>(.*)<h1>\',key)[0]
#####################################################################
#提取170
string = \'我喜歡身高為170的女孩\'
re.findall(\'\d+\',string)
#####################################################################
#提取出http://和https://
key=\'http://www.baidu.com and https://boob.com\'
re.findall(\'https?://\',key)
#####################################################################
#提取出hello
key=\'lalala<hTml>hello</HtMl>hahah\' #輸出<hTml>hello</HtMl>
re.findall(\'<[Hh][Tt][mM][lL]>(.*)</[Hh][Tt][mM][lL]>\',key)
#####################################################################
#提取出hit. 
key=\'[email protected]\'#想要比對到hit.
re.findall(\'h.*?\.\',key)
#####################################################################
#比對sas和saas
key=\'saas and sas and saaas\'
re.findall(\'sa{1,2}s\',key)
#####################################################################
#比對出i開頭的行
string = \'\'\'fall in love with you
i love you very much
i love she
i love her\'\'\'

re.findall(\'^.*\',string,re.M)
#####################################################################
#比對全部行
string1 = """<div>靜夜思
窗前明月光
疑是地上霜
舉頭望明月
低頭思故鄉
</div>"""

re.findall(\'.*\',string1,re.S)      

爬取糗事百科指定頁面的糗圖,并将其儲存到指定檔案夾中

import requests
import re
import os
if __name__ == "__main__":
     url = \'https://www.qiushibaike.com/pic/%s/\'
     headers={
         \'User-Agent\': \'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36\',
     }
     #指定起始也結束頁碼
     page_start = int(input(\'enter start page:\'))
     page_end = int(input(\'enter end page:\'))

     #建立檔案夾
     if not os.path.exists(\'images\'):
         os.mkdir(\'images\')
     #循環解析且下載下傳指定頁碼中的圖檔資料
     for page in range(page_start,page_end+1):
         print(\'正在下載下傳第%d頁圖檔\'%page)
         new_url = format(url % page)
         response = requests.get(url=new_url,headers=headers)

         #解析response中的圖檔連結
         e = \'<div class="thumb">.*?<img src="(.*?)".*?>.*?</div>\'
         pa = re.compile(e,re.S)
         image_urls = pa.findall(response.text)
          #循環下載下傳該頁碼下所有的圖檔資料
         for image_url in image_urls:
             image_url = \'https:\' + image_url
             image_name = image_url.split(\'/\')[-1]
             image_path = \'images/\'+image_name

             image_data = requests.get(url=image_url,headers=headers).content
             with open(image_path,\'wb\') as fp:
                 fp.write(image_data)      

二.Xpath解析

測試頁面資料

<html lang="en">
<head>
    <meta charset="UTF-8" />
    <title>測試bs4</title>
</head>
<body>
    <div>
        <p>百裡守約</p>
    </div>
    <div class="song">
        <p>李清照</p>
        <p>王安石</p>
        <p>蘇轼</p>
        <p>柳宗元</p>
        <a href="http://www.song.com/" title="趙匡胤" target="_self">
            <span>this is span</span>
        宋朝是最強大的王朝,不是軍隊的強大,而是經濟很強大,國民都很有錢</a>
        <a href="" class="du">總為浮雲能蔽日,長安不見使人愁</a>
        <img src="http://www.baidu.com/meinv.jpg" alt="" />
    </div>
    <div class="tang">
        <ul>
            <li><a href="http://www.baidu.com" title="qing">清明時節雨紛紛,路上行人欲斷魂,借問酒家何處有,牧童遙指杏花村</a></li>
            <li><a href="http://www.163.com" title="qin">秦時明月漢時關,萬裡長征人未還,但使龍城飛将在,不教胡馬度陰山</a></li>
            <li><a href="http://www.126.com" alt="qi">岐王宅裡尋常見,崔九堂前幾度聞,正是江南好風景,落花時節又逢君</a></li>
            <li><a href="http://www.sina.com" class="du">杜甫</a></li>
            <li><a href="http://www.dudu.com" class="du">杜牧</a></li>
            <li><b>杜小月</b></li>
            <li><i>度蜜月</i></li>
            <li><a href="http://www.haha.com" id="feng">鳳凰台上鳳凰遊,鳳去台空江自流,吳宮花草埋幽徑,晉代衣冠成古丘</a></li>
        </ul>
    </div>
</body>
</html>      
  • 常用xpath表達式

屬性定位:
    #找到class屬性值為song的div标簽
    //div[@class="song"] 
層級&索引定位:
    #找到class屬性值為tang的div的直系子标簽ul下的第二個子标簽li下的直系子标簽a
    //div[@class="tang"]/ul/li[2]/a
邏輯運算:
    #找到href屬性值為空且class屬性值為du的a标簽
    //a[@href="" and @class="du"]
模糊比對:
    //div[contains(@class, "ng")]
    //div[starts-with(@class, "ta")]
取文本:
    # /表示擷取某個标簽下的文本内容
    # //表示擷取某個标簽下的文本内容和所有子标簽下的文本内容
    //div[@class="song"]/p[1]/text()
    //div[@class="tang"]//text()
取屬性:
    //div[@class="tang"]//li[2]/a/@href      
  • 代碼中使用xpath表達式進行資料解析:

1.下載下傳:pip install lxml
2.導包:from lxml import etree

3.将html文檔或者xml文檔轉換成一個etree對象,然後調用對象中的方法查找指定的節點

  2.1 本地檔案:tree = etree.parse(檔案名)
                tree.xpath("xpath表達式")

  2.2 網絡資料:tree = etree.HTML(網頁内容字元串)
                tree.xpath("xpath表達式")

    安裝xpath插件在浏覽器中對xpath表達式進行驗證:可以在插件中直接執行xpath表達式

        将xpath插件拖動到谷歌浏覽器拓展程式(更多工具)中,安裝成功

        啟動和關閉插件 ctrl + shift + x      

擷取好段子中段子的内容和作者   http://www.haoduanzi.com

from lxml import etree
import requests

url=\'http://www.haoduanzi.com/category-10_2.html\'
headers = {
        \'User-Agent\': \'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36\',
    }
url_content=requests.get(url,headers=headers).text
#使用xpath對url_conten進行解析
#使用xpath解析從網絡上擷取的資料
tree=etree.HTML(url_content)
#解析擷取當頁所有段子的标題
title_list=tree.xpath(\'//div[@class="log cate10 auth1"]/h3/a/text()\')

ele_div_list=tree.xpath(\'//div[@class="log cate10 auth1"]\')

text_list=[] #最終會存儲12個段子的文本内容
for ele in ele_div_list:
    #段子的文本内容(是存放在list清單中)
    text_list=ele.xpath(\'./div[@class="cont"]//text()\')
    #list清單中的文本内容全部提取到一個字元串中
    text_str=str(text_list)
    #字元串形式的文本内容防止到all_text清單中
    text_list.append(text_str)
print(title_list)
print(text_list)      

下載下傳煎蛋網中的圖檔資料:http://jandan.net/ooxx

import requests
from lxml import etree
from fake_useragent import UserAgent
import base64
import urllib.request
url = \'http://jandan.net/ooxx\'
ua = UserAgent(verify_ssl=False,use_cache_server=False).random
headers = {
    \'User-Agent\':ua
}
page_text = requests.get(url=url,headers=headers).text

#檢視頁面源碼:發現所有圖檔的src值都是一樣的。
#簡單觀察會發現每張圖檔加載都是通過jandan_load_img(this)這個js函數實作的。
#在該函數後面還有一個class值為img-hash的标簽,裡面存儲的是一組hash值,該值就是加密後的img位址
#加密就是通過js函數實作的,是以分析js函數,獲知加密方式,然後進行解密。
#通過抓包工具抓取起始url的資料包,在資料包中全局搜尋js函數名(jandan_load_img),然後分析該函數實作加密的方式。
#在該js函數中發現有一個方法調用,該方法就是加密方式,對該方法進行搜尋
#搜尋到的方法中會發現base64和md5等字樣,md5是不可逆的是以優先考慮使用base64解密
#print(page_text)

tree = etree.HTML(page_text)
#在抓包工具的資料包響應對象對應的頁面中進行xpath的編寫,而不是在浏覽器頁面中。
#擷取了加密的圖檔url資料
imgCode_list = tree.xpath(\'//span[@class="img-hash"]/text()\')
imgUrl_list = []
for url in imgCode_list:
    #base64.b64decode(url)為byte類型,需要轉成str
    img_url = \'http:\'+base64.b64decode(url).decode()
    imgUrl_list.append(img_url)

for url in imgUrl_list:
    filePath = url.split(\'/\')[-1]
    urllib.request.urlretrieve(url=url,filename=filePath)
    print(filePath+\'下載下傳成功\')      

三.BeautifulSoup解析

  • 環境安裝
- 需要将pip源設定為國内源,阿裡源、豆瓣源、網易源等
   - windows
    (1)打開檔案資料總管(檔案夾位址欄中)
    (2)位址欄上面輸入 %appdata%
    (3)在這裡面建立一個檔案夾  pip
    (4)在pip檔案夾裡面建立一個檔案叫做  pip.ini ,内容寫如下即可
        [global]
        timeout = 6000
        index-url = https://mirrors.aliyun.com/pypi/simple/
        trusted-host = mirrors.aliyun.com
   - linux
    (1)cd ~
    (2)mkdir ~/.pip
    (3)vi ~/.pip/pip.conf
    (4)編輯内容,和windows一模一樣
- 需要安裝:pip install bs4
     bs4在使用時候需要一個第三方庫,把這個庫也安裝一下
     pip install lxml