由于網上關于Hu矩的定義的内容較多,代碼實作部分又多為matlab、C++或者opencv等,是以本文将主要介紹如何用python實作Hu矩的提取。後續可能會利用Hu矩進行圖檔分類以及平移、旋轉不變性的實驗,有時間做的話到時候會放上來結果。
本篇部落格内容參考圖像的七個不變矩 可用于圖像的比對中的matlab代碼,在其基礎上進行修改而成。
#-*-coding:utf-8-*-
import cv2
from datetime import datetime
import numpy as np
np.set_printoptions(suppress=True)
def humoments(img_gray):
'''
由于7個不變矩的變化範圍很大,為了便于比較,可利用取對數的方法進行資料壓縮;同時考慮到不變矩有可能出現負值的情況,是以,在取對數之前先取絕對值
經修正後的不變矩特征具有平移 、旋轉和比例不變性
'''
# 标準矩定義為m_pq = sumsum(x^p * y^q * f(x, y))
row, col = img_gray.shape
#計算圖像的0階幾何矩
m00 = img_gray.sum()
m10 = m01 =
# 計算圖像的二階、三階幾何矩
m11 = m20 = m02 = m12 = m21 = m30 = m03 =
for i in range(row):
m10 += (i * img_gray[i]).sum()
m20 += (i ** * img_gray[i]).sum()
m30 += (i ** * img_gray[i]).sum()
for j in range(col):
m11 += i * j * img_gray[i][j]
m12 += i * j ** * img_gray[i][j]
m21 += i ** * j * img_gray[i][j]
for j in range(col):
m01 += (j * img_gray[:, j]).sum()
m02 += (j ** * img_gray[:, j]).sum()
m30 += (j ** * img_gray[:, j]).sum()
# 由标準矩我們可以得到圖像的"重心"
u10 = m10 / m00
u01 = m01 / m00
# 計算圖像的二階中心矩、三階中心矩
y00 = m00
y10 = y01 =
y11 = m11 - u01 * m10
y20 = m20 - u10 * m10
y02 = m02 - u01 * m01
y30 = m30 - * u10 * m20 + * u10 ** * m10
y12 = m12 - * u01 * m11 - u10 * m02 + * u01 ** * m10
y21 = m21 - * u10 * m11 - u01 * m20 + * u10 ** * m01
y03 = m03 - * u01 * m02 + * u01 ** * m01
# 計算圖像的歸格化中心矩
n20 = y20 / m00 **
n02 = y02 / m00 **
n11 = y11 / m00 **
n30 = y30 / m00 **
n03 = y03 / m00 **
n12 = y12 / m00 **
n21 = y21 / m00 **
# 計算圖像的七個不變矩
h1 = n20 + n02
h2 = (n20 - n02) ** + * n11 **
h3 = (n30 - * n12) ** + ( * n21 - n03) **
h4 = (n30 + n12) ** + (n21 + n03) **
h5 = (n30 - * n12) * (n30 + n12) * ((n30 + n12) ** - * (n21 + n03) ** ) + ( * n21 - n03) * (n21 + n03) \
* ( * (n30 + n12) ** - (n21 + n03) ** )
h6 = (n20 - n02) * ((n30 + n12) ** - (n21 + n03) ** ) + * n11 * (n30 + n12) * (n21 + n03)
h7 = ( * n21 - n03) * (n30 + n12) * ((n30 + n12) ** - * (n21 + n03) ** ) + ( * n12 - n30) * (n21 + n03) \
* ( * (n30 + n12) ** - (n21 + n03) ** )
inv_m7 = [h1, h2, h3, h4, h5, h6, h7]
inv_m7 = np.log(np.abs(inv_m7))
return inv_m7
if __name__ == '__main__':
t1 = datetime.now()
fp = '/home/mamq/images/3.jpg'
img = cv2.imread(fp)
img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
print humoments(img_gray)
print datetime.now() - t1
結果:
[‘0.004757610794121051’, ‘1.0751006208352332e-05’, ‘5.069206342794947e-08’, ‘1.3770952298167658e-07’, ‘1.7004668315871364e-15’, ‘4.163184056113891e-10’, ‘1.1379424976439726e-14’]
這是之前為取對數時的結果,取對數後七個矩之間差距較小,便于後續計算。
運作耗時:3.79秒,相比zernike矩耗時較長。
目前看來Hu矩提取出來的值都比較小,最小的甚至到了小數點後14位,看到網上也有人提出這個問題,不确定是否是代碼的問題。
寫完這篇部落格後,又嘗試了下opencv自帶的函數,代碼與結果如下:
#-*-coding:utf-8-*-
import cv2
from datetime import datetime
import numpy as np
def test(img):
moments = cv2.moments(img)
humoments = cv2.HuMoments(moments)
# humoments = no.log(np.abs(humoments)) # 同樣建議取對數
print(humoments)
if __name__ == '__main__':
t1 = datetime.now()
fp = '/home/mamq/images/3.jpg'
img = cv2.imread(fp)
img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
test(img_gray)
print datetime.now() - t1
結果:
[[1.58880283e-03]
[1.30795119e-07]
[6.01877793e-11]
[7.45476806e-11]
[4.34518625e-21]
[1.69631118e-14]
[2.46057599e-21]]
運作耗時:0.13秒.
對比:
可以看出,opencv自帶函數效率更高,耗時非常短,但兩段代碼使用的都是同一張圖檔,但結果相差較大,還是相信opencv吧,畢竟更權威,第一段代碼僅供學習參考。但從結果中可以看出來,Hu矩的值都比較小,進行不同圖檔的對比時如何進行距離的度量是個問題。
由于最近比較忙,這篇部落格寫的不夠嚴謹,故僅供參考。
以上,歡迎交流,禁止轉載。