天天看點

令人振奮!哈工大SCIR在國際多語言通用依存分析評測中奪得冠軍

在剛剛結束的CoNLL-2018國際評測(universaldependencies.org)中,哈工大社會計算與資訊檢索研究中心(HIT-SCIR)取得了第一名的好成績。CoNLL 系列評測每年由 ACL 的計算自然語言學習會議(Conference on Computational Natural Language Learning,CoNLL)主辦,是自然語言處理領域影響力最大的國際技術評測,有力推動了自然語言處理各項任務的發展。

與去年的評測任務相同,今年的CoNLL 任務仍為:Multilingual Parsing from Raw Text to Universal Dependencies,即面向生文本的多語言通用依存分析。從生文本出發,需要進行分句、分詞、形态學分析、詞性标注、依存句法分析等。今年評測任務面向57種語言的82個測試集。最終評價名額為在全部評測集上依存分析任務的平均LAS(依存弧及标簽準确率),除此之外還評測了 MLAS(形态學标記正确前提下的LAS)和 BLEX (内容詞詞形還原正确前提下的LAS)兩項名額。

最終有包括斯坦福大學、IBM公司在内的27支隊伍成功送出了評測系統,我們的系統在最關鍵的評測名額,即 LAS 上獲得了第1名,高出第二名2.56%。

在去年的評測中,共有45種語言64個資料集,斯坦福大學獲得第一名,我們的系統獲得了第四名。今年,我們采用了基于圖的依存分析算法,并使用大規模未标注資料預訓練了上下文相關的詞向量模型,大幅提高了系統的準确率。我們的這些技術進步将融入語言技術平台(LTP)中,進一步提高LTP的性能。

項目組成員:車萬翔教授,博士生:劉一佳、王宇軒、鄭博

這個消息真的是令人振奮,大家可能經常看到cv的一些比賽,冠軍經常被一些國内的科研機關或者獨角獸公司擷取,但是在nlp領域的比賽中其實報道并沒有那麼多,尤其是句法,語義這種基礎型的評測比賽。

我在實驗室的時候親眼看到隊伍比賽的不易,獲得這樣的成績,是對車老師,各位師兄的一個肯定。大家的辛苦沒有白忙,真心為實驗室感到驕傲!也希望在更多的領域,有更多的中國聲音。

希望大家能為我們有這麼好的成績點個贊吧!謝謝大家!

這樣的梯度下降教程,你應該能get!

通俗講解回歸算法:從精靈寶可夢例子說起

通俗易懂講解感覺機(三)--收斂性證明與對偶形式以及python代碼講解