天天看點

阿裡巴巴2016雙11背後的技術(不一樣的技術創新)

每年的“雙11”是阿裡技術的大閱兵和創新能力的集中檢閱。2016年的“雙11”背後,更是蘊藏了異常豐富的技術實踐與突破。

曆經1個月的編寫,最終27篇精華技術文章入冊《不一樣的技術創新-阿裡巴巴2016雙11背後的技術》(以下簡稱《不一樣的技術創新》)一書。這27篇“24K純度”的技術幹貨,是阿裡“雙11”八年來技術演進結果的最新展示,凝聚了阿裡工程師的智慧和創造力。

所有參與《不一樣的技術創新》編寫的小夥伴,均參與了2016及曆年來“雙11”的大促,經曆過驚心動魄但酣暢淋漓的“雙11”的“零點之戰”。我們盡量保持了這些工程師小夥伴文章的原汁原味;我們知道,過多的雕琢和潤色反而會破壞文章中知識傳遞的效果——工程師之間的溝通不需要華麗和精美的文字,隻需要那靈犀的一點。

讓我們為所有參與《不一樣的技術創新》一書編寫的小夥伴點贊!不為别的,隻為他們這些代表全體阿裡技術同學,以及所有中國當下IT工程師勇攀技術高峰的追求精神和其背後不懈的努力點贊!

《不一樣的技術創新》内容涉及基礎設施、存儲、中間件、雲計算、業務架構、大資料、認知計算與人工智能、互動技術等技術領域。

在這些領域中,包括:

(1)充分發揮雲計算彈性能力,實作資源快速騰挪,支撐交易峰值每秒17.5萬筆、支付峰值每秒12萬筆的混合雲彈性架構;

(2)在雙11當天實作萬億級消息流轉第三代分布式消息引擎。

(3)交易核心應用容器化,撐起雙11交易下單峰值,充分解放資源的超大規模Docker化技術;

(4)支撐全球最大規模線上交易的資料實時和離線計算能力,包括承載阿裡巴巴集團核心大資料的離線計算平台,以及雙十一保證每秒處理億條日志的計算能力、毫秒級的計算延遲的實時流計算平台;

(5)阿裡人工智能在搜尋、推薦以及客服場景下的創新應用,包括人工智能賦能的數千家品牌商家店鋪的個性化營運和粉絲會員的精準營銷,基于深度強化學習和線上自适應學習的推薦算法創新,以智能+人工模式提供智能導購、服務、助理拟人互動的阿裡小蜜;

(6)全球第一個端對端的虛拟購物環境背後的VR技術,全面解讀如何解決VR購物三大技術挑戰,全面覆寫浏覽、下單及支付環節;

(7)揭秘應對前端極限挑戰的淘寶直播首屏秒開,以及應用世界級開源跨平台移動開發工具Weex實作雙11會場幾近全覆寫,實作全網首屏渲染完美踐行“秒開”體驗;,

(8)所有雙11奇迹背後的、基于資料挖掘、機器學習等技術的智能化秒級監控。千萬量級監控項,PB級監控資料,億級報警通知背後的技術。

(9)菜鳥如何打通包裹預測、供應鍊入庫、訂單下沉、訂單路由排程、電子面單及智能分單,以及末端小件員,捍衛這場十億級包裹的雙11之戰。

第一章 基礎設施

1.1 萬億交易量級下的秒級監控  (免登入閱讀)

2016财年,阿裡巴巴電商交易額(GMV)突破3萬億元人民币,成為全球最大網上經濟體,這背後是基礎架構事業群構築的堅強基石。在2016年雙11全球購物狂歡節中,天貓全天交易額1207億元,前30分鐘每秒交易峰值17.5萬筆,每秒支付峰值12萬筆。承載這些秒級資料背後的監控産品是如何實作的呢?接下來本文将從阿裡監控體系、監控産品、監控技術架構及實作分别進行詳細講述。

1.2 雙11背後基礎設施軟硬結合實踐創新

在快速發展變化的技術領域,阿裡巴巴不斷變通調整政策适應新的挑戰,制定相應的硬體發展政策,通過源源不斷的技術驅動力確定為業務提供品質穩定、技術先進、高成本效益的解決方案。本文将從x86核心部件、閃存部件、系統架構等方面的實踐創新進行分享。

1.3 阿裡視訊雲ApsaraVideo是怎樣讓4000萬人同時狂歡的

在今年的雙11中,雙11天貓狂歡夜的直播成為一大亮點。

根據官方披露資料,直播總觀看人數超4257萬,同時觀看人數峰值達529萬,在雲端實作了高計算複雜度的H.265實時轉碼和窄帶高清技術。其實不光是雙11,直播已經成為了2016年網際網路最火爆的話題。除了内容的大規模湧現,背後其實是計算、存儲、帶寬的更新和成本的下降。ApsaraVideo的出現,讓直播的技術門檻迅速下降,企業可以快速上線自己的視訊業務。筆者作為參與雙11視訊雲的工程師,希望通過本文和大家分享阿裡雲的ApsaraVideo業務,是如何為雙11這個場景快速建立大規模直播場景的經驗。

第二章 存儲

2.1 永不停止的腳步——資料庫優化之路  (免登入閱讀)

在今年的雙11中,雙11天貓狂歡夜的直播成為一大亮點。

根據官方披露資料,直播總觀看人數超4257萬,同時觀看人數峰值達529萬,在雲端實作了高計算複雜度的H.265實時轉碼和窄帶高清技術。其實不光是雙11,直播已經成為了2016年網際網路最火爆的話題。除了内容的大規模湧現,背後其實是計算、存儲、帶寬的更新和成本的下降。ApsaraVideo的出現,讓直播的技術門檻迅速下降,企業可以快速上線自己的視訊業務。筆者作為參與雙11視訊雲的工程師,希望通過本文和大家分享阿裡雲的ApsaraVideo業務,是如何為雙11這個場景快速建立大規模直播場景的經驗。

2.2 AliCloudDB--雙11商家背景資料庫的基石

在今年的雙11中,雙11天貓狂歡夜的直播成為一大亮點。

根據官方披露資料,直播總觀看人數超4257萬,同時觀看人數峰值達529萬,在雲端實作了高計算複雜度的H.265實時轉碼和窄帶高清技術。其實不光是雙11,直播已經成為了2016年網際網路最火爆的話題。除了内容的大規模湧現,背後其實是計算、存儲、帶寬的更新和成本的下降。ApsaraVideo的出現,讓直播的技術門檻迅速下降,企業可以快速上線自己的視訊業務。筆者作為參與雙11視訊雲的工程師,希望通過本文和大家分享阿裡雲的ApsaraVideo業務,是如何為雙11這個場景快速建立大規模直播場景的經驗。

第三章 中間件

3.1 萬億級資料洪峰下的分布式消息引擎 (免登入閱讀)

 通過簡單回顧阿裡中間件(Aliware)消息引擎的發展史,本文開篇于雙11消息引擎面臨的低延遲挑戰,通過經典的應用場景闡述可能會面臨的問題 - 響應慢,雪崩,使用者體驗差,繼而交易下跌。為了應對這些不可控的洪峰資料,中間件團隊通過大量研究和實踐,推出了低延遲高可用解決方案,在分布式存儲領域具有一定的普适性。在此基礎上,通過對現有有限資源的規劃,又推出了分級的容量保障政策,通過限流、降級,甚至熔斷技術,能夠有效保障重點業務的高吞吐,成功的支撐集團包括海外業務平緩舒暢地度過雙11高峰。與此同時,在一些對高可靠、高可用要求極為苛刻的場景下,中間件團隊又重點推出了基于多副本機制的高可用解決方案,能夠動态識别機器當機、機房斷網等災難場景,自動實作主備切換。整個切換過程對使用者透明,運維開發人員無需幹預,極大地提升消息存儲的可靠性以及整個叢集的高可用性。

第四章 電商雲化

4.1 17.5W秒級交易峰值下的混合雲彈性架構之路  (免登入閱讀)

每年的雙11都是一個全球狂歡的節日,随着每年交易逐年創造奇迹的背後,按照傳統的方式,我們的成本也在逐年上升。雙11當天的秒級交易峰值是平時的近10多倍,我們要用3-4倍的機器去支撐。但大促過後這批機器的資源使用率不高,到次年的雙11會形成較長時間的低效運作。試想一下,電商交易有大促峰值,而阿裡雲有售賣Buffer,如果能充分發揮雲計算的彈性能力,讓資源可以兩邊快速騰挪,就可以解決資源浪費的問題。把我們的交易單元部署在雲上面,大促的時候我們隻需要按照壓測模型去雲上建構一個符合能力的新單元即可,用完馬上釋放掉,這樣無疑是最優雅的。專有雲+公共雲的混合雲彈性架構成為一種自然而然的選擇,不但可以資源合理利用,降低成本,同時鍛煉了阿裡人的的技術能力,為使用者提供更優質的服務。

有了架構思路,實作起來似乎也沒那麼容易。阿裡的交易涉及幾百個系統,他們之間的依賴錯綜複雜,如何能夠把他們快速的搭建在雲上?系統之間的依賴如何複雜,如果把他們的容量估算好,快速調整他們的容量水位?這就不得不提到下面的兩個秘密武器:一鍵建站和彈性容量傳遞。

4.2 集團AliDocker化雙11總結

在基礎設施方面,今年雙11最大的變化是支撐雙11的所有交易核心應用都跑在了Docker容器中。幾十萬Docker容器撐起了雙11交易17.5萬筆每秒的下單峰值。衆所周知Docker技術這幾年大熱,但如果期望阿裡這麼大體量的應用全部使用Docker,這可不是一朝一夕就能完成的事情。阿裡的應用數量龐大,種類衆多,光相容性的驗證沒個1、2年的時間沒人敢把核心應用放上去。是以,從業界廣泛情況來看,雖然Docker能給研發和運維帶來好處,作為技術人員大家都心領神會,但是想直接去使用,那面對Docker浪潮隻能是——坐觀弄潮者,徒有羨魚情。那麼,阿裡是怎麼做的呢?

第五章 業務架構

5.1 内容+:打造不一樣的雙11 (免登入閱讀)

内容永遠是最優質的流量入口。如果不是,那說明你沒做對。今年是淘寶全面内容化、社群化的元年;今年的雙11,也是一場具有豐富内容、精彩互動的購物狂歡。從必買清單、大咖直播,到KOL草地、人群市場,雙11零點時分經曆的淘寶網紅經濟爆發,都是今年獨特而又亮麗的風景線。本文将具體介紹這條内容鍊路,以及在雙11大促期間的應用案例。先從位于這條内容鍊路核心的内容平台開始說起。

5.2 雙11交易核心鍊路的故事

2016雙11令人眼花缭亂的活動,背後是怎樣的體系來支撐起這樣多元化的玩法,本文一層層的來解構。在每秒17.5w筆的高峰下,每筆訂單所經的鍊路衆多,如何海量的訂單有序、準确的運作,如絲般潤滑,需要完整的業務、技術架構和對高峰時刻技術的攻堅。

5.3 千億通路量下的開放平台技術揭秘

淘寶開放平台(open.taobao.com)是阿裡系統與外部系統通訊的最重要平台,每天承載百億級的API調用,百億級的消息推送,十億級的資料同步,經曆了8年雙11成倍流量增長的洗禮。本文将為您揭開淘寶開放平台的高性能API網關、高可靠消息服務、零漏單資料同步的技術内幕。

5.4 智慧供應鍊

在面對天貓雙11當天1207億商品交易額(GMV)和6.57億物流訂單時,供應鍊作為電子商務企業運作的支柱,是如何有效地組織、協調和優化這個複雜且動态變化的供需網絡,進而可以高效地支援2016年貓全球購物狂歡節呢?

5.5 菜鳥雙11“十億級包裹”之戰

菜鳥這幾年不斷探索,在物流全鍊路上做了大量的嘗試和突破,比如通過海量資料精準的預測大促包裹量及流向、通過供應鍊預測計劃合理入庫及分倉鋪貨、以及做到“單未下、貨先行”的貨品下沉提前打包等。

那麼,菜鳥如何打通包裹預測、供應鍊入庫、訂單下沉、訂單路由排程、電子面單及智能分單,以及末端小件員,捍衛這場十億級包裹的雙11之戰。

第六章 大資料

6.1 雙11資料大屏背後的實時計算處理 (免登入閱讀)

2016年雙11的實時資料直播大屏有三大戰場,分别是面向媒體的資料大屏、面向商家端的資料大屏、面向阿裡巴巴内部業務營運的資料大屏。每個直播功能需要實時處理的資料量都是非常龐大的,每秒的總資料量更是高達億級别,這就對我們的實時計算架構提出了非常高的要求。在面對如此龐大資料的時候,我們的實時處理是如何做高精度、高吞吐、低延時、強保障的呢?

6.2 雙11背後的大規模資料處理

整體介紹作為前台線上業務和後端異步資料處理之間橋梁的實時資料總線服務TimeTunnel(TT),大規模資料流處理技術Galaxy,以及承載了阿裡巴巴集團所有的離線計算任務MaxCompute。

6.3 突破傳統,4k大屏的沉浸式體驗

能夠在 4K 的頁面上表演,對設計師和前端開發來說,既是機會也是挑戰,我們可以有更大的空間設計宏觀的場景,炫酷的轉場,讓觀衆感受影院式視覺體驗;但是,又必須面對因為畫布變大帶來的性能問題,以及絞盡腦汁實作很多天馬行空的的想法。本文介紹雙11媒體大屏開發中我們的一些設計和思路。

第七章 人工智能

7.1 基于深度強化學習與自适應線上學習的搜尋和推薦算法研究 (免登入閱讀)

淘寶的搜尋引擎涉及對上億商品的毫秒級處理響應,而淘寶的使用者不僅數量巨大,其行為特點以及對商品的偏好也具有豐富性和多樣性。是以,要讓淘寶的搜尋引擎對不同特點的使用者作出針對性的排序,并以此帶動搜尋引導的成交提升,是一個極具挑戰性的問題。與此同時,雙11主會場也是一個很複雜的推薦場景。從個性化推薦算法的角度來說,我們在2016年雙11主會場嘗試了多種新穎的排序模型,并做了嚴格的效果對比。本文詳細闡述人工智能技術在雙11搜尋與推薦場景中的應用。

7.2 颠覆傳統的電商智能助理-阿裡小蜜技術揭秘

在全球人工智能領域不斷發展的今天,包括Google、Facebook、Microsoft、Amazon、Apple等互聯公司相繼推出了自己的智能私人助理和機器人平台,智能人機互動成為各大公司在人工智能戰場上激烈競争的入口級領域。 智能人機互動通過拟人化的互動體驗逐漸在智能客服、任務助理、智能家居、智能硬體、互動聊天等領域發揮巨大的作用和價值。

阿裡也推出了自己的智能私人助理-阿裡小蜜,一個圍繞着電子商務領域中的服務、導購以及任務助理為核心的智能人機互動産品。通過電子商務領域與智能人機互動領域的結合,提升傳統電商領域的能效,帶來傳統服務行業模式的變化與體驗的提升。本文詳細闡述人工智能在智能客服中的應用。

7.3 深度學習與自然語言處理在智能語音客服中的應用

95188電話的支付寶熱線目前已經用純語音互動流程全面代替了傳統的按鍵流程,這個我們稱之為“蟻人”的智能語音客服會根據使用者的描述判斷使用者的意圖,進而為不同需求的使用者提供快速的直達服務,或者直接推送自助解決方案,或者發現是屬于緊急問題而直接轉給對應業務線的人工客服處理。本文詳細闡述了人工智能技術在智能語音客服場景下的應用。

7.4 資料賦能商家背後的黑科技

新商家事業部自去年12月成立以來,資料賦能商家就是重要的方向之一。我們将之前平台沉澱的資料和算法的能力轉過來賦能我們為商家提供的工具和平台,這其中包括客戶營運平台、千牛、服務市場等等。很多技術在今年的雙11也起到了非常顯著的作用,為商家帶來實實在在的收益。本文從客戶營運平台、千牛頭條、服務市場三個産品給大家分享我們如何通過機器學習和人工智能技術重新定義産品。

7.5 探索基于強化學習的智能推薦之路

随着千人千面個性化推薦技術在手機淘寶的全面應用,推薦場景日均引導成交在整個手淘平台占據着非常重要的比例。使用者越來越習慣于逛淘寶來滿足日常的休閑或者購物的需求。然而很多時候,使用者購買的目的性并不是很明确。一個寶貝的成交,可能會跨越多天,經曆較長的決策周期。與此同時,在整個使用者的購買決策過程中,他們經常在多個異構的推薦場景間進行跳轉,進而影響自身後續的行為序列。

是以,推薦的優化需要從單一場景的直接優化,逐漸進階到多場景的關聯優化,這就需要我們将使用者的長期行為序列納入模組化,進而實作整個手淘推薦鍊路的累積收益最大化。本文詳細闡述基于強化學習算法的智能推薦,

7.6 DNN在搜尋場景中的應用

搜尋排序的特征分大量的使用了LR,GBDT,SVM等模型及其變種。我們主要在特征工程,模組化的場景,目标采樣等方面做了很細緻的工作。但這些模型的瓶頸也非常的明顯,盡管現在阿裡集團内部的PS版本LR可以支援到50億特征規模,400億的樣本,但這對于我們來說,看起來依然是不太夠的,現在上億的item資料,如果直接使用id特征的話,和任意特征進行組合後,都會超出LR模型的極限規模,對于GBDT,SVM等模型的能力則更弱,而我們一直在思考怎麼可以突破這種模型的限制,找到更好的特征;另外,及時LR模型能支援到上億規模的特征,在實時預測階段也是有極大的工程挑戰,性能與記憶體會有非常大的瓶頸。

本文詳細闡述DNN的引入以及RNN模型的應用。

第八章 互動技術

8.1 VR電商購物  (免登入閱讀)

GM LAB在2016年3月成立,是一個旨在探索最新電商購物體驗的實驗室。在探索VR購物的過程中,有兩個需要核心解決的問題:一個是VR購物的産品形态是什麼,另一個是VR環境下的店鋪和商品怎麼來。對于這兩個問題,我們分别發起了BUY+和造物神計劃去解決。一直到雙11結束,基于BUY+探索VR購物體驗,基于造物神去豐富VR素材,都取得了一定的結果。本文詳細介紹Buy+和造物神。

8.2 淘寶直播在雙11的互動實踐

移動直播作為一個連接配接使用者的平台,實時性極強,借助移動裝置随時接入的特性,可切入的場景也更多,雙向的互動方式對于包括電商在内的其他業務模式來說也是值得探索的新玩法,是以随着這波浪潮的興起,我們也快速啟動淘寶直播來探索電商+直播的各種可能的方向,經過大半年的探索也得到很好的收獲,同時也為今年雙11直播會場的上線打下了基礎。整個過程對産品和技術上均帶來很大的挑戰,本文将為大家解析整個過程中所遇到關鍵問題和解決方案。

8.3 2016雙11前端突破

2016年天貓前端相比去年有了非常多不同次元的突破,本文詳細四個方面進行闡述:

1.穩定性、監控

2.極緻的性能優化

3.業務創新 / 平台建設

4.技術創新 / 互動

8.4 Weex 雙11會場大規模應用的秒開實戰和穩定性保障

今天阿裡諸多用戶端已經面臨包大小接近臨界值,大促活動頁面(H5)體驗較差等一系列問題。結合 Native 和 Web 技術亮點,同時又能解決阿裡遇到的業務問題,這就是 Weex 在阿裡誕生的背景。本文詳細闡述包括主會場、分會場、分分會場、人群會場等在内幾乎所有的雙11會場業務的Weex技術。

8.5 雙11晚會背後的技術

雙11晚會,在觀衆看着電視明星流口水的同時,還能參與互動,給心儀的明星支援,然後拿到禮品。這需要有着如絲般柔順的體驗,使用者才會願意玩。這些特性,在晚會史上都是前無古人的。即便是雙11天貓晚會本身,在2016年也是超越了2015年太多的。那麼“雙向互動”晚會背後都有哪些技術突破呢?