成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

首次披露!阿里線下智能方案進(jìn)化史

keelii / 743人閱讀

摘要:前言阿里巴巴機(jī)器智能實(shí)驗(yàn)室線下智能團(tuán)隊(duì)從年底開始涉及線下智能領(lǐng)域,從算法工程產(chǎn)品化業(yè)務(wù)落地多個(gè)方面入手,與合作伙伴們一起取得了一些小小的成績(jī)。目前,該套工具作為推薦的量化工具廣泛應(yīng)用在阿里集團(tuán)內(nèi)多個(gè)線下業(yè)務(wù)場(chǎng)景中。

阿里妹導(dǎo)讀:AI 技術(shù)已經(jīng)從互聯(lián)網(wǎng)走向零售、汽車、銀行等傳統(tǒng)行業(yè)。受限于延時(shí)、成本、安全等多方面的限制,單一的云解決方案往往不能滿足場(chǎng)景需求。線下智能方案逐步成為了智能化過程中重要的一環(huán),今天,我們就一起來了解這一環(huán),希望這些內(nèi)容可以讓同學(xué)了解線下智能的前景和其中待解決的技術(shù)點(diǎn)。
前言

阿里巴巴機(jī)器智能實(shí)驗(yàn)室線下智能團(tuán)隊(duì)從16年底開始涉及線下智能領(lǐng)域,從算法、工程、產(chǎn)品化、業(yè)務(wù)落地多個(gè)方面入手,與合作伙伴們一起取得了一些小小的成績(jī)。算法方面,我們提出了自主研發(fā)的模型壓縮方法,新型模型結(jié)構(gòu)和目標(biāo)檢測(cè)框架;工程方面,我們研發(fā)出一套非數(shù)據(jù)依賴的量化訓(xùn)練工具,并且針對(duì)不同硬件平臺(tái),研發(fā)了高效推理計(jì)算庫(kù);同時(shí)我們也和服務(wù)器研發(fā)團(tuán)隊(duì)一起抽象出了一套軟硬件產(chǎn)品化方案,以服務(wù)多樣的業(yè)務(wù)形式,并在真實(shí)業(yè)務(wù)場(chǎng)景中實(shí)驗(yàn)落地。

在后面的篇幅中,我們主要會(huì)從算法探索、訓(xùn)練工具、推理框架、產(chǎn)品化和業(yè)務(wù)模式等方面對(duì)之前的工作做一個(gè)總結(jié)和分享。

算法探索

基于 ADMM 的低比特量化

低比特量化是模型壓縮( ModelCompression )和推理加速( Inference Acceleration )中一個(gè)核心的問題,目的是將神經(jīng)網(wǎng)絡(luò)中原有的浮點(diǎn)型參數(shù)量化成 1-8Bits 的定點(diǎn)參數(shù),從而減小模型大小和計(jì)算資源消耗。為了解決這個(gè)問題,我們提出了基于 ADMM(Alternating Direction Method ofMultipliers)的低比特量化方案。在公開數(shù)據(jù)集 ImageNet 上,我們?cè)?Alexnet,ResNet-18,Resnet-50 等經(jīng)典 CNN 網(wǎng)絡(luò)結(jié)構(gòu)上做了實(shí)驗(yàn),無論是精度上還是速度上均超過了目前已知的算法。我們可以在 3-bit 上面做到幾乎無損壓縮。目前該方法已經(jīng)被廣泛應(yīng)用到各種端上目標(biāo)檢測(cè)和圖像識(shí)別的實(shí)際項(xiàng)目中。相關(guān)成果已經(jīng)在 AAAI 2018 上發(fā)表。

統(tǒng)一量化稀疏框架

量化技術(shù)可以通過簡(jiǎn)化計(jì)算單元(浮點(diǎn)計(jì)算單元->定點(diǎn)計(jì)算單元)提升推理速度。 稀疏化( Pruning ) 技術(shù)則是通過對(duì)神經(jīng)網(wǎng)絡(luò)中的通路進(jìn)行裁剪來減少真實(shí)計(jì)算量。我們很自然的將這兩個(gè)技術(shù)融合到了一起,來獲取極限的理論加速比。在剪枝過程中,我們采用了漸進(jìn)式的訓(xùn)練方法,并結(jié)合梯度信息決定網(wǎng)絡(luò)中路徑的重要程度。在 ResNet 結(jié)構(gòu)上,我們可以做到90%稀疏度下的近似無損壓縮。

在稀疏化研究過程中,我們發(fā)現(xiàn)了一個(gè)問題,更細(xì)粒度的裁剪往往會(huì)獲得更高的精度,但是代價(jià)是犧牲了硬件友好性,很難在實(shí)際應(yīng)用中獲得理論加速比。在后面的章節(jié)中,我們會(huì)通過兩個(gè)角度來解決這個(gè)問題:

軟硬件協(xié)同設(shè)計(jì),從軟硬件角度同時(shí)出發(fā)解決問題;

新型輕量級(jí)網(wǎng)絡(luò),從軟件角度設(shè)計(jì)適合更適合現(xiàn)有硬件的結(jié)構(gòu)。

軟硬件協(xié)同網(wǎng)絡(luò)結(jié)構(gòu)

通過量化和稀疏技術(shù),我們可以獲得一個(gè)理論計(jì)算量足夠低,所需計(jì)算單元足夠簡(jiǎn)單的深度網(wǎng)絡(luò)模型。下一個(gè)要解決的問題就是我們?nèi)绾螌⑵滢D(zhuǎn)換成一個(gè)真實(shí)推理延時(shí)低的算法服務(wù)。為了挑戰(zhàn)極限的推理加速效果,我們和服務(wù)器研發(fā)團(tuán)隊(duì)一起,從軟硬件聯(lián)合設(shè)計(jì)出發(fā)解決該問題。在該項(xiàng)目中,我們提出了以下幾個(gè)創(chuàng)新點(diǎn),其中包括:

軟硬件協(xié)同設(shè)計(jì)方面,我們針對(duì)硬件物理特性提出了異構(gòu)并行分支結(jié)構(gòu),最大化并行效率。

算法方面,我們利用量化、稀疏、知識(shí)蒸餾等技術(shù),將理論計(jì)算量壓縮到原始模型的18%。

硬件方面,我們通過算子填充技術(shù)解決稀疏計(jì)算帶來的帶寬問題,利用算子重排技術(shù)平衡PE負(fù)載。

通過上述方案,我們只需要 0.174ms 的 latency 就可以完成 resnet-18 復(fù)雜程度的模型推理,達(dá)到業(yè)內(nèi)最佳水平。該方案在對(duì) latency 敏感的領(lǐng)域具有極大的優(yōu)勢(shì)。相關(guān)成果已經(jīng)在 HotChips 30 上展出。

新型輕量級(jí)網(wǎng)絡(luò)

軟硬件協(xié)同設(shè)計(jì)是一個(gè)非常好的推理解決方案,但是改方案的開發(fā)成本和硬件成本都很高。某些特定的場(chǎng)景對(duì)于 latency 和 accuracy 的容忍度比較高(例如人臉抓拍)。為了解決這類需求,我們提出了一種多聯(lián)合復(fù)用網(wǎng)絡(luò) (Multi-Layer Feature Federation Network, MuffNet) ,該結(jié)構(gòu)同時(shí)具有3個(gè)特點(diǎn):

稀疏的拓?fù)浣Y(jié)構(gòu),同時(shí)更容易獲取高頻響應(yīng);

密集的計(jì)算節(jié)點(diǎn),保證硬件友好性;

針對(duì)低成本硬件充分優(yōu)化,小計(jì)算量下精度提升更明顯;

我們提出的新型網(wǎng)絡(luò)由于每個(gè)單元的計(jì)算比較密集,并不存在過多的碎片操作,是非常適合在通用硬件上運(yùn)行的。在公開數(shù)據(jù)集 ImageNet 上,我們?cè)?40MFLops 計(jì)算量上相比目前業(yè)內(nèi)最優(yōu)的 shufflenetv2 結(jié)構(gòu),準(zhǔn)確度絕對(duì)提升了2%。

端上目標(biāo)檢測(cè)框架

相比圖像識(shí)別類任務(wù),目標(biāo)檢測(cè)類任務(wù)的適用場(chǎng)景更廣泛。高效的目標(biāo)檢測(cè)框架具有很高的研究?jī)r(jià)值。針對(duì)端上場(chǎng)景,我們提出了一個(gè) LRSSD 框架( light refine single short multiboxdetector ), 該框架包括以下幾個(gè)特點(diǎn):

簡(jiǎn)化 SSD HEAD,采用共享預(yù)測(cè)層 設(shè)計(jì)特征融合模塊;

融合不同尺度下信息 級(jí)聯(lián)形式的 bbox 回歸;

對(duì)檢測(cè)模型做全量化處理。

如上表所示,相同 backbone 網(wǎng)絡(luò)的情況下,我們提出的 LRSSD 在減少 SSD HEAD 計(jì)算量的同時(shí),mAP 可以穩(wěn)定提升3%-4% 。從另一個(gè)角度來看,在保證檢測(cè)精度不變的情況下,我們的方法可以將模型復(fù)雜度減少到原來的50%左右。如果再考慮到量化帶來的速度加成,在相同精度下,相比原有全精度模型,我們可以獲得總共約2-3倍的真實(shí)速度提升。

小結(jié)

上文給出了我們近2年內(nèi)在線下智能—模型壓縮領(lǐng)域所做的一些技術(shù)積累。歸納起來如下:

量化方面:我們可以做到 3-bit 量化幾乎無損壓縮!

稀疏方面:對(duì)于傳統(tǒng)網(wǎng)絡(luò)結(jié)構(gòu),我們可以做到90%稀疏度下的幾乎無損壓縮!

軟硬件協(xié)同設(shè)計(jì)方面:我們聯(lián)合服務(wù)器研發(fā)團(tuán)隊(duì),達(dá)到0.174ms/張的resnet18 極限推理速度,目前已知業(yè)內(nèi)最佳效果!

輕量級(jí)網(wǎng)絡(luò)設(shè)計(jì)方面:我們?cè)?40MFlops 計(jì)算量下,相對(duì)目前業(yè)內(nèi)最好結(jié)構(gòu),在 ImageNet 數(shù)據(jù)集上絕對(duì)提升2%!

端上目標(biāo)檢測(cè)方面,我們?cè)诒WC精度不變的情況下,速度提升約2-3倍!

在技術(shù)探索的同時(shí),我們也在積極的將上述技術(shù)應(yīng)用到實(shí)際的業(yè)務(wù)中。在這一過程中我們發(fā)現(xiàn)了下列幾個(gè)問題:

易用性: 業(yè)務(wù)場(chǎng)景往往需要快速的迭代能力和靈活方便的部署能力,因此非標(biāo)準(zhǔn)化的方案很難被廣泛應(yīng)用。

理論速度 vs 真實(shí)速度: 除了算法和硬件以外,真實(shí)的模型推理速度是需要一個(gè)高效的工程實(shí)現(xiàn)作為支撐的。

集成化 :線下智能需要同時(shí)考驗(yàn)團(tuán)隊(duì)在硬件和軟件方面兩方面的實(shí)力,這對(duì)業(yè)務(wù)而言往往太過沉重。

在本文后半部分,我們首先會(huì)針對(duì)上述的幾個(gè)問題介紹我們已經(jīng)做過的嘗試和沉淀出的解決方案。最后,我們列出了一些實(shí)例,展示如何在具體的業(yè)務(wù)場(chǎng)景中應(yīng)用線下智能技術(shù),希望可以給各位同學(xué)一個(gè)更直觀的認(rèn)識(shí)。

訓(xùn)練工具

在實(shí)際業(yè)務(wù)推廣過程中,我們遇到的第一個(gè)問題是易用性問題:

不同業(yè)務(wù)往往使用的深度學(xué)習(xí)庫(kù)多種多樣,例如 Caffe, Tensorflow, Mxnet 等等;

不同業(yè)務(wù)使用的基礎(chǔ)技術(shù)差異比較大,有分類識(shí)別、檢測(cè)、分割、語音等等;

不同業(yè)務(wù)的數(shù)據(jù)安全級(jí)別差異比較大,有些可以公開,有些則需要完全物理隔離;

為了讓更多的場(chǎng)景都可以用上我們的服務(wù),獲得 AI 的紅利,我們提出了一套標(biāo)準(zhǔn)化的量化訓(xùn)練工具。

如上圖所示,首先,我們的工具輸入支持多種模型格式( TensorFlow,Caffe,Mxnet 等)。其次,我們提供了兩種不同的模型量化方法,一種是支持不同任務(wù)(分類,檢測(cè),分割等)的數(shù)據(jù)依賴型壓縮方法( Data Dependent Compression ) , 適用于對(duì)數(shù)據(jù)安全要求不是很高,希望追求精度最大化的業(yè)務(wù);另一種是數(shù)據(jù)非依賴壓縮方法( Data Independent Compression ),適用于對(duì)數(shù)據(jù)安全要求高,或者業(yè)務(wù)邏輯不是特別復(fù)雜的場(chǎng)景。

最后,在量化工作完成后,我們的工具會(huì)自動(dòng)完成推理圖的優(yōu)化和模型加密,生成可以實(shí)際部署的模型文件。配合對(duì)應(yīng)的推理加速庫(kù)即可在端上運(yùn)行。從易用性和數(shù)據(jù)安全性角度出發(fā),我們推薦使用數(shù)據(jù)非依賴性的壓縮方法。

目前,該套工具作為MNN推薦的量化工具廣泛應(yīng)用在阿里集團(tuán)內(nèi)多個(gè)線下業(yè)務(wù)場(chǎng)景中。

推理框架

實(shí)際中遇到的第二個(gè)問題就是真實(shí)推理速度問題,畢竟光有易用性是不夠的,實(shí)打?qū)嵉臉I(yè)務(wù)效果才是業(yè)務(wù)最想要的。這里我們使用阿里集團(tuán)其他的兄弟團(tuán)隊(duì)提供的推理框架:

ARM 架構(gòu): 我們采用淘系技術(shù)團(tuán)隊(duì)研發(fā)的 MNN 作為推理框架;

GPU 架構(gòu): 我們采用機(jī)器智能技術(shù)團(tuán)隊(duì)研發(fā)的 falcon_conv 卷積庫(kù)作為推理框架;

FPGA 架構(gòu):我們采用服務(wù)器研發(fā)團(tuán)隊(duì)研發(fā)的推理框架。

MNN

MNN 是一個(gè)輕量級(jí)的深度學(xué)習(xí)端側(cè)推理引擎,核心解決深度神經(jīng)網(wǎng)絡(luò)模型在端側(cè)推理運(yùn)行問題,涵蓋深度神經(jīng)網(wǎng)絡(luò)模型的優(yōu)化、轉(zhuǎn)換和推理。目前,MNN已經(jīng)在手淘、手貓、優(yōu)酷、聚劃算、UC、飛豬、千牛等 20 多個(gè) App 中使用。選用常見的深度神經(jīng)網(wǎng)絡(luò)模型 MobileNet V2 和 SqueezeNet V1.1 作為測(cè)試樣本:Android 方面,以小米6為例,MNN 在 CPU 和 GPU 上領(lǐng)先業(yè)界至少30%;iOS 方面,以iPhone 7為例,MNN 在 CPU 和 GPU 上領(lǐng)先業(yè)界至少15%。

FPGA

FPGA 上的推理框架由服務(wù)器研發(fā)團(tuán)隊(duì)完成。ResNet18 網(wǎng)絡(luò)的推理時(shí)間只需要0.174ms,目前已知業(yè)內(nèi)最佳性能。在邊緣計(jì)算產(chǎn)品 alibabaedge 上,基于硬件實(shí)現(xiàn)的高效算子,推理速度為邊緣 GPU 的兩倍。在后面,我們會(huì)結(jié)合產(chǎn)品形態(tài)整體的介紹這一方案。

GPU

falcon_conv 是機(jī)器智能技術(shù)團(tuán)隊(duì)開發(fā)的一款由 CUDA C++編寫,在 Nvidia GPU 上運(yùn)行的低精度卷積庫(kù),它接受2份低精度( INT8 )張量作為輸入,將卷積結(jié)果以float/int32 數(shù)據(jù)輸出,同時(shí)支持卷積后一些常規(guī)操作( scale,batchnorm,relu… )的合并。我們?cè)趩螐?Tesla P4 GPU 上,對(duì) falcon_conv 的性能與 Nvidia 官方計(jì)算庫(kù)Cudnn v7.1 做了比較,如圖所示。幾乎所有情況 falcon_conv 都優(yōu)于 Cudnn ,個(gè)別用例有高至5倍的提升,用例選自 RESNET 和 VGG 中耗時(shí)較多的卷積參數(shù)。

產(chǎn)品化

在業(yè)務(wù)支持過程中我們遇到的第三個(gè)問題是集成化,產(chǎn)品化問題。除了手機(jī)類場(chǎng)景外,其他線下業(yè)務(wù)均需要額外的硬件平臺(tái)作為支撐。在早先時(shí)候,我們更多的是依賴第三方提供的硬件設(shè)備,這時(shí)候成本,穩(wěn)定性,可擴(kuò)展性 成為制約線下項(xiàng)目拓展的幾個(gè)主要問題。為了解決這些問題,我們根據(jù)以往的項(xiàng)目經(jīng)驗(yàn),對(duì)硬件設(shè)備進(jìn)行歸納,沉淀出兩類比較通用的線下產(chǎn)品化方案:智能盒子和一體化相機(jī)。每類產(chǎn)品均包含不同型號(hào),以適應(yīng)不同需求的場(chǎng)景。

智能盒子

我們提供的第一個(gè)方案為智能盒子方案。我們可以簡(jiǎn)單的把智能盒子當(dāng)作一個(gè)適合于中小型場(chǎng)景的邊緣服務(wù)器。盒子本身提供了多種接口,可以外接 usb/ip 相機(jī),語音模塊等傳感器。直接本地部署,數(shù)據(jù)安全性高。我們針對(duì)業(yè)務(wù)特點(diǎn)提供了高低兩個(gè)版本的智能盒子。其中,高端版本采用阿里巴巴自研的邊緣計(jì)算產(chǎn)品 Alibaba Edge 。除了完善的硬件設(shè)計(jì)和高效的推理框架,該盒子還包含完善的編譯器支持,具有非常好的易用性。 低端版本則為純 ARM 的盒子。下面表格給出這兩種盒子在性能,成本和適用場(chǎng)景的一個(gè)對(duì)比。

在這里我們著重介紹一下阿里巴巴自研的邊緣計(jì)算產(chǎn)品 Alibaba Edge,該產(chǎn)品除了具有高達(dá) 3TGFlops 的AI計(jì)算能力外,相對(duì)邊緣 GPU 方案有大幅的價(jià)格優(yōu)勢(shì),同時(shí)具有云端一體化部署功能,產(chǎn)品平臺(tái)化,可快速上線,支持大規(guī)模運(yùn)維。

在下面的表格中,我們對(duì)比了 LRSSD300+MobileNetV2 的不同硬件設(shè)備上的運(yùn)行時(shí)間,希望可以給大家一個(gè)更直觀的認(rèn)識(shí)。

一體化相機(jī)

我們提供的另一個(gè)集成方案為一體化相機(jī)。一體化相機(jī)特別適合云+端的部署模式:線下做相對(duì)比較簡(jiǎn)單的處理功能,云端則深度處理線下傳回的信息。達(dá)到節(jié)約帶寬,降低云成本的作用。同時(shí),一體化相機(jī)具有方便部署,批量化生產(chǎn)后成本優(yōu)勢(shì)高的特點(diǎn)。目前一體化相機(jī)已經(jīng)作為一個(gè)重要的載體形式被應(yīng)用到我們所承接的對(duì)集團(tuán)外合作項(xiàng)目中。

業(yè)務(wù)合作

在過去的2年間,我們嘗試過多種不同的業(yè)務(wù)模式。在這里我們會(huì)列出主要幾個(gè)不同形式的實(shí)例。

菜鳥未來園區(qū)

在菜鳥未來園區(qū)項(xiàng)目中,我們主要負(fù)責(zé)基礎(chǔ)視覺類算法的輸出,由菜鳥智慧園區(qū)團(tuán)隊(duì)同學(xué)負(fù)責(zé)業(yè)務(wù)算法和工程服務(wù)研發(fā)工作。經(jīng)過半年的共同努力,我們先后完成了離崗睡崗檢測(cè),消防通道異常檢測(cè),車位占用檢測(cè),行人越界檢測(cè),入口計(jì)數(shù)檢測(cè)等多個(gè)功能。

在項(xiàng)目合作的過程中,我們發(fā)現(xiàn)計(jì)算單元成本高是制約算法大范圍推廣的一個(gè)主要原因。為了解決這個(gè)問題,我們聯(lián)合了服務(wù)器研發(fā)團(tuán)隊(duì),開發(fā)出一版定制化軟硬件解決方案:該方案的硬件平臺(tái)為我們?cè)谏衔闹刑岬降倪吘売?jì)算產(chǎn)品 Alibaba Edge,同時(shí)配備特別定制的高效模型結(jié)構(gòu)和自研的快速檢測(cè)算法。新版方案在檢測(cè)精度幾乎無損的情況下,推理速度提升了4-5倍,成本相比邊緣 GPU 方案下降了1/2。

模型壓縮加速

我們協(xié)助阿里集團(tuán)不同業(yè)務(wù)同學(xué)完成對(duì)已有算法模型的量化瘦身與加速工作。例如:手機(jī)端 OCR 識(shí)別、手機(jī)端物體檢測(cè)、手淘實(shí)人認(rèn)證和刷臉登錄/驗(yàn)證、菜鳥自提柜、阿里體育賽事刷臉入場(chǎng)、神州鷹人臉識(shí)別云相冊(cè)等。

總結(jié)與展望

經(jīng)過近兩年的努力,機(jī)器智能技術(shù)實(shí)驗(yàn)室線下智能團(tuán)隊(duì)深耕線下智能領(lǐng)域。算法方面:我們?cè)诘捅忍亓炕⑾∈杌?、軟硬件協(xié)同設(shè)計(jì)、輕量級(jí)網(wǎng)絡(luò)設(shè)計(jì)、端上目標(biāo)檢測(cè)等多個(gè)方面取得了一定的積累,多項(xiàng)指標(biāo)達(dá)到了業(yè)內(nèi)最佳水平。工程方面:我們積累出了一套 高靈活性,高數(shù)據(jù)安全性 的訓(xùn)練工具 ; 并在合伙伙伴的幫助下,在ARM,F(xiàn)PGA,GPU 等多個(gè)平臺(tái)下達(dá)到了業(yè)內(nèi)最佳的推理性能。產(chǎn)品化方面:我們與合作伙伴一起,研發(fā)出適合于不同業(yè)務(wù)場(chǎng)景的智能盒子與一體化相機(jī)。最后,我們很幸運(yùn)可以在集團(tuán)內(nèi)外多個(gè)不同形式的業(yè)務(wù)場(chǎng)景內(nèi)打磨我們的技術(shù)。



本文作者: 翎翀

閱讀原文

本文來自云棲社區(qū)合作伙伴“阿里技術(shù)”,如需轉(zhuǎn)載請(qǐng)聯(lián)系原作者。

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/20056.html

相關(guān)文章

  • 阿里CEO張勇:我們理解AI是Alibaba Intelligence

    摘要:月日,阿里巴巴集團(tuán)張勇在澳大利亞舉行的商家大會(huì)上笑言。年再次追投今年月日,阿里宣布全資收購(gòu)中天微。截至目前,阿里還投資了寒武紀(jì)深鑒耐能翱捷科技等五家芯片公司。根據(jù)阿里披露的數(shù)據(jù),目前已有近個(gè)澳新品牌已入駐天貓。 AI(人工智能)對(duì)很多人來說是新事物,但阿里巴巴早已在大規(guī)模應(yīng)用。當(dāng)大家第一次聽到AI時(shí),我們以為說的是Alibaba intelligence(阿里智能)。4月23日,阿里巴...

    elarity 評(píng)論0 收藏0
  • 智能語音推動(dòng)雙11進(jìn)化:搶紅包從動(dòng)手到張嘴

    摘要:月日,據(jù)阿里巴巴披露,雙期間共處理了超萬次語音請(qǐng)求,其中多萬次語音識(shí)別請(qǐng)求,超過萬次語音合成請(qǐng)求。智能語音技術(shù)的廣泛應(yīng)用,對(duì)于消費(fèi)者來說最直觀的體驗(yàn)便是搶紅包從動(dòng)手變成了動(dòng)嘴。 摘要: 天貓雙11狂歡節(jié)再一次創(chuàng)造了新的商業(yè)奇跡,也直接推動(dòng)了機(jī)器智能技術(shù)邁向新的高度。   天貓雙11狂歡節(jié)再一次創(chuàng)造了新的商業(yè)奇跡,也直接推動(dòng)了機(jī)器智能技術(shù)邁向新的高度。11月14日,據(jù)阿里巴巴披露,雙11...

    MRZYD 評(píng)論0 收藏0
  • 首次揭秘!阿里無人店系統(tǒng)背后的技術(shù)

    摘要:下面,我們邀請(qǐng)阿里巴巴淘寶技術(shù)部資深技術(shù)專家,天貓未來店技術(shù)負(fù)責(zé)人時(shí)維,為大家分享天貓未來店背后的技術(shù)本文根據(jù)云棲大會(huì)演講整理而成??偨Y(jié)下來,阿里無人店開發(fā)的宗旨就是兩句話首先,技術(shù)上我是要追求無人的能力,但不迎合無人的體驗(yàn)。 showImg(https://segmentfault.com/img/remote/1460000016760894); 今年云棲大會(huì)現(xiàn)場(chǎng)一大網(wǎng)紅打卡地莫過...

    littleGrow 評(píng)論0 收藏0
  • 阿里副總裁玄難:藏經(jīng)閣計(jì)劃首次阿里應(yīng)用落地

    摘要:在全國(guó)知識(shí)圖譜與語義計(jì)算大會(huì)上,阿里巴巴集團(tuán)副總裁藏經(jīng)閣計(jì)劃阿里負(fù)責(zé)人墻輝玄難宣布藏經(jīng)閣計(jì)劃首次在阿里應(yīng)用落地,以及首次披露大規(guī)模知識(shí)構(gòu)建技術(shù)細(xì)節(jié),并從三個(gè)方面進(jìn)行了解讀。 2018年4月,阿里聯(lián)合清華大學(xué)、浙江大學(xué)、中科院自動(dòng)化所、中科院軟件所、蘇州大學(xué)等五家機(jī)構(gòu),聯(lián)合發(fā)布藏經(jīng)閣(知識(shí)引擎)研究計(jì)劃,同時(shí)還宣布打算用一年時(shí)間初步建成首個(gè)開放的知識(shí)引擎服務(wù)平臺(tái),服務(wù)社會(huì)。 在全國(guó)知識(shí)圖...

    CompileYouth 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<