成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

玩轉(zhuǎn)TensorFlow Lite:有道云筆記實(shí)操案例分享

Hanks10100 / 2070人閱讀

摘要:如何進(jìn)行操作本文將介紹在有道云筆記中用于文檔識別的實(shí)踐過程,以及都有些哪些特性,供大家參考。年月發(fā)布后,有道技術(shù)團(tuán)隊(duì)第一時間跟進(jìn)框架,并很快將其用在了有道云筆記產(chǎn)品中。微軟雅黑宋體以下是在有道云筆記中用于文檔識別的實(shí)踐過程。

這一兩年來,在移動端實(shí)現(xiàn)實(shí)時的人工智能已經(jīng)形成了一波潮流。去年,谷歌推出面向移動端和嵌入式的神經(jīng)網(wǎng)絡(luò)計(jì)算框架TensorFlowLite,將這股潮流繼續(xù)往前推。TensorFlowLite如何進(jìn)行操作?本文將介紹TFLite在有道云筆記中用于文檔識別的實(shí)踐過程,以及 TFLite 都有些哪些特性,供大家參考。

近年來,有道技術(shù)團(tuán)隊(duì)在移動端實(shí)時 AI 能力的研究上,做了很多探索及應(yīng)用的工作。2017 年 11 月 Google 發(fā)布?TensorFlowLite (TFLlite) 后,有道技術(shù)團(tuán)隊(duì)第一時間跟進(jìn) TFLite 框架,并很快將其用在了有道云筆記產(chǎn)品中。

以下是TFLite在有道云筆記中用于文檔識別的實(shí)踐過程。

文檔識別工作的介紹

1. 文檔識別的定義

文檔識別最初是開發(fā)有道云筆記的文檔掃描功能時面對的一個問題。文檔掃描功能希望能在用戶拍攝的照片中,識別出文檔所在的區(qū)域,進(jìn)行拉伸 (比例還原),識別出其中的文字,最終得到一張干凈的圖片或是一篇帶有格式的文字版筆記。實(shí)現(xiàn)這個功能需要以下這些步驟:

  1. 識別文檔區(qū)域: 將文檔從背景中找出來,確定文檔的四個角;
  2. 拉伸文檔區(qū)域,還原寬高比: 根據(jù)文檔四個角的坐標(biāo),根據(jù)透視原理,計(jì)算出文檔原始寬高比,并將文檔區(qū)域拉伸還原成矩形;
  3. 色彩增強(qiáng): 根據(jù)文檔的類型,選擇不同的色彩增強(qiáng)方法,將文檔圖片的色彩變得干凈清潔;
  4. 布局識別: 理解文檔圖片的布局,找出文檔的文字部分;
  5. OCR: 將圖片形式的“文字”識別成可編碼的文字;
  6. 生成筆記: 根據(jù)文檔圖片的布局,從 OCR 的結(jié)果中生成帶有格式的筆記。

文檔識別就是文檔掃描功能的第一步,也是場景最復(fù)雜的一個部分

2. 文檔識別在有道 AI 技術(shù)矩陣中的角色

有道近年來基于深度神經(jīng)網(wǎng)絡(luò)算法,在自然語言、圖像、語音等媒體數(shù)據(jù)的處理和理解方面做了一系列工作,產(chǎn)出了基于神經(jīng)網(wǎng)絡(luò)的多語言翻譯、OCR(光學(xué)字符識別)、語音識別等技術(shù)。在這些技術(shù)的合力之下,我們的產(chǎn)品有能力讓用戶以他們最自然最舒服的方式去記錄內(nèi)容,用技術(shù)去理解這些內(nèi)容,并將其統(tǒng)一轉(zhuǎn)化為文本以待下一步處理。從這個角度來看,我們的各種技術(shù)組成了以自然語言為中心,多種媒體形式相互轉(zhuǎn)換的網(wǎng)絡(luò)結(jié)構(gòu)。

文檔識別是從圖像轉(zhuǎn)化為文本的這條轉(zhuǎn)換鏈上,不起眼卻又不可缺少的一環(huán)。有了它的存在,我們可以在茫茫圖海中,準(zhǔn)確找到需要處理的文檔,并將其抽取出來進(jìn)行處理。

3. 文檔識別的算法簡介

我們的文檔識別算法基于 FCNN (Fully Convolutional Neural Network) ,這是一種特別的 CNN(卷積神經(jīng)網(wǎng)絡(luò)),其特點(diǎn)是對于輸入圖片的每一個像素點(diǎn),都對應(yīng)著一個輸出(相對的,普通的 CNN 網(wǎng)絡(luò)則是每一張輸入圖片對應(yīng)著一個輸出)。因此,我們可以標(biāo)記一批包含文檔的圖片,將圖片中文檔邊緣附近的像素標(biāo)注為正樣本,其他部分標(biāo)注為副樣本。訓(xùn)練時,以圖片作為 FCNN 的輸入,將輸出值與標(biāo)注值作對比得到訓(xùn)練懲罰,從而進(jìn)行訓(xùn)練。關(guān)于文檔識別算法的更多細(xì)節(jié),可以參見有道技術(shù)團(tuán)隊(duì)的《文檔掃描:深度神經(jīng)網(wǎng)絡(luò)在移動端的實(shí)踐》這篇文章。

由于算法的主體是 CNN,因此文檔掃描算法中主要用到的算子(Operator)包括卷積層、Depthwise 卷積層、全連接層、池化層、Relu 層這些 CNN 中常用的算子。

4. 文檔識別與 TensorFlow

能夠訓(xùn)練和部署 CNN 模型的框架非常多。我們選擇使用?TensorFlow框架,是基于以下幾方面的考慮的:

  1. TensorFlow 提供的算子全面且數(shù)量眾多,自己創(chuàng)建新的算子也并不麻煩。在算法研發(fā)的初期會需要嘗試各種不同的模型網(wǎng)絡(luò)結(jié)構(gòu),用到各種奇奇怪怪的算子。此時一個提供全面算子的框架能夠節(jié)省大量的精力;
  2. TensorFlow 能夠較好的覆蓋服務(wù)器端、Android 端、iOS 端等多個平臺,并在各個平臺上都有完整的算子支持;
  3. TensorFlow 是一個比較主流的選擇,這意味著當(dāng)遇到困難時,更容易在互聯(lián)網(wǎng)上找到現(xiàn)成的解決辦法。

5. 為什么想在文檔識別中用 TFLite

在 TFLite 發(fā)布之前,有道云筆記中的文檔識別功能是基于移動端?TensorFlow庫 (TensorFlowMobile) 的。當(dāng)?TFLite發(fā)布后,我們希望遷移到?TFLite上。促使我們遷移的主要動力是鏈接庫的體積。

經(jīng)過壓縮后,Android 上的?TensorFlow動態(tài)庫的體積大約是 4.5M 左右。如果希望滿足 Android 平臺下的多種處理器架構(gòu),可能需要打包 4 個左右的動態(tài)庫,加起來體積達(dá)到 18M 左右;而 tflite 庫的體積在 600K 左右,即便是打包 4 個平臺下的鏈接庫,也只需要占用 2.5M 左右的體積。這在寸土寸金的移動 App 上,價值是很大的。

TFLite的介紹

1. TFLite 是什么

TFLite 是 Google I/O 2017 推出的面向移動端和嵌入式的神經(jīng)網(wǎng)絡(luò)計(jì)算框架,于2017年11月5日發(fā)布開發(fā)者預(yù)覽版本 (developer preview)。相比與?TensorFlow,它有著這樣一些優(yōu)勢:

  • 輕量級。如上所述,通過 TFLite 生成的鏈接庫體積很??;
  • 沒有太多依賴。TensorFlow Mobile 的編譯依賴于 protobuf 等庫,而 tflite 則不需要大的依賴庫;
  • 可以用上移動端硬件加速。TFLite 可以通過 Android Neural Networks API (NNAPI) 進(jìn)行硬件加速,只要加速芯片支持 NNAPI,就能夠?yàn)?TFLite 加速。不過目前在大多數(shù) Android 手機(jī)上,Tflite 還是運(yùn)行在 CPU 上的。

TensorFlow Lite的架構(gòu)設(shè)計(jì)

2. TFLite 的代碼結(jié)構(gòu)

作為 TFLite 的使用者,我們也探索了一下 TFLite 的代碼結(jié)構(gòu),這里分享一下。

目前,TFLite 的代碼位于?TensorFlow工程中 "tensorflow/contrib/lite" 文件夾下。文件夾下有若干頭/源文件和一些子文件夾。

其中,一些比較重要的頭文件有:

  • model.h: 和模型文件相關(guān)的一些類和方法。其中 FlatBufferModel 這個類是用來讀取并存儲模型內(nèi)容的,InterpreterBuilder 則可以解析模型內(nèi)容;
  • Interpreter.h: 提供了用以推斷的類 Interpreter,這是我們最常打交道的類;
  • context.h: 提供了存儲 Tensors 和一些狀態(tài)的 struct TfLiteContext。實(shí)際使用時一般會被包裝在 Interpreter 中;

此外,有一些比較重要的子文件夾:

  • kernels: 算子就是在這里被定義和實(shí)現(xiàn)的。其中 regester.cc 文件定義了哪些算子被支持,這個是可以自定義的。
  • downloads: 一些第三方的庫,主要包括:
  • abseil: Google 對 c++ 標(biāo)準(zhǔn)庫的擴(kuò)展;
  • eigen: 一個矩陣運(yùn)算庫;
  • farmhash: 做 hash 的庫;
  • flatbuffers: TFLite 所使用的 FlatBuffers 模型格式的庫;
  • gemmlowp: Google 開源的一個低精度矩陣運(yùn)算庫;
  • neon_2_sse: 把 arm 上的 neon 指令映射到相對應(yīng)的 sse 指令。
  • Java: 主要是 Android 平臺相關(guān)的一些代碼;
  • nnapi: 提供了 nnapi 的調(diào)用接口。如果想自己實(shí)現(xiàn) nnapi 可以看一看;
  • schema: TFLite 所使用的 FlatBuffers 模型格式的具體定義;
  • toco: protobuf 模型轉(zhuǎn)換到 FlatBuffers 模型格式的相關(guān)代碼。

我們是怎么用TFLite的?

1. TFLite 的編譯

TFLite 可以運(yùn)行在 Android 和 iOS 上,官方給出了不同的編譯流程。

在 Android 上,我們可以使用 bazel 構(gòu)建工具進(jìn)行編譯。bazel 工具的安裝和配置就不再贅述了,有過?TensorFlow編譯經(jīng)驗(yàn)的同學(xué)應(yīng)該都熟悉。依照官方文檔,bazel 編譯的 target 是 "http://tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo",這樣得到的是一個 demo app。如果只想編譯庫文件,可以編譯 "http://tensorflow/contrib/lite/java:tensorflowlite" 這個 target,得到的是 libtensorflowlite_jni.so 庫和相應(yīng)的 java 層接口。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/demo_android.md

在 iOS 上,則需要使用 Makefile 編譯。在 mac 平臺上運(yùn)行 build_ios_universal_lib.sh,會編譯生成 tensorflow/contrib/lite/gen/lib/libtensorflow-lite.a 這個庫文件。這是個 fat library,打包了 x86_64, i386, armv7, armv7s, arm64 這些平臺上的庫。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/demo_ios.md

兩個平臺上 TFLite 庫的調(diào)用接口也有所不同:Android 上提供了 Java 層的調(diào)用接口,而 iOS 上則是 c++ 層的調(diào)用接口。

當(dāng)然,TFLite 的工程結(jié)構(gòu)是比較簡單的,如果你熟悉了 TFLite 的結(jié)構(gòu),也可以用自己熟悉的編譯工具來編譯 TFLite。

2. 模型轉(zhuǎn)換

TFLite 不再使用舊的 protobuf 格式(可能是為了減少依賴庫),而是改用 FlatBuffers 。因此需要把訓(xùn)練好的 protobuf 模型文件轉(zhuǎn)換成 FlatBuffers 格式。

TensorFlow 官方給出了模型轉(zhuǎn)化的指導(dǎo)。首先,由于 TFLite 支持的算子比較少,更不支持訓(xùn)練相關(guān)的算子,因此需要提前把不需要的算子從模型中移除,即 Freeze Graph ;接著就可以做模型格式轉(zhuǎn)換了,使用的工具是 tensorflow toco。這兩個工具也是通過 bazel 編譯得到。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/devguide.md

3. 缺失的算子

TFLite 目前僅提供有限的算子,主要以 CNN 中使用到的算子為主,如卷積、池化等。我們的模型是全卷積神經(jīng)網(wǎng)絡(luò),大部分算子 TFLite 都有提供,但 conv2d_transpose(反向卷積)算子并沒有被提供。幸運(yùn)的該算子出現(xiàn)在網(wǎng)絡(luò)模型的末端,因此我們可以將反向卷積之前的計(jì)算結(jié)果取出,自己用 c++ 實(shí)現(xiàn)一個反向卷積,從而計(jì)算出最終的結(jié)果。由于反向卷積的運(yùn)算量并不大,所以基本沒有影響到運(yùn)行速度。

如果不巧,你的模型需要但 TFLite 缺少的算子并非出現(xiàn)在網(wǎng)絡(luò)的末端,該怎么辦呢?你可以自定義一個 TFLite 算子,將其注冊在 TFLite 的 kernels 列表中,這樣編譯得到的 TFLite 庫就可以處理該算子了。同時,在模型轉(zhuǎn)換時,還需要加上 --allow_custom_ops 選項(xiàng),將 TFLite 默認(rèn)不支持的算子也保留在模型中。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/g3doc/custom_operators.md

TFLite 優(yōu)缺點(diǎn)

優(yōu)點(diǎn):在庫的大小、開發(fā)方便程度、跨平臺性、性能之間達(dá)成一個平衡

作為對比,有道技術(shù)團(tuán)隊(duì)選取了一些其他的移動端深度學(xué)習(xí)框架,分別分析其在“開發(fā)方便程度、跨平臺性、庫的大小、性能”四個方面的表現(xiàn):

  • TensorFlow Mobile,由于和 server 上的 TensorFlow 是同一套代碼,所以可以直接使用 server 上訓(xùn)練得到的模型,開發(fā)非常方便;能支持 Android, iOS, 跨平臺性沒問題;如前所述,庫的大小比較大;性能主流。
  • caffe2,可以比較方便的從 caffe 訓(xùn)練出的模型轉(zhuǎn)換到 caffe2 ,但缺少一些算子, 開發(fā)方便程度一般;能支持 Android, iOS,跨平臺性沒問題;庫編譯出來比較大,但是是靜態(tài)庫可以壓縮;性能主流。
  • Mental/Accelerate,這兩個都是 iOS 上的框架。比較底層,需要模型轉(zhuǎn)換&自己寫 inference 代碼,開發(fā)比較痛苦;僅支持 iOS;庫是系統(tǒng)自帶,不涉及庫大小問題;速度很快。
  • CoreML,這個是 WWDC17 發(fā)布的 iOS 11 上的框架。有一些模型轉(zhuǎn)換工具,只涉及通用算子時開發(fā)不算痛苦,涉及自定義算子時就很難辦了;僅支持 iOS 11 以上;庫是系統(tǒng)自帶,不涉及庫大小問題;速度很快。

最后是 TFLite:

  • TFLite,其模型可以由 TensorFlow 訓(xùn)練得到的模型轉(zhuǎn)換而來,但缺少一些算子, 開發(fā)方便程度一般;能支持 Android, iOS,跨平臺性沒問題;庫編譯出來很小;就我們的實(shí)驗(yàn)來看,速度比TensorFlow 快一點(diǎn)。

可以看到,TensorFlowMobile 開發(fā)方便,通用性好,但鏈接庫大,性能主流(其他 server 端神經(jīng)網(wǎng)絡(luò)框架的 mobile 版也都有類似的特點(diǎn));Mental/Accelerate 這些比較底層的庫速度很快,但不能跨平臺,開發(fā)比較痛苦;caffe2、TFLite 這類有為移動端優(yōu)化過的神經(jīng)網(wǎng)絡(luò)框架則比較平衡,雖然初時會有算子不全的問題,但只要背后的團(tuán)隊(duì)不斷支持推進(jìn)框架的開發(fā),這個問題未來會得到解決。

優(yōu)點(diǎn):相對容易擴(kuò)展

由于 TFLite 的代碼(相對于?TensorFlow)比較簡單,結(jié)構(gòu)比較容易理清,所以可以相對容易的去擴(kuò)展。如果你想增加一個 TFLite 上沒有而?TensorFlow上有的算子,你可以增加一個自定義的類;如果你想增加一個?TensorFlow上也沒有的算子,你也可以直接去修改 FlatBuffers 模型文件。

缺點(diǎn):ops 不夠全面

如前所述,TFLite 目前主要支持 CNN 相關(guān)的算子 ,對其他網(wǎng)絡(luò)中的算子還沒有很好的支持。因此,如果你想遷移 rnn 模型到移動端,TFLite 目前是不 OK 的。

不過根據(jù)的 Google TensorFlow 開發(fā)者峰會,Google 和 TensorFlow 社區(qū)正在努力增加 ops 的覆蓋面,相信隨著更多開發(fā)者的相似需求, 更多的模型會被很好的支持。這也是我們選擇 TensorFlow 這樣的主流社區(qū)的原因之一。

缺點(diǎn):目前還不能支持各種運(yùn)算芯片

雖然 TFLite 基于 NNAPI,理論上是可以利用上各種運(yùn)算芯片的,但目前還沒有很多運(yùn)算芯片支持 NNAPI。期待未來 TFLite 能夠支持更多的運(yùn)算芯片,畢竟在 CPU 上優(yōu)化神經(jīng)網(wǎng)絡(luò)運(yùn)行速度是有上限的,用上定制芯片才是新世界的大門。

總結(jié)

這一兩年來,在移動端實(shí)現(xiàn)實(shí)時的人工智能似乎已經(jīng)形成了一波潮流。有道技術(shù)團(tuán)隊(duì)在移動端 AI 算法的研究上,也做了諸多嘗試,推出了離線神經(jīng)網(wǎng)絡(luò)翻譯 (離線 NMT) 、離線文字識別 (離線 OCR) 以及離線文檔掃描等移動端實(shí)時 AI 能力,并在有道詞典、有道翻譯官、有道云筆記中進(jìn)行產(chǎn)品化應(yīng)用。由于目前移動端 AI 尚處在蓬勃發(fā)展階段,各種框架、計(jì)算平臺等都尚不完善。

在這里,我們以有道云筆記中的離線文檔識別功能作為實(shí)踐案例,看到了 TFLite 作為一個優(yōu)秀的移動端AI框架,能夠幫助開發(fā)者相對輕松地在移動端實(shí)現(xiàn)常見的神經(jīng)網(wǎng)絡(luò)。后續(xù)我們也會為大家?guī)砀嘤械兰夹g(shù)團(tuán)隊(duì)結(jié)合 TFLite 在移動端實(shí)時 AI 方面的技術(shù)探索以及實(shí)際產(chǎn)品應(yīng)用。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4742.html

相關(guān)文章

  • 今天被TensorFlowLite刷屏了吧,偏要再發(fā)一遍

    摘要:近幾年來,由于其作為機(jī)器學(xué)習(xí)模型的使用已成倍增長,所以移動設(shè)備和嵌入式設(shè)備也出現(xiàn)了部署需求。使機(jī)器學(xué)習(xí)模型設(shè)備能夠?qū)崿F(xiàn)低延遲的推理。設(shè)計(jì)初衷輕量級允許在具有很小的二進(jìn)制大小和快速初始化啟動的機(jī)器學(xué)習(xí)模型設(shè)備上進(jìn)行推理。 谷歌今天終于發(fā)布了TensorFlow Lite 的開發(fā)者預(yù)覽!該項(xiàng)目是在5月份的I/O開發(fā)者大會上宣布的,據(jù)Google網(wǎng)站描述,對移動和嵌入式設(shè)備來說,TensorFlo...

    ingood 評論0 收藏0
  • TensorFlow 首個優(yōu)化工具來了:模型壓縮4倍,速度提升3倍!

    摘要:今天,發(fā)布了一個新的優(yōu)化工具包一套可以讓開發(fā)者,無論是新手還是高級開發(fā)人員,都可以使用來優(yōu)化機(jī)器學(xué)習(xí)模型以進(jìn)行部署和執(zhí)行的技術(shù)。對于相關(guān)的機(jī)器學(xué)習(xí)模型,這可以實(shí)現(xiàn)最多倍的壓縮和倍的執(zhí)行速度提升。 今天,TensorFlow發(fā)布了一個新的優(yōu)化工具包:一套可以讓開發(fā)者,無論是新手還是高級開發(fā)人員,都可以使用來優(yōu)化機(jī)器學(xué)習(xí)模型以進(jìn)行部署和執(zhí)行的技術(shù)。這些技術(shù)對于優(yōu)化任何用于部署的TensorFlo...

    wangdai 評論0 收藏0
  • TensorFlow 2.0 / TF2.0 入門教程實(shí)戰(zhàn)案例

    摘要:七強(qiáng)化學(xué)習(xí)玩轉(zhuǎn)介紹了使用創(chuàng)建來玩游戲?qū)⑦B續(xù)的狀態(tài)離散化。包括輸入輸出獨(dú)熱編碼與損失函數(shù),以及正確率的驗(yàn)證。 用最白話的語言,講解機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)示例基于 TensorFlow 1.4 和 TensorFlow 2.0 實(shí)現(xiàn) 中文文檔 TensorFlow 2 / 2.0 官方文檔中文版 知乎專欄 歡迎關(guān)注我的知乎專欄 https://zhuanlan.zhihu.com/...

    whataa 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<