成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

《從0到1學(xué)習(xí)Flink》—— Flink 配置文件詳解

superw / 3596人閱讀

摘要:相關(guān)文章從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運(yùn)行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義

前面文章我們已經(jīng)知道 Flink 是什么東西了,安裝好 Flink 后,我們再來看下安裝路徑下的配置文件吧。

安裝目錄下主要有 flink-conf.yaml 配置、日志的配置文件、zk 配置、Flink SQL Client 配置。

flink-conf.yaml 基礎(chǔ)配置
# jobManager 的IP地址
jobmanager.rpc.address: localhost

# JobManager 的端口號
jobmanager.rpc.port: 6123

# JobManager JVM heap 內(nèi)存大小
jobmanager.heap.size: 1024m

# TaskManager JVM heap 內(nèi)存大小
taskmanager.heap.size: 1024m

# 每個(gè) TaskManager 提供的任務(wù) slots 數(shù)量大小

taskmanager.numberOfTaskSlots: 1

# 程序默認(rèn)并行計(jì)算的個(gè)數(shù)
parallelism.default: 1

# 文件系統(tǒng)來源
# fs.default-scheme  
高可用性配置
# 可以選擇 "NONE" 或者 "zookeeper".
# high-availability: zookeeper

# 文件系統(tǒng)路徑,讓 Flink 在高可用性設(shè)置中持久保存元數(shù)據(jù)
# high-availability.storageDir: hdfs:///flink/ha/

# zookeeper 集群中仲裁者的機(jī)器 ip 和 port 端口號
# high-availability.zookeeper.quorum: localhost:2181

# 默認(rèn)是 open,如果 zookeeper security 啟用了該值會(huì)更改成 creator
# high-availability.zookeeper.client.acl: open
容錯(cuò)和檢查點(diǎn) 配置
# 用于存儲(chǔ)和檢查點(diǎn)狀態(tài)
# state.backend: filesystem

# 存儲(chǔ)檢查點(diǎn)的數(shù)據(jù)文件和元數(shù)據(jù)的默認(rèn)目錄
# state.checkpoints.dir: hdfs://namenode-host:port/flink-checkpoints

# savepoints 的默認(rèn)目標(biāo)目錄(可選)
# state.savepoints.dir: hdfs://namenode-host:port/flink-checkpoints

# 用于啟用/禁用增量 checkpoints 的標(biāo)志
# state.backend.incremental: false
web 前端配置
# 基于 Web 的運(yùn)行時(shí)監(jiān)視器偵聽的地址.
#jobmanager.web.address: 0.0.0.0

#  Web 的運(yùn)行時(shí)監(jiān)視器端口
rest.port: 8081

# 是否從基于 Web 的 jobmanager 啟用作業(yè)提交
# jobmanager.web.submit.enable: false
高級配置
# io.tmp.dirs: /tmp

# 是否應(yīng)在 TaskManager 啟動(dòng)時(shí)預(yù)先分配 TaskManager 管理的內(nèi)存
# taskmanager.memory.preallocate: false

# 類加載解析順序,是先檢查用戶代碼 jar(“child-first”)還是應(yīng)用程序類路徑(“parent-first”)。 默認(rèn)設(shè)置指示首先從用戶代碼 jar 加載類
# classloader.resolve-order: child-first


# 用于網(wǎng)絡(luò)緩沖區(qū)的 JVM 內(nèi)存的分?jǐn)?shù)。 這決定了 TaskManager 可以同時(shí)擁有多少流數(shù)據(jù)交換通道以及通道緩沖的程度。 如果作業(yè)被拒絕或者您收到系統(tǒng)沒有足夠緩沖區(qū)的警告,請?jiān)黾哟酥祷蛳旅娴淖钚?最大值。 另請注意,“taskmanager.network.memory.min”和“taskmanager.network.memory.max”可能會(huì)覆蓋此分?jǐn)?shù)

# taskmanager.network.memory.fraction: 0.1
# taskmanager.network.memory.min: 67108864
# taskmanager.network.memory.max: 1073741824
Flink 集群安全配置
# 指示是否從 Kerberos ticket 緩存中讀取
# security.kerberos.login.use-ticket-cache: true

# 包含用戶憑據(jù)的 Kerberos 密鑰表文件的絕對路徑
# security.kerberos.login.keytab: /path/to/kerberos/keytab

# 與 keytab 關(guān)聯(lián)的 Kerberos 主體名稱
# security.kerberos.login.principal: flink-user

# 以逗號分隔的登錄上下文列表,用于提供 Kerberos 憑據(jù)(例如,`Client,KafkaClient`使用憑證進(jìn)行 ZooKeeper 身份驗(yàn)證和 Kafka 身份驗(yàn)證)
# security.kerberos.login.contexts: Client,KafkaClient
Zookeeper 安全配置
# 覆蓋以下配置以提供自定義 ZK 服務(wù)名稱
# zookeeper.sasl.service-name: zookeeper

# 該配置必須匹配 "security.kerberos.login.contexts" 中的列表(含有一個(gè))
# zookeeper.sasl.login-context-name: Client
HistoryServer
# 你可以通過 bin/historyserver.sh (start|stop) 命令啟動(dòng)和關(guān)閉 HistoryServer

# 將已完成的作業(yè)上傳到的目錄
# jobmanager.archive.fs.dir: hdfs:///completed-jobs/

# 基于 Web 的 HistoryServer 的地址
# historyserver.web.address: 0.0.0.0

# 基于 Web 的 HistoryServer 的端口號
# historyserver.web.port: 8082

# 以逗號分隔的目錄列表,用于監(jiān)視已完成的作業(yè)
# historyserver.archive.fs.dir: hdfs:///completed-jobs/

# 刷新受監(jiān)控目錄的時(shí)間間隔(以毫秒為單位)
# historyserver.archive.fs.refresh-interval: 10000

查看下另外兩個(gè)配置 slaves / master

2、slaves

里面是每個(gè) worker 節(jié)點(diǎn)的 IP/Hostname,每一個(gè) worker 結(jié)點(diǎn)之后都會(huì)運(yùn)行一個(gè) TaskManager,一個(gè)一行。

localhost
3、masters

host:port

localhost:8081
4、zoo.cfg
# 每個(gè) tick 的毫秒數(shù)
tickTime=2000

# 初始同步階段可以采用的 tick 數(shù)
initLimit=10

# 在發(fā)送請求和獲取確認(rèn)之間可以傳遞的 tick 數(shù)
syncLimit=5

# 存儲(chǔ)快照的目錄
# dataDir=/tmp/zookeeper

# 客戶端將連接的端口
clientPort=2181

# ZooKeeper quorum peers
server.1=localhost:2888:3888
# server.2=host:peer-port:leader-port
5、日志配置

Flink 在不同平臺(tái)下運(yùn)行的日志文件

log4j-cli.properties
log4j-console.properties
log4j-yarn-session.properties
log4j.properties
logback-console.xml
logback-yarn.xml
logback.xml
sql-client-defaults.yaml
execution:
  # "batch" or "streaming" execution
  type: streaming
  # allow "event-time" or only "processing-time" in sources
  time-characteristic: event-time
  # interval in ms for emitting periodic watermarks
  periodic-watermarks-interval: 200
  # "changelog" or "table" presentation of results
  result-mode: changelog
  # parallelism of the program
  parallelism: 1
  # maximum parallelism
  max-parallelism: 128
  # minimum idle state retention in ms
  min-idle-state-retention: 0
  # maximum idle state retention in ms
  max-idle-state-retention: 0
  
deployment:
  # general cluster communication timeout in ms
  response-timeout: 5000
  # (optional) address from cluster to gateway
  gateway-address: ""
  # (optional) port from cluster to gateway
  gateway-port: 0  

Flink sql client :你可以從官網(wǎng)這里了解 https://ci.apache.org/project...

總結(jié)

本文拿安裝目錄文件下的配置文件講解了下 Flink 目錄下的所有配置。

你也可以通過官網(wǎng)這里學(xué)習(xí)更多:https://ci.apache.org/project...

關(guān)注我

本篇文章地址是:http://www.54tianzhisheng.cn/2018/10/27/flink-config/

另外我自己整理了些 Flink 的學(xué)習(xí)資料,目前已經(jīng)全部放到微信公眾號了。你可以加我的微信:zhisheng_tian,然后回復(fù)關(guān)鍵字:Flink 即可無條件獲取到。

相關(guān)文章

1、《從0到1學(xué)習(xí)Flink》—— Apache Flink 介紹

2、《從0到1學(xué)習(xí)Flink》—— Mac 上搭建 Flink 1.6.0 環(huán)境并構(gòu)建運(yùn)行簡單程序入門

3、《從0到1學(xué)習(xí)Flink》—— Flink 配置文件詳解

4、《從0到1學(xué)習(xí)Flink》—— Data Source 介紹

5、《從0到1學(xué)習(xí)Flink》—— 如何自定義 Data Source ?

6、《從0到1學(xué)習(xí)Flink》—— Data Sink 介紹

7、《從0到1學(xué)習(xí)Flink》—— 如何自定義 Data Sink ?

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/72057.html

相關(guān)文章

  • 01學(xué)習(xí)Flink》—— 你上傳的 jar 包藏哪里去了?

    摘要:本篇文章連接是關(guān)注我微信公眾號另外我自己整理了些的學(xué)習(xí)資料,目前已經(jīng)全部放到微信公眾號了。你可以加我的微信,然后回復(fù)關(guān)鍵字即可無條件獲取到。 前言 寫這篇文章其實(shí)也是知識(shí)星球里面的一個(gè)小伙伴問了這樣一個(gè)問題: 通過 flink UI 儀表盤提交的 jar 是存儲(chǔ)在哪個(gè)目錄下? 這個(gè)問題其實(shí)我自己也有問過,但是自己因?yàn)樽约旱膯栴}沒有啥壓力也就沒深入去思考,現(xiàn)在可是知識(shí)星球的付費(fèi)小伙伴問的...

    trigkit4 評論0 收藏0
  • Apache Flink 1.9 重大特性提前解讀

    showImg(https://segmentfault.com/img/remote/1460000019961426); 今天在 Apache Flink meetup ·北京站進(jìn)行 Flink 1.9 重大新特性進(jìn)行了講解,兩位講師分別是 戴資力/楊克特,zhisheng 我也從看完了整個(gè) 1.9 特性解讀的直播,預(yù)計(jì) Flink 1.9 版本正式發(fā)布時(shí)間大概是 7 月底 8 月初左右正式發(fā)...

    wall2flower 評論0 收藏0
  • Flink Clients 源碼解析

    摘要:模塊中的類結(jié)構(gòu)如下博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運(yùn)行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué) Flink-Client 模塊中的類結(jié)構(gòu)如下: https://t.zsxq.com/IMzNZjY showImg(https://segmentfau...

    xiao7cn 評論0 收藏0

發(fā)表評論

0條評論

最新活動(dòng)
閱讀需要支付1元查看
<