成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Flink 靈魂兩百問,這誰頂?shù)米。?

Guakin_Huang / 1170人閱讀

摘要:由于配置流是從關(guān)系型數(shù)據(jù)庫中讀取,速度較慢,導(dǎo)致實時數(shù)據(jù)流流入數(shù)據(jù)的時候,配置信息還未發(fā)送,這樣會導(dǎo)致有些實時數(shù)據(jù)讀取不到配置信息。從數(shù)據(jù)庫中解析出來,再去統(tǒng)計近兩周占比。

Flink 學(xué)習(xí)

https://github.com/zhisheng17/flink-learning

麻煩路過的各位親給這個項目點個 star,太不易了,寫了這么多,算是對我堅持下來的一種鼓勵吧!

本項目結(jié)構(gòu)

2019/06/08 新增 Flink 四本電子書籍的 PDF,在 books 目錄下:

Introduction_to_Apache_Flink_book.pdf 這本書比較薄,處于介紹階段,國內(nèi)有這本的翻譯書籍

Learning Apache Flink.pdf 這本書比較基礎(chǔ),初學(xué)的話可以多看看

Stream Processing with Apache Flink.pdf 這本書是 Flink PMC 寫的

Streaming System.pdf 這本書評價不是一般的高

2019/06/09 新增流處理引擎相關(guān)的 Paper,在 paper 目錄下:

流處理引擎相關(guān)的 Paper

博客

1、Flink 從0到1學(xué)習(xí) —— Apache Flink 介紹

2、Flink 從0到1學(xué)習(xí) —— Mac 上搭建 Flink 1.6.0 環(huán)境并構(gòu)建運行簡單程序入門

3、Flink 從0到1學(xué)習(xí) —— Flink 配置文件詳解

4、Flink 從0到1學(xué)習(xí) —— Data Source 介紹

5、Flink 從0到1學(xué)習(xí) —— 如何自定義 Data Source ?

6、Flink 從0到1學(xué)習(xí) —— Data Sink 介紹

7、Flink 從0到1學(xué)習(xí) —— 如何自定義 Data Sink ?

8、Flink 從0到1學(xué)習(xí) —— Flink Data transformation(轉(zhuǎn)換)

9、Flink 從0到1學(xué)習(xí) —— 介紹 Flink 中的 Stream Windows

10、Flink 從0到1學(xué)習(xí) —— Flink 中的幾種 Time 詳解

11、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 ElasticSearch

12、Flink 從0到1學(xué)習(xí) —— Flink 項目如何運行?

13、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Kafka

14、Flink 從0到1學(xué)習(xí) —— Flink JobManager 高可用性配置

15、Flink 從0到1學(xué)習(xí) —— Flink parallelism 和 Slot 介紹

16、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)批量寫入到 MySQL

17、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 RabbitMQ

18、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 HBase

19、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 HDFS

20、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Redis

21、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Cassandra

22、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Flume

23、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 InfluxDB

24、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 RocketMQ

25、Flink 從0到1學(xué)習(xí) —— 你上傳的 jar 包藏到哪里去了

26、Flink 從0到1學(xué)習(xí) —— 你的 Flink job 日志跑到哪里去了

Flink 源碼項目結(jié)構(gòu)

學(xué)習(xí)資料

另外我自己整理了些 Flink 的學(xué)習(xí)資料,目前已經(jīng)全部放到微信公眾號了。
你可以加我的微信:zhisheng_tian,然后回復(fù)關(guān)鍵字:Flink 即可無條件獲取到,轉(zhuǎn)載請聯(lián)系本人獲取授權(quán),違者必究。

更多私密資料請加入知識星球!

有人要問知識星球里面更新什么內(nèi)容?值得加入嗎?

目前知識星球內(nèi)已更新的系列文章:

1、Flink 源碼解析 —— 源碼編譯運行

2、Flink 源碼解析 —— 項目結(jié)構(gòu)一覽

3、Flink 源碼解析—— local 模式啟動流程

4、Flink 源碼解析 —— standalonesession 模式啟動流程

5、Flink 源碼解析 —— Standalone Session Cluster 啟動流程深度分析之 Job Manager 啟動

6、Flink 源碼解析 —— Standalone Session Cluster 啟動流程深度分析之 Task Manager 啟動

7、Flink 源碼解析 —— 分析 Batch WordCount 程序的執(zhí)行過程

8、Flink 源碼解析 —— 分析 Streaming WordCount 程序的執(zhí)行過程

9、Flink 源碼解析 —— 如何獲取 JobGraph?

10、Flink 源碼解析 —— 如何獲取 StreamGraph?

11、Flink 源碼解析 —— Flink JobManager 有什么作用?

12、Flink 源碼解析 —— Flink TaskManager 有什么作用?

13、Flink 源碼解析 —— JobManager 處理 SubmitJob 的過程

14、Flink 源碼解析 —— TaskManager 處理 SubmitJob 的過程

15、Flink 源碼解析 —— 深度解析 Flink Checkpoint 機制

16、Flink 源碼解析 —— 深度解析 Flink 序列化機制

17、Flink 源碼解析 —— 深度解析 Flink 是如何管理好內(nèi)存的?

18、Flink Metrics 源碼解析 —— Flink-metrics-core

19、Flink Metrics 源碼解析 —— Flink-metrics-datadog

20、Flink Metrics 源碼解析 —— Flink-metrics-dropwizard

21、Flink Metrics 源碼解析 —— Flink-metrics-graphite

22、Flink Metrics 源碼解析 —— Flink-metrics-influxdb

23、Flink Metrics 源碼解析 —— Flink-metrics-jmx

24、Flink Metrics 源碼解析 —— Flink-metrics-slf4j

25、Flink Metrics 源碼解析 —— Flink-metrics-statsd

26、Flink Metrics 源碼解析 —— Flink-metrics-prometheus

26、Flink Annotations 源碼解析

除了《從1到100深入學(xué)習(xí)Flink》源碼學(xué)習(xí)這個系列文章,《從0到1學(xué)習(xí)Flink》的案例文章也會優(yōu)先在知識星球更新,讓大家先通過一些 demo 學(xué)習(xí) Flink,再去深入源碼學(xué)習(xí)!

如果學(xué)習(xí) Flink 的過程中,遇到什么問題,可以在里面提問,我會優(yōu)先解答,這里做個抱歉,自己平時工作也挺忙,微信的問題不能做全部做一些解答,
但肯定會優(yōu)先回復(fù)給知識星球的付費用戶的,慶幸的是現(xiàn)在星球里的活躍氛圍還是可以的,有不少問題通過提問和解答的方式沉淀了下來。

1、為何我使用 ValueState 保存狀態(tài) Job 恢復(fù)是狀態(tài)沒恢復(fù)?

2、flink中watermark究竟是如何生成的,生成的規(guī)則是什么,怎么用來處理亂序數(shù)據(jù)

3、消費kafka數(shù)據(jù)的時候,如果遇到了臟數(shù)據(jù),或者是不符合規(guī)則的數(shù)據(jù)等等怎么處理呢?

4、在Kafka 集群中怎么指定讀取/寫入數(shù)據(jù)到指定broker或從指定broker的offset開始消費?

5、Flink能通過oozie或者azkaban提交嗎?

6、jobmanager掛掉后,提交的job怎么不經(jīng)過手動重新提交執(zhí)行?

7、使用flink-web-ui提交作業(yè)并執(zhí)行 但是/opt/flink/log目錄下沒有日志文件 請問關(guān)于flink的日志(包括jobmanager、taskmanager、每個job自己的日志默認分別存在哪個目錄 )需要怎么配置?

8、通過flink 儀表盤提交的jar 是存儲在哪個目錄下?

9、從Kafka消費數(shù)據(jù)進行etl清洗,把結(jié)果寫入hdfs映射成hive表,壓縮格式、hive直接能夠讀取flink寫出的文件、按照文件大小或者時間滾動生成文件

10、flink jar包上傳至集群上運行,掛掉后,掛掉期間kafka中未被消費的數(shù)據(jù),在重新啟動程序后,是自動從checkpoint獲取掛掉之前的kafka offset位置,自動消費之前的數(shù)據(jù)進行處理,還是需要某些手動的操作呢?

11、flink 啟動時不自動創(chuàng)建 上傳jar的路徑,能指定一個創(chuàng)建好的目錄嗎

12、Flink sink to es 集群上報 slot 不夠,單機跑是好的,為什么?

13、Fllink to elasticsearch如何創(chuàng)建索引文檔期時間戳?

14、blink有沒有api文檔或者demo,是否建議blink用于生產(chǎn)環(huán)境。

15、flink的Python api怎樣?bug多嗎?

16、Flink VS Spark Streaming VS Storm VS Kafka Stream

17、你們做實時大屏的技術(shù)架構(gòu)是什么樣子的?flume→kafka→flink→redis,然后后端去redis里面撈數(shù)據(jù),醬紫可行嗎?

18、做一個統(tǒng)計指標的時候,需要在Flink的計算過程中多次讀寫redis,感覺好怪,星主有沒有好的方案?

19、Flink 使用場景大分析,列舉了很多的常用場景,可以好好參考一下

20、將kafka中數(shù)據(jù)sink到mysql時,metadata的數(shù)據(jù)為空,導(dǎo)入mysql數(shù)據(jù)不成功???

21、使用了ValueState來保存中間狀態(tài),在運行時中間狀態(tài)保存正常,但是在手動停止后,再重新運行,發(fā)現(xiàn)中間狀態(tài)值沒有了,之前出現(xiàn)的鍵值是從0開始計數(shù)的,這是為什么?是需要實現(xiàn)CheckpointedFunction嗎?

22、flink on yarn jobmanager的HA需要怎么配置。還是說yarn給管理了

23、有兩個數(shù)據(jù)流就行connect,其中一個是實時數(shù)據(jù)流(kafka 讀取),另一個是配置流。由于配置流是從關(guān)系型數(shù)據(jù)庫中讀取,速度較慢,導(dǎo)致實時數(shù)據(jù)流流入數(shù)據(jù)的時候,配置信息還未發(fā)送,這樣會導(dǎo)致有些實時數(shù)據(jù)讀取不到配置信息。目前采取的措施是在connect方法后的flatmap的實現(xiàn)的在open 方法中,提前加載一次配置信息,感覺這種實現(xiàn)方式不友好,請問還有其他的實現(xiàn)方式嗎?

24、Flink能通過oozie或者azkaban提交嗎?

25、不采用yarm部署flink,還有其他的方案嗎? 主要想解決服務(wù)器重啟后,flink服務(wù)怎么自動拉起? jobmanager掛掉后,提交的job怎么不經(jīng)過手動重新提交執(zhí)行?

26、在一個 Job 里將同份數(shù)據(jù)昨晚清洗操作后,sink 到后端多個地方(看業(yè)務(wù)需求),如何保持一致性?(一個sink出錯,另外的也保證不能插入)

27、flink sql任務(wù)在某個特定階段會發(fā)生tm和jm丟失心跳,是不是由于gc時間過長呢,

28、有這樣一個需求,統(tǒng)計用戶近兩周進入產(chǎn)品詳情頁的來源(1首頁大搜索,2產(chǎn)品頻道搜索,3其他),為php后端提供數(shù)據(jù)支持,該信息在端上報事件中,php直接獲取有點困難。 我現(xiàn)在的解決方案 通過flink滾動窗口(半小時),統(tǒng)計用戶半小時內(nèi)3個來源pv,然后按照日期序列化,直接寫mysql。php從數(shù)據(jù)庫中解析出來,再去統(tǒng)計近兩周占比。 問題1,這個需求適合用flink去做嗎? 問題2,我的方案總感覺怪怪的,有沒有好的方案?

29、一個task slot 只能同時運行一個任務(wù)還是多個任務(wù)呢?如果task slot運行的任務(wù)比較大,會出現(xiàn)OOM的情況嗎?

30、你們怎么對線上flink做監(jiān)控的,如果整個程序失敗了怎么自動重啟等等

31、flink cep規(guī)則動態(tài)解析有接觸嗎?有沒有成型的框架?

32、每一個Window都有一個watermark嗎?window是怎么根據(jù)watermark進行觸發(fā)或者銷毀的?

33、 CheckPoint與SavePoint的區(qū)別是什么?

34、flink可以在算子中共享狀態(tài)嗎?或者大佬你有什么方法可以共享狀態(tài)的呢?

35、運行幾分鐘就報了,看taskmager日志,報的是 failed elasticsearch bulk request null,可是我代碼里面已經(jīng)做過空值判斷了呀 而且也過濾掉了,flink版本1.7.2 es版本6.3.1

36、這種情況,我們調(diào)并行度 還是配置參數(shù)好

37、大家都用jdbc寫,各種數(shù)據(jù)庫增刪查改拼sql有沒有覺得很累,ps.set代碼一大堆,還要計算每個參數(shù)的位置

38、關(guān)于datasource的配置,每個taskmanager對應(yīng)一個datasource?還是每個slot? 實際運行下來,每個slot中datasorce線程池只要設(shè)置1就行了,多了也用不到?

39、kafka現(xiàn)在每天出現(xiàn)數(shù)據(jù)丟失,現(xiàn)在小批量數(shù)據(jù),一天200W左右, kafka版本為 1.0.0,集群總共7個節(jié)點,TOPIC有十六個分區(qū),單條報文1.5k左右

40、根據(jù)key.hash的絕對值 對并發(fā)度求模,進行分組,假設(shè)10各并發(fā)度,實際只有8個分區(qū)有處理數(shù)據(jù),有2個始終不處理,還有一個分區(qū)處理的數(shù)據(jù)是其他的三倍,如截圖

41、flink每7小時不知道在處理什么, CPU 負載 每7小時,有一次高峰,5分鐘內(nèi)平均負載超過0.8,如截圖

42、有沒有Flink寫的項目推薦?我想看到用Flink寫的整體項目是怎么組織的,不單單是一個單例子

43、Flink 源碼的結(jié)構(gòu)圖

44、我想根據(jù)不同業(yè)務(wù)表(case when)進行不同的redis sink(hash ,set),我要如何操作?

45、這個需要清理什么數(shù)據(jù)呀,我把hdfs里面的已經(jīng)清理了 啟動還是報這個

46、 在流處理系統(tǒng),在機器發(fā)生故障恢復(fù)之后,什么情況消息最多會被處理一次?什么情況消息最少會被處理一次呢?

47、我檢查點都調(diào)到5分鐘了,這是什么問題

48、reduce方法后 那個交易時間 怎么不是最新的,是第一次進入的那個時間,

49、Flink on Yarn 模式,用yarn session腳本啟動的時候,我在后臺沒有看到到Jobmanager,TaskManager,ApplicationMaster這幾個進程,想請問一下這是什么原因呢?因為之前看官網(wǎng)的時候,說Jobmanager就是一個jvm進程,Taskmanage也是一個JVM進程

50、Flink on Yarn的時候得指定 多少個TaskManager和每個TaskManager slot去運行任務(wù),這樣做感覺不太合理,因為用戶也不知道需要多少個TaskManager適合,F(xiàn)link 有動態(tài)啟動TaskManager的機制嗎。

51、參考這個例子,F(xiàn)link 零基礎(chǔ)實戰(zhàn)教程:如何計算實時熱門商品 | Jark"s Blog, 窗口聚合的時候,用keywindow,用的是timeWindowAll,然后在aggregate的時候用aggregate(new CustomAggregateFunction(), new CustomWindowFunction()),打印結(jié)果后,發(fā)現(xiàn)窗口中一直使用的重復(fù)的數(shù)據(jù),統(tǒng)計的結(jié)果也不變,去掉CustomWindowFunction()就正常了 ? 非常奇怪

52、用戶進入產(chǎn)品預(yù)定頁面(端埋點上報),并填寫了一些信息(端埋點上報),但半小時內(nèi)并沒有產(chǎn)生任何訂單,然后給該類用戶發(fā)送一個push。 1. 這種需求適合用flink去做嗎?2. 如果適合,說下大概的思路

53、業(yè)務(wù)場景是實時獲取數(shù)據(jù)存redis,請問我要如何按天、按周、按月分別存入redis里?(比方說過了一天自動換一個位置存redis)

54、有人 AggregatingState 的例子嗎, 感覺官方的例子和 官網(wǎng)的不太一樣?

55、flink-jdbc這個jar有嗎?怎么沒找到???1.8.0的沒找到,1.6.2的有

56、現(xiàn)有個關(guān)于savepoint的問題,操作流程為,取消任務(wù)時設(shè)置保存點,更新任務(wù),從保存點啟動任務(wù);現(xiàn)在遇到個問題,假設(shè)我中間某個算子重寫,原先通過state編寫,有用定時器,現(xiàn)在更改后,采用窗口,反正就是實現(xiàn)方式完全不一樣;從保存點啟動就會一直報錯,重啟,原先的保存點不能還原,此時就會有很多數(shù)據(jù)重復(fù)等各種問題,如何才能保證數(shù)據(jù)不丟失,不重復(fù)等,恢復(fù)到停止的時候,現(xiàn)在想到的是記下kafka的偏移量,再做處理,貌似也不是很好弄,有什么解決辦法嗎

57、需要在flink計算app頁面訪問時長,消費Kafka計算后輸出到Kafka。第一條log需要等待第二條log的時間戳計算訪問時長。我想問的是,flink是分布式的,那么它能否保證執(zhí)行的順序性?后來的數(shù)據(jù)有沒有可能先被執(zhí)行?

58、我公司想做實時大屏,現(xiàn)有技術(shù)是將業(yè)務(wù)所需指標實時用spark拉到redis里存著,然后再用一條spark streaming流計算簡單乘除運算,指標包含了各月份的比較。請問我該如何用flink簡化上述流程?

59、flink on yarn 方式,這樣理解不知道對不對,yarn-session這個腳本其實就是準備yarn環(huán)境的,執(zhí)行run任務(wù)的時候,根據(jù)yarn-session初始化的yarnDescription 把 flink 任務(wù)的jobGraph提交到y(tǒng)arn上去執(zhí)行

60、同樣的代碼邏輯寫在多帶帶的main函數(shù)中就可以成功的消費kafka ,寫在一個spring boot的程序中,接受外部請求,然后執(zhí)行相同的邏輯就不能消費kafka。你遇到過嗎?能給一些查問題的建議,或者在哪里打個斷點,能看到為什么消費不到kafka的消息呢?

61、請問下flink可以實現(xiàn)一個流中同時存在訂單表和訂單商品表的數(shù)據(jù) 兩者是一對多的關(guān)系 能實現(xiàn)得到 以訂單表為主 一個訂單多個商品 這種需求嘛

62、在用中間狀態(tài)的時候,如果中間一些信息保存在state中,有沒有必要在redis中再保存一份,來做第三方的存儲。

63、能否出一期flink state的文章。什么場景下用什么樣的state?如,最簡單的,實時累加update到state。

64、flink的雙流join博主有使用的經(jīng)驗嗎?會有什么常見的問題嗎

65、窗口觸發(fā)的條件問題

66、flink 定時任務(wù)怎么做?有相關(guān)的demo么?

67、流式處理過程中數(shù)據(jù)的一致性如何保證或者如何檢測

68、重啟flink單機集群,還報job not found 異常。

69、kafka的數(shù)據(jù)是用 org.apache.kafka.common.serialization.ByteArraySerialize序列化的,flink這邊消費的時候怎么通過FlinkKafkaConsumer創(chuàng)建DataStream?

70、現(xiàn)在公司有一個需求,一些用戶的支付日志,通過sls收集,要把這些日志處理后,結(jié)果寫入到MySQL,關(guān)鍵這些日志可能連著來好幾條才是一個用戶的,因為發(fā)起請求,響應(yīng)等每個環(huán)節(jié)都有相應(yīng)的日志,這幾條日志綜合處理才能得到最終的結(jié)果,請問博主有什么好的方法沒有?

71、flink 支持hadoop 主備么? hadoop主節(jié)點掛了 flink 會切換到hadoop 備用節(jié)點?

72、請教大家: 實際 flink 開發(fā)中用 scala 多還是 java多些? 剛?cè)胧?flink 大數(shù)據(jù) scala 需要深入學(xué)習(xí)么?

73、我使用的是flink是1.7.2最近用了split的方式分流,但是底層的SplitStream上卻標注為Deprecated,請問是官方不推薦使用分流的方式嗎?

74、KeyBy 的正確理解,和數(shù)據(jù)傾斜問題的解釋

75、用flink時,遇到個問題 checkpoint大概有2G左右, 有背壓時,flink會重啟有遇到過這個問題嗎

76、flink使用yarn-session方式部署,如何保證yarn-session的穩(wěn)定性,如果yarn-session掛了,需要重新部署一個yarn-session,如何恢復(fù)之前yarn-session上的job呢,之前的checkpoint還能使用嗎?

77、我想請教一下關(guān)于sink的問題。我現(xiàn)在的需求是從Kafka消費Json數(shù)據(jù),這個Json數(shù)據(jù)字段可能會增加,然后將拿到的json數(shù)據(jù)以parquet的格式存入hdfs?,F(xiàn)在我可以拿到j(luò)son數(shù)據(jù)的schema,但是在保存parquet文件的時候不知道怎么處理。一是flink沒有專門的format parquet,二是對于可變字段的Json怎么處理成parquet比較合適?

78、flink如何在較大的數(shù)據(jù)量中做去重計算。

79、flink能在沒有數(shù)據(jù)的時候也定時執(zhí)行算子嗎?

80、使用rocksdb狀態(tài)后端,自定義pojo怎么實現(xiàn)序列化和反序列化的,有相關(guān)demo么?

81、check point 老是失敗,是不是自定義的pojo問題?到本地可以,到hdfs就不行,網(wǎng)上也有很多類似的問題 都沒有一個很好的解釋和解決方案

82、cep規(guī)則如圖,當start事件進入時,時間00:00:15,而后進入end事件,時間00:00:40。我發(fā)現(xiàn)規(guī)則無法命中。請問within 是從start事件開始計時?還是跟window一樣根據(jù)系統(tǒng)時間劃分的?如果是后者,請問怎么配置才能從start開始計時?

83、Flink聚合結(jié)果直接寫Mysql的冪等性設(shè)計問題

84、Flink job打開了checkpoint,用的rocksdb,通過觀察hdfs上checkpoint目錄,為啥算副本總量會暴增爆減

85、[Flink 提交任務(wù)的 jar包可以指定路徑為 HDFS 上的嗎]()

86、在flink web Ui上提交的任務(wù),設(shè)置的并行度為2,flink是stand alone部署的。兩個任務(wù)都正常的運行了幾天了,今天有個地方邏輯需要修改,于是將任務(wù)cancel掉(在命令行cancel也試了),結(jié)果taskmanger掛掉了一個節(jié)點。后來用其他任務(wù)試了,也同樣會導(dǎo)致節(jié)點掛掉

87、一個配置動態(tài)更新的問題折騰好久(配置用個靜態(tài)的map變量存著,有個線程定時去數(shù)據(jù)庫撈數(shù)據(jù)然后存在這個map里面更新一把),本地 idea 調(diào)試沒問題,集群部署就一直報 空指針異常。下游的算子使用這個靜態(tài)變量map去get key在集群模式下會出現(xiàn)這個空指針異常,估計就是拿不到 map

88、批量寫入MySQL,完成HBase批量寫入

89、用flink清洗數(shù)據(jù),其中要訪問redis,根據(jù)redis的結(jié)果來決定是否把數(shù)據(jù)傳遞到下流,這有可能實現(xiàn)嗎?

90、監(jiān)控頁面流處理的時候這個發(fā)送和接收字節(jié)為0。

91、[sink到MySQL,如果直接用idea的話可以運行,并且成功,大大的代碼上面用的FlinkKafkaConsumer010,而我的Flink版本為1.7,kafka版本為2.12,所以當我用FlinkKafkaConsumer010就有問題,于是改為

FlinkKafkaConsumer就可以直接在idea完成sink到MySQL,但是為何當我把該程序打成Jar包,去運行的時候,就是報FlinkKafkaConsumer找不到呢](https://t.zsxq.com/MN7iuZf)

92、SocketTextStreamWordCount中輸入中文統(tǒng)計不出來,請問這個怎么解決,我猜測應(yīng)該是需要修改一下代碼,應(yīng)該是這個例子默認統(tǒng)計英文

93、 Flink 應(yīng)用程序本地 ide 里面運行的時候并行度是怎么算的?

94、 請問下flink中對于窗口的全量聚合有apply和process兩種 他們有啥區(qū)別呢

95、不知道大大熟悉Hbase不,我想直接在Hbase中查詢某一列數(shù)據(jù),因為有重復(fù)數(shù)據(jù),所以想使用distinct統(tǒng)計實際數(shù)據(jù)量,請問Hbase中有沒有類似于sql的distinct關(guān)鍵字。如果沒有,想實現(xiàn)這種可以不?

96、 來分析一下現(xiàn)在Flink,Kafka方面的就業(yè)形勢,以及準備就業(yè)該如何準備的這方面內(nèi)容呢?

97、 大佬知道flink的dataStream可以轉(zhuǎn)換為dataSet嗎?因為數(shù)據(jù)需要11分鐘一個批次計算五六個指標,并且涉及好幾步reduce,計算的指標之間有聯(lián)系,用Stream卡住了。

98、1.如何在同一窗口內(nèi)實現(xiàn)多次的聚合,比如像spark中的這樣2.多個實時流的jion可以用window來處理一批次的數(shù)據(jù)嗎?

99、寫的批處理的功能,現(xiàn)在本機跑是沒問題的,就是在linux集群上出現(xiàn)了問題,就是不知道如果通過本地調(diào)用遠程jar包然后傳參數(shù)和拿到結(jié)果參數(shù)返回本機

100、我用standalone開啟一個flink集群,上傳flink官方用例Socket Window WordCount做測試,開啟兩個parallelism能正常運行,但是開啟4個parallelism后出現(xiàn)錯誤

101、 有使用AssignerWithPunctuatedWatermarks 的案例Demo嗎?網(wǎng)上找了都是AssignerWithPeriodicWatermarks的,不知道具體怎么使用?

102、 有一個datastream(從文件讀取的),然后我用flink sql進行計算,這個sql是一個加總的運算,然后通過retractStreamTableSink可以把文件做sql的結(jié)果輸出到文件嗎?這個輸出到文件的接口是用什么呢?

103、 為啥split這個流設(shè)置為過期的

104、 需要使用flink table的水印機制控制時間的亂序問題,這種場景下我就使用水印+窗口了,我現(xiàn)在寫的demo遇到了問題,就是在把觸發(fā)計算的窗口table(WindowedTable)轉(zhuǎn)換成table進行sql操作時發(fā)現(xiàn)窗口中的數(shù)據(jù)還是亂序的,是不是flink table的WindowedTable不支持水印窗口轉(zhuǎn)table-sql的功能

105、 Flink 對 SQL 的重視性

106、 flink job打開了checkpoint,任務(wù)跑了幾個小時后就出現(xiàn)下面的錯,截圖是打出來的日志,有個OOM,又遇到過的沒?

107、 本地測試是有數(shù)據(jù)的,之前該任務(wù)放在集群也是有數(shù)據(jù)的,可能提交過多次,現(xiàn)在讀不到數(shù)據(jù)了 group id 也換過了, 只能重啟集群解決么?

108、使用flink清洗數(shù)據(jù)存到es中,直接在flatmap中對處理出來的數(shù)據(jù)用es自己的ClientInterface類直接將數(shù)據(jù)存入es當中,不走sink,這樣的處理邏輯是不是會有問題。

108、 flink從kafka拿數(shù)據(jù)(即增量數(shù)據(jù))與存量數(shù)據(jù)進行內(nèi)存聚合的需求,現(xiàn)在有一個方案就是程序啟動的時候先用flink table將存量數(shù)據(jù)加載到內(nèi)存中創(chuàng)建table中,然后將stream的增量數(shù)據(jù)與table的數(shù)據(jù)進行關(guān)聯(lián)聚合后輸出結(jié)束,不知道這種方案可行么。目前個人認為有兩個主要問題:1是增量數(shù)據(jù)stream轉(zhuǎn)化成append table后不知道能與存量的table關(guān)聯(lián)聚合不,2是聚合后輸出的結(jié)果數(shù)據(jù)是否過于頻繁造成網(wǎng)絡(luò)傳輸壓力過大

109、 設(shè)置時間時間特性有什么區(qū)別呢, 分別在什么場景下使用呢?兩種設(shè)置時間延遲有什么區(qū)別呢 , 分別在什么場景下使用

110、 flink從rabbitmq中讀取數(shù)據(jù),設(shè)置了rabbitmq的CorrelationDataId和checkpoint為EXACTLY_ONCE;如果flink完成一次checkpoint后,在這次checkpoint之前消費的數(shù)據(jù)都會從mq中刪除。如果某次flink停機更新,那就會出現(xiàn)mq中的一些數(shù)據(jù)消費但是處于Unacked狀態(tài)。在flink又重新開啟后這批數(shù)據(jù)又會重新消費。那這樣是不是就不能保證EXACTLY_ONCE了

111、1. 在Flink checkpoint 中, 像 operator的狀態(tài)信息 是在設(shè)置了checkpoint 之后自動的進行快照嗎 ?2. 上面這個和我們手動存儲的 Keyed State 進行快照(這個應(yīng)該是增量快照)

112、現(xiàn)在有個實時商品數(shù),交易額這種統(tǒng)計需求,打算用 flink從kafka讀取binglog日志進行計算,但binglog涉及到insert和update這種操作時 怎么處理才能統(tǒng)計準確,避免那種重復(fù)計算的問題?

113、我這邊用flink做實時監(jiān)控,功能很簡單,就是每條消息做keyby然后三分鐘窗口,然后做些去重操作,觸發(fā)閾值則報警,現(xiàn)在問題是同一個時間窗口同一個人的告警會觸發(fā)兩次,集群是三臺機器,standalone cluster,初步結(jié)果是三個算子里有兩個收到了同樣的數(shù)據(jù)

114、在使用WaterMark的時候,默認是每200ms去設(shè)置一次watermark,那么每個taskmanager之間,由于得到的數(shù)據(jù)不同,所以往往產(chǎn)生的最大的watermark不同。 那么這個時候,是各個taskmanager廣播這個watermark,得到全局的最大的watermark,還是說各個taskmanager都各自用自己的watermark。主要沒看到廣播watermark的源碼。不知道是自己觀察不仔細還是就是沒有廣播這個變量。

115、現(xiàn)在遇到一個需求,需要在job內(nèi)部定時去讀取redis的信息,想請教flink能實現(xiàn)像普通程序那樣的定時任務(wù)嗎?

116、有個觸發(fā)事件開始聚合,等到數(shù)量足夠,或者超時則sink推mq 環(huán)境 flink 1.6 用了mapState 記錄觸發(fā)事件 1 數(shù)據(jù)足夠這個OK 2 超時state ttl 1.6支持,但是問題來了,如何在超時時候增加自定義處理?

117、請問impala這種mpp架構(gòu)的sql引擎,為什么穩(wěn)定性比較差呢?

118、watermark跟并行度相關(guān)不是,過于全局了,期望是keyby之后再針對每個keyed stream 打watermark,這個有什么好的實踐呢?

119、請問如果把一個文件的內(nèi)容讀取成datastream和dataset,有什么區(qū)別嗎??他們都是一條數(shù)據(jù)一條數(shù)據(jù)的被讀取嗎?

120、有沒有kylin相關(guān)的資料,或者調(diào)優(yōu)的經(jīng)驗?

121、flink先從jdbc讀取配置表到流中,另外從kafka中新增或者修改這個配置,這個場景怎么把兩個流一份配置流?我用的connect,接著發(fā)不成廣播變量,再和實體流合并,但在合并時報Exception in thread "main" java.lang.IllegalArgumentException

122、Flink exactly-once,kafka版本為0.11.0 ,sink基于FlinkKafkaProducer011 每五分鐘一次checkpoint,但是checkpoint開始后系統(tǒng)直接卡死,at-lease-once 一分鐘能完成的checkpoint, 現(xiàn)在十分鐘無法完成沒進度還是0, 不知道哪里卡住了

123、flink的狀態(tài)是默認存在于內(nèi)存的(也可以設(shè)置為rocksdb或hdfs),而checkpoint里面是定時存放某個時刻的狀態(tài)信息,可以設(shè)置hdfs或rocksdb是這樣理解的嗎?

124、Flink異步IO中,下圖這兩種有什么區(qū)別?為啥要加 CompletableFuture.supplyAsync,不太明白?

125、flink的狀態(tài)是默認存在于內(nèi)存的(也可以設(shè)置為rocksdb或hdfs),而checkpoint里面是定時存放某個時刻的狀態(tài)信息,可以設(shè)置hdfs或rocksdb是這樣理解的嗎?

126、有個計算場景,從kafka消費兩個數(shù)據(jù)源,兩個數(shù)據(jù)結(jié)構(gòu)都有時間段概念,計算需要做的是匹配兩個時間段,匹配到了,就生成一條新的記錄。請問使用哪個工具更合適,flink table還是cep?請大神指點一下 我這邊之前的做法,將兩個數(shù)據(jù)流轉(zhuǎn)為table.兩個table over window后join成新的表。結(jié)果job跑一會就oom.

127、一個互聯(lián)網(wǎng)公司,或者一個業(yè)務(wù)系統(tǒng),如果想做一個全面的監(jiān)控要怎么做?有什么成熟的方案可以參考交流嗎?有什么有什么度量指標嗎?

128、怎么深入學(xué)習(xí)flink,或者其他大數(shù)據(jù)組件,能為未來秋招找一份大數(shù)據(jù)相關(guān)(計算方向)的工作增加自己的競爭力?

129、oppo的實時數(shù)倉,其中明細層和匯總層都在kafka中,他們的關(guān)系庫的實時數(shù)據(jù)也抽取到kafka的ods,那么在構(gòu)建數(shù)倉的,需要join 三四個大業(yè)務(wù)表,業(yè)務(wù)表會變化,那么是大的業(yè)務(wù)表是從kafka的ods讀取嗎?實時數(shù)倉,多個大表join可以嗎

130、Tuple類型有什么方法轉(zhuǎn)換成json字符串嗎?現(xiàn)在的場景是,結(jié)果在存儲到sink中時希望存的是json字符串,這樣應(yīng)用程序獲取數(shù)據(jù)比較好轉(zhuǎn)換一點。如果Tuple不好轉(zhuǎn)換json字符串,那么應(yīng)該以什么數(shù)據(jù)格式存儲到sink中

140、端到端的數(shù)據(jù)保證,是否意味著中間處理程序中斷,也不會造成該批次處理失敗的消息丟失,處理程序重新啟動之后,會再次處理上次未處理的消息

141、關(guān)于flink datastream window相關(guān)的。比如我現(xiàn)在使用滾動窗口,統(tǒng)計一周內(nèi)去重用戶指標,按照正常watermark觸發(fā)計算,需要等到當前周的window到達window的endtime時,才會觸發(fā),這樣指標一周后才能產(chǎn)出結(jié)果。我能不能實現(xiàn)一小時觸發(fā)一次計算,每次統(tǒng)計截止到當前時間,window中所有到達元素的去重數(shù)量。

142、FLIP-16 Loop Fault Tolerance 是講現(xiàn)在的checkpoint機制無法在stream loop的時候容錯嗎?現(xiàn)在這個問題解決了沒有呀?

143、現(xiàn)在的需求是,統(tǒng)計各個key的今日累計值,一分鐘輸出一次。如,各個用戶今日累計點擊次數(shù)。這種需求用datastream還是table API方便點?

144、本地idea可以跑的工程,放在standalone集群上,總報錯,報錯截圖如下,大佬請問這是啥原因

145、比如現(xiàn)在用k8s起了一個flink集群,這時候數(shù)據(jù)源kafka或者hdfs會在同一個集群上嗎,還是會多帶帶再起一個hdfs/kafka集群

146、flink kafka sink 的FlinkFixedPartitioner 分配策略,在并行度小于topic的partitions時,一個并行實例固定的寫消息到固定的一個partition,那么就有一些partition沒數(shù)據(jù)寫進去?

147、[基于事件時間,每五分鐘一個窗口,五秒鐘滑動一次,同時watermark的時間同樣是基于事件事件時間的,延遲設(shè)為1分鐘,假如數(shù)據(jù)流從12:00開始,如果12:07-12:09期間沒有產(chǎn)生任何一條數(shù)據(jù),即在12:07-12:09這段間的數(shù)據(jù)流情況為···· (12:07:00,xxx),(12:09:00,xxx)······,那么窗口[12:02:05-12:07:05],[12:02:10-12:07:10]等幾個窗口的計算是否意味著只有等到,12:09:00的數(shù)據(jù)到達之后才會觸發(fā)](https://t.zsxq.com/fmq3fYF)

148、使用flink1.7,當消費到某條消息(protobuf格式),報Caused by: org.apache.kafka.common.KafkaException: Record batch for partition Notify-18 at offset 1803009 is invalid, cause: Record is corrupt 這個異常。 如何設(shè)置跳過已損壞的消息繼續(xù)消費下一條來保證業(yè)務(wù)不終斷? 我看了官網(wǎng)kafka connectors那里,說在DeserializationSchema.deserialize(...)方法中返回null,flink就會跳過這條消息,然而依舊報這個異常

149、是否可以抽空總結(jié)一篇Flink 的 watermark 的原理案例?一直沒搞明白基于事件時間處理時的數(shù)據(jù)亂序和數(shù)據(jù)遲到底咋回事

150、flink中rpc通信的原理,與幾個類的講解,有沒有系統(tǒng)詳細的文章樣,如有求分享,謝謝

151、Flink中如何使用基于事件時間處理,但是又不使用Watermarks? 我在會話窗口中使用遇到一些問題,圖一是基于處理時間的,測試結(jié)果session是基于keyby(用戶)的,圖二是基于事件時間的,不知道是我用法不對還是怎么的,測試結(jié)果發(fā)現(xiàn)并不是基于keyby(用戶的),而是全局的session。不知道怎么修改?

152、flink實時計算平臺,yarn模式日志收集怎么做,為什么會checkpoint失敗,報警處理,后需要做什么嗎?job監(jiān)控怎么做

153、有flink與jstorm的在不同應(yīng)用場景下, 性能比較的數(shù)據(jù)嗎? 從網(wǎng)絡(luò)上能找大部分都是flink與storm的比較. 在jstorm官網(wǎng)上有一份比較的圖表, 感覺參考意義不大, 應(yīng)該是比較早的flink版本.

154、為什么使用SessionWindows.withGap窗口的話,State存不了東西呀,每次加1 ,拿出來都是null, 我換成 TimeWindow就沒問題。

155、請問一下,flink datastream流處理怎么統(tǒng)計去重指標? 官方文檔中只看到批處理有distinct概念。

156、好全的一篇文章,對比分析 Flink,Spark Streaming,Storm 框架

157、關(guān)于 structured_streaming 的 paper

158、zookeeper集群切換領(lǐng)導(dǎo)了,flink集群項目重啟了就沒有數(shù)據(jù)的輸入和輸出了,這個該從哪方面入手解決?

159、我想請教下datastream怎么和靜態(tài)數(shù)據(jù)join呢

160、時鐘問題導(dǎo)致收到了明天的數(shù)據(jù),這時候有什么比較好的處理方法?看到有人設(shè)置一個最大的跳躍閾值,如果當前數(shù)據(jù)時間 - 歷史最大時間 超過閾值就不更新。如何合理的設(shè)計水印,有沒有一些經(jīng)驗?zāi)兀?/p>

161、大佬們flink怎么定時查詢數(shù)據(jù)庫?

162、現(xiàn)在我們公司有個想法,就是提供一個頁面,在頁面上選擇source sink 填寫上sql語句,然后后臺生成一個flink的作業(yè),然后提交到集群。功能有點類似于華為的數(shù)據(jù)中臺,就是頁面傻瓜式操作。后臺能自動根據(jù)相應(yīng)配置得到結(jié)果。請問拘你的了解,可以實現(xiàn)嗎?如何實現(xiàn)?有什么好的思路?,F(xiàn)在我無從下手

163、請教一下 flink on yarn 的 ha機制

164、在一般的流處理以及cep, 都可以對于eventtime設(shè)置watermark, 有時可能需要設(shè)置相對大一點的值, 這內(nèi)存壓力就比較大, 有沒有辦法不應(yīng)用jvm中的內(nèi)存, 而用堆外內(nèi)存, 或者其他緩存, 最好有cache機制, 這樣可以應(yīng)對大流量的峰值.

165、請教一個flink sql的問題。我有兩個聚合后的流表A和B,A和Bjoin得到C表。在設(shè)置state TTL 的時候是直接對C表設(shè)置還是,對A表和B表設(shè)置比較好?

166、spark改寫為flink,會不會很復(fù)雜,還有這兩者在SQL方面的支持差別大嗎?

167、請問flink allowedLateness導(dǎo)致窗口被多次fire,最終數(shù)據(jù)重復(fù)消費,這種問題怎么處理,數(shù)據(jù)是寫到es中

168、設(shè)置taskmanager.numberOfTaskSlots: 4的時候沒有問題,但是cpu沒有壓上去,只用了30%左右,于是設(shè)置了taskmanager.numberOfTaskSlots: 8,但是就報錯誤找不到其中一個自定義的類,然后kafka數(shù)據(jù)就不消費了。為什么?cpu到多少合適?slot是不是和cpu數(shù)量一致是最佳配置?kafka分區(qū)數(shù)多少合適,是不是和slot,parallesim一致最佳?

169、需求是根據(jù)每條日志切分出需要9個字段,有五個指標再根據(jù)9個字段的不同組合去做計算。 第一個方法是:我目前做法是切分的9個字段開5分鐘大小1分鐘計算一次的滑動窗口窗口,進行一次reduce去重,然后再map取出需要的字段,然后過濾再開5分鐘大小1分鐘計算一次的滑動窗口窗口進行計算保存結(jié)果,這個思路遇到的問題是上一個滑動窗口會每一分鐘會計算5分鐘數(shù)據(jù),到第二個窗口劃定的5分鐘范圍的數(shù)據(jù)會有好多重復(fù),這個思路會造成數(shù)據(jù)重復(fù)。 第二個方法是:切分的9個字段開5分鐘大小1分鐘計算一次的滑動窗口窗口,再pross方法里完成所有的過濾,聚合計算,但是再高峰期每分鐘400萬條數(shù)據(jù),這個思路擔(dān)心在高峰期flink計算不過來

170、a,b,c三個表,a和c有eventtime,a和c直接join可以,a和b join后再和c join 就會報錯,這是怎么回事呢

171、自定義的source是這樣的(圖一所示) 使用的時候是這樣的(圖二所示),為什么無論 sum.print().setParallelism(2)(圖2所示)的并行度設(shè)置成幾最后結(jié)果都是這樣的

172、剛接觸flink,如有問的不合適的地方,請見諒。 1、為什么說flink是有狀態(tài)的計算? 2、這個狀態(tài)是什么?3、狀態(tài)存在哪里

173、這邊用flink 1.8.1的版本,采用flink on yarn,hadoop版本2.6.0。代碼是一個簡單的滾動窗口統(tǒng)計函數(shù),但啟動的時候報錯,如下圖片。 (2)然后我把flink版本換成1.7.1,重新提交到2.6.0的yarn平臺,就能正常運行了。 (3)我們測試集群hadoop版本是3.0,我用flink 1.8.1版本將這個程序再次打包,提交到3.0版本的yarn平臺,也能正常運行。 貌似是flink 1.8.1版本與yarn 2.6.0版本不兼容造成的這個問題

174、StateBackend我使用的是MemoryStateBackend, State是怎么釋放內(nèi)存的,例如我在函數(shù)中用ValueState存儲了歷史狀態(tài)信息。但是歷史狀態(tài)數(shù)據(jù)我沒有手動釋放,那么程序會自動釋放么?還是一直駐留在內(nèi)存中

175、請問老師是否可以提供一些Apachebeam的學(xué)習(xí)資料 謝謝

176、flink 的 DataSet或者DataStream支持索引查詢以及刪除嗎,像spark rdd,如果不支持的話,該轉(zhuǎn)換成什么

177、關(guān)于flink的狀態(tài),能否把它當做數(shù)據(jù)庫使用,類似于內(nèi)存數(shù)據(jù)庫,在處理過程中存業(yè)務(wù)數(shù)據(jù)。如果是數(shù)據(jù)庫可以算是分布式數(shù)據(jù)庫嗎?是不是使用rocksdb這種存儲方式才算是?支持的單庫大小是不是只是跟本地機器的磁盤大小相關(guān)?如果使用硬盤存儲會不會效率性能有影響

178、我這邊做了個http sink,想要批量發(fā)送數(shù)據(jù),不過現(xiàn)在只能用數(shù)量控制發(fā)送,但最后的幾個記錄沒法觸發(fā)發(fā)送動作,想問下有沒有什么辦法

179、請問下如何做定時去重計數(shù),就是根據(jù)時間分窗口,窗口內(nèi)根據(jù)id去重計數(shù)得出結(jié)果,多謝。試了不少辦法,沒有簡單直接辦法

180、我有個job使用了elastic search sink. 設(shè)置了批量5000一寫入,但是看es監(jiān)控顯示每秒只能插入500條。是不是bulkprocessor的currentrequest為0有關(guān)

181、有docker部署flink的資料嗎

182、在說明KeyBy的StreamGraph執(zhí)行過程時,keyBy的ID為啥是6? 根據(jù)前面說,ID是一個靜態(tài)變量,每取一次就遞增1,我覺得應(yīng)該是3啊,是我理解錯了嗎

183、有沒計劃出Execution Graph的遠碼解析

184、可以分享下物理執(zhí)行圖怎樣劃分task,以及task如何執(zhí)行,還有他們之間數(shù)據(jù)如何傳遞這塊代碼嘛?

185、Flink源碼和這個學(xué)習(xí)項目的結(jié)構(gòu)圖

186、請問flink1.8,如何做到動態(tài)加載外部udf-jar包呢?

187、同一個Task Manager中不同的Slot是怎么交互的,比如:source處理完要傳遞給map的時候,如果在不同的Slot中,他們的內(nèi)存是相互隔離,是怎么交互的呢? 我猜是通過序列化和反序列化對象,并且通過網(wǎng)絡(luò)來進行交互的

188、你們有沒有這種業(yè)務(wù)場景。flink從kafka里面取數(shù)據(jù),每一條數(shù)據(jù)里面有mongdb表A的id,這時我會在map的時候采用flink的異步IO連接A表,然后查詢出A表的字段1,再根據(jù)該字段1又需要異步IO去B表查詢字段2,然后又根據(jù)字段2去C表查詢字段3.....像這樣的業(yè)務(wù)場景,如果多來幾種邏輯,我應(yīng)該用什么方案最好呢

189、今天本地運行flink程序,消費socket中的數(shù)據(jù),連續(xù)只能消費兩條,第三條flink就消費不了了

190、源數(shù)據(jù)經(jīng)過過濾后分成了兩條流,然后再分別提取事件時間和水印,做時間窗口,我測試時一條流沒有數(shù)據(jù),另一條的數(shù)據(jù)看日志到了窗口操作那邊就沒走下去,貌似窗口一直沒有等到觸發(fā)

191、有做flink cep的嗎,有資料沒?

192、麻煩問一下 BucketingSink跨集群寫,如果任務(wù)運行在hadoop A集群,從kafka讀取數(shù)據(jù)處理后寫到Hadoo B集群,即使把core-site.xml和hdfs-site.xml拷貝到代碼resources下,路徑使用hdfs://hadoopB/xxx,會提示ava.lang.RuntimeException: Error while creating FileSystem when initializing the state of the BucketingSink.,跨集群寫這個問題 flink不支持嗎?

193、想咨詢下,如何對flink中的datastream和dataset進行數(shù)據(jù)采樣

194、一個flink作業(yè)經(jīng)常發(fā)生oom,可能是什么原因?qū)е碌摹? 處理流程只有15+字段的解析,redis數(shù)據(jù)讀取等操作,TM配置10g。 業(yè)務(wù)會在夜間刷數(shù)據(jù),qps能打到2500左右~

195、我看到flink 1.8的狀態(tài)過期僅支持Processing Time,那么如果我使用的是Event time那么狀態(tài)就不會過期嗎

196、請問我想每隔一小時統(tǒng)計一個屬性從當天零點到當前時間的平均值,這樣的時間窗該如何定義?

197、flink任務(wù)里面反序列化一個類,報ClassNotFoundException,可是包里面是有這個類的,有遇到這種情況嗎?

198、在構(gòu)造StreamGraph,類似PartitionTransformmation 這種類型的 transform,為什么要添加成一個虛擬節(jié)點,而不是一個實際的物理節(jié)點呢?

199、flink消費kafka的數(shù)據(jù)寫入到hdfs中,我采用了BucketingSink 這個sink將operator出來的數(shù)據(jù)寫入到hdfs文件上,并通過在hive中建外部表來查詢這個。但現(xiàn)在有個問題,處于in-progress的文件,hive是無法識別出來該文件中的數(shù)據(jù),可我想能在hive中實時查詢進來的數(shù)據(jù),且不想產(chǎn)生很多的小文件,這個該如何處理呢

200、采用Flink單機集群模式一個jobmanager和兩個taskmanager,機器是單機是24核,現(xiàn)在做個簡單的功能從kafka的一個topic轉(zhuǎn)滿足條件的消息到另一個topic,topic的分區(qū)是30,我設(shè)置了程序默認并發(fā)為30,現(xiàn)在每秒消費2w多數(shù)據(jù),不夠快,請問可以怎么提高job的性能呢?

201、Flink Metric 源碼分析

等等等,還有很多,復(fù)制粘貼的我手累啊

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/75583.html

相關(guān)文章

  • Flink Clients 源碼解析

    摘要:模塊中的類結(jié)構(gòu)如下博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué) Flink-Client 模塊中的類結(jié)構(gòu)如下: https://t.zsxq.com/IMzNZjY showImg(https://segmentfau...

    xiao7cn 評論0 收藏0
  • Flink Annotations 源碼解析

    摘要:模塊中的類結(jié)構(gòu)如下博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué) Flink-Annotations 模塊中的類結(jié)構(gòu)如下: https://t.zsxq.com/f6eAu3J showImg(https://segme...

    Eirunye 評論0 收藏0
  • Flink 源碼解析 —— 如何獲取 ExecutionGraph ?

    摘要:博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué)習(xí)項目如何運行從到學(xué) https://t.zsxq.com/UnA2jIi 博客 1、Flink 從0到1學(xué)習(xí) —— Apache Flink 介紹 2、Flink 從0到1學(xué)...

    codecraft 評論0 收藏0
  • Flink 源碼解析 —— 如何獲取 JobGraph?

    摘要:博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué)習(xí)項目如何運行從到學(xué) JobGraph https://t.zsxq.com/naaMf6y 博客 1、Flink 從0到1學(xué)習(xí) —— Apache Flink 介紹 2、Fl...

    molyzzx 評論0 收藏0
  • Flink 源碼解析 —— JobManager 處理 SubmitJob 的過程

    摘要:處理博客從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)轉(zhuǎn)換從到學(xué)習(xí)介紹中的從到學(xué)習(xí)中的幾種詳解從到學(xué)習(xí)讀取數(shù)據(jù)寫入到從到學(xué)習(xí)項目如何運行從 JobManager 處理 SubmitJobhttps://t.zsxq.com/3JQJMzZ 博客 1、Flink 從0到1學(xué)習(xí) —— Apache...

    233jl 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<