pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

    <bdo id='U6vEO'></bdo><ul id='U6vEO'></ul>
<i id='U6vEO'><tr id='U6vEO'><dt id='U6vEO'><q id='U6vEO'><span id='U6vEO'><b id='U6vEO'><form id='U6vEO'><ins id='U6vEO'></ins><ul id='U6vEO'></ul><sub id='U6vEO'></sub></form><legend id='U6vEO'></legend><bdo id='U6vEO'><pre id='U6vEO'><center id='U6vEO'></center></pre></bdo></b><th id='U6vEO'></th></span></q></dt></tr></i><div class="rpfrnnf" id='U6vEO'><tfoot id='U6vEO'></tfoot><dl id='U6vEO'><fieldset id='U6vEO'></fieldset></dl></div>
  • <tfoot id='U6vEO'></tfoot>
  • <legend id='U6vEO'><style id='U6vEO'><dir id='U6vEO'><q id='U6vEO'></q></dir></style></legend>

        <small id='U6vEO'></small><noframes id='U6vEO'>

        如何使用 Debezium 從 MS SQL 將 250 個表攝取到 Kafk

        How to ingest 250 tables into Kafka from MS SQL with Debezium(如何使用 Debezium 從 MS SQL 將 250 個表攝取到 Kafka)
          <tbody id='yaX7p'></tbody>
        <i id='yaX7p'><tr id='yaX7p'><dt id='yaX7p'><q id='yaX7p'><span id='yaX7p'><b id='yaX7p'><form id='yaX7p'><ins id='yaX7p'></ins><ul id='yaX7p'></ul><sub id='yaX7p'></sub></form><legend id='yaX7p'></legend><bdo id='yaX7p'><pre id='yaX7p'><center id='yaX7p'></center></pre></bdo></b><th id='yaX7p'></th></span></q></dt></tr></i><div class="hb7lxtn" id='yaX7p'><tfoot id='yaX7p'></tfoot><dl id='yaX7p'><fieldset id='yaX7p'></fieldset></dl></div>

            • <small id='yaX7p'></small><noframes id='yaX7p'>

            • <legend id='yaX7p'><style id='yaX7p'><dir id='yaX7p'><q id='yaX7p'></q></dir></style></legend>
              <tfoot id='yaX7p'></tfoot>

              • <bdo id='yaX7p'></bdo><ul id='yaX7p'></ul>
                1. 本文介紹了如何使用 Debezium 從 MS SQL 將 250 個表攝取到 Kafka的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我嘗試在 PostgreSQL 之間構建 Kafka 連接管道作為源到 SQL Server 作為目標.我使用了 3 個 Kafka broker,需要消費 252 個主題(一個主題與一張 PostgreSQL 表相同).運行一個多小時后,252張表中只能拉出218張.我發現的錯誤是 SQL Server 中存在死鎖機制,可以將事務保存到 SQL Server 并嘗試重試,Debezium 復制槽也已存在.

                  Hi i have try to build Kafka connect pipeline between PostgreSQL as source to SQL Server as the destination. I used 3 Kafka brokers, and need to consume 252 topics (one topics same as one PostgreSQL table). After run for more than an hour, it only can pull 218 out of 252 tables. The error that i found is there's deadlock mechanism in SQL Server which can hold transaction to SQL Server and try to retry it, also Debezium replication slot has been there.

                  我在接收器上使用最多 3 個工人的分布式連接器,但也許這似乎還不夠.還可以嘗試使用更高的 offset.time_out.ms 到 60000 和更高的偏移分區 (100).恐怕這不是我想要的生產水平.任何人都可以就此案提出建議嗎?是否有任何計算可以確定我需要的最佳工人數量?

                  I use distributed connectors with 3 max worker on sink, but maybe it seems not enough. Also try with higher offset.time_out.ms to 60000 and higher offset partition (100). I'm afraid that this is not an production level that i want. Anyone can give suggestion about this case? Is there any calculation to decide best number of workers that i need?

                  更新

                  這里出現了一些錯誤.我看到一些連接器被殺死了.有人告訴我 死鎖發生在 SQL SERVER 中 :

                  here some error i get. I see some connectors are killed. One tell me that deadlock happen in SQL SERVER :

                  [2020-03-26 15:06:28,494] ERROR WorkerSinkTask{id=sql_server_sink_XXA-0} RetriableException from SinkTask: (org.apache.kafka.connect.runtime.WorkerSinkTask:552)
                  org.apache.kafka.connect.errors.RetriableException: java.sql.SQLException: com.microsoft.sqlserver.jdbc.SQLServerException: Transaction (Process ID 62) was deadlocked on lock resources with another process and has been chosen as the deadlock victim. Rerun the transaction.
                  
                      at io.confluent.connect.jdbc.sink.JdbcSinkTask.put(JdbcSinkTask.java:93)
                      at org.apache.kafka.connect.runtime.WorkerSinkTask.deliverMessages(WorkerSinkTask.java:539)
                      at org.apache.kafka.connect.runtime.WorkerSinkTask.poll(WorkerSinkTask.java:322)
                      at org.apache.kafka.connect.runtime.WorkerSinkTask.iteration(WorkerSinkTask.java:224)
                      at org.apache.kafka.connect.runtime.WorkerSinkTask.execute(WorkerSinkTask.java:192)
                      at org.apache.kafka.connect.runtime.WorkerTask.doRun(WorkerTask.java:177)
                      at org.apache.kafka.connect.runtime.WorkerTask.run(WorkerTask.java:227)
                      at java.base/java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:515)
                      at java.base/java.util.concurrent.FutureTask.run(FutureTask.java:264)
                      at java.base/java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1128)
                      at java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628)
                      at java.base/java.lang.Thread.run(Thread.java:834)
                  Caused by: java.sql.SQLException: com.microsoft.sqlserver.jdbc.SQLServerException: Transaction (Process ID 62) was deadlocked on lock resources with another process and has been chosen as the deadlock victim. Rerun the transaction.
                  

                  2020 年 4 月 14 日更新

                  我仍然有這個問題,我忘了告訴我如何部署連接器.現在我使用 2 個工人,一個用于源,一個用于接收器.我在 csv 中列出我的所有表和 pk 并循環遍歷行以創建連接器而無需睡眠或等待每分鐘.我還為每個主題使用單個主題分區和 3 個副本.但是我仍然有sql server連接死鎖

                  I still have problem with this, i forgot to tell about how i deploy the connectors. Now i use 2 workers, one for source and one for sink. I list all of my tables and pk in an csv and loop through rows to create the connectors without sleep or wait for every minutes. I also use single topics partition and 3 replica for each topics. But i still have sql server connection deadlock

                  推薦答案

                  問題可能是同時訪問多個任務的同一個 SQL 表,并導致同步問題,如您提到的死鎖.
                  由于您已經擁有大量主題,并且您的連接器可以并行訪問它們,我建議您將每個主題的分區數減少到 1(減少分區數在Kafka,因此您應該刪除并使用新的分區數重新創建每個主題).
                  這樣,每個主題只有一個分區;每個分區只能在單個線程(/task/consumer)中訪問,因此沒有機會對同一個表進行并行 SQL 事務.

                  The problem may be accessing the same SQL table with multiple tasks in the same time and causing synchronization problems like deadlocks as you mentioned.
                  Since you already have a large number of topics, and your connector can access them in parallel, I would suggest you to reduce the number partitions for every topic to just 1 (reduce number of partitions is not supported in Kafka so you should delete and recreate every topic with the new number of partitions).
                  This way, every topic have only one partition; every partition can be accessed only in a single thread(/task/consumer) so there is no chance for parallel SQL transactions to the same table.

                  或者,更好的方法是創建一個包含 3 個分區的主題(與您擁有的任務/消費者數量相同),并讓 生產者使用 SQL 表名作為消息鍵.
                  Kafka 保證具有相同鍵的消息總是轉到同一個分區,因此具有相同表的所有消息將駐留在單個分區上(單線程消耗).

                  Alternatively, a better approach is to create a single topic with 3 partitions (same as the number of tasks/consumers you have) and make the producer use the SQL table name as the message key.
                  Kafka guarantees messages with the same key to always go to the same partition, so all the messages with the same table will reside on a single partition (single thread consuming).

                  如果你覺得有用,我可以附上更多關于如何創建 Kafka Producer 和發送密鑰消息的信息.

                  If you find it useful, I can attach more information about how to create Kafka Producer and send keyed messages.

                  這篇關于如何使用 Debezium 從 MS SQL 將 250 個表攝取到 Kafka的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                  Break down a table to pivot in columns (SQL,PYSPARK)(分解表以按列進行透視(SQL、PYSPARK))
                    <bdo id='EoQyB'></bdo><ul id='EoQyB'></ul>

                    <i id='EoQyB'><tr id='EoQyB'><dt id='EoQyB'><q id='EoQyB'><span id='EoQyB'><b id='EoQyB'><form id='EoQyB'><ins id='EoQyB'></ins><ul id='EoQyB'></ul><sub id='EoQyB'></sub></form><legend id='EoQyB'></legend><bdo id='EoQyB'><pre id='EoQyB'><center id='EoQyB'></center></pre></bdo></b><th id='EoQyB'></th></span></q></dt></tr></i><div class="ldfh7pp" id='EoQyB'><tfoot id='EoQyB'></tfoot><dl id='EoQyB'><fieldset id='EoQyB'></fieldset></dl></div>
                      <tbody id='EoQyB'></tbody>

                    <small id='EoQyB'></small><noframes id='EoQyB'>

                      • <legend id='EoQyB'><style id='EoQyB'><dir id='EoQyB'><q id='EoQyB'></q></dir></style></legend>

                          <tfoot id='EoQyB'></tfoot>

                            主站蜘蛛池模板: 浙江自考_浙江自学考试网 | PCB接线端子_栅板式端子_线路板连接器_端子排生产厂家-置恒电气 喷码机,激光喷码打码机,鸡蛋打码机,手持打码机,自动喷码机,一物一码防伪溯源-恒欣瑞达有限公司 假肢-假肢价格-假肢厂家-河南假肢-郑州市力康假肢矫形器有限公司 | 江西高职单独招生-江西单招考试-江西高职单招网 | 3d可视化建模_三维展示_产品3d互动数字营销_三维动画制作_3D虚拟商城 【商迪3D】三维展示服务商 广东健伦体育发展有限公司-体育工程配套及销售运动器材的体育用品服务商 | 微妙网,专业的动画师、特效师、CG模型设计师网站! - wmiao.com 超声波电磁流量计-液位计-孔板流量计-料位计-江苏信仪自动化仪表有限公司 | 扬州汇丰仪表有限公司 | 气体检测仪-氢气检测仪-可燃气体传感器-恶臭电子鼻-深国安电子 | 桌上式超净工作台-水平送风超净工作台-上海康路仪器设备有限公司 | 玻璃钢型材-玻璃钢风管-玻璃钢管道,生产厂家-[江苏欧升玻璃钢制造有限公司] | 蒸压釜_蒸养釜_蒸压釜厂家-山东鑫泰鑫智能装备有限公司 | 全自动定氮仪-半自动凯氏定氮仪厂家-祎鸿仪器| Pos机办理_个人商户免费POS机申请-拉卡拉办理网 | 衬氟旋塞阀-卡套旋塞阀-中升阀门首页 | 广东青藤环境科技有限公司-水质检测| 危废处理系统,水泥厂DCS集散控制系统,石灰窑设备自动化控制系统-淄博正展工控设备 | 智能电表|预付费ic卡水电表|nb智能无线远传载波电表-福建百悦信息科技有限公司 | 发电机价格|发电机组价格|柴油发电机价格|柴油发电机组价格网 | 浩方智通 - 防关联浏览器 - 跨境电商浏览器 - 云雀浏览器 | 蓝鹏测控平台 - 智慧车间系统 - 车间生产数据采集与分析系统 | 菏泽商标注册_菏泽版权登记_商标申请代理_菏泽商标注册去哪里 | 喷码机,激光喷码打码机,鸡蛋打码机,手持打码机,自动喷码机,一物一码防伪溯源-恒欣瑞达有限公司 | 电镀标牌_电铸标牌_金属标贴_不锈钢标牌厂家_深圳市宝利丰精密科技有限公司 | R507制冷剂,R22/R152a制冷剂厂家-浙江瀚凯制冷科技有限公司 | 检验科改造施工_DSA手术室净化_导管室装修_成都特殊科室建设厂家_医疗净化工程公司_四川华锐 | 温州食堂承包 - 温州市尚膳餐饮管理有限公司 | 电解抛光加工_不锈钢电解抛光_常州安谱金属制品有限公司 | 电动打包机_气动打包机_钢带捆扎机_废纸打包机_手动捆扎机 | 湖南长沙商标注册专利申请,长沙公司注册代理记账首选美创! | 氮化镓芯片-碳化硅二极管 - 华燊泰半导体 | 全自动过滤器_反冲洗过滤器_自清洗过滤器_量子除垢环_量子环除垢_量子除垢 - 安士睿(北京)过滤设备有限公司 | 超声波电磁流量计-液位计-孔板流量计-料位计-江苏信仪自动化仪表有限公司 | HDPE土工膜,复合土工膜,防渗膜价格,土工膜厂家-山东新路通工程材料有限公司 | 冷藏车-东风吸污车-纯电动环卫车-污水净化车-应急特勤保障车-程力专汽厂家-程力专用汽车股份有限公司销售二十一分公司 | 上海小程序开发-上海小程序制作公司-上海网站建设-公众号开发运营-软件外包公司-咏熠科技 | 工业废水处理|污水处理厂|废水治理设备工程技术公司-苏州瑞美迪 今日娱乐圈——影视剧集_八卦娱乐_明星八卦_最新娱乐八卦新闻 | 磨煤机配件-高铬辊套-高铬衬板-立磨辊套-盐山县宏润电力设备有限公司 | 茶叶百科网-茶叶知识与茶文化探讨分享平台| 拉卡拉POS机官网 - 官方直营POS机办理|在线免费领取 | 礼仪庆典公司,礼仪策划公司,庆典公司,演出公司,演艺公司,年会酒会,生日寿宴,动工仪式,开工仪式,奠基典礼,商务会议,竣工落成,乔迁揭牌,签约启动-东莞市开门红文化传媒有限公司 | 沈阳缠绕膜价格_沈阳拉伸膜厂家_沈阳缠绕膜厂家直销 | 刚性-柔性防水套管-橡胶伸缩接头-波纹管补偿器-启腾供水材料有限公司 |