pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

<tfoot id='MXyz2'></tfoot>
  • <legend id='MXyz2'><style id='MXyz2'><dir id='MXyz2'><q id='MXyz2'></q></dir></style></legend>

    1. <small id='MXyz2'></small><noframes id='MXyz2'>

      <i id='MXyz2'><tr id='MXyz2'><dt id='MXyz2'><q id='MXyz2'><span id='MXyz2'><b id='MXyz2'><form id='MXyz2'><ins id='MXyz2'></ins><ul id='MXyz2'></ul><sub id='MXyz2'></sub></form><legend id='MXyz2'></legend><bdo id='MXyz2'><pre id='MXyz2'><center id='MXyz2'></center></pre></bdo></b><th id='MXyz2'></th></span></q></dt></tr></i><div class="zn5vlhv" id='MXyz2'><tfoot id='MXyz2'></tfoot><dl id='MXyz2'><fieldset id='MXyz2'></fieldset></dl></div>
          <bdo id='MXyz2'></bdo><ul id='MXyz2'></ul>
      1. 將數據從 oracle 移動到 HDFS,處理并從 HDFS 移動到

        Move data from oracle to HDFS, process and move to Teradata from HDFS(將數據從 oracle 移動到 HDFS,處理并從 HDFS 移動到 Teradata)
          <tbody id='1cpDM'></tbody>
          <bdo id='1cpDM'></bdo><ul id='1cpDM'></ul>
        • <tfoot id='1cpDM'></tfoot>

        • <i id='1cpDM'><tr id='1cpDM'><dt id='1cpDM'><q id='1cpDM'><span id='1cpDM'><b id='1cpDM'><form id='1cpDM'><ins id='1cpDM'></ins><ul id='1cpDM'></ul><sub id='1cpDM'></sub></form><legend id='1cpDM'></legend><bdo id='1cpDM'><pre id='1cpDM'><center id='1cpDM'></center></pre></bdo></b><th id='1cpDM'></th></span></q></dt></tr></i><div class="t7ld7t7" id='1cpDM'><tfoot id='1cpDM'></tfoot><dl id='1cpDM'><fieldset id='1cpDM'></fieldset></dl></div>

          1. <small id='1cpDM'></small><noframes id='1cpDM'>

            <legend id='1cpDM'><style id='1cpDM'><dir id='1cpDM'><q id='1cpDM'></q></dir></style></legend>

                • 本文介紹了將數據從 oracle 移動到 HDFS,處理并從 HDFS 移動到 Teradata的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我的要求是

                  <塊引用>

                  1. 將數據從 Oracle 移動到 HDFS
                  2. 處理 HDFS 上的數據
                  3. 將處理后的數據移至 Teradata.

                  還需要每 15 分鐘進行一次整個處理.源數據量可能接近50GB,處理后的數據也可能相同.

                  在網上搜索了很多,我發現

                  <塊引用>

                  1. ORAOOP 將數據從 Oracle 移動到 HDFS(將代碼與 shell 腳本一起并安排它以所需的時間間隔運行).
                  2. 通過自定義 MapReduce、Hive 或 PIG 進行大規模處理.
                  3. SQOOP - Teradata 連接器,用于將數據從 HDFS 移動到 Teradata(再次使用帶有代碼的 shell 腳本,然后對其進行調度).

                  這首先是正確的選擇嗎?這在所需的時間段內是否可行(請注意,這不是每日批次左右)?

                  我發現的其他選項如下

                  <塊引用>

                  1. STORM(用于實時數據處理).但是我找不到開箱即用的 oracle Spout 或 Teradata bolt.
                  2. 任何開源 ETL 工具,如 Talend 或 Pentaho.

                  請分享您對這些選項以及任何其他可能性的看法.

                  解決方案

                  看起來你有幾個問題,讓我們試著分解一下.

                  在 HDFS 中導入

                  您似乎正在尋找 Sqoop.Sqoop 是一個工具,可以讓您輕松地將數據傳入/傳出 HDFS,并且可以本地連接到包括 Oracle 在內的各種數據庫.Sqoop 與 Oracle JDBC 瘦驅動程序兼容.以下是從 Oracle 轉移到 HDFS 的方法:

                  sqoop import --connect jdbc:oracle:thin@myhost:1521/db --username xxx --password yyy --table tbl --target-dir/path/to/dir

                  有關更多信息:此處和此處.請注意,您也可以使用 Sqoop 直接導入到 Hive 表中,這可以方便您進行分析.

                  處理

                  正如您所指出的,由于您的數據最初是關系數據,因此最好使用 Hive 進行分析,因為您可能更熟悉類似 SQL 的語法.Pig 是更純粹的關系代數,其語法與 SQL 不同,更多的是偏好問題,但兩種方法都應該可以正常工作.

                  由于您可以使用 Sqoop 直接將數據導入 Hive,因此您的數據在導入后應該可以直接進行處理.

                  在 Hive 中,您可以運行查詢并告訴它在 HDFS 中寫入結果:

                  hive -e "插入覆蓋目錄 '/path/to/output' select * from mytable ..."

                  導出到 TeraData

                  Cloudera 去年發布了適用于 Sqoop 的 Teradata 連接器,如這里,所以你應該看看這看起來正是你想要的.以下是您的操作方法:

                  sqoop export --connect jdbc:teradata://localhost/DATABASE=MY_BASE --username sqooptest --password xxxxx --table MY_DATA --export-dir/path/to/hive/output

                  <小時>

                  在您想要的任何時間段內,整個事情絕對是可行的,最終重要的是您的集群的大小,如果您希望它快速,則根據需要擴展您的集群.Hive 和 Sqoop 的好處是處理將分布在您的集群中,因此您可以完全控制計劃.

                  My requirement is to

                  1. Move data from Oracle to HDFS
                  2. Process the data on HDFS
                  3. Move processed data to Teradata.

                  It is also required to do this entire processing every 15 minutes. The volume of source data may be close to 50 GB and the processed data also may be the same.

                  After searching a lot on the internet, i found that

                  1. ORAOOP to move data from Oracle to HDFS (Have the code withing the shell script and schedule it to run at the required interval).
                  2. Do large scale processing either by Custom MapReduce or Hive or PIG.
                  3. SQOOP - Teradata Connector to move data from HDFS to Teradata (again have a shell script with the code and then schedule it).

                  Is this the right option in the first place and is this feasible for the required time period (Please note that this is not the daily batch or so)?

                  Other options that i found are the following

                  1. STORM (for real time data processing). But i am not able to find the oracle Spout or Teradata bolt out of the box.
                  2. Any open source ETL tools like Talend or Pentaho.

                  Please share your thoughts on these options as well and any other possibilities.

                  解決方案

                  Looks like you have several questions so let's try to break it down.

                  Importing in HDFS

                  It seems you are looking for Sqoop. Sqoop is a tool that lets you easily transfer data in/out of HDFS, and can connect to various databases including Oracle natively. Sqoop is compatible with the Oracle JDBC thin driver. Here is how you would transfer from Oracle to HDFS:

                  sqoop import --connect jdbc:oracle:thin@myhost:1521/db --username xxx --password yyy --table tbl --target-dir /path/to/dir
                  

                  For more information: here and here. Note than you can also import directly into a Hive table with Sqoop which could be convenient to do your analysis.

                  Processing

                  As you noted, since your data initially is relational, it is a good idea to use Hive to do your analysis since you might be more familiar with SQL-like syntax. Pig is more pure relational algebra and the syntax is NOT SQL-like, it is more a matter of preference but both approaches should work fine.

                  Since you can import data into Hive directly with Sqoop, your data should be directly ready to be processed after it is imported.

                  In Hive you could run your query and tell it to write the results in HDFS:

                  hive -e "insert overwrite directory '/path/to/output' select * from mytable ..."
                  

                  Exporting into TeraData

                  Cloudera released last year a connector for Teradata for Sqoop as described here, so you should take a look as this looks like exactly what you want. Here is how you would do it:

                  sqoop export --connect jdbc:teradata://localhost/DATABASE=MY_BASE --username sqooptest --password xxxxx --table MY_DATA --export-dir /path/to/hive/output
                  


                  The whole thing is definitely doable in whatever time period you want, in the end what will matter is the size of your cluster, if you want it quick then scale your cluster up as needed. The good thing with Hive and Sqoop is that processing will be distributed in your cluster, so you have total control over the schedule.

                  這篇關于將數據從 oracle 移動到 HDFS,處理并從 HDFS 移動到 Teradata的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  group concat equivalent in pig?(豬中的組串聯等價物?)
                  A way to read table data from Mysql to Pig(一種從Mysql讀取表數據到Pig的方法)
                  Apache Nifi How to load JSON with nested array JSON and Call Oracle Stored Procedure(Apache Nifi 如何使用嵌套數組 JSON 加載 JSON 并調用 Oracle 存儲過程)
                  Why Kafka jdbc connect insert data as BLOB instead of varchar(為什么 Kafka jdbc 將插入數據作為 BLOB 而不是 varchar 連接)
                  How to sink kafka topic to oracle using kafka connect?(如何使用kafka connect將kafka主題下沉到oracle?)
                  Why Kafka jdbc connect insert data as BLOB instead of varchar(為什么 Kafka jdbc 將插入數據作為 BLOB 而不是 varchar 連接)

                  • <tfoot id='iZ1Sj'></tfoot>
                    • <bdo id='iZ1Sj'></bdo><ul id='iZ1Sj'></ul>
                      <i id='iZ1Sj'><tr id='iZ1Sj'><dt id='iZ1Sj'><q id='iZ1Sj'><span id='iZ1Sj'><b id='iZ1Sj'><form id='iZ1Sj'><ins id='iZ1Sj'></ins><ul id='iZ1Sj'></ul><sub id='iZ1Sj'></sub></form><legend id='iZ1Sj'></legend><bdo id='iZ1Sj'><pre id='iZ1Sj'><center id='iZ1Sj'></center></pre></bdo></b><th id='iZ1Sj'></th></span></q></dt></tr></i><div class="fjxndhp" id='iZ1Sj'><tfoot id='iZ1Sj'></tfoot><dl id='iZ1Sj'><fieldset id='iZ1Sj'></fieldset></dl></div>
                      <legend id='iZ1Sj'><style id='iZ1Sj'><dir id='iZ1Sj'><q id='iZ1Sj'></q></dir></style></legend>

                          <tbody id='iZ1Sj'></tbody>

                          <small id='iZ1Sj'></small><noframes id='iZ1Sj'>

                            主站蜘蛛池模板: 精密冲床,高速冲床等冲压设备生产商-常州晋志德压力机厂 | 健康管理师报考条件,考试时间,报名入口—首页 | 粤丰硕水性环氧地坪漆-防静电自流平厂家-环保地坪涂料代理 | ZHZ8耐压测试仪-上海胜绪电气有限公司| 智慧水务|智慧供排水利信息化|水厂软硬件系统-上海敢创 | 盘式曝气器-微孔曝气器-管式曝气器-曝气盘-斜管填料 | 郑州市前程水处理有限公司 | 找培训机构_找学习课程_励普教育| 电动垃圾车,垃圾清运车-江苏速利达机车有限公司 | 郑州巴特熔体泵有限公司专业的熔体泵,熔体齿轮泵与换网器生产厂家 | 单电机制砂机,BHS制砂机,制沙机设备,制砂机价格-正升制砂机厂家 单级/双级旋片式真空泵厂家,2xz旋片真空泵-浙江台州求精真空泵有限公司 | 电机保护器-电动机综合保护器-上海硕吉电器有限公司 | 讲师宝经纪-专业培训机构师资供应商_培训机构找讲师、培训师、讲师经纪就上讲师宝经纪 | 氢氧化钙设备_厂家-淄博工贸有限公司| 防火卷帘门价格-聊城一维工贸特级防火卷帘门厂家▲ | 康明斯发电机,上柴柴油发电机,玉柴柴油发电机组_海南重康电力官网 | 台湾阳明固态继电器-奥托尼克斯光电传感器-接近开关-温控器-光纤传感器-编码器一级代理商江苏用之宜电气 | 大流量卧式砂磨机_强力分散机_双行星双动力混合机_同心双轴搅拌机-莱州市龙跃化工机械有限公司 | 电力测功机,电涡流测功机,磁粉制动器,南通远辰曳引机测试台 | 雷冲击高压发生器-水内冷直流高压发生器-串联谐振分压器-武汉特高压电力科技有限公司 | 吉林污水处理公司,长春工业污水处理设备,净水设备-长春易洁环保科技有限公司 | 通信天线厂家_室分八木天线_对数周期天线_天线加工厂_林创天线源头厂家 | 土壤水分自动监测站-SM150便携式土壤水分仪-铭奥仪器 | 退火炉,燃气退火炉,燃气热处理炉生产厂家-丹阳市丰泰工业炉有限公司 | 玻璃钢型材-玻璃钢风管-玻璃钢管道,生产厂家-[江苏欧升玻璃钢制造有限公司] | 电缆接头_防水接头_电缆防水接头 - 乐清市新豪电气有限公司 | 深圳市宏康仪器科技有限公司-模拟高空低压试验箱-高温防爆试验箱-温控短路试验箱【官网】 | UV-1800紫外光度计-紫外可见光度计厂家-翱艺仪器(上海)有限公司 | 福建成考网-福建成人高考网 | 氧化锆纤维_1800度高温退火炉_1800度高温烧结炉-南京理工宇龙新材料股份有限公司 | 退火炉,燃气退火炉,燃气热处理炉生产厂家-丹阳市丰泰工业炉有限公司 | 金属切削液-脱水防锈油-电火花机油-抗磨液压油-深圳市雨辰宏业科技发展有限公司 | 游戏版号转让_游戏资质出售_游戏公司转让-【八九买卖网】 | 制冷采购电子商务平台——制冷大市场 | 福州时代广告制作装饰有限公司-福州广告公司广告牌制作,福州展厅文化墙广告设计, | 河南包装袋厂家_河南真空袋批发价格_河南服装袋定制-恒源达包装制品 | 防爆暖风机_防爆电暖器_防爆电暖风机_防爆电热油汀_南阳市中通智能科技集团有限公司 | 顺辉瓷砖-大国品牌-中国顺辉| 凝胶成像仪,化学发光凝胶成像系统,凝胶成像分析系统-上海培清科技有限公司 | 真石漆,山东真石漆,真石漆厂家,真石漆价格-山东新佳涂料有限公司 | AR开发公司_AR增强现实_AR工业_AR巡检|上海集英科技 | 哈尔滨治「失眠/抑郁/焦虑症/精神心理」专科医院排行榜-京科脑康免费咨询 一对一诊疗 |