pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

    <bdo id='QYDiF'></bdo><ul id='QYDiF'></ul>

<i id='QYDiF'><tr id='QYDiF'><dt id='QYDiF'><q id='QYDiF'><span id='QYDiF'><b id='QYDiF'><form id='QYDiF'><ins id='QYDiF'></ins><ul id='QYDiF'></ul><sub id='QYDiF'></sub></form><legend id='QYDiF'></legend><bdo id='QYDiF'><pre id='QYDiF'><center id='QYDiF'></center></pre></bdo></b><th id='QYDiF'></th></span></q></dt></tr></i><div class="0egeuaw" id='QYDiF'><tfoot id='QYDiF'></tfoot><dl id='QYDiF'><fieldset id='QYDiF'></fieldset></dl></div>

<small id='QYDiF'></small><noframes id='QYDiF'>

    1. <legend id='QYDiF'><style id='QYDiF'><dir id='QYDiF'><q id='QYDiF'></q></dir></style></legend>
      <tfoot id='QYDiF'></tfoot>

        如何在 jdbc 數據源中使用 dbtable 選項的子查詢?

        How to use a subquery for dbtable option in jdbc data source?(如何在 jdbc 數據源中使用 dbtable 選項的子查詢?)

              <i id='QdQiP'><tr id='QdQiP'><dt id='QdQiP'><q id='QdQiP'><span id='QdQiP'><b id='QdQiP'><form id='QdQiP'><ins id='QdQiP'></ins><ul id='QdQiP'></ul><sub id='QdQiP'></sub></form><legend id='QdQiP'></legend><bdo id='QdQiP'><pre id='QdQiP'><center id='QdQiP'></center></pre></bdo></b><th id='QdQiP'></th></span></q></dt></tr></i><div class="0q2wswu" id='QdQiP'><tfoot id='QdQiP'></tfoot><dl id='QdQiP'><fieldset id='QdQiP'></fieldset></dl></div>

                <small id='QdQiP'></small><noframes id='QdQiP'>

              • <legend id='QdQiP'><style id='QdQiP'><dir id='QdQiP'><q id='QdQiP'></q></dir></style></legend>
              • <tfoot id='QdQiP'></tfoot>

                  <tbody id='QdQiP'></tbody>
                  <bdo id='QdQiP'></bdo><ul id='QdQiP'></ul>
                  本文介紹了如何在 jdbc 數據源中使用 dbtable 選項的子查詢?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我想使用 Spark 處理來自 JDBC 源的一些數據.但是首先,我想在JDBC端運行一些查詢來過濾列和連接表,而不是從JDBC讀取原始表,并將查詢結果作為表加載到Spark SQL中.

                  I want to use Spark to process some data from a JDBC source. But to begin with, instead of reading original tables from JDBC, I want to run some queries on the JDBC side to filter columns and join tables, and load the query result as a table in Spark SQL.

                  以下加載原始 JDBC 表的語法適用于我:

                  The following syntax to load raw JDBC table works for me:

                  df_table1 = sqlContext.read.format('jdbc').options(
                      url="jdbc:mysql://foo.com:3306",
                      dbtable="mydb.table1",
                      user="me",
                      password="******",
                      driver="com.mysql.jdbc.Driver" # mysql JDBC driver 5.1.41
                  ).load() 
                  df_table1.show() # succeeded
                  

                  根據 Spark 文檔(我使用的是 PySpark 1.6.3):

                  According to Spark documentation (I'm using PySpark 1.6.3):

                  dbtable:應該讀取的 JDBC 表.請注意,任何有效的可以在 SQL 查詢的 FROM 子句中使用.例如,而不是完整的表,您也可以在括號中使用子查詢.

                  dbtable: The JDBC table that should be read. Note that anything that is valid in a FROM clause of a SQL query can be used. For example, instead of a full table you could also use a subquery in parentheses.

                  所以只是為了實驗,我嘗試了一些簡單的方法:

                  So just for experiment, I tried something simple like this:

                  df_table1 = sqlContext.read.format('jdbc').options(
                      url="jdbc:mysql://foo.com:3306",
                      dbtable="(SELECT * FROM mydb.table1) AS table1",
                      user="me",
                      password="******",
                      driver="com.mysql.jdbc.Driver"
                  ).load() # failed
                  

                  它拋出了以下異常:

                  com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'table1 WHERE 1=0' at line 1
                  

                  我還嘗試了其他一些語法變體(添加/刪除括號、刪除as"子句、切換大小寫等),但都沒有成功.那么正確的語法是什么?在哪里可以找到更詳細的語法文檔?此外,錯誤消息中這個奇怪的WHERE 1 = 0"來自哪里?謝謝!

                  I also tried a few other variations of the syntax (add / remove parentheses, remove 'as' clause, switch case, etc) without any luck. So what would be the correct syntax? Where can I find more detailed documentation for the syntax? Besides, where does this weird "WHERE 1=0" in error message come from? Thanks!

                  推薦答案

                  對于在 Spark SQL 中使用 sql 查詢從 JDBC 源讀取數據,您可以嘗試如下操作:

                  For reading data from JDBC source using sql query in Spark SQL, you can try something like this:

                  val df_table1 = sqlContext.read.format("jdbc").options(Map(
                      ("url" -> "jdbc:postgresql://localhost:5432/mydb"),
                      ("dbtable" -> "(select * from table1) as table1"),
                      ("user" -> "me"),
                      ("password" -> "******"),
                      ("driver" -> "org.postgresql.Driver"))
                  ).load()
                  

                  我用 PostgreSQL 試過了.可以根據MySQL修改.

                  I tried it using PostgreSQL. You can modify it according to MySQL.

                  這篇關于如何在 jdbc 數據源中使用 dbtable 選項的子查詢?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                    <tbody id='nVwM8'></tbody>
                • <tfoot id='nVwM8'></tfoot>
                • <legend id='nVwM8'><style id='nVwM8'><dir id='nVwM8'><q id='nVwM8'></q></dir></style></legend>

                        <bdo id='nVwM8'></bdo><ul id='nVwM8'></ul>
                      • <small id='nVwM8'></small><noframes id='nVwM8'>

                            <i id='nVwM8'><tr id='nVwM8'><dt id='nVwM8'><q id='nVwM8'><span id='nVwM8'><b id='nVwM8'><form id='nVwM8'><ins id='nVwM8'></ins><ul id='nVwM8'></ul><sub id='nVwM8'></sub></form><legend id='nVwM8'></legend><bdo id='nVwM8'><pre id='nVwM8'><center id='nVwM8'></center></pre></bdo></b><th id='nVwM8'></th></span></q></dt></tr></i><div class="02oekis" id='nVwM8'><tfoot id='nVwM8'></tfoot><dl id='nVwM8'><fieldset id='nVwM8'></fieldset></dl></div>
                            主站蜘蛛池模板: 江苏皓越真空设备有限公司 | LED显示屏_LED屏方案设计精准报价专业安装丨四川诺显科技 | 聚合氯化铝价格_聚合氯化铝厂家_pac絮凝剂-唐达净水官网 | 自动螺旋上料机厂家价格-斗式提升机定制-螺杆绞龙输送机-杰凯上料机 | 本安接线盒-本安电路用接线盒-本安分线盒-矿用电话接线盒-JHH生产厂家-宁波龙亿电子科技有限公司 | 企典软件一站式企业管理平台,可私有、本地化部署!在线CRM客户关系管理系统|移动办公OA管理系统|HR人事管理系统|人力 | MOOG伺服阀维修,ATOS比例流量阀维修,伺服阀维修-上海纽顿液压设备有限公司 | 防勒索软件_数据防泄密_Trellix(原McAfee)核心代理商_Trellix(原Fireeye)售后-广州文智信息科技有限公司 | 交变/复合盐雾试验箱-高低温冲击试验箱_安奈设备产品供应杭州/江苏南京/安徽马鞍山合肥等全国各地 | 利浦顿蒸汽发生器厂家-电蒸汽发生器/燃气蒸汽发生器_湖北利浦顿热能科技有限公司官网 | 盘煤仪,盘料仪,盘点仪,堆料测量仪,便携式激光盘煤仪-中科航宇(北京)自动化工程技术有限公司 | 并离网逆变器_高频UPS电源定制_户用储能光伏逆变器厂家-深圳市索克新能源 | 预制舱-电力集装箱预制舱-模块化预制舱生产厂家-腾达电器设备 | 尊享蟹太太美味,大闸蟹礼卡|礼券|礼盒在线预订-蟹太太官网 | 萃取箱-萃取槽-PVC萃取箱厂家-混合澄清槽- 杭州南方化工设备 | 杭州用友|用友软件|用友财务软件|用友ERP系统--杭州协友软件官网 | 儿童乐园|游乐场|淘气堡招商加盟|室内儿童游乐园配套设备|生产厂家|开心哈乐儿童乐园 | 大功率金属激光焊接机价格_不锈钢汽车配件|光纤自动激光焊接机设备-东莞市正信激光科技有限公司 定制奶茶纸杯_定制豆浆杯_广东纸杯厂_[绿保佳]一家专业生产纸杯碗的厂家 | 安徽免检低氮锅炉_合肥燃油锅炉_安徽蒸汽发生器_合肥燃气锅炉-合肥扬诺锅炉有限公司 | 学习安徽网 | 北京百度网站优化|北京网站建设公司-百谷网络科技 | 企业微信营销_企业微信服务商_私域流量运营_艾客SCRM官网 | 脱硫搅拌器厂家-淄博友胜不锈钢搅拌器厂家 | 重庆网站建设,重庆网站设计,重庆网站制作,重庆seo,重庆做网站,重庆seo,重庆公众号运营,重庆小程序开发 | 耐火浇注料价格-高强高铝-刚玉碳化硅耐磨浇注料厂家【直销】 | 立式硫化罐-劳保用品硫化罐-厂家直销-山东鑫泰鑫硫化罐厂家 | 铸铁平台,大理石平台专业生产厂家_河北-北重机械 | 联系我们老街华纳娱乐公司官网19989979996(客服) | 雷蒙磨,雷蒙磨粉机,雷蒙磨机 - 巩义市大峪沟高峰机械厂 | Akribis直线电机_直线模组_力矩电机_直线电机平台|雅科贝思Akribis-杭州摩森机电科技有限公司 | 悬浮拼装地板_幼儿园_篮球场_悬浮拼接地板-山东悬浮拼装地板厂家 | 北京翻译公司_同传翻译_字幕翻译_合同翻译_英语陪同翻译_影视翻译_翻译盖章-译铭信息 | 筛分机|振动筛分机|气流筛分机|筛分机厂家-新乡市大汉振动机械有限公司 | 全自动不干胶贴标机_套标机-上海今昂贴标机生产厂家 | MTK核心板|MTK开发板|MTK模块|4G核心板|4G模块|5G核心板|5G模块|安卓核心板|安卓模块|高通核心板-深圳市新移科技有限公司 | 长沙广告公司_制作,长沙喷绘_发光字_招牌制作_长沙泓润广告官网 长城人品牌官网 | 电缆隧道在线监测-智慧配电站房-升压站在线监测-江苏久创电气科技有限公司 | 连续密炼机_双转子连续密炼机_连续式密炼机-南京永睿机械制造有限公司 | 书法培训-高考书法艺考培训班-山东艺霖书法培训凭实力挺进央美 | 橡胶电子拉力机-塑料-微电脑电子拉力试验机厂家-江苏天源 | 铝箔-铝板-花纹铝板-铝型材-铝棒管-上海百亚金属材料有限公司 |