pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <small id='4aUsa'></small><noframes id='4aUsa'>

      <bdo id='4aUsa'></bdo><ul id='4aUsa'></ul>
    <legend id='4aUsa'><style id='4aUsa'><dir id='4aUsa'><q id='4aUsa'></q></dir></style></legend>
  • <tfoot id='4aUsa'></tfoot>
      <i id='4aUsa'><tr id='4aUsa'><dt id='4aUsa'><q id='4aUsa'><span id='4aUsa'><b id='4aUsa'><form id='4aUsa'><ins id='4aUsa'></ins><ul id='4aUsa'></ul><sub id='4aUsa'></sub></form><legend id='4aUsa'></legend><bdo id='4aUsa'><pre id='4aUsa'><center id='4aUsa'></center></pre></bdo></b><th id='4aUsa'></th></span></q></dt></tr></i><div class="v5rhhnp" id='4aUsa'><tfoot id='4aUsa'></tfoot><dl id='4aUsa'><fieldset id='4aUsa'></fieldset></dl></div>

      1. 使用 spark sql 在 sqlserver 上執(zhí)行查詢

        execute query on sqlserver using spark sql(使用 spark sql 在 sqlserver 上執(zhí)行查詢)

          <i id='jRCyZ'><tr id='jRCyZ'><dt id='jRCyZ'><q id='jRCyZ'><span id='jRCyZ'><b id='jRCyZ'><form id='jRCyZ'><ins id='jRCyZ'></ins><ul id='jRCyZ'></ul><sub id='jRCyZ'></sub></form><legend id='jRCyZ'></legend><bdo id='jRCyZ'><pre id='jRCyZ'><center id='jRCyZ'></center></pre></bdo></b><th id='jRCyZ'></th></span></q></dt></tr></i><div class="hfpnxlz" id='jRCyZ'><tfoot id='jRCyZ'></tfoot><dl id='jRCyZ'><fieldset id='jRCyZ'></fieldset></dl></div>

        • <tfoot id='jRCyZ'></tfoot>
            <bdo id='jRCyZ'></bdo><ul id='jRCyZ'></ul>

                <tbody id='jRCyZ'></tbody>

              <legend id='jRCyZ'><style id='jRCyZ'><dir id='jRCyZ'><q id='jRCyZ'></q></dir></style></legend>
                • <small id='jRCyZ'></small><noframes id='jRCyZ'>

                  本文介紹了使用 spark sql 在 sqlserver 上執(zhí)行查詢的處理方法,對大家解決問題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧!

                  問題描述

                  我正在嘗試使用 spark sql 獲取 sql server 架構(gòu)中所有表的行數(shù)和列數(shù).

                  I am trying to get the row count and column count of all the tables in a schema in sql server using spark sql.

                  當(dāng)我使用 sqoop 執(zhí)行以下查詢時(shí),它給了我正確的結(jié)果.

                  when I execute below query using sqoop, it's giving me the correct results.

                  sqoop eval --connect "jdbc:sqlserver://<hostname>;database=<dbname>" \
                  --username=<username> --password=<pwd> \
                  --query """SELECT 
                  ta.name TableName ,
                  pa.rows RowCnt, 
                  COUNT(ins.COLUMN_NAME) ColCnt FROM <db>.sys.tables ta INNER JOIN 
                  <db>.sys.partitions pa ON pa.OBJECT_ID = ta.OBJECT_ID INNER JOIN 
                  <db>.sys.schemas sc ON ta.schema_id = sc.schema_id join 
                  <db>.INFORMATION_SCHEMA.COLUMNS ins on ins.TABLE_SCHEMA =sc.name and ins.TABLE_NAME=ta.name 
                  WHERE ta.is_ms_shipped = 0 AND pa.index_id IN (1,0) and sc.name ='<schema>' GROUP BY sc.name, ta.name, pa.rows order by 
                  TableName"""
                  

                  但是當(dāng)我嘗試從 spark sql 執(zhí)行相同的查詢時(shí),我收到錯(cuò)誤消息com.microsoft.sqlserver.jdbc.SQLServerException:關(guān)鍵字‘WHERE’附近的語法不正確"如果有人對此錯(cuò)誤有任何想法,請幫助我.

                  But when I try to execute the same query from spark sql, I am getting an error that "com.microsoft.sqlserver.jdbc.SQLServerException: Incorrect syntax near the keyword 'WHERE'" Please help me out, if anyone has an idea about this error.

                  下面是我執(zhí)行的spark sql命令spark-shell --jars "/var/lib/sqoop/sqljdbc42.jar"

                  Below is the spark sql command I executed spark-shell --jars "/var/lib/sqoop/sqljdbc42.jar"

                  sqlContext.read.format("jdbc").option("url", "jdbc:sqlserver://<hostname>;database=<dbname>;user=<user>;password=<pwd>").option("dbtable", """(SELECT 
                  ta.name TableName ,pa.rows RowCnt, 
                  COUNT(ins.COLUMN_NAME) ColCnt FROM <db>.sys.tables ta INNER JOIN 
                  <db>.sys.partitions pa ON pa.OBJECT_ID = ta.OBJECT_ID INNER JOIN 
                  <db>.sys.schemas sc ON ta.schema_id = sc.schema_id join 
                  <db>.INFORMATION_SCHEMA.COLUMNS ins on ins.TABLE_SCHEMA =sc.name and ins.TABLE_NAME=ta.name 
                  WHERE ta.is_ms_shipped = 0 AND pa.index_id IN (1,0) and sc.name ='<schema>' GROUP BY sc.name,ta.name, pa.rows)""").option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver").load()
                  

                  預(yù)期輸出:

                  表名、RowCnt、ColCnt

                  TableName, RowCnt, ColCnt

                  表 A、62、30

                  表 B, 3846, 76

                  table B, 3846, 76

                  推薦答案

                  Spark SQL 命令中的問題在于 dbTable 選項(xiàng).

                  The problem in your Spark SQL command is with the dbTable option.

                  dbTable 接受可以使用的 SQL 查詢的 FROM 子句中有效的任何內(nèi)容.例如,您還可以使用括號(hào)中的子查詢來代替完整的表.但是,在括號(hào)中使用子查詢時(shí),它應(yīng)該有一個(gè)別名.因此你的命令應(yīng)該修改為,

                  dbTable accepts anything that is valid in a FROM clause of a SQL query can be used. For example, instead of a full table you could also use a subquery in parentheses. However, when using subqueries in parentheses, it should have an alias. Thus your command should be modified as,

                  sqlContext
                  .read
                  .format("jdbc")
                  .option("url", "jdbc:sqlserver://<hostname>;database=<dbname>;user=<user>;password=<pwd>")
                  .option("dbtable", 
                      """(SELECT 
                      ta.name TableName ,
                      pa.rows RowCnt, 
                      COUNT(ins.COLUMN_NAME) ColCnt 
                      FROM <db>.sys.tables ta 
                      INNER JOIN 
                      <db>.sys.partitions pa 
                      ON pa.OBJECT_ID = ta.OBJECT_ID 
                      INNER JOIN 
                      <db>.sys.schemas sc 
                      ON ta.schema_id = sc.schema_id 
                      JOIN 
                      <db>.INFORMATION_SCHEMA.COLUMNS ins 
                      ON ins.TABLE_SCHEMA = sc.name and ins.TABLE_NAME = ta.name 
                      WHERE ta.is_ms_shipped = 0 
                       AND pa.index_id IN (1,0) 
                       AND sc.name ='<schema>' 
                      GROUP BY sc.name,ta.name, pa.rows) as TEMP""")
                  .option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
                  .load()
                  

                  只是一種預(yù)感.希望這會(huì)有所幫助!

                  Just a hunch. Hope this helps!

                  這篇關(guān)于使用 spark sql 在 sqlserver 上執(zhí)行查詢的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個(gè)先前值來決定接下來的 N 個(gè)行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項(xiàng)是忽略整個(gè)事務(wù)還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取查詢(而不是獲取整個(gè)表)?) - IT屋-程序員軟件開
                  Break down a table to pivot in columns (SQL,PYSPARK)(分解表以按列進(jìn)行透視(SQL、PYSPARK))

                    <tbody id='cVBex'></tbody>

                    <i id='cVBex'><tr id='cVBex'><dt id='cVBex'><q id='cVBex'><span id='cVBex'><b id='cVBex'><form id='cVBex'><ins id='cVBex'></ins><ul id='cVBex'></ul><sub id='cVBex'></sub></form><legend id='cVBex'></legend><bdo id='cVBex'><pre id='cVBex'><center id='cVBex'></center></pre></bdo></b><th id='cVBex'></th></span></q></dt></tr></i><div class="dttdl77" id='cVBex'><tfoot id='cVBex'></tfoot><dl id='cVBex'><fieldset id='cVBex'></fieldset></dl></div>

                    <legend id='cVBex'><style id='cVBex'><dir id='cVBex'><q id='cVBex'></q></dir></style></legend>

                        <small id='cVBex'></small><noframes id='cVBex'>

                        • <bdo id='cVBex'></bdo><ul id='cVBex'></ul>
                          <tfoot id='cVBex'></tfoot>
                          • 主站蜘蛛池模板: 利浦顿蒸汽发生器厂家-电蒸汽发生器/燃气蒸汽发生器_湖北利浦顿热能科技有限公司官网 | 首页 - 军军小站|张军博客| 【法利莱住人集装箱厂家】—活动集装箱房,集装箱租赁_大品牌,更放心 | 大型低温冷却液循环泵-低温水槽冷阱「厂家品牌」京华仪器_京华仪器 | 仿古建筑设计-仿古建筑施工-仿古建筑公司-汉匠古建筑设计院 | 油冷式_微型_TDY电动滚筒_外装_外置式电动滚筒厂家-淄博秉泓机械有限公司 | 远程会诊系统-手术示教系统【林之硕】医院远程医疗平台 | 户外环保不锈钢垃圾桶_标识标牌制作_园林公园椅厂家_花箱定制-北京汇众环艺 | 彩超机-黑白B超机-便携兽用B超机-多普勒彩超机价格「大为彩超」厂家 | 辐射仪|辐射检测仪|辐射巡测仪|个人剂量报警仪|表面污染检测仪|辐射报警仪|辐射防护网 | 钢格栅板_钢格板网_格栅板-做专业的热镀锌钢格栅板厂家-安平县迎瑞丝网制造有限公司 | 幂简集成 - 品种超全的API接口平台, 一站搜索、试用、集成国内外API接口 | 悬浮拼装地板_篮球场木地板翻新_运动木地板价格-上海越禾运动地板厂家 | 北京开业庆典策划-年会活动策划公司-舞龙舞狮团大鼓表演-北京盛乾龙狮鼓乐礼仪庆典策划公司 | 国产离子色谱仪,红外分光测油仪,自动烟尘烟气测试仪-青岛埃仑通用科技有限公司 | 刑事律师_深圳著名刑事辩护律师_王平聚【清华博士|刑法教授】 | 苹果售后维修点查询,苹果iPhone授权售后维修服务中心 – 修果网 拼装地板,悬浮地板厂家,悬浮式拼装运动地板-石家庄博超地板科技有限公司 | 电气控制系统集成商-PLC控制柜变频控制柜-非标自动化定制-电气控制柜成套-NIDEC CT变频器-威肯自动化控制 | 铁素体测量仪/检测仪/铁素体含量测试仪-苏州圣光仪器有限公司 | 闸阀_截止阀_止回阀「生产厂家」-上海卡比阀门有限公司 | 环氧树脂地坪_防静电地坪漆_环氧地坪漆涂料厂家-地壹涂料地坪漆 环球电气之家-中国专业电气电子产品行业服务网站! | 不锈钢列管式冷凝器,换热器厂家-无锡飞尔诺环境工程有限公司 | 高铝轻质保温砖_刚玉莫来石砖厂家_轻质耐火砖价格 | 钢衬玻璃厂家,钢衬玻璃管道 -山东东兴扬防腐设备有限公司 | 护栏打桩机-打桩机厂家-恒新重工| 代办建筑资质升级-建筑资质延期就找上海国信启航| 浙江自考_浙江自学考试网 | 制氮设备-变压吸附制氮设备-制氧设备-杭州聚贤气体设备制造有限公司 | 电缆故障测试仪_电缆故障定位仪_探测仪_检测仪器_陕西意联电气厂家 | 密封无忧网 _ 专业的密封产品行业信息网 | 礼仪庆典公司,礼仪策划公司,庆典公司,演出公司,演艺公司,年会酒会,生日寿宴,动工仪式,开工仪式,奠基典礼,商务会议,竣工落成,乔迁揭牌,签约启动-东莞市开门红文化传媒有限公司 | 行星齿轮减速机,减速机厂家,山东减速机-淄博兴江机械制造 | 采暖炉_取暖炉_生物质颗粒锅炉_颗粒壁炉_厂家加盟批发_烟台蓝澳采暖设备有限公司 | 咖啡加盟-咖啡店加盟-咖啡西餐厅加盟-塞纳左岸咖啡西餐厅官网 | 涂层测厚仪_光泽度仪_uv能量计_紫外辐照计_太阳膜测试仪_透光率仪-林上科技 | 异噻唑啉酮-均三嗪-三丹油-1227-中北杀菌剂厂家 | 无纺布包装机|径向缠绕包装机|缠绕膜打包机-上海晏陵智能设备有限公司 | 智能型高压核相仪-自动开口闪点测试仪-QJ41A电雷管测试仪|上海妙定 | 今日扫码_溯源二维码_产品防伪一物一码_红包墙营销方案 | 杭州可当科技有限公司—流量卡_随身WiFi_AI摄像头一站式解决方案 | 济宁工业提升门|济宁电动防火门|济宁快速堆积门-济宁市统一电动门有限公司 |