pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

    <bdo id='c40CM'></bdo><ul id='c40CM'></ul>

        <i id='c40CM'><tr id='c40CM'><dt id='c40CM'><q id='c40CM'><span id='c40CM'><b id='c40CM'><form id='c40CM'><ins id='c40CM'></ins><ul id='c40CM'></ul><sub id='c40CM'></sub></form><legend id='c40CM'></legend><bdo id='c40CM'><pre id='c40CM'><center id='c40CM'></center></pre></bdo></b><th id='c40CM'></th></span></q></dt></tr></i><div class="l7b5tdh" id='c40CM'><tfoot id='c40CM'></tfoot><dl id='c40CM'><fieldset id='c40CM'></fieldset></dl></div>
      1. <tfoot id='c40CM'></tfoot>
      2. <small id='c40CM'></small><noframes id='c40CM'>

        <legend id='c40CM'><style id='c40CM'><dir id='c40CM'><q id='c40CM'></q></dir></style></legend>

        在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取

        In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開

          <legend id='l0NsH'><style id='l0NsH'><dir id='l0NsH'><q id='l0NsH'></q></dir></style></legend>
          <i id='l0NsH'><tr id='l0NsH'><dt id='l0NsH'><q id='l0NsH'><span id='l0NsH'><b id='l0NsH'><form id='l0NsH'><ins id='l0NsH'></ins><ul id='l0NsH'></ul><sub id='l0NsH'></sub></form><legend id='l0NsH'></legend><bdo id='l0NsH'><pre id='l0NsH'><center id='l0NsH'></center></pre></bdo></b><th id='l0NsH'></th></span></q></dt></tr></i><div class="lrhbnjt" id='l0NsH'><tfoot id='l0NsH'></tfoot><dl id='l0NsH'><fieldset id='l0NsH'></fieldset></dl></div>

          <small id='l0NsH'></small><noframes id='l0NsH'>

          • <bdo id='l0NsH'></bdo><ul id='l0NsH'></ul>
                  <tbody id='l0NsH'></tbody>
                <tfoot id='l0NsH'></tfoot>

                  本文介紹了在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取查詢(而不是獲取整個表)?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  使用pyspark:

                  from pyspark.sql import SparkSession火花 = SparkSession\.builder\.appName("spark play")\.getOrCreate()df = spark.read\.format("jdbc")\.option("url", "jdbc:mysql://localhost:port")\.option("dbtable", "schema.tablename")\.option("用戶", "用戶名")\.option("密碼", "密碼")\.加載()

                  我寧愿獲取查詢的結(jié)果集,而不是獲取schema.tablename".

                  解決方案

                  同 1.x 可以傳遞有效的子查詢作為 dbtable 參數(shù)例如:

                  <預(yù)><代碼>....option("dbtable", "(SELECT foo, bar FROM schema.tablename) AS tmp")...

                  Using pyspark:

                  from pyspark.sql import SparkSession
                  
                  spark = SparkSession\
                      .builder\
                      .appName("spark play")\
                      .getOrCreate()    
                  
                  df = spark.read\
                      .format("jdbc")\
                      .option("url", "jdbc:mysql://localhost:port")\
                      .option("dbtable", "schema.tablename")\
                      .option("user", "username")\
                      .option("password", "password")\
                      .load()
                  

                  Rather than fetch "schema.tablename", I would prefer to grab the result set of a query.

                  解決方案

                  Same as in 1.x you can pass valid subquery as dbtable argument for example:

                  ...
                  .option("dbtable", "(SELECT foo, bar FROM schema.tablename) AS tmp")
                  ...
                  

                  這篇關(guān)于在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取查詢(而不是獲取整個表)?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務(wù)還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時發(fā)生錯誤 沒有合適的驅(qū)動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)
                • <i id='BnN2O'><tr id='BnN2O'><dt id='BnN2O'><q id='BnN2O'><span id='BnN2O'><b id='BnN2O'><form id='BnN2O'><ins id='BnN2O'></ins><ul id='BnN2O'></ul><sub id='BnN2O'></sub></form><legend id='BnN2O'></legend><bdo id='BnN2O'><pre id='BnN2O'><center id='BnN2O'></center></pre></bdo></b><th id='BnN2O'></th></span></q></dt></tr></i><div class="pjz5575" id='BnN2O'><tfoot id='BnN2O'></tfoot><dl id='BnN2O'><fieldset id='BnN2O'></fieldset></dl></div>

                    <tfoot id='BnN2O'></tfoot>

                    • <legend id='BnN2O'><style id='BnN2O'><dir id='BnN2O'><q id='BnN2O'></q></dir></style></legend>
                        <tbody id='BnN2O'></tbody>

                      <small id='BnN2O'></small><noframes id='BnN2O'>

                      • <bdo id='BnN2O'></bdo><ul id='BnN2O'></ul>

                          1. 主站蜘蛛池模板: 123悬赏网_发布悬赏任务_广告任务平台 | 一氧化氮泄露报警器,二甲苯浓度超标报警器-郑州汇瑞埔电子技术有限公司 | 施工电梯_齿条货梯_烟囱电梯_物料提升机-河南大诚机械制造有限公司 | 阁楼货架_阁楼平台_仓库仓储设备_重型货架_广州金铁牛货架厂 | 动力配电箱-不锈钢配电箱-高压开关柜-重庆宇轩机电设备有限公司 聚天冬氨酸,亚氨基二琥珀酸四钠,PASP,IDS - 远联化工 | 石栏杆_青石栏杆_汉白玉栏杆_花岗岩栏杆 - 【石雕之乡】点石石雕石材厂 | 原子吸收设备-国产分光光度计-光谱分光光度计-上海光谱仪器有限公司 | 塑胶跑道施工-硅pu篮球场施工-塑胶网球场建造-丙烯酸球场材料厂家-奥茵 | 称重传感器,测力传感器,拉压力传感器,压力变送器,扭矩传感器,南京凯基特电气有限公司 | 瑞典Blueair空气净化器租赁服务中心-专注新装修办公室除醛去异味服务! | 云南丰泰挖掘机修理厂-挖掘机维修,翻新,再制造的大型企业-云南丰泰工程机械维修有限公司 | 屏蔽服(500kv-超高压-特高压-电磁)-徐吉电气 | 九爱图纸|机械CAD图纸下载交流中心| 防水套管厂家-柔性防水套管-不锈钢|刚性防水套管-天翔管道 | 中式装修设计_全屋定制家具_实木仿古门窗花格厂家-喜迎门 | 石家庄装修设计_室内家装设计_别墅装饰装修公司-石家庄金舍装饰官网 | 成都亚克力制品,PVC板,双色板雕刻加工,亚克力门牌,亚克力标牌,水晶字雕刻制作-零贰捌广告 | 广州食堂承包_广州团餐配送_广州堂食餐饮服务公司 - 旺记餐饮 | 米顿罗计量泵(科普)——韬铭机械| 打包钢带,铁皮打包带,烤蓝打包带-高密市金和金属制品厂 | LZ-373测厚仪-华瑞VOC气体检测仪-个人有毒气体检测仪-厂家-深圳市深博瑞仪器仪表有限公司 | 环讯传媒,永康网络公司,永康网站建设,永康小程序开发制作,永康网站制作,武义网页设计,金华地区网站SEO优化推广 - 永康市环讯电子商务有限公司 | 电机修理_二手电机专家-河北豫通机电设备有限公司(原石家庄冀华高压电机维修中心) | 艾乐贝拉细胞研究中心 | 国家组织工程种子细胞库华南分库 | 二维运动混料机,加热型混料机,干粉混料机-南京腾阳干燥设备厂 | 超声波破碎仪-均质乳化机(供应杭州,上海,北京,广州,深圳,成都等地)-上海沪析实业有限公司 | 校园文化空间设计-数字化|中医文化空间设计-党建|法治廉政主题文化空间施工-山东锐尚文化传播公司 | 四川成人高考_四川成考报名网| 蜂蜜瓶-玻璃瓶-玻璃瓶厂-玻璃瓶生产厂家-徐州贵邦玻璃制品有限公司 | 合景一建-无尘车间设计施工_食品医药洁净车间工程装修总承包公司 | 双相钢_双相不锈钢_双相钢圆钢棒_双相不锈钢报价「海新双相钢」 双能x射线骨密度检测仪_dxa骨密度仪_双能x线骨密度仪_品牌厂家【品源医疗】 | 干洗店加盟_洗衣店加盟_干洗店设备-伊蔻干洗「武汉总部」 | 服务器之家 - 专注于服务器技术及软件下载分享 | 直线模组_滚珠丝杆滑台_模组滑台厂家_万里疆科技 | 老城街小面官网_正宗重庆小面加盟技术培训_特色面馆加盟|牛肉拉面|招商加盟代理费用多少钱 | 菏泽商标注册_菏泽版权登记_商标申请代理_菏泽商标注册去哪里 | 福州仿石漆加盟_福建仿石漆厂家-外墙仿石漆加盟推荐铁壁金钢(福建)新材料科技有限公司有保障 | 查分易-成绩发送平台官网 | EPDM密封胶条-EPDM密封垫片-EPDM生产厂家| _网名词典_网名大全_qq网名_情侣网名_个性网名 | 光纤测温-荧光光纤测温系统-福州华光天锐光电科技有限公司 |