pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <i id='y5R2n'><tr id='y5R2n'><dt id='y5R2n'><q id='y5R2n'><span id='y5R2n'><b id='y5R2n'><form id='y5R2n'><ins id='y5R2n'></ins><ul id='y5R2n'></ul><sub id='y5R2n'></sub></form><legend id='y5R2n'></legend><bdo id='y5R2n'><pre id='y5R2n'><center id='y5R2n'></center></pre></bdo></b><th id='y5R2n'></th></span></q></dt></tr></i><div class="giwyi2a" id='y5R2n'><tfoot id='y5R2n'></tfoot><dl id='y5R2n'><fieldset id='y5R2n'></fieldset></dl></div>

    1. <tfoot id='y5R2n'></tfoot>
        <bdo id='y5R2n'></bdo><ul id='y5R2n'></ul>
      <legend id='y5R2n'><style id='y5R2n'><dir id='y5R2n'><q id='y5R2n'></q></dir></style></legend>

      <small id='y5R2n'></small><noframes id='y5R2n'>

        使用 pySpark 將 DataFrame 寫入 mysql 表

        Write DataFrame to mysql table using pySpark(使用 pySpark 將 DataFrame 寫入 mysql 表)

          <bdo id='ZLDte'></bdo><ul id='ZLDte'></ul>
        • <i id='ZLDte'><tr id='ZLDte'><dt id='ZLDte'><q id='ZLDte'><span id='ZLDte'><b id='ZLDte'><form id='ZLDte'><ins id='ZLDte'></ins><ul id='ZLDte'></ul><sub id='ZLDte'></sub></form><legend id='ZLDte'></legend><bdo id='ZLDte'><pre id='ZLDte'><center id='ZLDte'></center></pre></bdo></b><th id='ZLDte'></th></span></q></dt></tr></i><div class="gwwu2gu" id='ZLDte'><tfoot id='ZLDte'></tfoot><dl id='ZLDte'><fieldset id='ZLDte'></fieldset></dl></div>
          1. <small id='ZLDte'></small><noframes id='ZLDte'>

            <legend id='ZLDte'><style id='ZLDte'><dir id='ZLDte'><q id='ZLDte'></q></dir></style></legend>
                <tbody id='ZLDte'></tbody>

              1. <tfoot id='ZLDte'></tfoot>

                • 本文介紹了使用 pySpark 將 DataFrame 寫入 mysql 表的處理方法,對(duì)大家解決問(wèn)題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)吧!

                  問(wèn)題描述

                  我正在嘗試將記錄插入到 MySql 表中.該表包含 idname 作為列.

                  I am attempting to insert records into a MySql table. The table contains id and name as columns.

                  我在 pyspark shell 中執(zhí)行如下操作.

                  I am doing like below in a pyspark shell.

                  name = 'tester_1'
                  id = '103'  
                  import pandas as pd
                  l = [id,name]
                  
                  df = pd.DataFrame([l])
                  
                  df.write.format('jdbc').options(
                        url='jdbc:mysql://localhost/database_name',
                        driver='com.mysql.jdbc.Driver',
                        dbtable='DestinationTableName',
                        user='your_user_name',
                        password='your_password').mode('append').save()
                  

                  我收到以下屬性錯(cuò)誤

                  AttributeError: 'DataFrame' 對(duì)象沒(méi)有屬性 'write'

                  我做錯(cuò)了什么?從 pySpark

                  推薦答案

                  使用 Spark DataFrame 而不是 pandas',因?yàn)?.write 僅適用于 Spark Dataframe

                  Use Spark DataFrame instead of pandas', as .write is available on Spark Dataframe only

                  所以最終的代碼可能是

                  data =['103', 'tester_1']
                  
                  df = sc.parallelize(data).toDF(['id', 'name'])
                  
                  df.write.format('jdbc').options(
                        url='jdbc:mysql://localhost/database_name',
                        driver='com.mysql.jdbc.Driver',
                        dbtable='DestinationTableName',
                        user='your_user_name',
                        password='your_password').mode('append').save()
                  

                  這篇關(guān)于使用 pySpark 將 DataFrame 寫入 mysql 表的文章就介紹到這了,希望我們推薦的答案對(duì)大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問(wèn)題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請(qǐng)聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個(gè)先前值來(lái)決定接下來(lái)的 N 個(gè)行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項(xiàng)是忽略整個(gè)事務(wù)還是只是有問(wèn)題的行?) - IT屋-程序員軟件開(kāi)發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時(shí)出錯(cuò),使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時(shí)發(fā)生錯(cuò)誤 沒(méi)有合適的驅(qū)動(dòng)程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫(kù)表作為 Spark 數(shù)據(jù)幀讀取?)
                • <legend id='34Dzw'><style id='34Dzw'><dir id='34Dzw'><q id='34Dzw'></q></dir></style></legend>
                    <tbody id='34Dzw'></tbody>

                          <tfoot id='34Dzw'></tfoot>
                          <i id='34Dzw'><tr id='34Dzw'><dt id='34Dzw'><q id='34Dzw'><span id='34Dzw'><b id='34Dzw'><form id='34Dzw'><ins id='34Dzw'></ins><ul id='34Dzw'></ul><sub id='34Dzw'></sub></form><legend id='34Dzw'></legend><bdo id='34Dzw'><pre id='34Dzw'><center id='34Dzw'></center></pre></bdo></b><th id='34Dzw'></th></span></q></dt></tr></i><div class="w00q2gm" id='34Dzw'><tfoot id='34Dzw'></tfoot><dl id='34Dzw'><fieldset id='34Dzw'></fieldset></dl></div>

                            <bdo id='34Dzw'></bdo><ul id='34Dzw'></ul>

                            <small id='34Dzw'></small><noframes id='34Dzw'>

                            主站蜘蛛池模板: 欧必特空气能-商用空气能热水工程,空气能热水器,超低温空气源热泵生产厂家-湖南欧必特空气能公司 | 模切之家-专注服务模切行业的B2B平台!| 土壤肥料养分速测仪_测土配方施肥仪_土壤养分检测仪-杭州鸣辉科技有限公司 | EPDM密封胶条-EPDM密封垫片-EPDM生产厂家| 熔体泵|换网器|熔体齿轮泵|熔体计量泵厂家-郑州巴特熔体泵有限公司 | 辽宁资质代办_辽宁建筑资质办理_辽宁建筑资质延期升级_辽宁中杭资质代办 | 吉林污水处理公司,长春工业污水处理设备,净水设备-长春易洁环保科技有限公司 | 免费分销系统 — 分销商城系统_分销小程序开发 -【微商来】 | 北京网络营销推广_百度SEO搜索引擎优化公司_网站排名优化_谷歌SEO - 北京卓立海创信息技术有限公司 | 广州云仓代发-昊哥云仓专业电商仓储托管外包代发货服务 | 淬火设备-钎焊机-熔炼炉-中频炉-锻造炉-感应加热电源-退火机-热处理设备-优造节能 | 天津市能谱科技有限公司-专业的红外光谱仪_红外测油仪_紫外测油仪_红外制样附件_傅里叶红外光谱技术生产服务厂商 | 400电话_400电话申请_888元包年_400电话办理服务中心_400VIP网 | 展厅设计公司,展厅公司,展厅设计,展厅施工,展厅装修,企业展厅,展馆设计公司-深圳广州展厅设计公司 | 接地电阻测试仪[厂家直销]_电缆故障测试仪[精准定位]_耐压测试仪-武汉南电至诚电力设备 | 红酒招商加盟-葡萄酒加盟-进口红酒代理-青岛枞木酒业有限公司 | 海水晶,海水素,海水晶价格-潍坊滨海经济开发区强隆海水晶厂 | YJLV22铝芯铠装电缆-MYPTJ矿用高压橡套电缆-天津市电缆总厂 | 执业药师报名时间,报考条件,考试时间-首页入口| 芜湖厨房设备_芜湖商用厨具_芜湖厨具设备-芜湖鑫环厨具有限公司 控显科技 - 工控一体机、工业显示器、工业平板电脑源头厂家 | 撕碎机,撕破机,双轴破碎机-大件垃圾破碎机厂家 | 艺术涂料_进口艺术涂料_艺术涂料加盟_艺术涂料十大品牌 -英国蒙太奇艺术涂料 | 化妆品加工厂-化妆品加工-化妆品代加工-面膜加工-广东欧泉生化科技有限公司 | 排烟防火阀-消防排烟风机-正压送风口-厂家-价格-哪家好-德州鑫港旺通风设备有限公司 | 在线浊度仪_悬浮物污泥浓度计_超声波泥位计_污泥界面仪_泥水界面仪-无锡蓝拓仪表科技有限公司 | 武汉画册印刷厂家-企业画册印刷-画册设计印刷制作-宣传画册印刷公司 - 武汉泽雅印刷厂 | 模具ERP_模具管理系统_模具mes_模具进度管理_东莞市精纬软件有限公司 | 壹作文_中小学生优秀满分作文大全| 四合院设计_四合院装修_四合院会所设计-四合院古建设计与建造中心1 | 青岛侦探_青岛侦探事务所_青岛劝退小三_青岛调查出轨取证公司_青岛婚外情取证-青岛探真调查事务所 | 旋振筛|圆形摇摆筛|直线振动筛|滚筒筛|压榨机|河南天众机械设备有限公司 | 电动垃圾车,垃圾清运车-江苏速利达机车有限公司 | 诸城网站建设-网络推广-网站优化-阿里巴巴托管-诸城恒泰互联 | 山楂片_雪花_迷你山楂片_山楂条饼厂家-青州市丰源食品厂 | 喷砂机厂家_自动喷砂机生产_新瑞自动化喷砂除锈设备 | 冷轧机|两肋冷轧机|扁钢冷轧机|倒立式拉丝机|钢筋拔丝机|收线机-巩义市华瑞重工机械制造有限公司 | 氧化铝球_高铝球_氧化铝研磨球-淄博誉洁陶瓷新材料有限公司 | 桥架-槽式电缆桥架-镀锌桥架-托盘式桥架 - 上海亮族电缆桥架制造有限公司 | 丹佛斯变频器-丹佛斯压力开关-变送器-广州市风华机电设备有限公司 | 风化石头制砂机_方解石制砂机_瓷砖石子制砂机_华盛铭厂家 | 硫酸钡厂家_高光沉淀硫酸钡价格-河南钡丰化工有限公司 |