pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <i id='nC7jj'><tr id='nC7jj'><dt id='nC7jj'><q id='nC7jj'><span id='nC7jj'><b id='nC7jj'><form id='nC7jj'><ins id='nC7jj'></ins><ul id='nC7jj'></ul><sub id='nC7jj'></sub></form><legend id='nC7jj'></legend><bdo id='nC7jj'><pre id='nC7jj'><center id='nC7jj'></center></pre></bdo></b><th id='nC7jj'></th></span></q></dt></tr></i><div class="eycs22y" id='nC7jj'><tfoot id='nC7jj'></tfoot><dl id='nC7jj'><fieldset id='nC7jj'></fieldset></dl></div>

      1. <small id='nC7jj'></small><noframes id='nC7jj'>

        <tfoot id='nC7jj'></tfoot>
          <bdo id='nC7jj'></bdo><ul id='nC7jj'></ul>
      2. <legend id='nC7jj'><style id='nC7jj'><dir id='nC7jj'><q id='nC7jj'></q></dir></style></legend>

        使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用

        Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)

          <tfoot id='5Os1G'></tfoot>
        • <legend id='5Os1G'><style id='5Os1G'><dir id='5Os1G'><q id='5Os1G'></q></dir></style></legend>

              <small id='5Os1G'></small><noframes id='5Os1G'>

                  <tbody id='5Os1G'></tbody>
                • <bdo id='5Os1G'></bdo><ul id='5Os1G'></ul>

                • <i id='5Os1G'><tr id='5Os1G'><dt id='5Os1G'><q id='5Os1G'><span id='5Os1G'><b id='5Os1G'><form id='5Os1G'><ins id='5Os1G'></ins><ul id='5Os1G'></ul><sub id='5Os1G'></sub></form><legend id='5Os1G'></legend><bdo id='5Os1G'><pre id='5Os1G'><center id='5Os1G'></center></pre></bdo></b><th id='5Os1G'></th></span></q></dt></tr></i><div class="8ymkoui" id='5Os1G'><tfoot id='5Os1G'></tfoot><dl id='5Os1G'><fieldset id='5Os1G'></fieldset></dl></div>
                  本文介紹了使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我正在使用 pyspark 框架更新 mysql 數據庫,并在 AWS Glue 服務上運行.

                  I am working on updating a mysql database using pyspark framework, and running on AWS Glue services.

                  我有一個如下的數據框:

                  I have a dataframe as follows:

                  df2= sqlContext.createDataFrame([("xxx1","81A01","TERR NAME 55","NY"),("xxx2","81A01","TERR NAME 55","NY"),("x103","81A01","TERR NAME 01","NJ")], ["zip_code","territory_code","territory_name","state"])
                  
                  # Print out information about this data
                  df2.show()
                  +--------+--------------+--------------+-----+
                  |zip_code|territory_code|territory_name|state|
                  +--------+--------------+--------------+-----+
                  |    xxx1|         81A01|  TERR NAME 55|   NY|
                  |    xxx2|         81A01|  TERR NAME 55|   NY|
                  |    x103|         81A01|  TERR NAME 01|   NJ|
                  +---------------------------------------------
                  

                  我有一個主鍵 ZIP_CODE,我需要確保沒有重復鍵或主鍵異常,因此我使用 INSERT INTO .... ON DUPLICATE KEYS.

                  I have a primary key ZIP_CODE, and I need to ensure, there is no duplicate keys, or primary key exceptions, and hence am using INSERT INTO .... ON DUPLICATE KEYS.

                  而且由于我有不止一行要插入/更新,所以我在 python 中使用了數組來循環記錄,并對數據庫執行 INSERT.代碼如下:

                  And since I have more than one rows to insert/update, I have used for array in python to loop through the records, and perform INSERT into database. The code is as follows:

                  sarry = df2.collect()
                  for r in sarry:
                       db = MySQLdb.connect("xxxx.rds.amazonaws.com", "username", "password", 
                        "databasename")
                       cursor = db.cursor()
                       insertQry=INSERT INTO ZIP_TERR(zip_code, territory_code, territory_name, 
                       state) VALUES(r.zip_code, r.territory_code, r.territory_name, r.state) ON 
                       DUPLICATE KEY UPDATE territory_name = VALUES(territory_name), state = 
                       VALUES(state);"
                       n=cursor.execute(insertQry)
                       db.commit()
                       db.close()
                  

                  在運行上述插入查詢函數時,我收到以下錯誤消息,無法獲得有關錯誤的任何線索.請幫忙.

                  When running the above insert query function, I am getting the following error message, couldn't get any clue on the error. Please help.

                  Traceback (most recent call last):
                    File "/tmp/zeppelin_pyspark-2291407229037300959.py", line 367, in <module>
                      raise Exception(traceback.format_exc())
                  Exception: Traceback (most recent call last):
                    File "/tmp/zeppelin_pyspark-2291407229037300959.py", line 360, in <module>
                      exec(code, _zcUserQueryNameSpace)
                    File "<stdin>", line 8, in <module>
                    File "/usr/local/lib/python2.7/site-packages/pymysql/cursors.py", line 170, in execute
                      result = self._query(query)
                    File "/usr/local/lib/python2.7/site-packages/pymysql/cursors.py", line 328, in _query
                      conn.query(q)
                    File "/usr/local/lib/python2.7/site-packages/pymysql/connections.py", line 893, in query
                      self._affected_rows = self._read_query_result(unbuffered=unbuffered)
                    File "/usr/local/lib/python2.7/site-packages/pymysql/connections.py", line 1103, in _read_query_result
                      result.read()
                    File "/usr/local/lib/python2.7/site-packages/pymysql/connections.py", line 1396, in read
                      first_packet = self.connection._read_packet()
                    File "/usr/local/lib/python2.7/site-packages/pymysql/connections.py", line 1059, in _read_packet
                      packet.check_error()
                    File "/usr/local/lib/python2.7/site-packages/pymysql/connections.py", line 384, in check_error
                      err.raise_mysql_exception(self._data)
                    File "/usr/local/lib/python2.7/site-packages/pymysql/err.py", line 109, in raise_mysql_exception
                      raise errorclass(errno, errval)
                  InternalError: (1054, u"Unknown column 'r.zip_code' in 'field list'")
                  

                  如果我只是嘗試打印一行的值,則會按如下方式打印值:

                  If i simply try to print the values for one row, am getting the values printed as follows:

                  print('zip_code_new: ', r.zip_code, r.territory_code, r.territory_name, r.state)
                  
                  zip_code_new:  xxx1 81A01 TERR NAME 55 NY
                  

                  謝謝.我正在研究 AWS Glue/Pyspark,所以我需要使用原生 Python 庫.

                  Thanks. I am working on AWS Glue/Pyspark, so I need to use native python libraries.

                  推薦答案

                  以下插入查詢有效,帶有 for 循環.

                  The following insert query works, with a for loop.

                  insertQry="INSERT INTO ZIP_TERR(zip_code, territory_code, territory_name, state) VALUES(%s, %s, %s, %s) ON DUPLICATE KEY UPDATE territory_name = %s, state = %s;
                  
                  n=cursor.execute(insertQry, (r.zip_code, r.territory_code, r.territory_name, r.state, r.territory_name, r.state))
                  print (" CURSOR status :", n)
                  

                  結果輸出:

                  CURSOR status : 2
                  

                  謝謝.希望對大家有所參考.

                  Thanks. Hope this will be of reference to others.

                  這篇關于使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                  <legend id='c6v5M'><style id='c6v5M'><dir id='c6v5M'><q id='c6v5M'></q></dir></style></legend>

                        <small id='c6v5M'></small><noframes id='c6v5M'>

                          <tbody id='c6v5M'></tbody>

                        1. <i id='c6v5M'><tr id='c6v5M'><dt id='c6v5M'><q id='c6v5M'><span id='c6v5M'><b id='c6v5M'><form id='c6v5M'><ins id='c6v5M'></ins><ul id='c6v5M'></ul><sub id='c6v5M'></sub></form><legend id='c6v5M'></legend><bdo id='c6v5M'><pre id='c6v5M'><center id='c6v5M'></center></pre></bdo></b><th id='c6v5M'></th></span></q></dt></tr></i><div class="2gukam2" id='c6v5M'><tfoot id='c6v5M'></tfoot><dl id='c6v5M'><fieldset id='c6v5M'></fieldset></dl></div>
                          • <bdo id='c6v5M'></bdo><ul id='c6v5M'></ul>
                            <tfoot id='c6v5M'></tfoot>

                          • 主站蜘蛛池模板: 深圳离婚律师咨询「在线免费」华荣深圳婚姻律师事务所专办离婚纠纷案件 | 苏州注册公司_苏州代理记账_苏州工商注册_苏州代办公司-恒佳财税 | 企业VI设计_LOGO设计公司_品牌商标设计_【北京美研】 | 大流量卧式砂磨机_强力分散机_双行星双动力混合机_同心双轴搅拌机-莱州市龙跃化工机械有限公司 | 重庆网站建设,重庆网站设计,重庆网站制作,重庆seo,重庆做网站,重庆seo,重庆公众号运营,重庆小程序开发 | 洛阳防爆合格证办理-洛阳防爆认证机构-洛阳申请国家防爆合格证-洛阳本安防爆认证代办-洛阳沪南抚防爆电气技术服务有限公司 | 翅片管换热器「型号全」_厂家-淄博鑫科环保 | 真空乳化机-灌装封尾机-首页-温州精灌 | 英超直播_英超免费在线高清直播_英超视频在线观看无插件-24直播网 | 电子书导航网_电子书之家_电子书大全_最新电子书分享发布平台 | 不锈钢螺丝 - 六角螺丝厂家 - 不锈钢紧固件 - 万千紧固件--紧固件一站式采购 | 旅游规划_旅游策划_乡村旅游规划_景区规划设计_旅游规划设计公司-北京绿道联合旅游规划设计有限公司 | LZ-373测厚仪-华瑞VOC气体检测仪-个人有毒气体检测仪-厂家-深圳市深博瑞仪器仪表有限公司 | 不锈钢散热器,冷却翅片管散热器厂家-无锡市烨晟化工装备科技有限公司 | 北京网站建设首页,做网站选【优站网】,专注北京网站建设,北京网站推广,天津网站建设,天津网站推广,小程序,手机APP的开发。 | 老房子翻新装修,旧房墙面翻新,房屋防水补漏,厨房卫生间改造,室内装潢装修公司 - 一修房屋快修官网 | 必胜高考网_全国高考备考和志愿填报信息平台 | 液压压力机,液压折弯机,液压剪板机,模锻液压机-鲁南新力机床有限公司 | 掺铥光纤放大器-C/L波段光纤放大器-小信号光纤放大器-合肥脉锐光电技术有限公司 | 玉米深加工设备|玉米加工机械|玉米加工设备|玉米深加工机械-河南成立粮油机械有限公司 | 高铝砖-高铝耐火球-高铝耐火砖生产厂家-价格【荣盛耐材】 | TPE_TPE热塑性弹性体_TPE原料价格_TPE材料厂家-惠州市中塑王塑胶制品公司- 中塑王塑胶制品有限公司 | 盘煤仪,盘料仪,盘点仪,堆料测量仪,便携式激光盘煤仪-中科航宇(北京)自动化工程技术有限公司 | 智慧养老_居家养老_社区养老_杰佳通 | 耐高温风管_耐高温软管_食品级软管_吸尘管_钢丝软管_卫生级软管_塑料波纹管-东莞市鑫翔宇软管有限公司 | 旋转/数显粘度计-运动粘度测定仪-上海平轩科学仪器 | 石家庄小程序开发_小程序开发公司_APP开发_网站制作-石家庄乘航网络科技有限公司 | 炭黑吸油计_测试仪,单颗粒子硬度仪_ASTM标准炭黑自销-上海贺纳斯仪器仪表有限公司(HITEC中国办事处) | 博客-悦享汽车品质生活 | 全自动过滤器_反冲洗过滤器_自清洗过滤器_量子除垢环_量子环除垢_量子除垢 - 安士睿(北京)过滤设备有限公司 | 粘度计,数显粘度计,指针旋转粘度计| 电动球阀_不锈钢电动球阀_电动三通球阀_电动调节球阀_上海湖泉阀门有限公司 | 加气混凝土砌块设备,轻质砖设备,蒸养砖设备,新型墙体设备-河南省杜甫机械制造有限公司 | 螺钉式热电偶_便携式温度传感器_压簧式热电偶|无锡联泰仪表有限公司|首页 | 冷油器-冷油器换管改造-连云港灵动列管式冷油器生产厂家 | 车件|铜件|车削件|车床加工|五金冲压件-PIN针,精密车件定制专业厂商【东莞品晔】 | 北京百度网站优化|北京网站建设公司-百谷网络科技 | 单电机制砂机,BHS制砂机,制沙机设备,制砂机价格-正升制砂机厂家 单级/双级旋片式真空泵厂家,2xz旋片真空泵-浙江台州求精真空泵有限公司 | U拓留学雅思一站式服务中心_留学申请_雅思托福培训 | 碎石机设备-欧版反击破-欧版颚式破碎机(站)厂家_山东奥凯诺机械 高低温试验箱-模拟高低温试验箱订制-北京普桑达仪器科技有限公司【官网】 | 丁基胶边来料加工,医用活塞边角料加工,异戊二烯橡胶边来料加工-河北盛唐橡胶制品有限公司 |