pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <small id='zRYqC'></small><noframes id='zRYqC'>

  • <i id='zRYqC'><tr id='zRYqC'><dt id='zRYqC'><q id='zRYqC'><span id='zRYqC'><b id='zRYqC'><form id='zRYqC'><ins id='zRYqC'></ins><ul id='zRYqC'></ul><sub id='zRYqC'></sub></form><legend id='zRYqC'></legend><bdo id='zRYqC'><pre id='zRYqC'><center id='zRYqC'></center></pre></bdo></b><th id='zRYqC'></th></span></q></dt></tr></i><div class="tibc8mk" id='zRYqC'><tfoot id='zRYqC'></tfoot><dl id='zRYqC'><fieldset id='zRYqC'></fieldset></dl></div>

  • <tfoot id='zRYqC'></tfoot>

      <bdo id='zRYqC'></bdo><ul id='zRYqC'></ul>
  • <legend id='zRYqC'><style id='zRYqC'><dir id='zRYqC'><q id='zRYqC'></q></dir></style></legend>

      1. SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時

        SQLITE_ERROR: Connection is closed when connecting from Spark via JDBC to SQLite database(SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉)

            <tbody id='4G5zC'></tbody>
          <i id='4G5zC'><tr id='4G5zC'><dt id='4G5zC'><q id='4G5zC'><span id='4G5zC'><b id='4G5zC'><form id='4G5zC'><ins id='4G5zC'></ins><ul id='4G5zC'></ul><sub id='4G5zC'></sub></form><legend id='4G5zC'></legend><bdo id='4G5zC'><pre id='4G5zC'><center id='4G5zC'></center></pre></bdo></b><th id='4G5zC'></th></span></q></dt></tr></i><div class="kiqmcwi" id='4G5zC'><tfoot id='4G5zC'></tfoot><dl id='4G5zC'><fieldset id='4G5zC'></fieldset></dl></div>

            <bdo id='4G5zC'></bdo><ul id='4G5zC'></ul>
            <legend id='4G5zC'><style id='4G5zC'><dir id='4G5zC'><q id='4G5zC'></q></dir></style></legend>

            <small id='4G5zC'></small><noframes id='4G5zC'>

                <tfoot id='4G5zC'></tfoot>

                  本文介紹了SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我正在使用 Apache Spark 1.5.1 并嘗試連接到名為 clinton.db 的本地 SQLite 數據庫.從數據庫表創建數據框工作正常,但是當我對創建的對象執行某些操作時,我收到以下錯誤消息,其中顯示SQL 錯誤或丟失的數據庫(連接已關閉)".有趣的是,我還是得到了手術的結果.知道我可以做些什么來解決問題,即避免錯誤嗎?

                  I am using Apache Spark 1.5.1 and trying to connect to a local SQLite database named clinton.db. Creating a data frame from a table of the database works fine but when I do some operations on the created object, I get the error below which says "SQL error or missing database (Connection is closed)". Funny thing is that I get the result of the operation nevertheless. Any idea what I can do to solve the problem, i.e., avoid the error?

                  spark-shell 的啟動命令:

                  Start command for spark-shell:

                  ../spark/bin/spark-shell --master local[8] --jars ../libraries/sqlite-jdbc-3.8.11.1.jar --classpath ../libraries/sqlite-jdbc-3.8.11.1.jar
                  

                  從數據庫中讀取:

                  val emails = sqlContext.read.format("jdbc").options(Map("url" -> "jdbc:sqlite:../data/clinton.sqlite", "dbtable" -> "Emails")).load()
                  

                  簡單計數(失敗):

                  emails.count
                  

                  錯誤:

                  15/09/30 09:06:39 WARN JDBCRDD:異常結束語句java.sql.SQLException: [SQLITE_ERROR] SQL 錯誤或缺少數據庫(連接已關閉)在 org.sqlite.core.DB.newSQLException(DB.java:890)在 org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109)在 org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1$$anonfun$8.apply(JDBCRDD.scala:358)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1$$anonfun$8.apply(JDBCRDD.scala:358)在 org.apache.spark.TaskContextImpl$$anon$1.onTaskCompletion(TaskContextImpl.scala:60)在 org.apache.spark.TaskContextImpl$$anonfun$markTaskCompleted$1.apply(TaskContextImpl.scala:79)在 org.apache.spark.TaskContextImpl$$anonfun$markTaskCompleted$1.apply(TaskContextImpl.scala:77)在 scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59)在 scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47)在 org.apache.spark.TaskContextImpl.markTaskCompleted(TaskContextImpl.scala:77)在 org.apache.spark.scheduler.Task.run(Task.scala:90)在 org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:214)在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)在 java.lang.Thread.run(Thread.java:745)res1:長 = 7945

                  推薦答案

                  我遇到了同樣的錯誤 今天,并且重要的一行就在異常之前:

                  I got the same error today, and the important line is just before the exception:

                  15/11/30 12:13:02 INFO jdbc.JDBCRDD:關閉連接

                  15/11/30 12:13:02 INFO jdbc.JDBCRDD: closed connection

                  15/11/30 12:13:02 WARN jdbc.JDBCRDD:異常結束語句java.sql.SQLException: [SQLITE_ERROR] SQL 錯誤或缺少數據庫(連接已關閉)在 org.sqlite.core.DB.newSQLException(DB.java:890)在 org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109)在 org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)

                  15/11/30 12:13:02 WARN jdbc.JDBCRDD: Exception closing statement java.sql.SQLException: [SQLITE_ERROR] SQL error or missing database (Connection is closed) at org.sqlite.core.DB.newSQLException(DB.java:890) at org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109) at org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35) at org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)

                  所以Spark成功關閉JDBC連接,然后關閉JDBC語句

                  So Spark succeeded to close the JDBC connection, and then it fails to close the JDBC statement

                  看源碼,close()被調用了兩次:

                  第 358 行(org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD,Spark 1.5.1)

                  Line 358 (org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD, Spark 1.5.1)

                  context.addTaskCompletionListener{ context => close() }
                  

                  第 469 行

                  override def hasNext: Boolean = {
                    if (!finished) {
                      if (!gotNext) {
                        nextValue = getNext()
                        if (finished) {
                          close()
                        }
                        gotNext = true
                      }
                    }
                    !finished
                  }
                  

                  如果您查看 close() 方法(第 443 行)

                  If you look at the close() method (line 443)

                  def close() {
                    if (closed) return
                  

                  您可以看到它檢查了變量 closed,但該值從未設置為 true.

                  you can see that it checks the variable closed, but that value is never set to true.

                  如果我沒看錯的話,這個bug還在master里面.我已提交錯誤報告.

                  If I see it correctly, this bug is still in the master. I have filed a bug report.

                  • 來源:JDBCRDD.scala(行號略有不同)
                  • Source: JDBCRDD.scala (lines numbers differ slightly)

                  這篇關于SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                    <legend id='OfZ5w'><style id='OfZ5w'><dir id='OfZ5w'><q id='OfZ5w'></q></dir></style></legend>

                          <tfoot id='OfZ5w'></tfoot>
                          • <bdo id='OfZ5w'></bdo><ul id='OfZ5w'></ul>
                          • <i id='OfZ5w'><tr id='OfZ5w'><dt id='OfZ5w'><q id='OfZ5w'><span id='OfZ5w'><b id='OfZ5w'><form id='OfZ5w'><ins id='OfZ5w'></ins><ul id='OfZ5w'></ul><sub id='OfZ5w'></sub></form><legend id='OfZ5w'></legend><bdo id='OfZ5w'><pre id='OfZ5w'><center id='OfZ5w'></center></pre></bdo></b><th id='OfZ5w'></th></span></q></dt></tr></i><div class="s2mg2au" id='OfZ5w'><tfoot id='OfZ5w'></tfoot><dl id='OfZ5w'><fieldset id='OfZ5w'></fieldset></dl></div>

                            <small id='OfZ5w'></small><noframes id='OfZ5w'>

                              <tbody id='OfZ5w'></tbody>

                            主站蜘蛛池模板: 捷码低代码平台 - 3D数字孪生_大数据可视化开发平台「免费体验」 | IIS7站长之家-站长工具-爱网站请使用IIS7站长综合查询工具,中国站长【WWW.IIS7.COM】 | 斗式提升机,斗式提升机厂家-淄博宏建机械有限公司 | 专注氟塑料泵_衬氟泵_磁力泵_卧龙泵阀_化工泵专业品牌 - 梭川泵阀 | PCB厂|线路板厂|深圳线路板厂|软硬结合板厂|电路板生产厂家|线路板|深圳电路板厂家|铝基板厂家|深联电路-专业生产PCB研发制造 | 雷达液位计_超声波风速风向仪_雨量传感器_辐射传感器-山东风途物联网 | atcc网站,sigma试剂价格,肿瘤细胞现货,人结肠癌细胞株购买-南京科佰生物 | 北京征地律师,征地拆迁律师,专业拆迁律师,北京拆迁律师,征地纠纷律师,征地诉讼律师,征地拆迁补偿,拆迁律师 - 北京凯诺律师事务所 | 泥浆在线密度计厂家-防爆数字压力表-膜盒-远传压力表厂家-江苏大亚自控设备有限公司 | 南京试剂|化学试剂|分析试剂|实验试剂|cas号查询-专业60年试剂销售企业 | 即用型透析袋,透析袋夹子,药敏纸片,L型涂布棒-上海桥星贸易有限公司 | 选矿设备-新型重选设备-金属矿尾矿重选-青州冠诚重工机械有限公司 | 熔体泵|换网器|熔体齿轮泵|熔体计量泵厂家-郑州巴特熔体泵有限公司 | 安徽净化板_合肥岩棉板厂家_玻镁板厂家_安徽科艺美洁净科技有限公司 | 船老大板材_浙江船老大全屋定制_船老大官网 | 智能垃圾箱|垃圾房|垃圾分类亭|垃圾分类箱专业生产厂家定做-宿迁市传宇环保设备有限公司 | 嘉兴恒升声级计-湖南衡仪声级计-杭州爱华多功能声级计-上海邦沃仪器设备有限公司 | 手持式3d激光扫描仪-便携式三维立体扫描仪-北京福禄克斯 | 德国GMN轴承,GMN角接触球轴承,GMN单向轴承,GMN油封,GMN非接触式密封 | 利浦顿蒸汽发生器厂家-电蒸汽发生器/燃气蒸汽发生器_湖北利浦顿热能科技有限公司官网 | 华禹护栏|锌钢护栏_阳台护栏_护栏厂家-华禹专注阳台护栏、楼梯栏杆、百叶窗、空调架、基坑护栏、道路护栏等锌钢护栏产品的生产销售。 | 吲哚菁绿衍生物-酶底物法大肠菌群检测试剂-北京和信同通科技发展有限公司 | 二手注塑机回收_旧注塑机回收_二手注塑机买卖 - 大鑫二手注塑机 二手光谱仪维修-德国OBLF光谱仪|进口斯派克光谱仪-热电ARL光谱仪-意大利GNR光谱仪-永晖检测 | 耳模扫描仪-定制耳机设计软件-DLP打印机-asiga打印机-fitshape「飞特西普」 | 京马网,京马建站,网站定制,营销型网站建设,东莞建站,东莞网站建设-首页-京马网 | 房间温控器|LonWorks|海思| 铝合金重力铸造_铝合金翻砂铸造_铝铸件厂家-东莞市铝得旺五金制品有限公司 | 点焊机-缝焊机-闪光对焊机-电阻焊设备生产厂家-上海骏腾发智能设备有限公司 | 机制砂选粉机_砂石选粉机厂家-盐城市助成粉磨科技有限公司 | 合肥展厅设计-安徽展台设计-合肥展览公司-安徽奥美展览工程有限公司 | 无线联网门锁|校园联网门锁|学校智能门锁|公租房智能门锁|保障房管理系统-KEENZY中科易安 | 北京银联移动POS机办理_收银POS机_智能pos机_刷卡机_收银系统_个人POS机-谷骐科技【官网】 | 洗砂机械-球磨制砂机-洗沙制砂机械设备_青州冠诚重工机械有限公司 | 帽子厂家_帽子工厂_帽子定做_义乌帽厂_帽厂_制帽厂_帽子厂_浙江高普制帽厂 | 污水处理设备,一体化泵站,一体化净水设备-「梦之洁环保设备厂家」 | VI设计-LOGO设计公司-品牌设计公司-包装设计公司-导视设计-杭州易象设计 | 「银杏树」银杏树行情价格_银杏树种植_山东程锦园林 | 知名电动蝶阀,电动球阀,气动蝶阀,气动球阀生产厂家|价格透明-【固菲阀门官网】 | 北京环球北美考试院【官方网站】|北京托福培训班|北京托福培训 | 医疗仪器模块 健康一体机 多参数监护仪 智慧医疗仪器方案定制 血氧监护 心电监护 -朗锐慧康 | 两头忙,井下装载机,伸缩臂装载机,30装载机/铲车,50装载机/铲车厂家_价格-莱州巨浪机械有限公司 |