pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <small id='ZDe2z'></small><noframes id='ZDe2z'>

    <i id='ZDe2z'><tr id='ZDe2z'><dt id='ZDe2z'><q id='ZDe2z'><span id='ZDe2z'><b id='ZDe2z'><form id='ZDe2z'><ins id='ZDe2z'></ins><ul id='ZDe2z'></ul><sub id='ZDe2z'></sub></form><legend id='ZDe2z'></legend><bdo id='ZDe2z'><pre id='ZDe2z'><center id='ZDe2z'></center></pre></bdo></b><th id='ZDe2z'></th></span></q></dt></tr></i><div class="xjdl7rt" id='ZDe2z'><tfoot id='ZDe2z'></tfoot><dl id='ZDe2z'><fieldset id='ZDe2z'></fieldset></dl></div>

    1. <tfoot id='ZDe2z'></tfoot>
      <legend id='ZDe2z'><style id='ZDe2z'><dir id='ZDe2z'><q id='ZDe2z'></q></dir></style></legend>

        • <bdo id='ZDe2z'></bdo><ul id='ZDe2z'></ul>

        在spark sql中轉換兩個數據幀

        Transforming two dataframes in spark sql(在spark sql中轉換兩個數據幀)
            <tbody id='shLLP'></tbody>

            • <i id='shLLP'><tr id='shLLP'><dt id='shLLP'><q id='shLLP'><span id='shLLP'><b id='shLLP'><form id='shLLP'><ins id='shLLP'></ins><ul id='shLLP'></ul><sub id='shLLP'></sub></form><legend id='shLLP'></legend><bdo id='shLLP'><pre id='shLLP'><center id='shLLP'></center></pre></bdo></b><th id='shLLP'></th></span></q></dt></tr></i><div class="dd7blvz" id='shLLP'><tfoot id='shLLP'></tfoot><dl id='shLLP'><fieldset id='shLLP'></fieldset></dl></div>
              <tfoot id='shLLP'></tfoot>
              <legend id='shLLP'><style id='shLLP'><dir id='shLLP'><q id='shLLP'></q></dir></style></legend>

              <small id='shLLP'></small><noframes id='shLLP'>

                  <bdo id='shLLP'></bdo><ul id='shLLP'></ul>
                  本文介紹了在spark sql中轉換兩個數據幀的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我在 spark scala 中有兩個數據框注冊為表.從這兩個表

                  I am having two dataframes in spark scala registered as tables. From these two tables

                  表 1:

                     +-----+--------+
                     |id   |values  |
                     +-----+-----   +
                     |   0 |  v1    |
                     |   0 |  v2    |
                     |   1 |  v3    |
                     |   1 |  v1    |
                     +-----+-----   +
                  

                  表 2:

                     +-----+----+--- +----+
                     |id   |v1  |v2  | v3
                     +-----+-------- +----+
                     |   0 |  a1|  b1| -  |
                     |   1 |  a2|  - | c2 |
                  
                     +-----+---------+----+   
                  

                  我想用上面兩個表生成一個新表.

                  I want to generate a new table using the above two tables.

                  表 3:

                     +-----+--------+--------+
                     |id   |values  | field  |
                     +-----+--------+--------+
                     |   0 |  v1    | a1     |
                     |   0 |  v2    | b1     |
                     |   1 |  v3    | c2     |
                     |   1 |  v1    | a2     |
                     +-----+--------+--------+
                  

                  這里 v1 的形式是

                  Here v1 is of the form

                   v1: struct (nullable = true)
                      |    |-- level1: string (nullable = true)
                      |    |-- level2: string (nullable = true)
                      |    |-- level3: string (nullable = true)
                      |    |-- level4: string (nullable = true)
                      |    |-- level5: string (nullable = true)
                  

                  我在 scala 中使用 spark sql.

                  I am using spark sql in scala .

                  是否可以通過在數據幀上編寫一些 sql 查詢或使用一些 spark 函數來完成所需的操作.

                  Is it possible to do the desired thing by writing some sql query or using some spark functions on dataframes.

                  推薦答案

                  這是您可以使用的示例代碼,它將生成此輸出:

                  Here is the sample code that you can use , that will generate this output :

                  代碼如下:

                  val df1=sc.parallelize(Seq((0,"v1"),(0,"v2"),(1,"v3"),(1,"v1"))).toDF("id","values")
                  val df2=sc.parallelize(Seq((0,"a1","b1","-"),(1,"a2","-","b2"))).toDF("id","v1","v2","v3")
                  val joinedDF=df1.join(df2,"id")
                  val resultDF=joinedDF.rdd.map{row=>
                  val id=row.getAs[Int]("id")
                  val values=row.getAs[String]("values")
                  val feilds=row.getAs[String](values)
                  (id,values,feilds)
                  }.toDF("id","values","feilds")
                  

                  在控制臺上測試時:

                  scala> val df1=sc.parallelize(Seq((0,"v1"),(0,"v2"),(1,"v3"),(1,"v1"))).toDF("id","values")
                  df1: org.apache.spark.sql.DataFrame = [id: int, values: string]
                  
                  scala> df1.show
                  +---+------+
                  | id|values|
                  +---+------+
                  |  0|    v1|
                  |  0|    v2|
                  |  1|    v3|
                  |  1|    v1|
                  +---+------+
                  
                  
                  scala> val df2=sc.parallelize(Seq((0,"a1","b1","-"),(1,"a2","-","b2"))).toDF("id","v1","v2","v3")
                  df2: org.apache.spark.sql.DataFrame = [id: int, v1: string ... 2 more fields]
                  
                  scala> df2.show
                  +---+---+---+---+
                  | id| v1| v2| v3|
                  +---+---+---+---+
                  |  0| a1| b1|  -|
                  |  1| a2|  -| b2|
                  +---+---+---+---+
                  
                  
                  scala> val joinedDF=df1.join(df2,"id")
                  joinedDF: org.apache.spark.sql.DataFrame = [id: int, values: string ... 3 more fields]
                  
                  scala> joinedDF.show
                  +---+------+---+---+---+                                                        
                  | id|values| v1| v2| v3|
                  +---+------+---+---+---+
                  |  1|    v3| a2|  -| b2|
                  |  1|    v1| a2|  -| b2|
                  |  0|    v1| a1| b1|  -|
                  |  0|    v2| a1| b1|  -|
                  +---+------+---+---+---+
                  
                  
                  scala> val resultDF=joinedDF.rdd.map{row=>
                       | val id=row.getAs[Int]("id")
                       | val values=row.getAs[String]("values")
                       | val feilds=row.getAs[String](values)
                       | (id,values,feilds)
                       | }.toDF("id","values","feilds")
                  resultDF: org.apache.spark.sql.DataFrame = [id: int, values: string ... 1 more field]
                  
                  scala> 
                  
                  scala> resultDF.show
                  +---+------+------+                                                             
                  | id|values|feilds|
                  +---+------+------+
                  |  1|    v3|    b2|
                  |  1|    v1|    a2|
                  |  0|    v1|    a1|
                  |  0|    v2|    b1|
                  +---+------+------+
                  

                  我希望這可能是您的問題.謝謝!

                  I hope this might your problem. Thanks!

                  這篇關于在spark sql中轉換兩個數據幀的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                      • <bdo id='rZjtB'></bdo><ul id='rZjtB'></ul>
                        <tfoot id='rZjtB'></tfoot>
                        • <i id='rZjtB'><tr id='rZjtB'><dt id='rZjtB'><q id='rZjtB'><span id='rZjtB'><b id='rZjtB'><form id='rZjtB'><ins id='rZjtB'></ins><ul id='rZjtB'></ul><sub id='rZjtB'></sub></form><legend id='rZjtB'></legend><bdo id='rZjtB'><pre id='rZjtB'><center id='rZjtB'></center></pre></bdo></b><th id='rZjtB'></th></span></q></dt></tr></i><div class="fffpflf" id='rZjtB'><tfoot id='rZjtB'></tfoot><dl id='rZjtB'><fieldset id='rZjtB'></fieldset></dl></div>

                            <small id='rZjtB'></small><noframes id='rZjtB'>

                              <tbody id='rZjtB'></tbody>

                            <legend id='rZjtB'><style id='rZjtB'><dir id='rZjtB'><q id='rZjtB'></q></dir></style></legend>
                          1. 主站蜘蛛池模板: 橡胶粉碎机_橡胶磨粉机_轮胎粉碎机_轮胎磨粉机-河南鼎聚重工机械制造有限公司 | 根系分析仪,大米外观品质检测仪,考种仪,藻类鉴定计数仪,叶面积仪,菌落计数仪,抑菌圈测量仪,抗生素效价测定仪,植物表型仪,冠层分析仪-杭州万深检测仪器网 | 气动调节阀,电动调节阀,自力式压力调节阀,切断阀「厂家」-浙江利沃夫自控阀门 | 液压升降货梯_导轨式升降货梯厂家_升降货梯厂家-河南东圣升降设备有限公司 | 网带通过式抛丸机,,网带式打砂机,吊钩式,抛丸机,中山抛丸机生产厂家,江门抛丸机,佛山吊钩式,东莞抛丸机,中山市泰达自动化设备有限公司 | 潍坊青州古城旅游景点攻略_青州酒店美食推荐-青州旅游网 | PCB厂|线路板厂|深圳线路板厂|软硬结合板厂|电路板生产厂家|线路板|深圳电路板厂家|铝基板厂家|深联电路-专业生产PCB研发制造 | 危废处理系统,水泥厂DCS集散控制系统,石灰窑设备自动化控制系统-淄博正展工控设备 | 实体店商新零售|微赢|波后|波后合作|微赢集团 | 岸电电源-60HZ变频电源-大功率变频电源-济南诚雅电子科技有限公司 | 回收二手冲床_金丰旧冲床回收_协易冲床回收 - 大鑫机械设备 | 信阳网站建设专家-信阳时代网联-【信阳网站建设百度推广优质服务提供商】信阳网站建设|信阳网络公司|信阳网络营销推广 | 网带通过式抛丸机,,网带式打砂机,吊钩式,抛丸机,中山抛丸机生产厂家,江门抛丸机,佛山吊钩式,东莞抛丸机,中山市泰达自动化设备有限公司 | 武汉不干胶印刷_标签设计印刷_不干胶标签印刷厂 - 武汉不干胶标签印刷厂家 | 老城街小面官网_正宗重庆小面加盟技术培训_特色面馆加盟|牛肉拉面|招商加盟代理费用多少钱 | 山东PE给水管厂家,山东双壁波纹管,山东钢带增强波纹管,山东PE穿线管,山东PE农田灌溉管,山东MPP电力保护套管-山东德诺塑业有限公司 | 青岛侦探调查_青岛侦探事务所_青岛调查事务所_青岛婚外情取证-青岛狄仁杰国际侦探公司 | 避光流动池-带盖荧光比色皿-生化流动比色皿-宜兴市晶科光学仪器 东莞爱加真空科技有限公司-进口真空镀膜机|真空镀膜设备|Polycold维修厂家 | 上海冠顶工业设备有限公司-隧道炉,烘箱,UV固化机,涂装设备,高温炉,工业机器人生产厂家 | 赛尔特智能移动阳光房-阳光房厂家-赛尔特建筑科技(广东)有限公司 | 罗氏牛血清白蛋白,罗氏己糖激酶-上海嵘崴达实业有限公司 | 精密五金冲压件_深圳五金冲压厂_钣金加工厂_五金模具加工-诚瑞丰科技股份有限公司 | 强效碱性清洗剂-实验室中性清洗剂-食品级高纯氮气发生器-上海润榕科学器材有限公司 | 医用空气消毒机-医用管路消毒机-工作服消毒柜-成都三康王 | 石家庄小程序开发_小程序开发公司_APP开发_网站制作-石家庄乘航网络科技有限公司 | 自动化展_机器人展_机床展_工业互联网展_广东佛山工博会 | 高速龙门架厂家_监控杆_多功能灯杆_信号灯杆_锂电池太阳能路灯-鑫世源照明 | 蔬菜清洗机_环速洗菜机_异物去除清洗机_蔬菜清洗机_商用洗菜机 - 环速科技有限公司 | 济南展厅设计施工_数字化展厅策划设计施工公司_山东锐尚文化传播有限公司 | 电动葫芦|防爆钢丝绳电动葫芦|手拉葫芦-保定大力起重葫芦有限公司 | 迪威娱乐|迪威娱乐客服|18183620002| 盛源真空泵|空压机-浙江盛源空压机制造有限公司-【盛源官网】 | 二手电脑回收_二手打印机回收_二手复印机回_硒鼓墨盒回收-广州益美二手电脑回收公司 | 武汉高低温试验箱_恒温恒湿试验箱厂家-武汉蓝锐环境科技有限公司 | 昊宇水工|河北昊宇水工机械工程有限公司| 电动葫芦|环链电动葫芦-北京凌鹰名优起重葫芦 | 网站建设,北京网站建设,北京网站建设公司,网站系统开发,北京网站制作公司,响应式网站,做网站公司,海淀做网站,朝阳做网站,昌平做网站,建站公司 | 隧道风机_DWEX边墙风机_SDS射流风机-绍兴市上虞科瑞风机有限公司 | 冲锋衣滑雪服厂家-冲锋衣定制工厂-滑雪服加工厂-广东睿牛户外(S-GERT) | 数码听觉统合训练系统-儿童感觉-早期言语评估与训练系统-北京鑫泰盛世科技发展有限公司 | 日本东丽膜_反渗透膜_RO膜价格_超滤膜_纳滤膜-北京东丽阳光官网 日本细胞免疫疗法_肿瘤免疫治疗_NK细胞疗法 - 免疫密码 |