pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

    • <bdo id='DrmMP'></bdo><ul id='DrmMP'></ul>
    <tfoot id='DrmMP'></tfoot>
    <i id='DrmMP'><tr id='DrmMP'><dt id='DrmMP'><q id='DrmMP'><span id='DrmMP'><b id='DrmMP'><form id='DrmMP'><ins id='DrmMP'></ins><ul id='DrmMP'></ul><sub id='DrmMP'></sub></form><legend id='DrmMP'></legend><bdo id='DrmMP'><pre id='DrmMP'><center id='DrmMP'></center></pre></bdo></b><th id='DrmMP'></th></span></q></dt></tr></i><div class="3fmwnw2" id='DrmMP'><tfoot id='DrmMP'></tfoot><dl id='DrmMP'><fieldset id='DrmMP'></fieldset></dl></div>

    1. <small id='DrmMP'></small><noframes id='DrmMP'>

      1. <legend id='DrmMP'><style id='DrmMP'><dir id='DrmMP'><q id='DrmMP'></q></dir></style></legend>

        在“GROUP BY"中重用選擇表達式的結果;條款

        reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
          <tbody id='ap0jb'></tbody>
        <i id='ap0jb'><tr id='ap0jb'><dt id='ap0jb'><q id='ap0jb'><span id='ap0jb'><b id='ap0jb'><form id='ap0jb'><ins id='ap0jb'></ins><ul id='ap0jb'></ul><sub id='ap0jb'></sub></form><legend id='ap0jb'></legend><bdo id='ap0jb'><pre id='ap0jb'><center id='ap0jb'></center></pre></bdo></b><th id='ap0jb'></th></span></q></dt></tr></i><div class="nvyehy7" id='ap0jb'><tfoot id='ap0jb'></tfoot><dl id='ap0jb'><fieldset id='ap0jb'></fieldset></dl></div>
        1. <small id='ap0jb'></small><noframes id='ap0jb'>

              <tfoot id='ap0jb'></tfoot>
                <bdo id='ap0jb'></bdo><ul id='ap0jb'></ul>

                  <legend id='ap0jb'><style id='ap0jb'><dir id='ap0jb'><q id='ap0jb'></q></dir></style></legend>
                  本文介紹了在“GROUP BY"中重用選擇表達式的結果;條款?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  在 MySQL 中,我可以有這樣的查詢:

                  In MySQL, I can have a query like this:

                  select  
                      cast(from_unixtime(t.time, '%Y-%m-%d %H:00') as datetime) as timeHour
                      , ... 
                  from
                      some_table t 
                  group by
                      timeHour, ...
                  order by
                      timeHour, ...
                  

                  其中 GROUP BY 中的 timeHour 是選擇表達式的結果.

                  where timeHour in the GROUP BY is the result of a select expression.

                  但是我剛剛嘗試了一個類似于 Sqark SQL 中的查詢,我得到了一個錯誤

                  But I just tried a query similar to that in Sqark SQL, and I got an error of

                  Error: org.apache.spark.sql.AnalysisException: 
                  cannot resolve '`timeHour`' given input columns: ...
                  

                  我對 Spark SQL 的查詢是這樣的:

                  My query for Spark SQL was this:

                  select  
                        cast(t.unixTime as timestamp) as timeHour
                      , ...
                  from
                      another_table as t
                  group by
                      timeHour, ...
                  order by
                      timeHour, ...
                  

                  這個結構在 Spark SQL 中可行嗎?

                  Is this construct possible in Spark SQL?

                  推薦答案

                  這個結構在 Spark SQL 中可行嗎?

                  Is this construct possible in Spark SQL?

                  是的,是.您可以通過兩種方式使其在 Spark SQL 中工作,以在 GROUP BYORDER BY 子句中使用新列

                  Yes, It is. You can make it works in Spark SQL in 2 ways to use new column in GROUP BY and ORDER BY clauses

                  使用子查詢的方法一:

                  SELECT timeHour, someThing FROM (SELECT  
                        from_unixtime((starttime/1000)) AS timeHour
                      , sum(...)                          AS someThing
                      , starttime
                  FROM
                      some_table) 
                  WHERE
                      starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                        AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                  GROUP BY
                      timeHour
                  ORDER BY
                      timeHour
                  LIMIT 10;
                  

                  方法 2 使用 WITH//優雅的方式:

                  -- create alias 
                  WITH table_aliase AS(SELECT  
                        from_unixtime((starttime/1000)) AS timeHour
                      , sum(...)                          AS someThing
                      , starttime
                  FROM
                      some_table)
                  
                  -- use the same alias as table
                  SELECT timeHour, someThing FROM table_aliase
                  WHERE
                      starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                        AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                  GROUP BY
                      timeHour
                  ORDER BY
                      timeHour
                  LIMIT 10;
                  

                  在 Scala 中使用 Spark DataFrame(wo SQL) API 的替代方法:

                  // This code may need additional import to work well
                  
                  val df = .... //load the actual table as df
                  
                  import org.apache.spark.sql.functions._
                  
                  df.withColumn("timeHour", from_unixtime($"starttime"/1000))
                    .groupBy($"timeHour")
                    .agg(sum("...").as("someThing"))
                    .orderBy($"timeHour")
                    .show()
                  
                  //another way - as per eliasah comment
                  df.groupBy(from_unixtime($"starttime"/1000).as("timeHour"))
                    .agg(sum("...").as("someThing"))
                    .orderBy($"timeHour")
                    .show()
                  

                  這篇關于在“GROUP BY"中重用選擇表達式的結果;條款?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                    <tbody id='pyZrq'></tbody>

                        • <bdo id='pyZrq'></bdo><ul id='pyZrq'></ul>
                        • <small id='pyZrq'></small><noframes id='pyZrq'>

                          1. <tfoot id='pyZrq'></tfoot>
                            <legend id='pyZrq'><style id='pyZrq'><dir id='pyZrq'><q id='pyZrq'></q></dir></style></legend>
                            <i id='pyZrq'><tr id='pyZrq'><dt id='pyZrq'><q id='pyZrq'><span id='pyZrq'><b id='pyZrq'><form id='pyZrq'><ins id='pyZrq'></ins><ul id='pyZrq'></ul><sub id='pyZrq'></sub></form><legend id='pyZrq'></legend><bdo id='pyZrq'><pre id='pyZrq'><center id='pyZrq'></center></pre></bdo></b><th id='pyZrq'></th></span></q></dt></tr></i><div class="3iwri8p" id='pyZrq'><tfoot id='pyZrq'></tfoot><dl id='pyZrq'><fieldset id='pyZrq'></fieldset></dl></div>
                            主站蜘蛛池模板: hdpe土工膜-防渗膜-复合土工膜-长丝土工布价格-厂家直销「恒阳新材料」-山东恒阳新材料有限公司 ETFE膜结构_PTFE膜结构_空间钢结构_膜结构_张拉膜_浙江萬豪空间结构集团有限公司 | 多功能真空滤油机_润滑油全自动滤油机_高效真空滤油机价格-重庆润华通驰 | 防爆电机-高压防爆电机-ybx4电动机厂家-河南省南洋防爆电机有限公司 | 扬尘监测_扬尘监测系统_带证扬尘监测设备 - 郑州港迪科技有限公司 | 六维力传感器_三维力传感器_二维力传感器-南京神源生智能科技有限公司 | 插针变压器-家用电器变压器-工业空调变压器-CD型电抗器-余姚市中驰电器有限公司 | 桐城新闻网—桐城市融媒体中心主办 | 精密机械零件加工_CNC加工_精密加工_数控车床加工_精密机械加工_机械零部件加工厂 | 板框压滤机-隔膜压滤机-厢式压滤机生产厂家-禹州市君工机械设备有限公司 | POM塑料_PBT材料「进口」聚甲醛POM杜邦原料、加纤PBT塑料报价格找利隆塑料 | 一体化污水处理设备_生活污水处理设备_全自动加药装置厂家-明基环保 | 郑州外墙清洗_郑州玻璃幕墙清洗_郑州开荒保洁-河南三恒清洗服务有限公司 | 药品冷藏箱厂家_低温冰箱_洁净工作台-济南欧莱博电子商务有限公司官网 | 高精度电阻回路测试仪-回路直流电阻测试仪-武汉特高压电力科技有限公司 | 365文案网_全网创意文案句子素材站 | B2B网站_B2B免费发布信息网站_B2B企业贸易平台 - 企资网 | 重庆波纹管|重庆钢带管|重庆塑钢管|重庆联进管道有限公司 | 山东风淋室_201/304不锈钢风淋室净化设备厂家-盛之源风淋室厂家 翻斗式矿车|固定式矿车|曲轨侧卸式矿车|梭式矿车|矿车配件-山东卓力矿车生产厂家 | CPSE安博会 | 临海涌泉蜜桔官网|涌泉蜜桔微商批发代理|涌泉蜜桔供应链|涌泉蜜桔一件代发 | 岸电电源-60HZ变频电源-大功率变频电源-济南诚雅电子科技有限公司 | 高压贴片电容|贴片安规电容|三端滤波器|风华电容代理南京南山 | 医用空气消毒机-医用管路消毒机-工作服消毒柜-成都三康王 | 旋转气浴恒温振荡器-往复式水浴恒温振荡器-金怡百科 | 工业风机_环保空调_冷风机_工厂车间厂房通风降温设备旺成服务平台 | 酸度计_PH计_特斯拉计-西安云仪 纯水电导率测定仪-万用气体检测仪-低钠测定仪-米沃奇科技(北京)有限公司www.milwaukeeinst.cn | 大流量卧式砂磨机_强力分散机_双行星双动力混合机_同心双轴搅拌机-莱州市龙跃化工机械有限公司 | 塑料检查井_双扣聚氯乙烯增强管_双壁波纹管-河南中盈塑料制品有限公司 | 基业箱_环网柜_配电柜厂家_开关柜厂家_开关断路器-东莞基业电气设备有限公司 | 高压直流电源_特种变压器_变压器铁芯-希恩变压器定制厂家 | 青州开防盗门锁-配汽车芯片钥匙-保险箱钥匙-吉祥修锁店 | 深圳工程师职称评定条件及流程_深圳职称评审_职称评审-职称网 | 阻垢剂,反渗透阻垢剂,缓蚀阻垢剂-山东普尼奥水处理科技有限公司 真空粉体取样阀,电动楔式闸阀,电动针型阀-耐苛尔(上海)自动化仪表有限公司 | 实体店商新零售|微赢|波后|波后合作|微赢集团 | 自动螺旋上料机厂家价格-斗式提升机定制-螺杆绞龙输送机-杰凯上料机 | 交联度测试仪-湿漏电流测试仪-双85恒温恒湿试验箱-常州市科迈实验仪器有限公司 | LINK FASHION 童装·青少年装展| 全自动真空上料机_粉末真空上料机_气动真空上料机-南京奥威环保科技设备有限公司 | nalgene洗瓶,nalgene量筒,nalgene窄口瓶,nalgene放水口大瓶,浙江省nalgene代理-杭州雷琪实验器材有限公司 | 不锈钢螺丝,不锈钢螺栓,不锈钢标准件-江苏百德特种合金有限公司 交变/复合盐雾试验箱-高低温冲击试验箱_安奈设备产品供应杭州/江苏南京/安徽马鞍山合肥等全国各地 | 立刷【微电签pos机】-嘉联支付立刷运营中心 |