pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  1. <legend id='M4oVT'><style id='M4oVT'><dir id='M4oVT'><q id='M4oVT'></q></dir></style></legend>
    <i id='M4oVT'><tr id='M4oVT'><dt id='M4oVT'><q id='M4oVT'><span id='M4oVT'><b id='M4oVT'><form id='M4oVT'><ins id='M4oVT'></ins><ul id='M4oVT'></ul><sub id='M4oVT'></sub></form><legend id='M4oVT'></legend><bdo id='M4oVT'><pre id='M4oVT'><center id='M4oVT'></center></pre></bdo></b><th id='M4oVT'></th></span></q></dt></tr></i><div class="uauciiy" id='M4oVT'><tfoot id='M4oVT'></tfoot><dl id='M4oVT'><fieldset id='M4oVT'></fieldset></dl></div>
    • <bdo id='M4oVT'></bdo><ul id='M4oVT'></ul>

    <tfoot id='M4oVT'></tfoot>

    <small id='M4oVT'></small><noframes id='M4oVT'>

      在“GROUP BY"中重用選擇表達式的結果;條款

      reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
    1. <small id='pSPaq'></small><noframes id='pSPaq'>

    2. <legend id='pSPaq'><style id='pSPaq'><dir id='pSPaq'><q id='pSPaq'></q></dir></style></legend>
      <i id='pSPaq'><tr id='pSPaq'><dt id='pSPaq'><q id='pSPaq'><span id='pSPaq'><b id='pSPaq'><form id='pSPaq'><ins id='pSPaq'></ins><ul id='pSPaq'></ul><sub id='pSPaq'></sub></form><legend id='pSPaq'></legend><bdo id='pSPaq'><pre id='pSPaq'><center id='pSPaq'></center></pre></bdo></b><th id='pSPaq'></th></span></q></dt></tr></i><div class="s0uc22e" id='pSPaq'><tfoot id='pSPaq'></tfoot><dl id='pSPaq'><fieldset id='pSPaq'></fieldset></dl></div>

        • <tfoot id='pSPaq'></tfoot>
              • <bdo id='pSPaq'></bdo><ul id='pSPaq'></ul>

                  <tbody id='pSPaq'></tbody>
                本文介紹了在“GROUP BY"中重用選擇表達式的結果;條款?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                問題描述

                在 MySQL 中,我可以有這樣的查詢:

                In MySQL, I can have a query like this:

                select  
                    cast(from_unixtime(t.time, '%Y-%m-%d %H:00') as datetime) as timeHour
                    , ... 
                from
                    some_table t 
                group by
                    timeHour, ...
                order by
                    timeHour, ...
                

                其中 GROUP BY 中的 timeHour 是選擇表達式的結果.

                where timeHour in the GROUP BY is the result of a select expression.

                但是我剛剛嘗試了一個類似于 Sqark SQL 中的查詢,我得到了一個錯誤

                But I just tried a query similar to that in Sqark SQL, and I got an error of

                Error: org.apache.spark.sql.AnalysisException: 
                cannot resolve '`timeHour`' given input columns: ...
                

                我對 Spark SQL 的查詢是這樣的:

                My query for Spark SQL was this:

                select  
                      cast(t.unixTime as timestamp) as timeHour
                    , ...
                from
                    another_table as t
                group by
                    timeHour, ...
                order by
                    timeHour, ...
                

                這個結構在 Spark SQL 中可行嗎?

                Is this construct possible in Spark SQL?

                推薦答案

                這個結構在 Spark SQL 中可行嗎?

                Is this construct possible in Spark SQL?

                是的,是.您可以通過兩種方式使其在 Spark SQL 中工作,以在 GROUP BYORDER BY 子句中使用新列

                Yes, It is. You can make it works in Spark SQL in 2 ways to use new column in GROUP BY and ORDER BY clauses

                使用子查詢的方法一:

                SELECT timeHour, someThing FROM (SELECT  
                      from_unixtime((starttime/1000)) AS timeHour
                    , sum(...)                          AS someThing
                    , starttime
                FROM
                    some_table) 
                WHERE
                    starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                      AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                GROUP BY
                    timeHour
                ORDER BY
                    timeHour
                LIMIT 10;
                

                方法 2 使用 WITH//優雅的方式:

                -- create alias 
                WITH table_aliase AS(SELECT  
                      from_unixtime((starttime/1000)) AS timeHour
                    , sum(...)                          AS someThing
                    , starttime
                FROM
                    some_table)
                
                -- use the same alias as table
                SELECT timeHour, someThing FROM table_aliase
                WHERE
                    starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                      AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                GROUP BY
                    timeHour
                ORDER BY
                    timeHour
                LIMIT 10;
                

                在 Scala 中使用 Spark DataFrame(wo SQL) API 的替代方法:

                // This code may need additional import to work well
                
                val df = .... //load the actual table as df
                
                import org.apache.spark.sql.functions._
                
                df.withColumn("timeHour", from_unixtime($"starttime"/1000))
                  .groupBy($"timeHour")
                  .agg(sum("...").as("someThing"))
                  .orderBy($"timeHour")
                  .show()
                
                //another way - as per eliasah comment
                df.groupBy(from_unixtime($"starttime"/1000).as("timeHour"))
                  .agg(sum("...").as("someThing"))
                  .orderBy($"timeHour")
                  .show()
                

                這篇關于在“GROUP BY"中重用選擇表達式的結果;條款?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                相關文檔推薦

                How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                  <tbody id='sWR4t'></tbody>
                • <small id='sWR4t'></small><noframes id='sWR4t'>

                  <tfoot id='sWR4t'></tfoot>
                  • <bdo id='sWR4t'></bdo><ul id='sWR4t'></ul>

                      <i id='sWR4t'><tr id='sWR4t'><dt id='sWR4t'><q id='sWR4t'><span id='sWR4t'><b id='sWR4t'><form id='sWR4t'><ins id='sWR4t'></ins><ul id='sWR4t'></ul><sub id='sWR4t'></sub></form><legend id='sWR4t'></legend><bdo id='sWR4t'><pre id='sWR4t'><center id='sWR4t'></center></pre></bdo></b><th id='sWR4t'></th></span></q></dt></tr></i><div class="sg0auig" id='sWR4t'><tfoot id='sWR4t'></tfoot><dl id='sWR4t'><fieldset id='sWR4t'></fieldset></dl></div>
                        <legend id='sWR4t'><style id='sWR4t'><dir id='sWR4t'><q id='sWR4t'></q></dir></style></legend>

                          主站蜘蛛池模板: 冷库安装厂家_杭州冷库_保鲜库建设-浙江克冷制冷设备有限公司 | 不锈钢发酵罐_水果酒发酵罐_谷物发酵罐_山东誉诚不锈钢制品有限公司 | 提升海外网站流量,增加国外网站访客UV,定制海外IP-访客王 | 课件导航网_ppt课件_课件模板_课件下载_最新课件资源分享发布平台 | 家庭教育吧-在线家庭教育平台,专注青少年家庭教育 | 企典软件一站式企业管理平台,可私有、本地化部署!在线CRM客户关系管理系统|移动办公OA管理系统|HR人事管理系统|人力 | 电销卡 防封电销卡 不封号电销卡 电话销售卡 白名单电销卡 电销系统 外呼系统 | China plate rolling machine manufacturer,cone rolling machine-Saint Fighter | 中空玻璃生产线,玻璃加工设备,全自动封胶线,铝条折弯机,双组份打胶机,丁基胶/卧式/立式全自动涂布机,玻璃设备-山东昌盛数控设备有限公司 | 儋州在线-儋州招聘找工作、找房子、找对象,儋州综合生活信息门户! | 膏方加工_丸剂贴牌_膏滋代加工_湖北康瑞生物科技有限公司 | 上海深蓝_缠绕机_缠膜机-上海深蓝机械装备有限公司 | 磁力反应釜,高压釜,实验室反应釜,高温高压反应釜-威海自控反应釜有限公司 | POS机官网 - 拉卡拉POS机免费办理|官网在线申请入口 | 西安展台设计搭建_西安活动策划公司_西安会议会场布置_西安展厅设计西安旭阳展览展示 | PTFE接头|聚四氟乙烯螺丝|阀门|薄膜|消解罐|聚四氟乙烯球-嘉兴市方圆氟塑制品有限公司 | 浙江上沪阀门有限公司 | 成都装修公司-成都装修设计公司推荐-成都朗煜装饰公司 | 防潮防水通风密闭门源头实力厂家 - 北京酷思帝克门窗 | 蔬菜配送公司|蔬菜配送中心|食材配送|饭堂配送|食堂配送-首宏公司 | 离子色谱自动进样器-青岛艾力析实验科技有限公司 | 安规_综合测试仪,电器安全性能综合测试仪,低压母线槽安规综合测试仪-青岛合众电子有限公司 | 南京交通事故律师-专打交通事故的南京律师 | 电动高尔夫球车|电动观光车|电动巡逻车|电动越野车厂家-绿友机械集团股份有限公司 | 单级/双级旋片式真空泵厂家,2xz旋片真空泵-浙江台州求精真空泵有限公司 | 懂研帝_专业SCI论文润色机构_SCI投稿发表服务公司 | 龙门加工中心-数控龙门加工中心厂家价格-山东海特数控机床有限公司_龙门加工中心-数控龙门加工中心厂家价格-山东海特数控机床有限公司 | 玻璃钢型材-玻璃钢风管-玻璃钢管道,生产厂家-[江苏欧升玻璃钢制造有限公司] | ERP企业管理系统永久免费版_在线ERP系统_OA办公_云版软件官网 | 济南品牌设计-济南品牌策划-即合品牌策划设计-山东即合官网 | 手板-手板模型-手板厂-手板加工-生产厂家,[东莞创域模型] | 上海刑事律师|刑事辩护律师|专业刑事犯罪辩护律师免费咨询-[尤辰荣]金牌上海刑事律师团队 | 气体检测仪-氢气检测仪-可燃气体传感器-恶臭电子鼻-深国安电子 | 鄂泉泵业官网|(杭州、上海、全国畅销)大流量防汛排涝泵-LW立式排污泵 | 深圳美安可自动化设备有限公司,喷码机,定制喷码机,二维码喷码机,深圳喷码机,纸箱喷码机,东莞喷码机 UV喷码机,日期喷码机,鸡蛋喷码机,管芯喷码机,管内壁喷码机,喷码机厂家 | POS机办理_个人POS机免费领取 - 银联POS机申请首页 | 山东钢衬塑罐_管道_反应釜厂家-淄博富邦滚塑防腐设备科技有限公司 | 依维柯自动挡房车,自行式国产改装房车,小型房车价格,中国十大房车品牌_南京拓锐斯特房车 - 南京拓锐斯特房车 | 猎头招聘_深圳猎头公司_知名猎头公司 | 石磨面粉机|石磨面粉机械|石磨面粉机组|石磨面粉成套设备-河南成立粮油机械有限公司 | 江苏皓越真空设备有限公司|