当前位置: 首页 > news >正文

网站建设流费用wordpress 添加字体

网站建设流费用,wordpress 添加字体,做网站那几步,河北建设部官方网站在实际工作中会遇到#xff0c;最近有需求将产品炸开bom到底层#xff0c;但是ERP中bom数据在一张表中递归存储的#xff0c;不循环展开#xff0c;是无法知道最底层原材料是什么。 在ERP中使用pl/sql甚至sql是可以进行炸BOM的#xff0c;但是怎么使用spark展开#xff0…在实际工作中会遇到最近有需求将产品炸开bom到底层但是ERP中bom数据在一张表中递归存储的不循环展开是无法知道最底层原材料是什么。 在ERP中使用pl/sql甚至sql是可以进行炸BOM的但是怎么使用spark展开并且效率要不Oracle更高效的展开是个问题。 展开方法 有以下步骤 1. 使用spark sql中sql直接递归展开 优点可行且效率很快 缺点一个sql炸到底层无法添加在炸开过程中的逻辑管控 2. 一层层的展开BOM直到没有可以展开的物料为止 实际效果 优点可行并可以在每一层进行管快 优缺点本质上并不是递归计算而是过度有限循环的计算 与一些需求有冲突比如原需求为递归计算按照需求扣减现有量是无法实现的 3. 使用sparkscala递归炸开bom--实验中 具体步骤如下 1.使用spark sql展开bom 在Scala中我们可以使用Spark SQL来执行递归查询。要使用Spark SQL进行递归查询我们首先需要创建一个递归查询视图然后在该视图中执行我们的查询操作。接下来我们将介绍一个具体的示例来解释如何使用Spark SQL进行递归查询。 假设我们有一个部门表其中包含部门的ID和上级部门的ID。我们想要查询一个部门的所有上级部门直到根部门的层级关系。以下是一个简化的部门表结构和数据 CREATE TABLE department (department_id INT,parent_department_id INT );INSERT INTO department VALUES (1, NULL); INSERT INTO department VALUES (2, 1); INSERT INTO department VALUES (3, 2); INSERT INTO department VALUES (4, 3); INSERT INTO department VALUES (5, 3); INSERT INTO department VALUES (6, NULL); INSERT INTO department VALUES (7, 6);我们可以使用Spark SQL来执行递归查询查询部门ID为4的部门的所有上级部门 import org.apache.spark.sql.SparkSessionval spark SparkSession.builder().appName(Recursive Query).master(local).getOrCreate()val departmentDF spark.read.format(jdbc).option(url, jdbc:mysql://localhost:3306/test).option(dbtable, department).option(user, root).option(password, password).load()departmentDF.createOrReplaceTempView(department)spark.sql(WITH RECURSIVE department_hierarchy AS (SELECT department_id, parent_department_idFROM departmentWHERE department_id 4UNION ALLSELECT d.department_id, d.parent_department_idFROM department_hierarchy dhJOIN department d ON dh.parent_department_id d.department_id)SELECT *FROM department_hierarchy ).show()上述示例中我们使用Spark SQL的WITH RECURSIVE语法来定义一个递归查询视图department_hierarchy。起始查询使用了WHERE子句来找到部门ID为4的部门然后使用UNION ALL子句将递归部分与起始部分联接起来直到找到根部门为止。最后我们通过SELECT语句从递归查询视图中选择所需的列。 运行以上代码我们可以得到结果如下 -------------------------------- |department_id|parent_department_id| -------------------------------- | 4| 3| | 3| 2| | 2| 1| | 1| NULL| --------------------------------总结 本文中我们介绍了如何使用Scala中的Spark SQL来执行递归查询。我们首先了解了递归查询的概念和用法然后通过一个具体的示例演示了如何使用Spark SQL进行递归查询。通过使用Spark SQL的WITH RECURSIVE语法我们可以方便地处理复杂的递归查询操作从而更好地利用Spark处理大规模结构化数据。 参考文档如下
http://icebutterfly214.com/news/47278/

相关文章:

  • linux $line
  • kali linux输入中文
  • kali linux 网卡
  • Boost Key Programming Speed with CG A10-3+1 HON.D Style 4-Button Remote (5pcs) for CGDI K2
  • java执行linux 命令
  • alpha阶段工作总结11.17
  • java 读取文件linux文件
  • java 读取linux 文件
  • 第三章作业 动态规划
  • 用 Go 进行验证码识别
  • 奶牛快传服务调整公告
  • 从零实现 REINFORCE/GRPO —— 大模型推理强化微调实践
  • 从0到1:揭秘LLM预训练前的海量数据清洗全流程
  • CF2169A题解
  • Sora 2 Cameo多角色上传+Remix二创功能API接入教程,史低0.08/条
  • 基于MIMO系统的SCMA稀疏码多址接入和MPA消息传递算法matlab仿真
  • 一次尝试,3个小时90元的主机游玩和F1电影
  • [GESP202506 二级] 幂和数
  • 2025 年锚具厂家 TOP 企业品牌推荐排行榜,预应力锚具 / 五孔锚具 / 低回缩锚具 / 张拉锚具 / 固定端锚具 / 桥梁预应力锚具 / 边坡锚具公司推荐!
  • 论文速读 | 2025年11月
  • Flask+Celery+Blueprint
  • hadoop linux 安装
  • 2025年11月学习机榜单:打破智商税偏见,十大提分机型实证推荐
  • 题解:uoj632【UR #21】挑战最大团
  • Hier-SLAM++ (2) MeshGPT:仅使用解码器Transformer生成三角形网格 - MKT
  • QQ流量分析
  • 20232404 2025-2026-1 《网络与系统攻防技术》实验六实验报告
  • 复合剩余问题
  • 自定义yml激活进本地通用yml
  • AT_jsc2019_qual_e Card Collector