Apache四个大型开源数据和数据湖系统是什么

76次阅读
没有评论

共计 2422 个字符,预计需要花费 7 分钟才能阅读完成。

本篇内容介绍了“Apache 四个大型开源数据和数据湖系统是什么”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让丸趣 TV 小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

管理大数据所需的许多功能是其中一些是事务,数据突变,数据校正,流媒体支持,架构演进,因为酸性事务能力 Apache 提供了四种,用于满足和管理大数据。

Apache Sharding Sphere

它是一个众所周知的数据库中间件系统。它包含三个独立的模块,JDBC,Proxy 和 Sidecar(计划),但在部署时它们都混合在一起。Apache  Shardingsphere 提供标准化的数据分片,分布式事务和数据库治理功能,可以针对各种多样化应用方案,例如 Java 同义,异构语言和云本机。

今天的电子商务主要依赖于关系数据库和分布式环境,高效查询的激增和数据快速转移成为公司关系数据库的主要目标 Apache  Shardingsphere 是伟大的关系数据库中间件生态系统,它为其开发人员提供了合理的计算和存储功能关系数据库。

Apache Iceberg

Apache Iceberg 最初由 Netflix 设计和开发。关键的想法是组织目录树中的所有文件,如果您需要在 2018 年 5 月创建的文件在 Apache  iceBerg 中,您只需找出该文件并只读该文件,也没有必要阅读您可以阅读的其他文件忽略您对当前情况不太重要的其他数据。核心思想是跟踪时间表上表中的所有更改。

它是一种用于跟踪非常大的表的数据湖解决方案,它是一个轻量级数据湖解决方案,旨在解决列出大量分区和耗时和不一致的元数据和 HDFS 数据的问题。它包含三种类型的表格格式木质,Avro 和 Orc.in  Apache iceberg 表格格式与文件集合和文件格式的集合执行相同的东西,允许您在单个文件中跳过数据

它是一种用于在非常大型和比例表上跟踪和控制的新技术格式。它专为对象存储而设计(例如 S3)。Iceberg   中更重要的概念是一个快照。快照表示一组完整的表数据文件。为每个更新操作生成新快照。

Apache Iceberg 有以下特征:

ACID 事务能力,可以在不影响当前运行数据处理任务的情况下进行上游数据写入,这大大简化了 ETL; Iceberg   提供更好的合并能力,可以大大减少数据存储延迟;

支持更多的分析引擎优异的内核抽象使其不绑定到特定的计算引擎。目前,冰山支持的计算发动机是 Spark,Flink,Presto 和 Hive。

Apache  Iceberg 为文件存储,组织,基于流的增量计算模型和基于批处理的全尺度计算模型提供统一和灵活的数据。批处理和流式传输任务可以使用类似的存储模型,并且不再隔离数据。iceberg 支持隐藏的分区和分区演进,这促进了业务更新数据分区策略。支持三个存储格式木质,Avro 和 Orc。

增量读取处理能力 iceBerg 支持以流式方式读取增量数据,支持流和传输表源。

Apache Hudi

Apache  Hudi 是一个大数据增量处理框架,它试图解决摄取管道的效率问题和在大数据中需要插入,更新和增量消耗基元的 ETL 管道。它是针对分析和扫描优化的数据存储抽象,其可以在几分钟内将更改应用于 HDF 中的数据集,并支持多个增量处理系统来处理数据。通过自定义 InputFormat 与当前 Hadoop 生态系统 (包括 Apache  Hive,Apache Parquet,Presto 和 Apache Spark) 的集成使框架无缝为最终用户。

Hudi 的设计目标是快速且逐步更新 HDFS 上的数据集。有两种更新数据的方法:读写编写并合并读取。写入模式上的副本是当我们更新数据时,我们需要通过索引获取更新数据中涉及的文件,然后读取数据并合并更新的数据。这种模式更易于更新数据,但是当涉及的数据更新时更新时,效率非常低; 并合并读取是要将更新写入单独的新文件,然后我们可以选择与原始数据同步或异步地将更新的数据与原始数据合并(可以调用组合),因为更新的仅编写新文件,所以此模式将更新更快。

在 Hudi 系统的帮助下,很容易在 MySQL,HBase 和 Cassandra 中收集增量数据,并将其保存到 Hudi。然后,presto,spark 和 hive 可以快速阅读这些递增更新的数据。

Apache Iotdb

它是一种物联网时间序列工业数据库,Apache IOTDB 是一款集成,存储,管理和 Anallyze Thge IoT 时间序列数据的软件系统。Apache  IOTDB 采用具有高性能和丰富功能的轻量级架构,并与 Apache  Hadoop,Spark 和 Flink 等进行深度集成,可以满足工业中大规模数据存储,高速数据读数和复杂数据分析的需求事物互联网领域。

Apache IOTDB 套件由多个组件组成,它们一起形成一系列功能,例如“数据收集 – 数据写入数据存储 – 数据查询 –   数据可视化数据分析”。其结构如下:

用户可以导入从设备上的传感器收集的时间序列数据,服务器负载和 CPU 内存等消息队列中的时间序列数据,时间序列数据,应用程序的时间序列数据或从其他数据库到本地或远程 IOTDB 的时间序列数据 JDBC。在。用户还可以直接将上述数据写入本地(或在 HDFS 上)TSFile 文件。TSFile 文件可以写入 HDF,以实现数据处理平台的数据处理平台等异常检测和机器学习等数据处理任务。对于写入 HDFS 或本地的 TSFile 文件,您可以使用 TSFile-Hadoop 或 TSFile-Spark 连接器来允许 Hadoop 或 Spark 处理数据。分析结果可以写回 TSFile 文件。IOTDB 和 TSFile 还提供相应的客户端工具,以满足用户在 SQL,脚本和图形格式中查看数据的需求。

“Apache 四个大型开源数据和数据湖系统是什么”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注丸趣 TV 网站,丸趣 TV 小编将为大家输出更多高质量的实用文章!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-07-27发表,共计2422字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)