资料库 什么是hadoop分布式文件系统(hdfs)? -技术百科的定义

什么是hadoop分布式文件系统(hdfs)? -技术百科的定义

目录:

Anonim

定义-Hadoop分布式文件系统(HDFS)是什么意思?

Hadoop分布式文件系统(HDFS)是在标准或低端硬件上运行的分布式文件系统。 HDFS由Apache Hadoop开发,类似于标准的分布式文件系统,但通过MapReduce算法提供了更好的数据吞吐量和访问权限,具有较高的容错能力,并提供对大型数据集的本地支持。

Techopedia解释了Hadoop分布式文件系统(HDFS)

HDFS存储跨多个计算机放置的大量数据(通常在成千上万个同时连接的节点中),并通过将每个数据实例复制为三个不同的副本(一组两个,一组另一个)来提供数据可靠性。 如果发生故障,可以替换这些副本。

HDFS体系结构由群集组成,每个群集都可以通过安装在单独计算机上的单个NameNode软件工具进行访问,以监视和管理该群集的文件系统和用户访问机制。 其他机器安装一个DataNode实例来管理集群存储。

因为HDFS是用Java编写的,所以它对Java应用程序编程接口(API)具有本机支持,以实现应用程序集成和可访问性。 也可以通过标准的Web浏览器进行访问。

什么是hadoop分布式文件系统(hdfs)? -技术百科的定义