java中如何读取hadoop文件

40次阅读
没有评论

共计 882 个字符,预计需要花费 3 分钟才能阅读完成。

在 Java 中读取 Hadoop 文件可以通过 Hadoop 提供的 API 实现。以下是一个简单的示例代码,演示如何读取 Hadoop 文件:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class ReadHadoopFile {public static void main(String[] args) {try {Configuration conf = new Configuration();
            FileSystem fs = FileSystem.get(conf);
            Path filePath = new Path("hdfs://<namenode>:<port>/path/to/hadoop/file");

            FSDataInputStream inStream = fs.open(filePath);

            byte[] buffer = new byte[1024];
            int bytesRead = 0;
            while ((bytesRead = inStream.read(buffer)) > 0) {System.out.write(buffer, 0, bytesRead);
            }

            inStream.close();
            fs.close();} catch (Exception e) {e.printStackTrace();
        }
    }
}

在上面的代码中,首先创建一个 Configuration 对象,并获取一个 FileSystem 实例。然后指定要读取的 Hadoop 文件的路径,使用 open 方法打开文件并获取到一个 FSDataInputStream 流。然后通过循环从流中读取数据,并输出到控制台。最后关闭流和文件系统对象。

需要注意的是,在实际使用中需要替换 "hdfs://:/path/to/hadoop/file" 为实际的 Hadoop 文件路径。

丸趣 TV 网 – 提供最优质的资源集合!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2024-04-07发表,共计882字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)