共计 1392 个字符,预计需要花费 4 分钟才能阅读完成。
这篇文章主要介绍了 ELK 之 Logstash 如何安装与导入数据,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让丸趣 TV 小编带着大家一起了解一下。
数据集下载
下载地址:https://grouplens.org/datasets/movielens/
我们选择最小数据集即可 Logstash 下载与安装
首先去官网下载 Logstash 安装包:https://www.elastic.co/downloads/logstash
logstash download
如果下载速度太慢可以选用这个代理地址下载:http://mirror.azk8s.cn/elastic/logstash/
azk8s
下载完安装包并解压进入 config 目录:
logstash-config
同时配置如下内容, 你只需要按照你的数据集的路径改一下配置文件中最开始的 path 即可:
logstash.conf
input {
file {
path = /Users/tanjian/Desktop/logstash-7.6.1/movielens/ml-latest-small/movies.csv # 这里指定数据集路径
start_position = beginning
sincedb_path = /dev/null
}
}
filter {
csv {
separator = ,
columns = [id , content , genre]
}
mutate {
split = {genre = |}
remove_field = [path , host , @timestamp , message]
}
mutate {
split = [content , (]
add_field = {title = %{[content][0]} }
add_field = {year = %{[content][1]} }
}
mutate {
convert = {
year = integer
}
strip = [title]
remove_field = [path , host , @timestamp , message , content]
}
}
output {
elasticsearch {
hosts = http://localhost:9200
index = movies
document_id = %{id}
}
stdout {}
}
Logstash 运行
配置好上面的 logstash.conf 文件后,我们就可以启动 Logstash 并开始导入数据了:
sudo ./bin/logstash -f config/logstash.conf
如下图 Logstash 日志所示,正在导入数据集:
logstash log 打开 Kibana 查看数据
在查看数据之前,我们需要打开 http://localhost:5601 通过 Kibana 创建一个 Index Pattern:
Index Pattern
之后,我们就可以通过 Discover 去查看我们的数据了:
Discover
剩下的就交给你自己折腾吧,你可以去 Dev Tools 通过 QSL 语法搜索数据熟悉一下语法。
感谢你能够认真阅读完这篇文章,希望丸趣 TV 小编分享的“ELK 之 Logstash 如何安装与导入数据”这篇文章对大家有帮助,同时也希望大家多多支持丸趣 TV,关注丸趣 TV 行业资讯频道,更多相关知识等着你来学习!