jjzjj

logstash-devutils

全部标签

xml - 如何在 logstash 中解析多行 XML?

我的s3存储桶中有多行XML文件(约800行),我想在Elasticsearch中为它们编制索引,但我无法在logstash中解析它们。字段有时为空,因此无法手动解析文件。我的xml看起来像:050.00`...在我的输入中我有配置:codec=>multiline{pattern=>"next}在我的过滤器中有以下配置:multiline{pattern=>["\t\t"]what=>next} 最佳答案 好的,看来问题是,您对多行编解码器和XML过滤器感到困惑。我可以建议您设置多行吗:codec=>multiline{patte

json - Logstash:从数组到字符串的 XML 到 JSON 输出

我正在尝试使用Logstash将XML转换为JSON以用于ElasticSearch。我能够获取读取的值并将其发送到ElasticSearch。问题是所有值都以数组形式出现。我想让它们只是字符串。我知道我可以为每个字段单独执行replace,但随后我遇到了嵌套字段深度为3层的问题。XMLLocationIdUserIdMyName2015-08-0710.5Logstash配置input{file{path=>"/var/log/logstash/test.xml"}}filter{multiline{pattern=>"^\s\s(\s\s|\)"what=>"previous"}i

xml - Logstash,从多个文档中的 xml 文件拆分事件,保留根标签中的信息

我的问题:我有XML文件,其中包含我想使用Logstash解析的事件,以便之后使用Kibana请求它。我想在每个事件中保留来自ROOT标记的所有信息。输入看起来像:我想要的,像这样的两个文件:{"number":"34""name":"Hey"}{"number":"34""name":"you"}Logstash配置文件:input{stdin{}}filter{xml{store_xml=>"false"source=>"message"target=>"EVENT"xpath=>["/ROOT/@number","number","/ROOT/EVENTLIST/EVENT/@n

windows - 使用 nxlog 使用 om_ssl 从 Windows 将日志发送到 logstash

我一直在寻找从Windows发送日志的选项,我已经设置了logstash,目前我使用logstash-forwarder和ssl加密将日志从Linux(CentOS)服务器发送到我的ELK堆栈。出于合规原因,加密在此环境中非常重要。我也希望在Windows中使用logstash-forwarder,但是在用Go编译后我遇到了事件日志的问题,我发现有人说这是不可能的,因为文件锁定问题,这是人们似乎正在开发logstash-forwarder,但我真的等不及了。无论如何,最终我发现nxlog似乎能够使用ssl以加密格式传送日志,我找到了一个fewpostsaboutsimilartopic

windows - 使用带有 logstash 和 Windows 文件的 grok 过滤器的问题

我正在尝试使用Logstash和grok过滤sqlserver错误日志。Logstash1.3.3使用NSSM和JRE6作为Windows服务运行。我的配置文件在下面input{file{path=>"c:\programfiles\microsoftsqlserver\mssql10_50.mssqlserver\mssql\log\errorlog"type=>SQLServerLogstart_position=>"beginning"codec=>plain{charset=>"UTF-8"}}}filter{grok{type=>"SQLServerLog"match=>["

windows - 由于缺少索引错误,Logstash 未导入文件

我很难尝试让Logstash、Elasticsearch和Kibana的组合在我的Windows7环境中工作。我已经设置了所有3个,它们似乎都运行良好,Logstash和Elasticsearch作为Windows服务运行,Kibana作为IIS中的网站运行。Logstash从http://localhost:9200运行我有一个web应用程序在.txt中创建日志文件,格式如下:Datetime=[DateTime],Value=[xxx]日志文件在此目录中创建:D:\wwwroot\Logs\Errors\我的logstash.conf文件如下所示:input{file{format

ElasticSearch7.3学习(三十一)----Logstash基础学习

一、Logstash基本介绍Logstash是一个功能强大的工具,可与各种部署集成。它提供了大量插件,可帮助你解析,丰富,转换和缓冲来自各种来源的数据(文件、数据库......)。logstash简单来说就是一个数据抽取工具,将数据从一个地方转移到另一个地方。Logstash是Elastic栈非常重要的一部分,但是它不仅仅为Elasticsearch所使用。它可以介绍广泛的各种数据源。Logstash可以帮利用它自己的Filter帮我们对数据进行解析,丰富,转换等。最后,它可以把自己的数据输出到各种需要的数据储存地(redis、kafaka等等),这其中一般主要就是Elasticsearch。

Docker部署Logstash 7.2.0

文章目录前置环境部署步骤初始化配置文件创建文件logstash.ymllog.conf服务部署启动服务相关操作前置环境docker19.03.13EleasticSearch7.2.0(如果你需要推送数据到ES,请先部署她)部署步骤初始化配置文件--拉取镜像dockerpulllogstash:7.2.0--创建挂载目录mkdir-p/home/jamel/docker/software/logstash/conf.d创建文件logstash.ymlcatEOF>/home/jamel/docker/software/logstash/logstash.ymlnode.name:logstas

Logstash filter grok正则的使用及介绍

一、Logstash企业级插件案例(EFLK架构)1.常见的插件概述gork插件:Grok是将⾮结构化⽇志数据解析为结构化和可查询的好⽅法。底层原理是基于正则匹配任意⽂本格式。该⼯具⾮常适合syslog⽇志、apache和其他⽹络服务器⽇志、mysql⽇志,以及通常为⼈类⽽⾮计算机消耗⽽编写的任何⽇志格式。内置120种匹配模式,当然也可以⾃定义匹配模式:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns2.使用Logstash内置的正则案例1[root@elk101.oldboyedu.

Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安装

提示:宝塔面板安装docker/docker-compose,一条命令搞定rabbitmq的安装与配置文章目录前言一、docker-compose.yml配置二、安全组规则添加端口三、通过浏览器访问rabbitmq的管控页面四、提供其他项目依赖总结前言已经安装好了宝塔面板、并且可以在Docker栏目,选择docker安装,会把docker和docker-compose都安装好了一、docker-compose.yml配置在任意一个目录下创建并编辑vimdocker-compose.yml配置粘贴version:'3.8'services:rabbitmq:image:rabbitmq:3.7.