我还没有找到Logstash的纯Windows安装和Kibana.我开始深入研究使用Logstash来管理log4j日志作为输入。任何人都可以为独立的Windows开发人员机器指出纯Windows(仅使用Windows工具)安装吗? 最佳答案 Kibana可以很容易地安装在Windows上的IIS中。(测试IIS7.5,Windows7)。您需要做的只是将kibana根文件夹解压到您的IIS根文件夹中,以供您使用默认站点(默认位于c:\inetpub\wwwroot)。您只需在IIS控制台中为您的站点添加mimetype.jsont
我正在尝试使用logstash配置日志传送/整合。我的tomcat服务器在Windows上运行。我的配置遇到了一些问题-Windows上的Tomcat,使用log4j进行日志记录,redisconsolidator/elasticsearch/logstash/kibana在单个linux服务器上运行。Windows上可用的日志传送器较少。看起来nxlog不适用于开箱即用的redis。所以,我已经恢复使用logstash来发布。我想了解其他人喜欢使用什么宁愿使用自定义附加程序,我宁愿让tomcat使用log4j记录到文件,然后将文件作为输入提供给Redis。我不想要日志格式。没有适合我
伙计们,您如何看待将Redis放置在每个Logstash发送器节点中以确保有保证的日志传输? 最佳答案 如果您使用logstash或logstash-forwarder作为集中式logstash的托运人,您通常不需要像redis这样的代理。托运人将检测logstash何时无法接受更多事件。它将维护一个指向当前日志位置的指针,并在瓶颈被移除时继续。如果您有不缓冲的日志(系统日志、snmptrap等),那么代理就有意义。 关于logging-在托运人节点中使用Logstash/Redis保证
我有一个可用的Redis支持的ELK堆栈,但是偶尔,当ElasticSearch由于某种原因不可用时,我会遇到问题。日志事件流:服务器生成日志服务器运行log-courier,收集日志,远程推送到Logstash服务器Logstash-incoming写入本地Redis服务Redis保存要处理的事件,充当缓冲区Logstash-outgoing从Redis队列读取数据,运行grok和其他过滤器,然后输出到Elasticsearch集群。logstash-incoming.confinput{courier{port=>123transport=>"tcp"}}output{redis{
我正面临logstash的延迟问题。事实上,我有一个这样构建的ELK堆栈:我在AWS自动缩放组中有多个AWSEC2网络前端我在每个前端都安装了filebeatfilebeat读取日志文件并将消息发送到redis集群(awselasticacheredis,一个主节点和一个从节点,禁用集群模式)我在EC2c4.large上安装了logstash,它从redis(pop)读取日志,并在Elasticseach集群中为它们编制索引我的elasticsearch由三个EC2c4.xlarge组成logstash还从s3读取elb日志并在elasticsearch集群中对其进行索引问题:无论是在
我有一个redis数据库、logstash和两个elasticsearch和一个influxdb。我正在将key从redis传输到elasticsearch,它工作正常并且想测试根本不起作用的influxdb。有人有有效的influxdb连接器吗?或者我应该如何在redis中提供数据以使其正常工作?这是我的influx-db连接,只会引发错误influxdb{host=>"localhost"measurement=>"sensor1"allow_time_override=>trueuse_event_fields_for_data_points=>trueexclude_field
我正在尝试使用logstash在MySQL数据库和Elasticsearch之间同步数据。为此,我创建了一个docker-compose文件,用于为Elasticsearch、MySQL和Logstash创建容器。这是文件:docker-compose.ymlversion:'3.1'services:elasticsearch:image:docker.elastic.co/elasticsearch/elasticsearch:7.1.1container_name:pelasticsearchenvironment:-discovery.type=single-node-clus
应用程序Logback配置-localhost:5001%d{dd/MM/YYHH:mm:ss.SSS}-%-5level[%-5thread]-%logger{32}-%msg%nLogstash输入是TCP插件,输出是ElasticSearch。最初Logstash服务器关闭,应用程序不断生成日志。在Kibana中查看时,没有添加新日志。一段时间后,logstash启动。现在,当在Kibana中查看日志时,似乎所有在logstash关闭时生成的日志都已刷新到ES并可以查看。我检查了ss|grep5001当logstash服务器关闭时,端口5001处于CLOSED-WAIT状态并且队
我想使用TCP协议(protocol)将数据发送到Logstash。为了发送数据,我正在使用Node-RED。一个简单的配置如下所示:在Logstash文件夹中,我创建了一个名为nodered.conf的文件,内容如下:input{tcp{port=>"3999"}}output{stdout{codec=>rubydebug}}现在,我只想在屏幕上打印Logstash正在接收的信息。这就是我在输出中使用stdout{codec=>rubydebug}的原因。因此,在Logstash文件夹中,我使用以下命令启动了Logstash:bin/logstash-fnodered.conf
我正在尝试通过TCP从python脚本发送数据并在logstash中接收相同的数据。但是没有发生数据交换。logstash.confinput{tcp{port=>5959codec=>json}}filter{}output{stdout{codec=>rubydebug}}python:importjsonimportsocketimportsysHOST="127.0.0.1"PORT=5959try:sock=socket.socket(socket.AF_INET,socket.SOCK_STREAM)exceptsocket.error,msg:sys.stderr.wri