我正在尝试使用.process()用TimeWindows.of("name",30000)批处理一些KTable值并发送它们。似乎30秒超过了消费者超时间隔,在此之后Kafka认为该消费者已失效并释放分区。我已经尝试提高轮询和提交间隔的频率来避免这种情况:config.put(StreamsConfig.COMMIT_INTERVAL_MS_CONFIG,"5000");config.put(StreamsConfig.POLL_MS_CONFIG,"5000");不幸的是,这些错误仍在发生:(很多)ERRORo.a.k.s.p.internals.RecordCollector-E