代码拉取完成,页面将自动刷新
同步操作将从 plume开源社区/Plumelog 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
client没有变化可以不用升级
版本内容
拆分redis队列和redis管理,支持不同的项目不同的队列
报警支持类名模糊匹配
报警信息输出部分详细日志
开放了API接口方便非java项目,或者其他组件日志输入
支持按小时分片日志,大大增加了性能,使得在机械硬盘上也能够跑出不错的效果
其他内部优化
server配置进行了变化,增加了配置,原来的配置不变
增加配置 | 用途 |
---|---|
plumelog.queue.redis.redisHost | 队列redis独立开来,好处不同的项目可以用不通的redis当队列,提高性能 |
plumelog.es.shards | 单个日志分片数,如果每个索引日志大小超过20个G这边要配置大小,默认5个 |
plumelog.es.replicas | 副本数,日志大了要提升检索效率可以增加副本数,一般机械硬盘下面可以设置1,SSD设置0,设置副本增大成倍硬盘开销 |
plumelog.es.refresh.interval | 日志缓冲区时间,默认30秒 |
plumelog.es.indexType.model | 按天,还是按小时划分日志索引,单天超过200G,可以设置按小时,设置按小时要注意设置ES总分片数 |
admin.log.trace.keepDays | 链路日志可以单独设置过期时间 |
login.username | 登录用户名 |
login.password | 登录密码 |
推荐配置
plumelog.es.shards=5
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=day
plumelog.es.shards=5
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
plumelog.es.shards=10
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
plumelog.es.shards=10
plumelog.es.replicas=1
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
PUT /_cluster/settings
{
"persistent": {
"cluster": {
"max_shards_per_node":100000
}
}
}
client
kafka提供了'compressionType'字段配置kafka的压缩模式
redis提供了'compressor'字段配置来开启日志压缩功能,开启后会使用新的队列
server
提供消费压缩队列的配置:plumelog.redis.compressor
开启消费压缩队列后server端讲不再消费非压缩队列,版本升级时记得消费完相应队列数据
版本内容
实测压缩率,使用demo接口
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。