前言:基于logstash-input-jdbc较其他插件的稳定性、易用性、版本和ES同步更新的特点,以下研究主要针对 logstash-input-jdbc 展开。 1、logstash-input-jdbc 的同步原理是什么?(1)、对于全量同步依据配置文件jdbc.sql的sql语句的进行同步。 (2)、对于增量实时同步依据1)设定的定时策略。如最小更新间隔每分钟更新一次设定:schedule => “* * * * *”,目前最小更新间隔为1分钟,验证发现,不支持60s以内的秒级更新。 2)设定的sql语句。如jdbc.sql, 决定同步哪些内容及同步更新的条件。
2:logstash-input-jdbc 只支持基于时间同步吗?验证表名:同步更新除了支持根据时间同步外,还支持根据某自增列(如:自增ID)字段的变化进行同步。 上次举例只是举了同步时间变化的例子,设定条件:
实际进一步研究发现,在配置文件中有use_column_value字段决定,是否需要记录某个column 的值,如果 record_last_run 为真,可以自定义我们需要 track 的 column 名称,此时该参数就要为 true. 否则默认 track 的是 timestamp 的值. 举例:以下即是设定以id的变化作为同步条件的。
我们可以指定文件,来记录上次执行到的 tracking_column 字段的值 比如上次数据库有 12 条记录,查询完后该文件中就会有数字 12 这样的记录,下次执行 SQL 查询可以从 13 条处开始. 我们只需要在 SQL 语句中 WHERE MY_ID > :last_sql_value 即可. 其中 :last_sql_value 取得就是该文件中的值(12). last_run_metadata_path => “/etc/logstash/run_metadata.d/my_info” 如:
已全局代码搜索,没有触发器trigger相关处理操作。 3:mysql和ES分别存储在两台服务器,且时间不一致,能否实现同步?(1). 设定对于以时间作为判定条件的增量同步,可以以设定的时间为基准点进行同步。验证发现: 显示的时间戳timestamp为ES上的UTC时间值(不论ES机器是什么时区,都会修改为UTC时间存入ES),显示的modified_at时间值为同步过来的mysql时间值转化为UTC的结果值。 更新的前提是必须满足: cc.modified_at >= :sql_last_value。即如果mysql的时间修改为小于sql_last_value的时刻值,是无法进行同步的。
(2). 对于选定某列作为判定条件(如自增ID),两者(mysql和ES)时间不一致,实际是也可以同步更新的。验证发现: 测试设定的时间是mysql比ES早一天或者晚一天的时刻值,都可以实现同步更新操作。 4:如何支持实时同步mysql的delete操作到ES中?logstash-input-jdbc插件不支持物理删除的同步更新。详见: http:///questions/35813923/sync-postgresql-data-with-elasticsearch/35823497#35823497 https://github.com/logstash-plugins/logstash-input-jdbc/issues/145 解决方案: 同步删除操作改为同步update更新操作实现。 第一步:进行软件删除,而不是物理删除操作。先不物理删除记录,而是软件删除,即新增一个 flag 列,标识记录是否已经被删除(默认为false,设置为true或者deleted代表已经被删除,业界通用方法),这样,通过已有的同步机制,相同的标记记录该行数据会同步更新到Elasticsearch。 第二步:ES中检索flag标记为true或者deleted的字段信息。在ES可以执行简单的term查询操作,检索出已经删除的数据信息。 第三步:定时物理删除。设置定时事件,间隔一段时间物理删除掉mysql和ES中的flag字段标记为true或deleted的记录,即完成物理删除操。 —————————————————————————————————— 2016-6-30 pm20:48 思于家中床前 作者:铭毅天下 |
|
来自: Baruch > 《Elasticsearch》