标题 简介 类型 公开时间
关联规则 关联知识 关联工具 关联文档 关联抓包
参考1(官网)
参考2
参考3
详情
[SAFE-ID: JIWO-2020-2665]   作者: 闲云野鸡 发表于: [2020-05-15]

本文共 [26] 位读者顶过

Zeek (Bro) 是一款大名鼎鼎的开源网络安全分析工具。通过 Zeek 可以监测网络流量中的可疑活动,通过 Zeek 的脚本可以实现灵活的分析功能,可是实现多种协议的开相机用的分析。本文主要是将 Zeek 结合被动扫描器的一些实践的介绍,以及 Zeek 部署的踩过的一些坑。

安装

Zeek 的安装还是比较简单的,笔者主要是在 Mac 上以及 Linux 上安装。这两个操作系统的安装方式还是比较类似的。对于 Linux 而言,需要安装一些依赖包:

[出自:jiwo.org]

1、sudo yum install cmake make gcc gcc-c++ flex bison libpcap-devel openssl-devel python-devel swig zlib-devel

这里我有遇到一个问题就是可能你的 Redhat 镜像源里面没有包含libpcap-devel,因为这个包在可选的范围内,而内网的服务器又没有互联网连接。可以通过手工下载相应版本的libpcap以及libpcap-devel即可。

Mac 上需要的依赖更少一点,首先需要确保安装了xcode-select,如果没有安装,可以通过xcode-select--install来进行安装。Mac 上只需要安装依赖cmake,swig,openssl,bison即可,可以通过 Homebrew 来进行安装。

依赖包安装完毕之后就可以安装 Zeek,其实是可以通过包管理工具来进行安装的,不过这里我推荐使用基于源码的安装方式,安装比较简单而且还容易排查问题。从 Zeek 的 Github Release 即可下载源码包,目前我安装的是 3.0.0 版本,注意一点是,如果使用最新的版本,可能需要 7.0 以上版本的 cmake,因为需要 C++17 的语言特性。而一般镜像源默认的 cmake 版本是4+版本,所以如果你的服务器也无法上互联网,建议可以安装 3.0.0 版本。

1、./configure & make & make install

安装使用上面的命令就可以了,不过make的时间还是比较长的,这个取决于你机器的性能,不过一般安装还是需要半个小时到一个小时,这也是因为 C++ 编译速度比较慢的原因。

集群安装

集群安装的方式和单机的方式不太一样。之前在测试环境使用的都是单机模式,集群则可以管理多个实例,后来我也尝试了通过集群的方式来进行安装。如果需要配置集群的话,建议安装 PFRING,PFRING 可以加速网络包的速度。对于 Zeek 集群上的每个 worker 都是需要安装 PFRING,但只需要在 manager 上安装 Zeek 就可以了,可以通过 zeekctl 在其它 worker 上安装 Zeek。不过需要确保可以通过 ssh 到其它 woker 机器上,可以通过公钥的形式来实现,将 manager 的公钥放到其它 worker 的 authorizedkeys 中。

PF_RING 的安装步骤相对来说多了一些,但也是按照说明安装即可。和上面的单机安装方式不同的是集群安装的方式的时候,安装 Zeek 需要配置前缀。

安装 PF_RING

  1. tar xvzf PF_RING-5.6.2.tar.gz

  2. cd PF_RING-5.6.2/userland/lib

  3. ./configure --prefix=/opt/pfring

  4. make install

  5. cd ../libpcap

  6. ./configure --prefix=/opt/pfring

  7. make install

  8. cd ../tcpdump-4.1.1

  9. ./configure --prefix=/opt/pfring

  10. make install

  11. cd ../../kernel

  12. make

  13. make install

  14. modprobe pf_ring enable_tx_capture=0 min_num_slots=32768


安装 Zeek


  1. ./configure --with-pcap=/opt/pfring

  2. make

  3. make install


确保 Zeek 正确关联到了 PF_RING 中的 libpcap 库中


  1. ldd /usr/local/zeek/bin/zeek | grep pcap

  2. libpcap.so.1 => /opt/pfring/lib/libpcap.so.1 (0x00007fa6d7d24000)

接着就是通过 PF_RING 来进行 Zeekctl 的配置,Zeek 的安装路径一般都在 /usr/local/zeek。通过 /usr/local/zeek/etc/node.cfg 来进行集群结点的配置,在集群配置中,manager, proxy 以及 worker 是必须的,如果不设置 logger,默认将 manager 作为 logger。



  1. [worker-1]

  2. type=worker

  3. host=10.0.0.50

  4. interface=eth0

  5. lb_method=pf_ring

  6. lb_procs=10

  7. pin_cpus=2,3,4,5,6,7,8,9,10,11

接下来只需要通过zeekctl install就会在其它实例上来进行安装了。如果安装过程中出现了问题,可以通过zeekctl diag woker-1来排查具体的原因。

Zeek 结合被动扫描器的玩法

上面讲的都是 Zeek 的安装,下面聊一下 Zeek 和被动扫描器的结合。被动扫描器的效果往往取决于流量的质量和数量,在我们的实际实践中,发现通过 Zeek 获取的流量占我们被动扫描器测试流量的绝大一部分。Zeek 对于 http 解析的日志都会存储在 /usr/local/zeek/logs 中。如果 Zeek 是启动状态,那么 http.log 的路径会在 /usr/local/zeel/logs/current 中,而历史日志则会被打包。如果使用 Zeek 去捕获流量的时候,日志往往会占很大的存储,所以要记得修改 Zeek 日志的存储路径,否则很容易就把系统盘塞满。

通过脚本自定义 http.log

http.log 中其实已经包含了丰富的字段,常见的一些字段如下:

  1. # ts uid orig_h orig_p resp_h resp_p

  2. 1311627961.8 HSH4uV8KVJg 192.168.1.100 52303 192.150.187.43 80

不过里面还有一些信息是缺失的,比如一些 http 请求头以及 POST 请求的请求体,为了添加这些字段,可以通过自定义 Zeek 脚本来实现,Zeek 脚本的能力真的非常强大,通过脚本其实有很多更高级的玩法。

添加请求头

  1. @load base/protocols/http/main

  2. module HTTP;

  3. export {

  4. redef record Info += {

  5. header_host: string &log &optional;

  6. header_accept: string &log &optional;

  7. header_accept_charset: string &log &optional;

  8. header_accept_encoding: string &log &optional;

  9. header_accept_language: string &log &optional;

  10. header_accept_ranges: string &log &optional;

  11. header_authorization: string &log &optional;

  12. header_connection: string &log &optional;

  13. header_cookie: string &log &optional;

  14. header_content_length: string &log &optional;

  15. header_content_type: string &log &optional;

  16. };

  17. }

  18. event http_header(c: connection, is_orig: bool, name: string, value: string) &priority=3

  19. {

  20. if ( ! c?$http )

  21. return;


  22. if ( is_orig )

  23. {

  24. if ( log_client_header_names )

  25. {

  26. switch ( name ) {

  27. case "HOST":

  28. c$http$header_host = value;

  29. break;

  30. case "ACCEPT":

  31. c$http$header_accept = value;

  32. break;

  33. case "ACCEPT-CHARSET":

  34. c$http$header_accept_charset = value;

  35. break;

  36. case "ACCEPT-ENCODING":

  37. c$http$header_accept_encoding = value;

  38. break;

  39. case "ACCEPT-LANGUAGE":

  40. c$http$header_accept_language = value;

  41. break;

  42. case "ACCEPT-RANGES":

  43. c$http$header_accept_ranges = value;

  44. break;

  45. case "AUTHORIZATION":

  46. c$http$header_authorization = value;

  47. break;

  48. case "CONNECTION":

  49. c$http$header_connection = value;

  50. break;

  51. case "COOKIE":

  52. c$http$header_cookie = value;

  53. break;

  54. case "CONTENT-LENGTH":

  55. c$http$header_content_length = value;

  56. break;

  57. case "CONTENT-TYPE":

  58. c$http$header_content_type = value;

  59. break;

  60. }

  61. }

  62. }

  63. }

添加 POST 请求体

  1. export {

  2. ## The length of POST bodies to extract.

  3. const http_post_body_length = 200 &redef;

  4. }

  5. redef record HTTP::Info += {

  6. postdata: string &log &optional;

  7. };

  8. event log_post_bodies(f: fa_file, data: string)

  9. {

  10. for ( cid in f$conns )

  11. {

  12. local c: connection = f$conns[cid];

  13. if ( ! c$http?$postdata )

  14. c$http$postdata = "";

  15. # If we are already above the captured size here, just return.

  16. if ( |c$http$postdata| > http_post_body_length )

  17. return;

  18. c$http$postdata = c$http$postdata + data;

  19. if ( |c$http$postdata| > http_post_body_length )

  20. {

  21. c$http$postdata = c$http$postdata[0:http_post_body_length] + "...";

  22. }

  23. }

  24. }

  25. event file_over_new_connection(f: fa_file, c: connection, is_orig: bool)

  26. {

  27. if ( is_orig && c?$http && c$http?$method && c$http$method == "POST" )

  28. {

  29. Files::add_analyzer(f, Files::ANALYZER_DATA_EVENT, [$stream_event=log_post_bodies]);

  30. }

  31. }

通过上述的脚本就可以添加一些请求头以及 POST 请求的请求体,完整的脚本可以参考 http-custom。脚本编写完毕,需要通过 zeekctl 部署才能生效,步骤也非常简单。

  1. mv http-custom /usr/local/bro/share/bro/base/protocols

  2. echo '@load base/protocols/http-custom' >> /usr/local/bro/share/bro/site/local.bro

  3. zeekctl deploy

对于被动扫描器,我们目前的方案是通过 Filebeat 去采集日志然后输出给 Logstash 做处理,处理完毕之后再输出到 Kafka。

Filebeat 加 Logstash 适用于多种场景,在日常的各种日志采集场景都能派上用场。通过 Logstash 可以完成日志灵活的处理,因为 Logstash 里面包含了各种丰富的插件,几乎可以完成对于日志的任何操作。比如为了保证 POST 请求体保证传输的正确性,可以通过 base64 来进行编码。通过 logstash-filter-base64 可以遍历地实现字段的编码或者解码。通过 filter 中的 mutate 插件可以增加字段或者删除字段。


  1. base64 {

  2. field => "postdata"

  3. action => "encode"

  4. }

  1. base64 {

  2. field => "postdata"

  3. action => "encode"

  4. }

通过这种方案还有一个优势就是我们还可以将我们的日志输出到别的地方,比如 es,这个也可以方便后续排查日志问题。

不过我在后面又发现了一种新的方案,可以通过 Zeek 的插件,将 http.log 直接输出到 Kafka,这个方案的优点主要是更高效,同时也节省了一些成本,毕竟 Logstash 需要的机器性能还是比较大的。对于这个方案主要是两个问题,第一个问题是首先需要处理好日志的格式,这样保证后续处理的便利性;第二个问题是如何将日志直接从 Zeek 输出到 Kafka。其实我是先解决了第一个问题再解决第二个问题的,因为第二个问题的处理的方式更灵活,得益于 Zeek 脚本的便利性,肯定是可以实现的。



metron-bro-plugin-kafka 是 Apache 官方的一个 Bro 的插件,不过因为 Zeek3.0.0 是可以兼容的,所以这个插件是可以使用的。这个插件有两种安装方式,一种是通过 bro-pkg (Bro 的官方包管理工具)来进行安装,另外一种则是通过手工安装。由于网络的原因,我更推荐使用手工安装的方式,我尝试通过 bro-pkg 的方式来进行安装,速度特别慢。

  1. 安装 librdkafka

	
  1. curl -L https://github.com/edenhill/librdkafka/archive/v0.11.5.tar.gz | tar xvz

  2. cd librdkafka-0.11.5/

  3. ./configure --enable-sasl

  4. make

  5. sudo make install

  1. 安装插件

	
  1. ./configure --bro-dist=$BRO_SRC

  2. make

  3. sudo make install

这里有一个坑就是安装文档根本就没有说 $BRO_SRC 是哪个路径,所以安装的时候总是报错,后来才弄清楚这个路径其实就是当初 Zeek 解压后的路径,即 Zeek 安装包的路径。

  1. 验证结果

	
  1. zeek -N Apache::Kafka

  2. Apache::Kafka - Writes logs to Kafka (dynamic, version 0.3)

接着就是将 http 的日志进行处理,因为在原始的 http.log 中有还多字段是我们并不需要的。在研究了官方文档之后,可以通过 Filters 可以定义一个新的日志文件,可以拷贝其它的日志输出到新的文件,可以自定义字段,方式比较灵活。另外还可以通过 Writer 可以将日志写入到 sqlite 数据库中。不过,这里我们主要是通过插件将日志写入到 Kafka。

我们的目标是获取 http.log 中的部分字段,所以可以通过 Filters 来实现日志文件的复制并且对日志字段进行过滤,基于 KafkaWriter 将日志文件直接写入到 Kafka 中。为了定义 Filter,在/usr/local/zeek/share/zeek/base/protocols/http/main.zeek的 zeek_init 函数中进行定义:

	
  1. event zeek_init() &priority=5

  2. {

  3. Log::create_stream(HTTP::LOG, [$columns=Info, $ev=log_http, $path="http"]);

  4. Analyzer::register_for_ports(Analyzer::ANALYZER_HTTP, ports);

  5. local filter: Log::Filter =

  6. [

  7. $name="kafka-http",

  8. $include=set("host","id.resp_p","uri"),

  9. $writer=Log::WRITER_KAFKAWRITER

  10. ];

  11. Log::add_filter(HTTP::LOG, filter);

  12. }

另外,记得在/usr/local/zeek/share/zeek/site/local.zeek中定义 Kafka 的 topic 和 Broker:

	
  1. redef Kafka::topic_name = "bro-test";

  2. redef Kafka::kafka_conf = table(

  3. ["metadata.broker.list"] = "127.0.0.1:9092"

  4. );

最后记得使用zeekctl deploy重新部署一下,这样脚本就生效了,日志就可以直接写入到 Kafka 中,大大提高效率。

总结

其实 Zeek 很有很多高级玩法,你完全可以将 Zeek 打造成一个 IDS 产品。Zeek 脚本的强大能力赋予其无限的可能性,比如在流量中发现 sql 注入。本文主要就是就 Zeek 的安装部署以及结合被动扫描器的一些用法的介绍。后续如果更进一步地探索,会做更多的分享。

评论

暂无
发表评论
 返回顶部 
热度(26)
 关注微信