黑客博客网站_网站日志黑客分析工具

hacker2022-12-16黑客技术157

目录:

网站日志分析软件的六大功能

我为各大站长以及网站管理员量身定做的一款网站日志分析软件,这款软件支持IIS、Apache网站的日志,支持的日志格式有W3C、IIS、NCSA等格式。这款软件同时还是一款SEO工具,能够帮助站长以及管理员更好的管理站点。

六大功能:

一、蜘蛛抓取

搜索引擎蜘蛛可以自由添加,除统计每个蜘蛛访问了多少次外,还统计每个蜘蛛访问了那些页,访问时间;如果对同一个网页访问了多次,还可以知道首次访问时间和最后离开时间。

二、页面受访

统计每个网页被用户访问了多少次,不包括搜索引擎访问次数;可以知道那个网页最受用户欢迎,也能掌握那个IP恶意访问不存在的网页,揪出扫描服务器的IP、试图恶意上传病毒的用户和想窃取自己网站的'用户;并且详细列出每个网页受访问时间、状态码和来源网址。

三、IP访问页面

分别统计出访客IP和搜索引擎IP的总数,每个IP访问了多少次、到访时间和离开时间;可以掌握那个IP恶意访问,揪出每天访问次数特别多只浪费流量不带来流量的IP。

四、返回状态码

统计返回404、403、500、503、304的网页,并且根据这些状态码进行分类,统计出每个页面每种状态出现多少次;能及时掌握路径更改和不存在的网页。

五、访客来源

分为来源搜索引擎和普通网站,统计出每个搜索引擎来源多少次,通过搜索什么关键词来的,受访的是什么网页,每个网页来源次数(受访次数);来源普通网站是指除搜索引擎外的所有网站;这些信息便于掌握自己的推广效果。

六、搜索关键词

是指从搜索引擎搜索关键词并点击进入您的网站的情况,除统计出每个来源关键词外,还统计每个关键词来源次数,便于掌握那些网页设置的关键词能带来流量。

网站日志发现被攻击,请网络专家帮我分析一下,谢谢

这是sql注入攻击,在猜测网站的管理员账号密码。

网站被黑客攻击,说明你的网站存在很多安全隐患,漏洞之类的,就算登录服务器找到源文件修复了,也会被黑客再次入侵,所以只有把网站的所有漏洞找出来进行修复,防止黑客的攻击,避免安全事故发生,造成网页挂马、网页内容被篡改、数据泄露等,可以找专业的网络安全公司来服务!国内也就Sinesafe和绿盟等安全公司 比较专业.

web日志分析工具 怎么确认被攻击

Apache 服务器

预安装在Kali Linux

可以用以下命令开启:

service apache2 start

MySQL

预安装在Kali Linux

可以用以下命令开启:

service mysql start

使用PHP-MySQL创建一个有漏洞的web应用

我使用PHP开发了一个有漏洞的web应用并且把它放在上面提到的 Apache-MySQL里面。

上述设置完成后,我用了一些Kali Linux中的自动工具(ZAP、w3af)扫描这个有漏洞的应用的URL。

现在让我们来看看分析日志中的不同情况。

0x02 Apache服务中的日志记录

Debian系统上Apache服务器日志的默认位置为:/var/log/apache2/access.log

日志记录只是在服务器上存储日志。我还需要分析日志以得出正确结果。在接下来的一节里,我们将看到我们如何分析Apache服务器的访问日志以找出web站点上是否有攻击尝试。

分析日志

手动检查

在日志量较小的情况下,或者如果我们查找一个指定关键词,可以使用像grep表达式这样的工具观察日志。

在下图中,我们在URL中试图搜寻所有关键词为“union”的请求。

从上图中,我们可以看到URL中的“union select 1,2,3,4,5”请求。很明显,ip地址为 192.168.56.105的某人尝试了SQL注入。 类似地,当我们有自己的关键词时可以搜索特殊的关键词。

在下图中,我们正在搜索试图读取“/etc/passwd”的请求,很明显是本地文件包含尝试。

如上面的截图所示,我们有许多本地文件包含的尝试,且这些请求发送自ip地址 127.0.0.1。

很多时候,能轻易通过日志看出是否是自动化扫描器产生的。

举例来说, IBM appscan在许多攻击payload中使用“appscan”这个词。所以,在日志中查看这样的请求,我们基本就可以判断有人在使用appscan扫描网站。

Microsoft Excel也是一个打开日志文件和分析日志的不错的工具。我们可以通过指定“空格”为分隔符以用excel打开日志文件。

当我们手头没有日志分析工具时,这个也挺好用的。

除了这些关键词,在分析期间要了解HTTP状态代码的基础知识。以下是关于HTTP状态代码的高级信息的表格。

0x03 Web shells

webshell是网站/服务器的另一个问题。webshell可以已web server权限控制服务器。

在一些情况下,我们可以使用webshell来访问所有放在相同服务器上的其他站点。

以下截图显示了Microsoft Excel 中开启相同的access.log文件。

我们清楚地看到有一个叫“b374k.php”的文件被访问了。“b374k”是一个流行的webshell,因此这个文件是很可疑的。

查看相应代码“200”,本行表明有人上传了一个webshell并访问了它。

在许多情况下,攻击者重命名webshell的名字以避免怀疑。我们必须变得聪明点,看看被访问的文件是否是常规文件或者是否他们看起来不太一样。我们可以更进一步,如果任何文件看起来可疑的话,还可以查看文件类型和时间戳。

One single quote for the win

SQL注入是web应用中最常见的漏洞之一。大多数学习web应用安全的人是从学习SQL注入开始的。

识别一个传统的SQL注入很容易,给URL参数添加一个单引号看看是否报错。

任何我们传递给服务器的东西都会被记录,并且可以朔源。

以下截图显示了日志当中记录了有对参数user传入单引号测试是否有SQL注入的行为。

%27是单引号的URL编码。

出于管理目的,我们还可以运行查询监视来查看数据库中的哪个请求被执行了。

如果我们观察以上图片,传递一个单引号给参数“user”的SQL语句被执行了。

0x04 使用自动化工具分析

当存在大量日志时。手动检查就会变得困难。在这种情景下,除了一些手动检查之外我们可以使用自动化工具。

虽然有许多高效的商业工具,但是我要向你们介绍一款被称为“Scalp”的免费工具。

据他们的官方链接所说,Scalp是用于Apache服务器,旨在查找安全问题的日志分析器。主要理念是浏览大量日志文件并通过从HTTP/GET中提取可能的攻击。

Scalp可以从以下链接下载:

Scalp是python脚本,所以要求我们的机器中安装python。

以下图片显示该工具的帮助。

如我们在上图所见,我们需要使用标志-l来提供要分析的日志文件。

同时,我们需要提供使用标志-f提供一个过滤文件让Scalp在access.log文件中识别可能的攻击。

我们可以使用PHPIDS项目中的过滤器来检测任何恶意的尝试。

该文件名为“default_filter.xml ”,可以从以下链接中下载:

以下代码块是取自上面链接的一部分。

1

2

3

4

5

6

7

8

9

10

11

filter

id12/id

rule![CDATA[(?:etc\/\W*passwd)]]/rule

descriptionDetects etc/passwd inclusion attempts/description

tags

tagdt/tag

tagid/tag

taglfi/tag

/tags

impact5/impact

/filter

它是使用XML标签定义的规则集来检测不同的攻击测试。以上代码片段是检测文件包含攻击尝试的一个示例。

下载此文件之后,把它放入Scalp的同一文件夹下。

运行以下命令来使用Scalp分析日志。

1

python scalp-0.4.py –l /var/log/apache2/access.log –f filter.xml –o output –html

“output”是报告保存的目录。如果不存在的话,由Scalp自动创建。-html是用来生成HTML格式的报告。 如我们在上图看到的那样,Scalp结果表明它分析了4001行,超过4024并发现了296个攻击模式。

运行上述命令后在输出目录内生成报告。我们可以在浏览器内打开它并查看结果。 下面截图显示的输出显示了目录遍历攻击尝试的一小部分。

MySQL中的日志记录

本节论述了数据库中的攻击分析和监视它们的方法。

第一步是查看设置了什么变量。我们可以使用“show variables;”完成,如下所示。

接下来显示了上述命令的输出。

如我们在上图中看到的,日志记录已开启。该值默认为OFF。

这里另一个重要的记录是 “log_output”,这是说我们正在把结果写入到文件中。另外,我们也可以用表。

我们可以看见“log_slow_queries”为ON。默认值为OFF。

所有这些选项都有详细解释且可以在下面提供的MySQL文档链接里直接阅读:

MySQL的查询监控

请求日志记录从客户端处收到并执行的语句。默认记录是不开启的,因为比较损耗性能。

我们可以从MySQL终端中开启它们或者可以编辑MySQL配置文件,如下图所示。

我正在使用VIM编辑器打开位于/etc/mysql目录内的“my.cnf”文件。

如果我们向下滚动,可以看见日志正被写入一个称为“mysql.log”的文件内。

我们还能看到记录“log_slow_queries” ,是记录SQL语句执行花了很长时间的日志。

现在一切就绪。如果有人用恶意查询数据库,我们可以在这些日志中观察到。如下所示:

上图显示了查询命中了名为“webservice”的数据库并试图使用SQL注入绕过认证。

站长帮手网日志分析工具 V1.0 绿色版特点

站长帮手网日志分析工具是一款由草上飞作者推出的.网站IIS日志分析辅助工具。这款站长帮手网日志分析工具功能强大,支持蜘蛛分析、IP分析、状态码分析、来路分析等多项网站信息辅助,是网站站长必备的辅助工具。

【功能特点】

1、支持自定义蜘蛛以及搜索引擎搜索参数,状态码等。

2、查看蜘蛛抓取网页记录

3、查看某个IP的访问次数以及每秒并发数,从而获知哪个IP在采集网站。

4、查看状态码次数,从而或者哪些页面不存在或者报错。

5、统计搜索引擎访问次数,以及关键词搜索的次数。

6、统计某个域名来路次数

7、详细日志查看

8、选中IP反查IP是否为真正的蜘蛛。查询IP详细信息。

评论列表

访客
2022-12-17

应用的URL。现在让我们来看看分析日志中的不同情况。0x02 Apache服务中的日志记录Debian系统上Apache服务器日志的默认位置为:/var/log/apache2/access.log日志记录只是在服务器上存储日志。我还需要分析日志以得

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。