Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Skip to content

一款快速、全面、易用的页面信息提取工具,可快速发现和提取页面中的JS、URL和敏感信息。

License

Notifications You must be signed in to change notification settings

pingc0y/URLFinder

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

40 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

URLFinder

URLFinder是一款快速、全面、易用的页面信息提取工具

用于分析页面中的js与url,查找隐藏在其中的敏感信息或未授权api接口

大致执行流程:

有什么需求或bug欢迎各位师傅提交lssues

快速使用

单url

显示全部状态码
URLFinder.exe -u http://www.baidu.com -s all -m 3

显示200和403状态码
URLFinder.exe -u http://www.baidu.com -s 200,403 -m 3

批量url

结果分开保存
导出全部
URLFinder.exe -s all -m 3 -f url.txt -o .
只导出html
URLFinder.exe -s all -m 3 -f url.txt -o res.html

结果统一保存
URLFinder.exe -s all -m 3 -ff url.txt -o .

参数(更多参数使用 -i 配置):

-a  自定义user-agent请求头  
-b  自定义baseurl路径  
-c  请求添加cookie  
-d  指定获取的域名,支持正则表达式
-f  批量url抓取,需指定url文本路径  
-ff 与-f区别:全部抓取的数据,视为同一个url的结果来处理(只打印一份结果 | 只会输出一份结果) 
-h  帮助信息   
-i  加载yaml配置文件,可自定义请求头、抓取规则等(不存在时,会在当前目录创建一个默认yaml配置文件)  
-m  抓取模式:
        1  正常抓取(默认)
        2  深入抓取 (URL深入一层 JS深入三层 防止抓偏)
        3  安全深入抓取(过滤delete,remove等敏感路由) 
-max 最大抓取数
-o  结果导出到csv、json、html文件,需指定导出文件目录(.代表当前目录)
-s  显示指定状态码,all为显示全部  
-t  设置线程数(默认50)
-time 设置超时时间(默认5,单位秒)
-u  目标URL  
-x  设置代理,格式: http://username:password@127.0.0.1:8877
-z  提取所有目录对404链接进行fuzz(只对主域名下的链接生效,需要与 -s 一起使用)  
        1  目录递减fuzz  
        2  2级目录组合fuzz
        3  3级目录组合fuzz(适合少量链接使用)

使用截图

0.jpg
1.jpg
2.jpg
3.jpg
4.jpg
5.jpg

部分说明

fuzz功能是基于抓到的404目录和路径。将其当作字典,随机组合并碰撞出有效路径,从而解决路径拼接错误的问题

结果会优先显示输入的url顶级域名,其他域名不做区分显示在 other

结果会优先显示200,按从小到大排序(输入的域名最优先,就算是404也会排序在其他子域名的200前面)

为了更好的兼容和防止漏抓链接,放弃了低误报率,错误的链接会变多但漏抓概率变低,可通过 ‘-s 200’ 筛选状态码过滤无效的链接(但不推荐只看200状态码)

编译

以下是在windows环境下,编译出各平台可执行文件的命令

SET CGO_ENABLED=0
SET GOOS=windows
SET GOARCH=amd64
go build -ldflags "-s -w" -o ./URLFinder-windows-amd64.exe

SET CGO_ENABLED=0
SET GOOS=windows
SET GOARCH=386
go build -ldflags "-s -w" -o ./URLFinder-windows-386.exe

SET CGO_ENABLED=0
SET GOOS=linux
SET GOARCH=amd64
go build -ldflags "-s -w" -o ./URLFinder-linux-amd64

SET CGO_ENABLED=0
SET GOOS=linux
SET GOARCH=arm64
go build -ldflags "-s -w" -o ./URLFinder-linux-arm64

SET CGO_ENABLED=0
SET GOOS=linux
SET GOARCH=386
go build -ldflags "-s -w" -o ./URLFinder-linux-386

SET CGO_ENABLED=0
SET GOOS=darwin
SET GOARCH=amd64
go build -ldflags "-s -w" -o ./URLFinder-macos-amd64

SET CGO_ENABLED=0
SET GOOS=darwin
SET GOARCH=arm64
go build -ldflags "-s -w" -o ./URLFinder-macos-arm64

更新说明

2023/9/9
修复 -ff 重复验证问题
修复 自动识别协议bug

2023/9/2
修复 子目录定位bug

2023/8/30
修复 -i 配置请求头错误问题
变化 支持自动识别http/https
变化 -o 输入完整文件名可只导出指定类型
变化 无 -s 参数时,链接改为无颜色方便使用管道符

2023/5/11
变化 -i 配置文件可自定义:线程数、抓取深度、敏感路由、超时时间、最大抓取数
新增 -time 设置超时时间
新增 -max 设置最大抓取数
新增 添加版本更新提示
修复 已知bug

2023/5/5
修复 多个任务时html结果混乱
新增 结果添加302跳转信息
变化 未获取到数据时不打印与输出结果

2023/4/22
修复 已知bug
变化 -d 改为正则表达式
变化 打印显示抓取来源
新增 敏感信息增加Other
新增 -ff 全部抓取的数据,视为同一个url的结果来处理(只打印一份结果 | 只会输出一份结果)

2023/2/21
修复 已知bug

2023/2/3
新增 域名信息展示
变化 -i配置文件可配置抓取规则等

2023/1/29
新增 -b 设置baseurl路径
新增 -o json、html格式导出
新增 部分敏感信息获取
新增 默认会进行简单的js爆破
变化 能抓到更多链接,但垃圾数据变多
变化 代理设置方式变更

2022/10/25
新增 -t 设置线程数(默认50)
新增 -z 对主域名的404链接fuzz测试
优化 部分细节

2022/10/6
新增 -x http代理设置
修改 多个相同域名导出时覆盖问题处理

2022/9/23
新增 对base标签的兼容
修复 正则bug

2022/9/16
新增 -m 3 安全的深入抓取,过滤delete、remove等危险URL
新增 -d 获取指定域名资源
新增 -o 导出到文件显示获取来源source
修复 已知bug

2022/9/15
修复 某种情况下的数组越界

2022/9/12
修复 linux与mac下的配置文件生成错误
修复 已知逻辑bug

2022/9/5
新增 链接存在标题时,显示标题
新增 -i 参数,加载yaml配置文件(目前只支持配置请求头headers)
修改 部分代码逻辑
修复 当ip存在端口时,导出会去除端口

2022/8/29
新增 抓取url数量显示
优化 部分代码
新增 提供各平台可执行文件

2022/8/27
新增 -o 改为自定义文件目录
新增 导出文件改为csv后缀,表格查看更方便
修复 已知正则bug

2022/8/19
优化 加长超时时间避免误判

2022/8/5
新增 状态码过滤
新增 状态码验证显示进度
修复 域名带端口输出本地错误问题

2022/7/25
优化 js规则
优化 排序
新增 根据状态码显示彩色字体

2022/7/6
完善 规则

2022/6/27
优化 规则
新增 提供linux成品程序

2022/6/21
修改 获取状态码从自动改为手动(-s)
新增 显示响应内容大小

2022/6/16
优化 提取规则增强兼容性
修复 数组越界错误处理

2022/6/14
修复 部分网站返回空值的问题

2022/6/13
新增 自定义user-agent请求头功能
新增 批量url抓取功能
新增 结果导出功能
优化 过滤规则
优化 结果排版

2022/6/8
修复 忽略ssl证书错误

开发由来

致敬JSFinder!开发此工具的初衷是因为经常使用 JSFinder 时会返回空或链接不完整,而且作者已经很久没有更新修复 bug 了。因此,萌生了自己开发一款类似工具的想法。

About

一款快速、全面、易用的页面信息提取工具,可快速发现和提取页面中的JS、URL和敏感信息。

Topics

Resources

License

Stars

Watchers

Forks

Packages

No packages published