2026年5月12日,开源数据库公司Turso宣布退役其漏洞悬赏(Bug Bounty)计划。原因令人深思:过去一年中,该公司收到的漏洞报告绝大多数由AI生成,质量极低,严重浪费了安全团队的审核时间。这一事件引发了技术社区对AI工具滥用问题的广泛讨论。
事件始末
Turso是一家提供边缘数据库服务的公司,基于开源的libSQL项目(SQLite的分支)。此前,Turso运行着一个漏洞悬赏计划,承诺为任何能证明导致数据损坏的漏洞支付1000美元赏金。
然而,Turso联合创始人Glauber Costa在博客中表示,过去一年里他们收到的漏洞报告中,绝大多数都是由AI工具批量生成的”垃圾报告”。这些报告看似专业,但实际上充满了编造的漏洞描述、不存在的代码路径和虚构的复现步骤。安全团队需要花费大量时间逐一审核这些报告,却发现几乎没有任何实际价值。
AI生成漏洞报告的问题
Turso遇到的问题并非个例。AI工具在安全研究领域的滥用主要表现为:
- 批量生成低质量报告:使用ChatGPT等工具批量”发现”漏洞,实际上只是基于代码片段的猜测
- 编造复现步骤:AI生成的复现步骤看似合理,但实际执行时无法触发任何漏洞
- 虚构代码路径:报告中引用的代码路径可能根本不存在于项目中
- 利用格式伪装专业性:使用标准的漏洞报告格式,让报告看起来很专业,但内容是空洞的
Costa在博文中写道:”我们不得不承认,AI技术的进步让制造垃圾内容的成本趋近于零。对于一个小型安全团队来说,审核这些AI生成的报告所花费的时间,已经超过了漏洞悬赏计划带来的价值。”
技术社区的反应
这一事件在Hacker News上引发了热烈讨论,获得了270多个点赞。社区的反应主要集中在以下几个方面:
对AI滥用的担忧:多位开发者表示,这正是AI工具被滥用的典型案例。AI降低了低质量内容的生产成本,但审核这些内容仍然需要人类专家的时间和精力。
对漏洞悬赏模式的反思:有观点认为,传统的漏洞悬赏模式在AI时代需要重新设计。可能的改进方向包括:要求提交者先通过资格审核、引入信誉积分机制、或者改为邀请制。
认证困难:有评论指出,要区分AI生成的报告和人类撰写的报告并不容易,因为AI生成的内容可以被人工修改和润色。
对站长和开发者的启示
这一事件对站长和开发者有以下几点启示:
- 开源项目维护者需警惕:如果你维护的开源项目有漏洞悬赏计划,可能会遇到类似的AI垃圾报告问题
- 安全审核不能完全依赖AI:虽然AI可以辅助安全分析,但漏洞的验证和复现仍然需要人类专家
- 合理使用AI工具:AI可以作为安全研究的辅助工具,但不应该用来批量生成未经验证的漏洞报告
- 社区治理的重要性:技术社区需要建立有效的机制来应对AI内容泛滥的问题
AI时代的安全研究趋势
尽管AI在漏洞悬赏领域的滥用令人担忧,但AI在安全研究中也有积极的应用:
- 自动化代码审计:AI可以帮助发现代码中的潜在安全问题,提高审计效率
- 漏洞模式识别:通过分析历史漏洞数据,AI可以识别常见的漏洞模式
- 安全测试生成:AI可以自动生成安全测试用例,提高测试覆盖率
- 威胁情报分析:AI可以快速分析大量的威胁情报数据
关键在于,AI应该是安全研究的辅助工具,而不是用来批量生产低质量报告的”刷赏金”工具。安全研究的价值在于发现真实的、可复现的安全问题,这需要深入的理解和专业的判断,是当前AI工具难以替代的。
Turso的替代方案
Turso表示,虽然退役了公开的漏洞悬赏计划,但他们仍然欢迎安全研究人员通过其他渠道报告安全问题。对于真正有价值的安全发现,公司愿意给予适当的奖励。这种转向邀请制或定向合作的方式,可能是未来漏洞悬赏计划的发展方向。
本文参考来源:The Wonders of AI: We Are Retiring Our Bug Bounty Program – Turso官方博客











Timothy Gowers Blog – A Recent Experience with ChatGPT 5.5 Pro


暂无评论内容