主要观点总结
文章介绍了一位安全研究员使用OpenAI的o3模型在Linux内核中发现一个之前未被发现的高危漏洞的实战记录。研究员通过给o3模型提供代码片段,让其找出潜在的漏洞,并进行了多次测试,发现模型能够发现人未发现的bug。文章展示了o3模型在代码审计、漏洞发现方面的潜力,并指出其已具备推理能力,能够真正提升人类研究者的效率。同时也提到模型还存在误报率等问题,但已经值得认真对待。
关键观点总结
关键观点1: o3模型在Linux内核中发现了一个高危漏洞。
一位安全研究员使用最普通的o3 API,在Linux内核里发现了一个之前没人发现的高危漏洞,展现了o3模型在代码审计方面的能力。
关键观点2: o3模型通过朴素的方式发现了漏洞。
研究员使用o3模型时并未使用任何fancy的智能体框架、工具链、插件或自动化测试平台,仅仅使用普通的o3 API和几千行代码就找到了漏洞。
关键观点3: o3模型在代码审计方面表现出色。
研究员通过精心挑选的测试样本CVE-2025-37778评估了o3模型在代码审计方面的价值,发现模型能够找出一些隐蔽的漏洞,报告具有清晰思路和结构,像一个经验丰富的代码审计员一样。
关键观点4: o3模型具有推理能力。
o3模型能够处理复杂的代码推理任务,找出潜在的漏洞。研究员将整个smb2pdu.c文件交给o3模型测试,模型不仅找出了已知的漏洞,还报告了一个全新的漏洞。
关键观点5: o3模型提升了人类研究者的效率。
与之前的LLM工具相比,o3模型更接近于人类分析师,能够真正提升人类研究者在代码审计和漏洞发现方面的效率。
文章预览
现在的 AI 可不只是一个仅能聊天、帮你写写文章之类的东西了。 我最近读到一篇让我脑袋“嗡”一下的实战记录:一位安全研究员,用 OpenAI 的 o3 模型,居然在 Linux 内核里挖出了一枚 0Day。 对,你没听错。不是帮他写 Exploit,不是辅助代码审计,而是—— 自己找到一个之前没人发现的高危漏洞 。 Linux 已经快 35 年了,即便不懂技术的人也应该知道,要在这样成熟的系统里面找到一个内核级的高危漏洞,那是难上加难! 更炸裂的是:这家伙全程没用任何 fancy 的智能体框架、工具链、插件、甚至没有自动化测试平台。他就用最普通的 o3 API,丢了几千行代码进去,然后问一句:“看看这有没有漏洞?” 高端的挖漏洞往往只需要最朴素的方式——模型真的看出来了。 他本来只是想“摆烂”一下,结果模型摆出了成果 这位研究员原本只是想从 LLM 工具
………………………………