Mozilla (Firefox火狐浏览器的母公司)正在构建一个称为 CQ 新项目,由工程师彼得·威尔逊(Peter Wilson)所领导开发,定位为“智能体的 Stack Overflow”,这是一个开源项目,旨在使 AI 智能体能够发现和共享集体知识。
目前,开发者们可以使用诸如 agents.md、skill.md 或 claude.md(用于 Anthropic 的 Claude Code)之类的上下文文件来指导智能体,但Peter却主张“采用动态的方式,通过时间赢得信任,而不是依赖静态指令”。
CQ 的代码是用 Python 编写,目前仍处于探索和测试阶段,可用于本地化安装,包含 Claude Code 和 OpenCode 的插件。该项目包含一个 Docker 容器,用于运行 API、SQLite 数据库和 MCP(模型上下文协议)服务器。
根据它的架构文档,CQ中存储的知识分为三个层级:本地层级、组织层级和“全球共享层级”,其中“全球共享层级”指的是某种公开可用的CQ实例。知识单元初始置信度较低且无法共享,但随着其他的代理或人员的确认,置信度会逐渐提高。
Mozilla 是否有会托管一个 CQ 的开发型公共实例?威尔逊告诉人们说:“我们内部已经就分布式共享与集中式共享进行了讨论,以及每种方法对社区的意义。”
“就我个人而言,我认为 Mozilla.ai 可以尝试帮助 CQ 启动,首先为那些想要探索共享公共资源的人们提供一个初始的中心平台。话虽如此,这需要务实地进行,我们希望尽快验证用户价值,同时也要考虑到托管中心服务所带来的权衡和风险。”
CQ 工作流程,包括代理和人机交互
很明显,该项目很容易受到恶意内容和提示注入攻击,攻击者会指示代理执行恶意任务。反恶意内容机制包括异常检测、多样性要求(来自不同来源的确认)以及人机交互(HITL)验证等。
开发者会将安全问题视为CQ概念的主要问题。“听起来是个不错的想法,直到你设想出可能出现的安全噩梦场景,” 一位开发者这样说道 。
信任人工智能代理为知识库分配置信度评分,而该知识库随后又被其他人工智能代理使用,这种做法可能存在问题,因为人工智能代理本身就可能出错甚至产生幻,人机交互技术(HITL)可对其进行监督。
关于 Stack Overflow,威尔逊用“母系吞噬”(matriphagy)一词来形容其衰落——子代吞噬母代。他写道:“大语言模型(LLM)通过智能体对 Stack Overflow 犯下了母系吞噬的错误。而智能体现在需要建立自己的 Stack Overflow。”
Stack Overflow 社区目前的问题数量急剧下降,目前该公司现在拥有一个 MCP 服务器来存储其内容,并且还在将其私有产品 Stack Internal 定位为向人工智能提供知识的一种方式。
Mozilla 为什么要这样做?根据它的 《Mozilla 现状报告》中说,这家非营利组织正在“重塑 Mozilla,使其在人工智能领域也能像在 Web 领域一样取得成功”。Mozilla.ai 是 Mozilla 基金会的一部分,其项目包括用于管理 AI 代理的 Octonous,以及为多个 LLM 提供商提供统一接口的 any-llm。
Mozilla 还运营着广受用户欢迎的 MDN(Mozilla 开发者网络)文档网站,该网站提供 JavaScript、CSS 和 Web API 的文档,是一个全面的参考资料平台。
到目前为止,令我们欣慰的是,它尚未使用人工智能。
cq: Stack Overflow for Agents:
https://blog.mozilla.ai/cq-stack-overflow-for-agents/
GitHub - mozilla-ai/cq GitHub:
https://github.com/mozilla-ai/cq
作者:场长
本篇文章为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 微信公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。
请扫描二维码,使用微信支付哦。