品鉴 GitHub Universe 2025 大会

10 月底 GitHub Universe 2025 在旧金山开完了,我陆陆续续把感兴趣的 session 看完了,趁现在还有印象,记录一下。

说实话,今年 GitHub 发布的东西很多,信息量密度挺高的,但主线其实很清晰 — 所有事情都在往智能体(Agent)这个方向使劲。不是 AI 辅助写代码,而是 AI 开始自己规划、自己做事、你来审核。

MCP Server 现场演示

GitHub 推出了 GitHub MCP Registry,直接集成在 VS Code 里,开发者只需单击一下,就能发现并启用 Stripe、Figma、Sentry 等 MCP Server。MCP 是让智能体与第三方服务交互的基础标准,赋予它们访问外部实时数据和能力的工具权限。
开发者可以创建拥有专属系统提示与工具集的自定义智能体,精确定义 Copilot 的工作方式。

Vibe Coding 怎么「负责任地」玩

这个标题起得很吸引人。session 想说的是 AI 写代码这件事,不是扔给它然后等结果,而是要有意识地设计你跟 AI 协作的方式。
讲师提出了三个关键维度:Power(选对模型)、Context(给够上下文),以及治理(Governance)。MCP 这类协议就是把这三件事落地的工具。
其中选对模型这个点我觉得特别值得记一下 — 不是模型越大越好。改个变量名、加个注释,用轻量模型完全够用,速度还快、成本还低。非得上最强模型,出了问题也是最大规模的问题。

毕竟新增容易,但是删除的成本是巨大的。

这句话套在 AI 工具的使用上也挺合适的 😄

CVS Health 的工具迁移故事

这是一个"企业案例"类型的 session。
CVS 是美国最大的医疗零售商之一,工程体量很大,他们分享的是如何在一个组织里真正推动工具链的现代化 — 不只是技术问题,更多是人的问题:怎么说服团队、怎么量化收益、怎么在合规要求下一步步引入 Copilot。
感受是:大公司的工程改造,技术反而是最简单的那个环节,难的是怎么让所有人理解「为什么要这么做」。

如果测试能解决问题,存在就是合理的。

推广 AI 工具也是一样。

AI 时代,代码质量怎么管

这个 session 刚好是我最近一直在想的一个问题:AI 帮我们写了更多代码,但这些代码质量谁来负责?
GitHub 发布了 Code Quality 功能(目前开放试用阶段),直接集成在 PR 流程里,能识别技术债务、给出说明,并支持一键 Copilot Autofix。
它结合了 AI 分析和 CodeQL 静态检查,生成仓库级别的质量评分,团队可以自定义规则集来执行编码标准。
“LGTM” 不等于代码健康,这是 session 里反复强调的一句话。说实话这句话以前也是真的,只是 AI 写代码之后这个问题被放大了 — 人工审查本来就跟不上代码产出速度,更何况现在代码量又上去了一个数量级。
有个可量化的质量看板,用数据说话

GitHub Next 聊的 Continuous AI

GitHub 的 R&D 实验室 GitHub Next 的分享,是这几个 session 里最"概念性"的一场。
主讲者探讨了 AI 智能体正在如何重塑软件开发 — 不再是开发者偶尔调用的工具,而是像水电一样持续在后台运转的基础设施。
Continuous AI 这个词挺有意思 — 类比 Continuous Integration,CI 是让测试持续运行,Continuous AI 是让 AI 持续参与整个开发周期。文档更新、依赖检测、代码审查,都可以变成后台自动运转的任务。

Copilot 智能体来帮你还技术债

技术债这个东西,我相信每个工程团队都有,只是多少的问题。这个 session 给出了一个挺实用的思路。
Copilot 编码智能体(Coding Agent)已经正式发布了,能自主起草 PR、修复 Bug、处理技术债务、补测试补文档,与 GitHub 平台及主流 IDE 无缝集成。
核心操作是:在 .github/copilot-instructions.md 里写清楚团队的编码规范,然后开一个 GitHub Issue 描述具体的重构任务,把 Issue 指派给 Copilot,让它跑去干。你要做的就是 Review PR。
这个模式说实话我挺喜欢的——把重复性、规则性强的重构任务外包给 AI,人专注在架构决策和 Review 上。分工还挺合理。

上下文工程:让 Copilot 真正理解你的项目

这个 session 讲的是如何让 Copilot 给出更符合你项目实际情况的建议,核心概念是上下文工程(Context Engineering)。
团队可以通过 AGENTS.md 文件定义智能体的行为边界,执行编码标准并进行版本管理,确保整个团队的 AI 辅助开发保持一致。
实操层面,几个关键文件:copilot-instructions.md 写团队规范,AGENTS.md 定义智能体行为,自定义 Agent 可以给特定任务(测试、文档、安全扫描)创建专属角色。
这让我想起一个道理:你给 AI 的上下文质量,决定了你拿到的输出质量。这和写好一个 Issue 描述其实是同一件事 — Garbage In, Garbage Out。

Copilot 数据怎么变成业务 ROI

这个 session 是给工程 leader 看的,核心问题是:怎么向老板证明 Copilot 值这个钱?
GitHub Copilot 使用指标仪表盘和 API 现已进入开放试用阶段,帮助团队从我们有没有在用 AI的问题,升级到我们 AI 用得有多好的数据分析。
企业仪表盘提供 Copilot 使用情况的聚合视图,涵盖活跃用户数、功能采用率、模型分布与代码贡献量等指标。
代码接受率、开发者参与深度、技术债务变化趋势——这些指标组合在一起,能讲出一个比较完整的故事。
我觉得这个功能对于推广阶段的团队来说挺有价值的。毕竟说"感觉有用"和"数据显示接受率 35%、交付周期缩短 20%" 是两种完全不同的对话。

30 分钟从零构建生产级应用:VS Code + Copilot + Agent Framework

这是技术含量最高、也最"秀"的一场演示。
微软团队在主舞台现场展示了如何仅凭自然语言、编辑器与 AI,在 30 分钟内从一个想法构建出一款云原生生产级应用,全程使用 VS Code、GitHub Copilot 与 Microsoft Agent Framework。
流程大概是:用 Spec Kit 工具把一句话需求扩展成产品规格文档 → 自动生成任务列表 → Copilot 逐任务实现 → 部署上线 → 一个 AI SRE 智能体在后台持续监控,发现问题自动提 PR 修复。
VS Code 的 AI Toolkit 让开发者可以在编写代码的同时直接探索模型并构建智能体,基于 Microsoft Agent Framework 的 Prompt-First 开发模式,让创建和迭代生产就绪的智能体变得更快更直观。
Demo 做得很漂亮,30 分钟的限制本身就是一种表达方式 — 在说这已经不是未来,是现在。
当然,真实项目里有 30 年的历史包袱、有各种奇怪的依赖、有各种奇怪的人,那就是另一个故事了 😎

总结

看完这几个 session 的整体感受是:GitHub 今年真的在押注智能体方向,而且已经不是画大饼了,Agent HQ、MCP Registry、Copilot Coding Agent GA,都是实际能用的东西。

选一两个最贴合你当前痛点的功能试试,比看完所有 session 然后什么都不做要有价值得多。

以上。