我们如何 工作

不是人类对抗AI。不是AI取代人类。这是人类 + AI——资深经验引导AI能力。各自做最擅长的事。

Active product screens at the Kerber AI studio

核心 信念

通过一年的试错学到的原则。主要是错误。

01

先规划,后构建

每个任务都从计划开始。AI提议,人类批准。我们反复迭代直到方法有意义——然后执行。对齐之前不写代码。

02

验证一切

AI生成代码。人类审查每一行——就像与有才华的初级开发者结对编程。信任但要验证。始终如此。没有例外。

03

PR,永不直接Push

AI创建拉取请求。人类审查并合并。禁止直接推送到main。这是不可谈判的。

04

记录失败

当AI犯错时,我们记录下来。机构记忆胜过重复错误。每个失败都变成防护栏。

05

小上下文,大结果

不要把整个代码库倒入上下文。要精准。一个文件,一个问题,一个解决方案。聚焦的上下文产生更好的输出。

06

AI处理无聊的事

测试。文档。配置。迁移。样板代码。让AI处理乏味的工作,这样人类可以专注于架构和难题。

工作 流程

每个功能,每个bug修复,每个变更都遵循这个流程。

1

问题跟踪

每个任务都在Linear或GitHub Issues中。规格、验收标准、上下文。没有工单就不开始工作。

我们像大团队一样工作——因为我们就是。结构使速度成为可能。

2

规划阶段

AI提出实现方法。人类审查、提问、改进。我们迭代直到达成一致。

这是资深经验重要的地方。糟糕的计划变成昂贵的bug。

3

实现

AI编写代码,创建测试,更新文档。人类实时审查差异。逐行审查。

想象结对编程,不是魔法棒。人类始终在场。

4

测试

单元测试、集成测试、E2E测试。在每次构建和部署时自动运行。

没有绿色,不发布。测试不是可选的——这是我们验证AI输出的方式。

5

审查与合并

PR提交。人类做最终审查。CI必须通过。然后才能:合并到main。

保护生产安全的大门。每个变更都要赢得它的位置。

6

文档

代码更改触发文档更新。架构决策被记录。没有什么只存在于聊天中。

聊天会消失。文档会留存。所有重要的事都要写下来。

技术 

AI模型

Claude Opus & SonnetQwen (local)Qwen Coder (local)GeminiGemma (local)GLMChatGPT

编程语言

TypeScriptPythonRustGoSwiftKotlinSQL

前端

ReactNext.jsSvelteKitAstroTailwind CSSFramer Motion

移动端

SwiftUIReact NativeFlutterExpo

后端

Node.jsFastAPINestJSHonoExpressEncorePrismaDrizzle

数据库

PostgreSQLRedisSupabaseMongoDBSQLitePinecone

AI工具

LangChainOllamaHugging FaceOpenAI APIAnthropic APIOpenClawHermesLLM StudiosRAG pipelines

测试

VitestPlaywrightJestCypress

基础设施

VercelAWSGCPDockerCloudflareTerraformGitHub Actions

CMS

SanityContentfulPayloadStrapiKeystatic

监控

SentryGrafanaVigilPostHog

工作流

LinearGitHubNotionFigmaSlack
Workstation detail at the Kerber AI studio

诚实的 真相

我们学到的,炒作周期不会告诉你的事。

1

AI不会让你一夜之间效率提升10倍。说这话的人在卖东西。

2

用AI搭建环境快10倍。实际编码可能快2-3倍。这仍然很大。

3

80%的代码无论如何都会被重写。交付正确的解决方案,而不是"完美"的代码。

4

资深开发者在AI编码中获胜——不是因为更好的提示词,而是因为他们知道好的是什么样子。

5

真正的突破不是工具——而是理解它擅长什么,并在那里无情地应用它。

为什么这 有效

AI增强开发的真正赢家是资深开发者。不是因为我们写更好的提示词——而是因为我们理解好代码是什么样子。

我们知道如何架构可扩展的系统。我们知道边缘情况藏在哪里。我们知道哪些捷径会变成昂贵的技术债。

AI处理速度。人类处理判断。在一起,你两者都得到——不牺牲任何一个。

20+
年产品经验指导每个决策
100%
代码在合并前由人类审查
24/7
AI处理研究、草稿和准备工作

主动 监控

我们不会等到系统崩溃。我们的代理全天候监控您的系统——在用户发现之前就修复问题。

大多数团队在用户报告时才发现漏洞。我们在凌晨3点就发现它们——在它们成为事故之前。

我们的AI代理对您的日志、错误追踪器和性能指标拥有只读权限。它们运行持续分析:发现异常、退化模式和人类忽略的静默故障。

当某些东西看起来不对时,您会收到一份详细的报告,包含根本原因分析和建议修复方案——不仅仅是一个警报。我们在几分钟内从"有点不对劲"到"这是发生了什么,这是修复方案,这是PR"。

这不是理论。我们在自己的项目上24/7运行它。每天早上我们醒来就能看到一份关于夜间发现和解决了什么的报告。

Vigil就是这样诞生的——我们自己的基础设施代理,现已作为托管服务提供。vigil.kerber.ai

持续日志分析

AI代理监控Sentry、Datadog、CloudWatch和自定义日志。模式匹配捕获静态警报遗漏的问题——如逐渐增加的内存泄漏或缓慢上升的错误率。

夜间自主修复

凌晨2点发现的关键漏洞在早上6点就有PR。非关键问题被记录和排优先级。您醒来看到的是解决方案,而不是意外。

趋势检测与预测

我们不只是观察火灾——我们预测它们。使用模式、基础设施成本、API弃用。您走在问题前面,而不是被动应对。

24/7
所有客户系统的持续监控
< 15 min
从异常检测到根本原因分析的平均时间
0
应该被发现但未被发现的事故

但是谁来接手 当资深人员离开时?

正确的问题。这是我们的答案。

"资深开发者在AI编码中获胜,因为他们知道好的是什么样子。" 没错。但当那位资深人员离开时会发生什么?

这正是为什么专业知识即服务有效。公司不需要全职留住昂贵的资深人员——他们租用判断力。每周1-2小时的资深指导,而不是40小时的保姆。

而且我们不只是审查代码。我们构建能够在项目结束后继续存在的质量系统:文档化的模式、架构决策记录和编码"好的是什么样子"的测试套件。

目标不是让资深人员永远审查AI。目标是让资深知识变得可持续。

按需专业知识

资深监督而无需资深薪资。一位专家可以指导多个项目——你获得判断力而无需增加人数。

持久的知识

每次审查都变成文档。每个决定都被记录。当我们离开时,质量系统留下。

更快的学习循环

与AI一起工作的初级人员获得实时反馈。2027年的初级人员将看到比2017年资深人员更多的模式。我们加速这一过程。

想要这个给你的 团队

我们帮助公司建立真正有效的AI增强工作流。这不是关于工具——而是关于围绕它们的系统。

预约咨询