NINE·Y
/
← Writing
2026-05-10/3 min read/AI · 产品方法论

模型边界:那条不存在的线

为什么 "LLM 能不能做这件事" 是一个错误的问题。

每个 AI 产品经理都遇到过这样的对话:

业务方:"这个功能我们让 LLM 做不就行了?" 工程师:"模型不行。" PM:"……能行的,再调一调。"

三个人在同一个会议室里,但讨论的根本不是同一件事。

"能"是一个二维问题

业务方说的"能",是"输入→输出,看着像那么回事"。 工程师说的"不行",是"在你给的成本/延迟/置信度约束下,不行"。 而我作为 PM 真正要回答的问题,是第三个维度:"用户拿到这个输出后,会不会做出我们不希望他做的决策?"

"

LLM 没有边界,边界是产品定义出来的。

"

举个例子。同样是"AI 解读体检报告":

  • 场景 A: 用户拿到结果当成"参考一下,明天去医院问医生"——产品做错一点没关系
  • 场景 B: 用户拿到结果就决定"我不去医院了,按 AI 说的吃药"——产品做对一点都不够

模型本身的能力曲线在两个场景里一模一样。区别在产品怎么把它包装、放在哪个交互节点、配哪些兜底机制。

边界由四件事共同决定

  1. 场景——用户在什么状态下接触到这个输出
  2. 置信度呈现——你是给一个答案,还是给一个带不确定性的判断
  3. 退出路径——当模型不靠谱时,用户有没有一个明显的"我去问真人"的出口
  4. 责任归属——用户/产品/医生,谁为这次决策负责

四件事任何一件没设计好,"模型能力"再强也没意义。

所以怎么回答开头那个问题

下次再有人问"LLM 能不能做这件事",我会反问:

  • 谁在用?
  • 用完去做什么?
  • 错了谁兜底?

这三个问题答完了,"能不能"自然就清楚了。