2026-05-10/3 min read/AI · 产品方法论
模型边界:那条不存在的线
为什么 "LLM 能不能做这件事" 是一个错误的问题。
每个 AI 产品经理都遇到过这样的对话:
业务方:"这个功能我们让 LLM 做不就行了?" 工程师:"模型不行。" PM:"……能行的,再调一调。"
三个人在同一个会议室里,但讨论的根本不是同一件事。
"能"是一个二维问题
业务方说的"能",是"输入→输出,看着像那么回事"。 工程师说的"不行",是"在你给的成本/延迟/置信度约束下,不行"。 而我作为 PM 真正要回答的问题,是第三个维度:"用户拿到这个输出后,会不会做出我们不希望他做的决策?"
"
LLM 没有边界,边界是产品定义出来的。
"
举个例子。同样是"AI 解读体检报告":
- 场景 A: 用户拿到结果当成"参考一下,明天去医院问医生"——产品做错一点没关系
- 场景 B: 用户拿到结果就决定"我不去医院了,按 AI 说的吃药"——产品做对一点都不够
模型本身的能力曲线在两个场景里一模一样。区别在产品怎么把它包装、放在哪个交互节点、配哪些兜底机制。
边界由四件事共同决定
- 场景——用户在什么状态下接触到这个输出
- 置信度呈现——你是给一个答案,还是给一个带不确定性的判断
- 退出路径——当模型不靠谱时,用户有没有一个明显的"我去问真人"的出口
- 责任归属——用户/产品/医生,谁为这次决策负责
四件事任何一件没设计好,"模型能力"再强也没意义。
所以怎么回答开头那个问题
下次再有人问"LLM 能不能做这件事",我会反问:
- 谁在用?
- 用完去做什么?
- 错了谁兜底?
这三个问题答完了,"能不能"自然就清楚了。