生成式 AI 大幅提升资讯产出速度,却也引发一项被忽视的隐忧「验证落差 (Verification Gap)」。从 Coinbase 前技术长 Balaji 到 OpenAI 共同创办人 Karpathy,再到创投巨头 a16z,皆警告:「AI 产出的验证成本,正在成为新时代最大的瓶颈与风险。
Balaji:AI 使用者的「验证成本」成真正瓶颈
Coinbase 前技术长 Balaji 在上个月曾发文指出,AI 的使用流程可以拆成两个阶段:「输入提示词 (prompting)」与「验证输出 (verifying)」。
前者人人都能做,打几行字就好;但后者就较为困难,需要专业知识、耐心与逻辑思维,来判断 AI 是否产生了错误或「幻觉 (hallucination)」。
AI PROMPTING → AI VERIFYING
AI prompting scales, because prompting is just typing.
But AI verifying doesn’t scale, because verifying AI output involves much more than just typing.
Sometimes you can verify by eye, which is why AI is great for frontend, images, and video. But…
— Balaji (@balajis) June 4, 2025
他表示,这种差距在图片或影片上很好处理,人眼天生擅长判断视觉内容。但一旦面对程式码、技术性文章或逻辑推理,验证工作就变得相当棘手:
使用 AI 最重要的问题是,我要如何以低成本的方式验证这个 AI 模型的输出内容是正确的?我们需要其他工具或产品来验证其他非视觉领域的内容。
他补充:「对于使用者来说,AI 验证与 AI 提示词同样重要。」
Karpathy:AI 加速了创作、但没有减少验证过程
OpenAI 共同创办人暨特拉斯自动驾驶之父 Andrej Karpathy 进一步延伸 Balaji 的观点,指出创作本质是两个阶段并重复进行的过程「生成 (generation)」与「判断 (discrimination)」:「你画了一笔 (生成),也得退一步思考这一笔是否真的改善了作品 (判断)。」
他认为大型语言模型 (LLM) 大大压缩了「生成」的时间成本,让用户能够瞬间取得大量产出,但完全没有帮助减少「判断」的成本与工作量。对于程式码来说尤其严重:
LLM 很容易就产出几十行甚至几百行程式,但工程师仍需要一行一行阅读、理解并检查所有逻辑与潜在错误。
Karpathy 表示,这其实也是大多数工程师最花时间的事,这就是所谓的「验证落差 (Verification Gap)」,AI 加速了创作过程,但这个时间成本直接转移到了验证中。
(从理专到秘书,看 AI 代理的信任挑战:我们能相信人工智慧的自主决策吗?)
a16z:生成时代的信任危机,得靠加密技术补上缺口
知名创投 a16z 则从制度与产业层面切入,他们认为 AI 技术会加速「假资讯」的泛滥,因为生成门槛低且难以验证,网路将被充斥大量伪造内容。a16z 对此主张信任应该被工程化,解决方式是引入加密技术,像是:
对 AI 分阶段产出的资料分别进行密码学加工 (hashed posts)
使用区块链验证的身份进行创作 (crypto IDs)
透过链上资料的公开且可追溯性,建立出处可信的内容链
这些做法不但能让资讯不可窜改且可验证,也为 AI 世代的内容可信度建立起防线,有望成为加密技术与 AI 领域的重要交集。
(Messari 专文解析:Mira 协议如何透过去中心化共识机制,让 AI 更诚实?)
从提示词到验证能力,AI 时代的新素养与需求已成形
目前,生成式 AI 带来的是资讯产能的指数级成长,但若没有同等高效率的验证能力互相配合,用户反而会陷入操作费时与假资讯污染的困境之中。
因此,当前 AI 时代的核心技能,也不再只是会写出精准的 prompt,而是能有效且低成本地验证 AI 的产出。不论是透过 AI 模型的互相审查或专业的验证工具,都显得格外重要。
这篇文章 AI 有让生活更方便吗?Balaji 与 a16z 探讨如何缩短验证 AI 内容的时间成本? 最早出现于 链新闻 ABMedia。
36525 热度
47596 热度
13033 热度
1701 热度
1341 热度
AI 有让生活更方便吗?Balaji 与 A16z 探讨如何缩短验证 AI 内容的时间成本?
生成式 AI 大幅提升资讯产出速度,却也引发一项被忽视的隐忧「验证落差 (Verification Gap)」。从 Coinbase 前技术长 Balaji 到 OpenAI 共同创办人 Karpathy,再到创投巨头 a16z,皆警告:「AI 产出的验证成本,正在成为新时代最大的瓶颈与风险。
Balaji:AI 使用者的「验证成本」成真正瓶颈
Coinbase 前技术长 Balaji 在上个月曾发文指出,AI 的使用流程可以拆成两个阶段:「输入提示词 (prompting)」与「验证输出 (verifying)」。
前者人人都能做,打几行字就好;但后者就较为困难,需要专业知识、耐心与逻辑思维,来判断 AI 是否产生了错误或「幻觉 (hallucination)」。
AI PROMPTING → AI VERIFYING
AI prompting scales, because prompting is just typing.
But AI verifying doesn’t scale, because verifying AI output involves much more than just typing.
Sometimes you can verify by eye, which is why AI is great for frontend, images, and video. But…
— Balaji (@balajis) June 4, 2025
他表示,这种差距在图片或影片上很好处理,人眼天生擅长判断视觉内容。但一旦面对程式码、技术性文章或逻辑推理,验证工作就变得相当棘手:
使用 AI 最重要的问题是,我要如何以低成本的方式验证这个 AI 模型的输出内容是正确的?我们需要其他工具或产品来验证其他非视觉领域的内容。
他补充:「对于使用者来说,AI 验证与 AI 提示词同样重要。」
Karpathy:AI 加速了创作、但没有减少验证过程
OpenAI 共同创办人暨特拉斯自动驾驶之父 Andrej Karpathy 进一步延伸 Balaji 的观点,指出创作本质是两个阶段并重复进行的过程「生成 (generation)」与「判断 (discrimination)」:「你画了一笔 (生成),也得退一步思考这一笔是否真的改善了作品 (判断)。」
他认为大型语言模型 (LLM) 大大压缩了「生成」的时间成本,让用户能够瞬间取得大量产出,但完全没有帮助减少「判断」的成本与工作量。对于程式码来说尤其严重:
LLM 很容易就产出几十行甚至几百行程式,但工程师仍需要一行一行阅读、理解并检查所有逻辑与潜在错误。
Karpathy 表示,这其实也是大多数工程师最花时间的事,这就是所谓的「验证落差 (Verification Gap)」,AI 加速了创作过程,但这个时间成本直接转移到了验证中。
(从理专到秘书,看 AI 代理的信任挑战:我们能相信人工智慧的自主决策吗?)
a16z:生成时代的信任危机,得靠加密技术补上缺口
知名创投 a16z 则从制度与产业层面切入,他们认为 AI 技术会加速「假资讯」的泛滥,因为生成门槛低且难以验证,网路将被充斥大量伪造内容。a16z 对此主张信任应该被工程化,解决方式是引入加密技术,像是:
对 AI 分阶段产出的资料分别进行密码学加工 (hashed posts)
使用区块链验证的身份进行创作 (crypto IDs)
透过链上资料的公开且可追溯性,建立出处可信的内容链
这些做法不但能让资讯不可窜改且可验证,也为 AI 世代的内容可信度建立起防线,有望成为加密技术与 AI 领域的重要交集。
(Messari 专文解析:Mira 协议如何透过去中心化共识机制,让 AI 更诚实?)
从提示词到验证能力,AI 时代的新素养与需求已成形
目前,生成式 AI 带来的是资讯产能的指数级成长,但若没有同等高效率的验证能力互相配合,用户反而会陷入操作费时与假资讯污染的困境之中。
因此,当前 AI 时代的核心技能,也不再只是会写出精准的 prompt,而是能有效且低成本地验证 AI 的产出。不论是透过 AI 模型的互相审查或专业的验证工具,都显得格外重要。
这篇文章 AI 有让生活更方便吗?Balaji 与 a16z 探讨如何缩短验证 AI 内容的时间成本? 最早出现于 链新闻 ABMedia。