5 月 22 日百川智能在北京召开发布会创始人王小川带着公司首款 C 端产品「百小应」正式亮相。这款定位「AI 搜索 + 智能助手」的应用搭载了最新发布的 Baichuan 4 大模型试图用「多轮追问」和「精准搜索」打破当前 AI 助手的同质化困局。
尽管王小川直言这只是「过渡产品」——「发早了行业还在为百万 DAU 努力」但百小应的独特设计已然透露出百川智能对「超级应用」的思考:在大模型能力尚未抵达「通用智能」之前如何用技术细节打磨出差异化的用户价值?
「少而精」的搜索哲学:两轮检索胜过海量抓取
与主流 AI 搜索「越多网页越精准」的思路不同百小应选择了一条反直觉的路径:用最少的网页获取最核心的信息。
试用发现百小应单次搜索通常仅抓取 4 个网页最多通过「两轮检索」扩展至 8 个。这种「克制」背后是百川智能在搜索领域的技术积累 —— 依托王小川团队深耕多年的搜索引擎技术百小应能精准定位问题领域优先访问权威来源。例如询问「高通产品线」时它会直接抓取高通官网信息并以官网内容为核心构建回答而非堆砌第三方数据。
这种策略带来了两个显著特点:
回答结构化更强:同样的问题百小应的回复往往比同类产品长 20%-30%且会用分点、表格等形式梳理信息。如解释「5G 网络架构」时它会拆解为核心网、基站、终端三层每层标注技术参数和应用场景便于用户快速定位重点。
引用校验更精准:与部分产品「标不对文」的问题不同百小应的引用标记直接对应网页具体段落用户点击即可跳转至原文验证。这种「有据可查」的设计在医疗、法律等需要严谨性的场景中尤为重要。
王小川将其概括为「搜索的精准打击」:「我们不追求覆盖所有网页而是要在关键节点找到最权威的信息源 —— 这就像医生看病不需要做所有检查但必须精准命中病灶。」
多轮追问:让 AI 助手从「被动响应」到「主动理解」
「引擎盖打不开怎么办?」面对这个问题多数 AI 助手会直接罗列通用解决方案而百小应的做法是先追问再回答:「请问您的车型、年份是?是否尝试过拉动车内应急开关?」
这种「打破砂锅问到底」的能力正是百小应区别于同类产品的核心竞争力。它不再局限于「一轮对话解决问题」而是通过多轮交互逐步缩小范围最终给出个性化答案。例如:
用户询问「推荐一款 2000 元的耳机」它会先确认「偏好降噪还是音质?主要用于通勤还是室内?」
家长问「如何辅导小学三年级数学」它会进一步了解「孩子目前的薄弱环节是计算还是应用题?」
这种设计直击 AI 助手的痛点:当问题信息不全时与其给出泛泛而谈的答案不如通过引导补充关键信息。王小川认为这是 AI 向「类人服务」进化的关键一步:「人类专家解决问题时从来不是听一句话就下结论而是通过提问理清细节 ——AI 应该学会这种思维方式。」
Baichuan 4:理科登顶多模态「顺势而为」
支撑百小应的 Baichuan 4 模型是此次发布会的另一焦点。根据第三方评测机构 SuperCLUE 的数据该模型发布首日便登上国内理科能力榜首通用能力较上一代提升 10%数学、代码能力分别提升 14% 和 9%。
值得注意的是一直宣称「智能源自语言」的百川智能首次公开了多模态进展。Baichuan 4 的图文理解能力已超越 Gemini Pro、Claude 3-sonnet 等竞品能处理复杂图表解析、场景化图像描述等任务。例如用户上传一张家电电路图它能识别元件型号并解释工作原理。
但王小川仍保持冷静:「多模态是工具不是智能本身。语言是『白粉』浓度最高;图片更像『面粉』智能密度低得多。我们不会为了追热点而偏离核心 —— 模型的终极目标是解决问题不是炫技。」
过渡背后:超级应用的「慢逻辑」
对于百小应的定位王小川毫不讳言:「这是让团队『转起来』的产品今年内会有大的升级真正解决刚需。」在他看来当前 AI 应用仍处于「展示模型能力」的阶段距离「超级应用」还有三个门槛:
用户习惯养成:让用户接受「多轮对话解决问题」的交互模式而非追求「一句话答案」;
模型成本控制:目前大模型的算力消耗仍偏高需通过技术优化降低服务成本;
场景刚需验证:只有当 AI 能替代「职业人士」的部分工作(如律师、医生的基础服务)才可能出现亿级用户产品。
因此百川智能选择「不凑热闹」—— 当同行忙着降价争夺 API 市场时王小川明确表示「API 不是收入重点」;当多数应用追求「功能全而杂」时百小应专注打磨「搜索 + 追问」的核心体验。
「做超级应用就像种大树现在要做的是扎根。」王小川的这句话或许道破了大模型行业的本质:喧嚣之下真正的机会属于那些愿意打磨细节、等待时机的玩家。百小应的「过渡」或许正是为了未来的「一跃」。