无障碍
x

全部频道

中国> 正文

AI终于学会“好好说话”了,云知声山海·知音2.0打通场景壁垒

2026-01-30 11:04 日照新闻网

来源标题:AI终于学会“好好说话”了,云知声山海·知音2.0打通场景壁垒

在嘈杂的医院查房现场,医生一句含混的“依帕司他”被精准捕捉。在高速飞驰的智能座舱内,用户一句没头没尾的“有点冷,顺便把那个……半幅方向盘……”被秒级响应——这不是科幻电影,而是云知声“山海·知音”2.0大模型带来的真实场景。

随着智能体时代的全面到来,大模型的竞争已从单纯的参数比拼转向“落地能力”的深水区。云知声在“山海·Atlas”通用智算基座持续演进的基础上,正式推出“山海·知音”大模型2.0版本。至此,继“山海·知医”5.0之后,云知声“一基两翼”技术战略的关键拼图正式补全,智能语音交互正从“能听会说”向“懂你所想”的类人阶段跨越。

端到端技术范式:告别“级联式”拼凑

长期以来,语音交互系统由ASR(识别)、NLP(理解)、TTS(合成)等独立模块级联而成,不仅延迟高,且易因模块间误差累积导致“答非所问”。“山海·知音”2.0最大的技术颠覆在于依托“山海·Atlas”智算基座,实现了感知与生成的端到端一体化。通过将多模态大模型底座与基础架构深度整合,模型能够在流式收声的同时完成语义理解与语音生成,首包延迟被压缩至90毫秒以内。这种“边听边想边说”的能力,让AI首次具备了类似人类的“反射弧”,支持随时打断、抢话与连贯追问,彻底打破了传统“按键式”对话的僵硬感。

垂直场景的“最后一公里”:听懂专业,也听懂乡音

在智能体落地的实际场景中,复杂环境与专业术语往往是AI的“滑铁卢”。云知声此次将“山海·知医”等垂直大模型的能力泛化至通用交互中。数据显示,在高噪环境与方言口音场景下,模型识别准确率较主流竞品提升2.5%-3.6%,并在业内首次突破90%大关。更重要的是,模型引入了逻辑推理机制,不再是机械的“听字”,而是结合上下文进行“事理”判断——无论是医疗场景下的生僻药名,还是汽车场景中的隐含指令,识别精度均提升30%。同时,覆盖30余种方言及14种国际语言的能力,让AI交互真正具备了下沉至县域医疗、乡村振兴等长尾场景的普惠价值。

有温度的交互:从工具到伙伴

技术不应是冰冷的代码。在TTS能力上,“山海·知音”2.0通过流匹配与神经声码器的联合优化,不仅实现了12种方言与10种外语的精准合成,更能还原清嗓、笑声等呼吸细节。这种对情感颗粒度的精细把控,配合低延迟的全双工能力,使AI从冷冰冰的工具进化为有温度的伙伴。

“山海·知音”2.0正在重新定义智能体时代的交互标准。云知声用实践证明真正的智能,不是炫技,而是听得清、说得真、懂人心。这一次,AI终于不再“人工智障”,而是成为了有温度的智慧伙伴。

(本文来源:日照新闻网。本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。对文章事实有疑问,请与有关方核实或与本网联系。文章观点非本网观点,仅供读者参考。)

责任编辑:马剑(QZ0014)

北京千龙新闻网络传播有限责任公司版权所有 未经千龙新闻网书面特别授权,请勿转载或建立镜像,违者依法必究新出网证(京)字013号 增值电信业务经营许可证 2-2-1-2004139 跨地区增值电信业务许可证

信息网络传播视听节目许可证0104056号 互联网新闻信息服务许可证11120180003号 京公网安备 11000002000007号

分享到:
QQ空间 新浪微博 微信 腾讯微博 QQ好友 百度首页 腾讯朋友 有道云笔记