搜索引擎 + AI 驱动的行业新闻
【覆盖行业】
信保 |出口 |金融
制造 |农业 |建筑 |地产
零售 |物流 |数智
【访问入口】
hangyexinwen.com
【新闻分享】
点击发布时间即可分享
【联系我们】
xinbaoren.com
(微信内打开提交表单)
【覆盖行业】
信保 |出口 |金融
制造 |农业 |建筑 |地产
零售 |物流 |数智
【访问入口】
hangyexinwen.com
【新闻分享】
点击发布时间即可分享
【联系我们】
xinbaoren.com
(微信内打开提交表单)
📰 行业观察|中国手机大厂都在做AI,vivo解法有何不同
本篇报道聚焦vivo在博鳌亚洲论坛期间提出的手机从Smart Phone走向Agent Phone的前瞻性观点。文章指出,成本压力、存储等核心器件价格上升以及换机周期延长,促使手机厂商探索新增长路径。vivo的核心思路是通过端侧AI与影像能力的深度结合,构建差异化的场景数据护城河,将手机从被动工具转变为“数字伙伴”,以影像+AI双核驱动实现价值重构,并将技术边界延伸至家庭机器人与IoT生态。端侧模型、本地计算带来低延迟与隐私保护,而真正的护城河在于场景数据的沉淀能力,谁能在端侧积累更贴合用户场景的数据,谁就能形成长期竞争力。vivo以端侧模型、定制算力芯片和影像能力为核心,推动从Agent Phone到机器人生态的纵贯布局,力图在AI时代建立可持续的差异化优势。文章还提到,影像能力正成为核心的“眼睛”,通过对场景理解与用户场景下的应用,推动商业化落地,同时面临消费者是否愿意为隐性Agent能力买单等挑战。机器人Lab的成立与“沿途下蛋”的策略,体现了公司在手机、MR与机器人之间构建闭环的长期愿景,即以手机为入口,养成AI能力、推动机器人应用,形成对未来终端形态的前瞻性储备。
🏷️ #端侧AI #场景数据 #影像能力 #AgentPhone #机器人生态
🔗 原文链接
📰 行业观察|中国手机大厂都在做AI,vivo解法有何不同
本篇报道聚焦vivo在博鳌亚洲论坛期间提出的手机从Smart Phone走向Agent Phone的前瞻性观点。文章指出,成本压力、存储等核心器件价格上升以及换机周期延长,促使手机厂商探索新增长路径。vivo的核心思路是通过端侧AI与影像能力的深度结合,构建差异化的场景数据护城河,将手机从被动工具转变为“数字伙伴”,以影像+AI双核驱动实现价值重构,并将技术边界延伸至家庭机器人与IoT生态。端侧模型、本地计算带来低延迟与隐私保护,而真正的护城河在于场景数据的沉淀能力,谁能在端侧积累更贴合用户场景的数据,谁就能形成长期竞争力。vivo以端侧模型、定制算力芯片和影像能力为核心,推动从Agent Phone到机器人生态的纵贯布局,力图在AI时代建立可持续的差异化优势。文章还提到,影像能力正成为核心的“眼睛”,通过对场景理解与用户场景下的应用,推动商业化落地,同时面临消费者是否愿意为隐性Agent能力买单等挑战。机器人Lab的成立与“沿途下蛋”的策略,体现了公司在手机、MR与机器人之间构建闭环的长期愿景,即以手机为入口,养成AI能力、推动机器人应用,形成对未来终端形态的前瞻性储备。
🏷️ #端侧AI #场景数据 #影像能力 #AgentPhone #机器人生态
🔗 原文链接
📰 AI真人数字人语音对话性能优化实践总结
本文聚焦于解决 AI 数字人导购对话中的回答延迟问题,提出并落地了端到端的性能优化方案。最初的系统链路为 ASR → LLM → TTS&A2BS,端到端平均延迟高达 5.64 秒,且稳定性不足。通过建设覆盖全链路的高精度性能监控体系,建立了详细的事件打点与数据统计,确保每次改动都能量化评估。在核心方案上引入 Qwen Omni 一体化模型,采用 Audio到Audio 的流式传输并将字幕需求通过 Text→Audio/Text 模式实现,释放中间环节并实现端到端降 lag。客户端加入音频窗口缓冲以实现嘴型同步,A2BS 采用窗口化累积以平滑表情生成,确保口型与音频同步。改造后的链路为 ASR → LLM → Text/Audio → A2BS,并在 Omni 链路中实现了按窗口触发、并发打点与多格式输出的监控与统计导出。最终端到端延迟下降至 1.32 秒,提升近 77%,同时显著提升系统稳定性。本文还就监控体系的设计、关键指标定义、数据结构等给出实现要点,并对未来优化方向提出了多条建议,如自部署、端上推理、小模型快速首句等。总结来看,性能监控与模型链路的协同优化是实现本轮降本增效的关键,所建立的体系也为后续自部署、音色自定义和双模型加速等扩展奠定了基础。
🏷️ #AI #性能监控 #端到端延迟 #Omni #链路优化
🔗 原文链接
📰 AI真人数字人语音对话性能优化实践总结
本文聚焦于解决 AI 数字人导购对话中的回答延迟问题,提出并落地了端到端的性能优化方案。最初的系统链路为 ASR → LLM → TTS&A2BS,端到端平均延迟高达 5.64 秒,且稳定性不足。通过建设覆盖全链路的高精度性能监控体系,建立了详细的事件打点与数据统计,确保每次改动都能量化评估。在核心方案上引入 Qwen Omni 一体化模型,采用 Audio到Audio 的流式传输并将字幕需求通过 Text→Audio/Text 模式实现,释放中间环节并实现端到端降 lag。客户端加入音频窗口缓冲以实现嘴型同步,A2BS 采用窗口化累积以平滑表情生成,确保口型与音频同步。改造后的链路为 ASR → LLM → Text/Audio → A2BS,并在 Omni 链路中实现了按窗口触发、并发打点与多格式输出的监控与统计导出。最终端到端延迟下降至 1.32 秒,提升近 77%,同时显著提升系统稳定性。本文还就监控体系的设计、关键指标定义、数据结构等给出实现要点,并对未来优化方向提出了多条建议,如自部署、端上推理、小模型快速首句等。总结来看,性能监控与模型链路的协同优化是实现本轮降本增效的关键,所建立的体系也为后续自部署、音色自定义和双模型加速等扩展奠定了基础。
🏷️ #AI #性能监控 #端到端延迟 #Omni #链路优化
🔗 原文链接