第(2/3)页 微软那边可能比自己会更急——自己下一代系统的理念现在就被别人搞出来了,他们能不急才怪了! …… 微软确实很烦躁,他们这边也确实早就已经得到了耳语系统的消息,甚至,公司的很多人都已经体验和验证过无数遍了。 “跟耳语相比,我们的Windows Copilot简直弱爆了!” Windows业务主管乔北峰毫不客气的自己手下即将发布的产品: “让音乐播放器推荐一个适合工作的歌单,说一堆话然后让Copilot去改变一个系统设置,或者将PPT直接拖入侧边栏,要求AI进行总结,这究竟是一些什么样的弱智功能啊!” 明明在一周前内部会议上,他还得意洋洋的这样总结着: “我们在十月正式发布Copilot,已经已经在全球7500万设备上开始运行,效率提升达七成,成果斐然,这意味着我们以AI驱动PC的计划已经成功。 “全球第一个集成人工智能功能的PC操作系统——Windows的【AI时刻】已经深入人心。” 但仅仅过了一周,形势就完全被逆转了,一个压根不知道哪儿冒出来的耳语系统直接把他们搞得焦头烂额。 “为什么如此沮丧?要振作!” 微软CEO萨提亚·纳德拉也是神色凝重,去年已经辞职了一个Windows业务主管,这一个也被打击的不轻:“那只是一个Linux而已!” “Linux?”乔北峰摇头:“他们将Linux命令行封装成了AI调用的模块,用户只需要一句话就能操作所有页面配置,这功能听起来是不是很熟悉? “听得清,做得到,听着是不是有一种亲切感?是不是心里很认可这样的逻辑? “能不熟悉吗?能不认可吗?这就是我们下一代操作系统中的Windows UI Agent智能体的核心功能——执行自然语言命令,听用户说,帮用户做!” 也怨不得乔北峰泄气,自己吭哧吭哧搞了将近一年的核心功能就这样被一家名不见经传的小公司给搞出来了,还放到了一个Linux发行版里! 更关键的是,他么的还打不过。 自己做的东西自己清楚,这下一个版本,做一些基础工作还行,比如利用Agent智能体在Word文档里提取文本、描述图像、撰写然后发送电子邮件是没问题的。 根据用户剪切板的内容和监控当前屏幕,然后选择此刻应该打开的合适应用也可以做到。 但耳语呢?它不仅能选择合适的软件,还能直接分析出打开软件之后该干什么,甚至能直接给干好! 第(2/3)页