出品|虎嗅科技组
作者|齐健
编辑|陈伊凡
头图|FlagStudio
4月7日,阿里云官方宣布,上线自研大模型聊天AI“通义千问”,并定向邀请企业用户进行测试。不过此后不久,阿里云官微就删除了上线测试的公告,通义千问的首页也删除了邀请用户测试的按钮。不过目前,拿到了邀请码的用户仍可登陆通义千问,并进行实测。
在通义千问上线测试之前,阿里云已经对该款产品进行过一波预热。4月4日,国内脱口秀演员鸟鸟就在微博秀出了“鸟鸟分鸟”的聊天AI分身,并与这个数字分身进行了多轮对话。鸟鸟在视频中介绍称,该分身采用了阿里的类ChatGPT语音助手,能够模仿她的音色、语气以及文本风格。
测试版的通义千问与目前市面上的大型语言模型(LLM)产品的界面类似,都是左边对话列表,右边对话窗口的布局,对话也是采用一问一答的形式。通义千问在单纯的对话模式之上,制作了9款称为“百宝袋”的小应用。
答题一般,但似乎更好玩
相比当前上线的大模型应用,通义千问多了一个“百宝袋”功能。
通义千问的“百宝袋”中一共有9款小应用。其中包括,效率类:写提纲、SWOT分析、商品描述生成;生活类:会放飞的菜谱、小学生作文、然后呢;娱乐类:彩虹屁专家、写情书、为你写诗。
设定场景对于普通用户来说是一个非常友好的体验类功能,给用户提供了更强的可玩性。
“我们曾经对ChatGPT的测试用户做过问题收集,一开始用户并不知道怎么对ChatGPT提问,多数问题都是‘你是谁?OpenAI是谁?’。”某国内大模型研发机构专家告诉虎嗅,普通用户玩ChatGPT的上手速度很慢,使用之初很难感受到基于大模型的对话机器人与传统NLP有什么差别,因此在之后的使用中,很难保持热度——用一段时间就没什么问题可问了。
而像通义千问这样,提供了设定场景的对话,可以在一定程度上提高用户的试玩兴趣,保持使用粘性。
“留住用户对一款大型语言模型来说非常重要,用户的真实问答和反馈,可以说是大模型生存发展的根基。”前述大模型专家对虎嗅说,对于大模型,算法的可延展性很高,但这仍需要基于足够的数据进行优化,只要有大量不断的数据输入,算法是可以持续改进的。
OpenAI的算法优势最为明显,这源自于其先发优势,真正壁垒实际上是GPT前三个版本的持续迭代。在ChatGPT上线后的3个月中,OpenAI就根据用户反馈的数据对ChatGPT进行了两次升级。
对于国产大型语言模型来说,现阶段的研发工作固然重要,但留住真实的测试用户,收集他们的反馈数据,对于大模型的迭代和后续的研发工作来说,更加关键。
大模型只是基础,生态为王
事实上,应用不仅是现阶段积累用户的手段,更是大模型的未来。
在ChatGPT的插件功能上线之后,AI大模型的商业化路线,在公众的视野中,开始逐渐清晰:AI通用大模型可能就是未来的Window、iOS、Android。
无论通义千问还是ChatGPT,任何一款问答机器人产品都只是它背后的大型语言模型能力的体现,单纯的操作系统是没法赚钱的,生态才是最关键的。真正在iOS和Android上创造价值,赚到钱的还是抖音、美团、滴滴这样的产品以及它们背后广阔的应用场景。
对于通义千问未来的应用方向,虎嗅从阿里内部人士处得到的回答是“皆有可能”。该人士表示,阿里巴巴集团的业务范围很广,数字化产品线丰富,通义千问的AI能力在很多场景和产品中均有施展空间。
与海外先行者微软、谷歌相比,阿里巴巴的业务不仅覆盖了互联网、软件服务,还包括了大量的在线购物、生活服务、物流,以及文娱产业。
“淘宝、天猫的客服,肯定是AI大模型最直接的应用场景。”某淘宝店主告诉虎嗅,目前淘宝的AI客服对于店家和卖家来说,体验都很一般。免费的机器人明显“不太聪明”,高级的付费机器人对于很多中小型卖家来说,不仅操作复杂,而且还会多出一笔“不必要的开支”。
在这方面,ChatGPT类的大模型产品明显可以提升体验,不过在成本方面或许还有长期优化的空间。目前,国外已经有一些基于ChatGPT等LLM模型,给网站构建聊天机器人的服务上线,例如一家名为Chatbase的网站。
“办公软件和SaaS行业现在是最有动力‘卷’大模型的行业,毕竟微软已经公布了GPT-4版本的Microsoft Copilot,现在不追上,以后可能就连追的机会都没有了。”某阿里云研发人员对虎嗅表示,钉钉在SaaS办公软件行业的市场份额在国内相当领先,这也给应用落地提供了很强的市场基础,“目前国内用户试用欲望很强,但是它们对产品要求也很高。”
达摩院研发的通义千问最先实践的场景很可能会直线对接在阿里云的业务当中,钉钉无疑是最佳落地场景之一。在3月28日,阿里巴巴官宣分设六大业务集团,并计划各自独立上市,这或许能促进通义千问在阿里云业务中更快推广。
通义千问,源自阿里达摩院在2022年9月发布的“通义”大模型。而阿里对大模型的研究可以追溯到2019年的PLUG,以及10万亿参数的多模态大模型M6。
随着OpenAI发布ChatGPT,微软、谷歌、Meta等硅谷互联网巨头纷纷宣布加入大型语言模型战局,中国厂商也不甘示弱,密切跟进。这些大厂们都在竞相开发自己的大模型,试图在大模型研发中争夺生态的主导权。在这样的背景下,如何打造大模型的生态成了互联网大厂需要考虑的问题。
如今,各家大厂都在秀肌肉。微软与OpenAI直接达成合作,谷歌公布了LaMDA、PaLM等大模型和聊天机器人Bard,Meta发布了开源大模型LLaMA系列并在多个测试中取得了出色成绩。
国内厂商如阿里、百度和华为也在加紧布局,阿里达摩院发布通义千问之前,百度刚刚推出了基于文心大模型的聊天机器人“文心一言”。4月8日,华为云人工智能领域首席科学家田奇在人工智能学会的人工智能大模型技术高峰论坛上,更新了一些盘古大模型的最新进展,并展示了盘古大模型在多个专业领域的应用场景,以及模型能力。在此之前不久,华为云盘古AI 大模型中的 NLP 大模型、CV 大模型、多模态大模型以及科学计算大模型均已被标记为即将上线状态。
目前,国外的深度学习框架如TensorFlow(谷歌开发)、PyTorch(Facebook开发)、Keras(基于TensorFlow或Theano的高级API)和MXNet(亚马逊开发)已经聚拢了一众开发者。国内,百度有飞桨PaddlePaddle社区,阿里有魔搭ModelScope社区,华为有昇思MindSpore社区。围绕这些社区,各大厂商也在打造自己的开发者生态。谁能率先在生态上占据有利地位,就能够在这场AI之争中拔得头筹,这不仅意味着应用,也意味着拥有更多的训练数据。“中国的AI大模型,先不管好不好用,先要有。”一位AI芯片企业创始人对虎嗅说。
正在改变与想要改变世界的人,都在 虎嗅APP
花粉社群VIP加油站
猜你喜欢