科大讯飞刘聪:应用落地的关键是深入场景
·AI应用要能够创造商业价值,核心在于对落地场景的深入理解。模型大小的选择也应根据实际应用场景和任务需求来决定。
“AI大模型应用落地的第一核心是深入理解场景,用场景需求牵引着技术的发展。”7月29日,科大讯飞副总裁、研究院院长刘聪在媒体沟通会上对外表示,中国拥有独特的应用场景优势,庞大的人口基数为行业产品提供了丰富的数据和多样化的应用场景,AI应用要能够创造商业价值,核心在于对落地场景的深入理解。对于目前热议的小模型潮流,刘聪认为,模型大小的选择也应根据实际应用场景和任务需求来决定。
科大讯飞副总裁、研究院院长刘聪
大模型落地依赖对场景需求的认知
2024年,大模型赛道竞争更加激烈,刘聪表示,科大讯飞更关注大模型能否真正实际应用到系统中,为用户提供可衡量的价值和效果,在这个过程中对场景的认知起到关键作用。
刘聪以科大讯飞发布的首款星火智能批阅机为例,“没有大模型时,我们也做批改,有了大模型之后,现在批改比过往厉害了很多。”他表示,该款智能批阅机目前基于星火大模型V4.0的底座能力研发,可以在对多学科、多题型作业进行智能批改,即时生成报告,以便老师在作业讲评时进行分层辅导。
刘聪认为,这款产品之所以能迅速被市场接受,背后离不开对行业的深入理解和技术积累。科大讯飞早在十年前便提出了全学科自动阅卷的概念,通过长期的技术积累,才能够快速将大模型技术应用在产品中,并实现产品性能的快速迭代。
正是基于对场景的深入认知,科大讯飞在执行大模型“1 N”路线时也会因地制宜。“1 N”的“1”指通用的认知智能大模型,“N”就是大模型在各个领域的落地,包括教育、办公、汽车、人机交互以及医疗等。刘聪坦言,经过实践,他们发现之前设定的“1 N”的逻辑存在冗余问题,今年,他们对“1”和“N”的划分进行了调整,“N”在落地场景中,有部分场景下的常用能力可以整合到核心业务里,不再作为独立业务存在,减少重复开发的工作。
让场景和实际任务需求来决定模型选择
大模型进入下半场,从技术到应用,市场对于更易本地部署的高效率、低成本模型越来越感兴趣。今年暑期,AI巨头们也密集发布小模型,既比性能,还拼价格。
7月19日,OpenAI发布GPT-4omini,号称是“OpenAI最智能和最实惠的小模型”,无独有偶,苹果也发布了DCLM小模型,并且发布即开源。有观点指出,这些模型参数小、占内存少,在特定场景中,经过精调后使用效果可以媲美大模型,成为性价比之选。
在刘聪看来,大模型与小模型的选择,其实根据复杂任务规划需求而定。对于部分高难度任务包括复杂的推理任务,比如数学推理等这类任务往往需要大规模模型的支持,因为它们涉及多步骤推理和跨领域信息整合。对于简单的任务,科大讯飞刘聪:应用落地的关键是深入场景比如特定行业的翻译或文本处理,甚至编写代码这类专业性工作,中小规模的模型可能就足够了。特别是在需要快速响应的场景下,如在个人电脑上使用,通常不需要依赖云端处理。
“不过,小模型的不断进步需要依赖大模型的发展。”刘聪指出,无论是大模型还是小模型,最重要的是根据实际应用场景和任务需求来决定,而不是简单地追求模型的大小或复杂度。
刘聪表示,国内拥有独特的应用场景优势,庞大的人口基数为行业产品提供了丰富的数据和多样化的应用场景,这在某种程度上是优势。尽管在通用大模型的用户活跃度上可能不及国外,但在行业应用方面,中国拥有丰富的场景和数据,这反而成为机会。
评论