近期,大模型领域迎来了一股激烈的价格竞争风潮。5月21日,阿里云官方宣布,其GPT-4级别的核心模型Qwen-Long的API调用费用大幅度下调至0.0005元每千Tokens,降价幅度高达97%。这意味着,区区1元钱就能获取相当于5本《新华字典》的文字处理能力。
紧随其后,百度通过微信公众号发文,宣布其文心大模型的两款主要产品ENIRE Speed和ENIRE Lite将面向用户全面免费开放。
而在此前的5月15日,字节跳动刚刚揭晓了豆包大模型的对外服务计划,其中豆包通用模型的两个版本pro-32k与pro-128k,在企业市场上的推理成本分别低至0.0008元和0.005元每千Tokens,降价比例达到99.3%和95.8%,自诩为“价格屠夫”,这一举动在业内引起了巨大震动。
此外,智谱AI大模型在5月11日也调整了策略,新用户的初始额度提升至2500万Tokens,同时个人版GLM-3Turbo模型的调用费从5元/百万Tokens削减到1元/百万Tokens,GLM-3 Turbo Batch批处理API服务的费用也降低了50%,仅需1元即可处理200万Tokens的数据量。
对于阿里云的降价举措,字节跳动通过火山引擎部门作出了回应,表示热烈欢迎通义千问大模型的降价行动,认为这将共同促进企业以更低的成本探索人工智能转型之路,加速大模型技术在实际场景中的应用普及。
业内分析机构对此趋势也给予了关注。华龙证券研究报告指出,国内外大模型厂商之间技术竞争的白热化,标志着大模型行业已明确进入了价格竞争阶段。华福证券的报告则认为,持续下降的价格有利于加快大模型的商业化进程,预期将激发更多针对特定场景的模型微调和推理需求,为中国的人工智能应用及本土算力产业的发展注入新的活力。