面对这一指控,字节跳动的回应颇具策略性。他们承认在 2023 年初,技术团队在大模型探索的初期确实有部分工程师将 GPT 的 API 服务应用于较小模型的实验性项目研究中。然而,他们强调这个模型仅用于测试,从未计划上线或对外使用。更重要的是,字节跳动表示,自 2023 年 4 月公司引入 GPT API 调用规范检查后,这种做法就已经停止了。
其实,不光是这些在 23 年披露出来的国内事件,在 24 年也有更多被指“套壳”国内大模型的事件,比如说斯坦福大学 AI 团队主导的 Llama3-V 开源模型,被证实套壳抄袭国内清华与面壁智能的开源模型。这些现象其实背后都指向了大模型的建设方式。
在这里,我们粗浅地将大模型的建设方式分为三类:
1.
第一类是原创大模型。这类模型就像是 AI 世界中的 "独角兽",稀少而珍贵。创造原创大模型需要强大的技术积累,同时还需要持续的高投入。然而,这条路充满风险。正如马斯克所说:"当某件事情足够重要时,即使概率对你不利,你也要去做。" 原创大模型的开发者们正是秉持着这种精神,在未知的领域不断探索。但是,一旦模型未能展现出足够的竞争力,这些大规模的投入就可能付诸东流。