输入“/”快速插入内容

奇绩大模型日报(8月 28日)

2024年8月29日修改
📡潜空间活动报名
🎉
潜空间系列活动重磅回归!
本期活动将在9月6日 14:00开始,我们邀请到的嘉宾是闫俊杰。他是MiniMax 创始人兼 CEO,是中国第一梯队的大模型创业者,目前 MiniMax 估值超 25 亿美元。他将和大家探讨Intelligence with everyone :对 AGI 0-1 的探索与实践
除嘉宾分享外,每期设置了【匹配合伙人 Cofounder Matching】环节。你可以和 GenAI 时代最有活力的创业者和研究者线下面对面交流,将有机会找到志同道合、有共同创业梦想的小伙伴。
报名通道已开启,欢迎扫描下方二维码报名。
资讯
商汤营收大涨21%,六成来自生成式AI
商汤科技2024年上半年财报显示,公司总营收达17.4亿元,同比增长21%。其中,生成式AI收入增至近11亿元,占总收入的60%,首次超越传统AI业务,成为主导性业务。尽管净亏损24.7亿元,但亏损幅度已收窄21%。
生成式AI的快速发展得益于商汤的“商汤大装置+大模型”战略,通过大规模计算资源支持模型训练,商汤在大模型开发和部署方面取得显著优势,应用范围涵盖金融、医疗等多个领域。生成式AI在超越传统AI的同时,也带来了更高的市场份额和行业领导地位。商汤CEO徐立表示,公司将继续推动技术创新,目标是引领行业迈向通用人工智能(AGI)时代。
50%
50%
KDD 2024全部奖项放出
ACM SIGKDD(国际数据挖掘与知识发现大会,KDD)是数据挖掘领域历史最悠久、规模最大的国际顶级学术会议,自1989年起举办,并引领了大数据、数据科学等多个前沿概念的发展。2024年,第30届KDD大会于8月25日至29日在西班牙巴塞罗那召开,颁发了多个重要奖项,包括最佳论文奖、时间检验奖、杰出博士论文奖等。其中,多位华人研究者获得了奖项。
杰出博士论文奖授予了孟瑜的《Efficient and Effective Learning of Text Representations》,该论文探讨了如何通过球面空间和自监督技术提高文本表示学习的效率,并提出利用LLM生成训练数据以改进自然语言理解。另有两篇论文获得了杰出博士论文奖亚军,分别是加利福尼亚大学Ziniu Hu的《Make Knowledge Computable: Towards Differentiable Neural-Symbolic AI》和佐治亚理工学院Alexander Rodriguez的《Artificial Intelligence for Data-centric Surveillance and Forecasting of Epidemics》。
最佳论文奖(研究方向)授予了《CAT: Interpretable Concept-based Taylor Additive Models》,该研究提出了一种基于概念的泰勒相加模型CAT,简化了深度神经网络的可解释性。最佳学生论文(研究方向)由中国科学技术大学和华为合作的《Dataset Regeneration for Sequential Recommendation》获得,该研究提出了数据中心化AI的新范式,有效提升了序列推荐系统的性能。
应用数据科学方向的最佳论文奖颁给了领英的《LiGNN: Graph Neural Networks at LinkedIn》,该研究介绍了大规模图神经网络的开发与部署经验。时间检验奖则授予了《DeepWalk: online learning of social representations》和《U-Air: when urban air quality inference meets big data》,分别在网络表示学习和城市空气质量推断领域做出了重要贡献。
50%
50%
介绍Cerebras Inference:瞬时速度的AI
Cerebras公司推出了全球最快的AI推理架构Cerebras Inference,以每秒1800 token的速度运行Llama3.1 8B模型,推理速度超越了英伟达GPU的20倍,并且价格极具竞争力。Cerebras Inference基于公司自研的第三代Wafer Scale Engine(WSE-3)芯片,解决了传统GPU推理中的内存带宽瓶颈问题。WSE-3芯片集成了44GB的SRAM,具备21 PB/s的内存带宽,远超英伟达H100的性能。这使得Cerebras Inference在保持模型精度的同时,大幅提升了推理速度,且成本仅为英伟达H100的五分之一。此外,Cerebras提供的API定价极具性价比,每百万token仅需10美分,并向开发者每日提供100万个免费token,进一步降低了推理成本。尽管推理速度极快,但Cerebras Inference的上下文长度限制为8K,相较其他平台的128K仍有差距。Cerebras的推理架构不仅提升了AI模型的智能,还为复杂的AI工作流程提供了支持,未来将测试支持更大参数的模型。
50%
50%
重新定义“开源”