输入“/”快速插入内容

奇绩大模型日报(8月 13日)

2024年8月15日修改
📡潜空间活动报名
🎉
潜空间系列活动第三季第三期开启报名!
本期活动将在8月24日 10:00 am开始,嘉宾是童晟邦。童晟邦,纽约大学博士,伯克利人工智能实验室(BAIR)研究员, OpenAI 超对齐奖学金获得者。他将和大家探讨视觉在多模态大模型中扮演的角色
除嘉宾分享外,每期设置了【匹配合伙人 Cofounder Matching】环节。你可以和 GenAI 时代最有活力的创业者和研究者线下面对面交流,将有机会找到志同道合、有共同创业梦想的小伙伴。
报名通道已开启,欢迎扫描下方二维码报名。
资讯
Transformer作者创业公司Sakana AI推出AI Scientist
Sakana AI 推出的 AI Scientist 系统能够自动化地进行科学研究,包括构思实验、编写代码、运行实验、总结结果以及撰写和审阅论文。该系统在多个机器学习子领域展现了多功能性,每篇论文的成本仅为 15 美元左右,且能够超越顶级会议的接受标准。
50%
50%
Genie!能模拟人类工程师思考和行动
Cosine 推出的 AI 编程助手 Genie,在第三方基准测试中超越了 Cognition 的 Devin 和其他竞争对手,得分达到 30%。Genie 能够自主完成多种编程任务,包括代码调试、功能开发、代码重构和测试,它模仿人类软件工程师的思维和行为,支持多种编程语言。Genie 通过 OpenAI 的 GPT-4o 长输出上下文模型进行训练和微调,使用了大量高质量的数据集。Cosine 计划通过两种定价模式推出 Genie,一种面向个人和小团队,另一种面向企业级用户。Genie 的推出预示着软件开发团队可以更有效地分配工程资源,专注于更具战略性的任务。Cosine 已经筹集了 250 万美元的种子资金,并计划将人类推理应用于更多复杂问题的解决,从软件工程开始。
50%
50%
7B模型挑战Transformer,长序列处理再升级
Falcon Mamba 7B 是一款开源的状态空间语言模型,旨在处理任意长度的文本序列。它摒弃了传统的注意力机制,采用了 RNN 和 CNN 的特点,通过选择性传播信息提高了效率。该模型能在不增加内存需求的情况下处理无限长序列,且生成每个 token 的时间接近恒定。Falcon Mamba 在性能上超越了同规模的 Transformer 模型,包括 Llama-3.1 (8B)、Mistral (7B) 和 Falcon-2 (11B)。它支持多种 Hugging Face API,并提供了指令调优版本,通过额外 50 亿个 token 的微调提升了准确性。
50%
50%
论文荣登计算机体系结构顶会ISCA,芯片架构成为边缘AI最佳并行计算选择