输入“/”快速插入内容

奇绩大模型日报(7月 20-21日)

2024年7月22日修改
资讯
机器人版的「斯坦福小镇」来了,专为具身智能研究打造
最近,来自上海人工智能实验室OpenRobotLab 等机构的一批研究者也打造了一个虚拟小镇。不过,生活在其中的是机器人和 NPC。
作者表示,他们设计这个环境是为了解决具身智能领域的数据稀缺问题。众所周知,由于收集真实世界数据的成本过高,在具身智能领域探索 scaling law 一直困难重重。因此,从仿真到真实(Sim2Real)的范式成了扩展具身模型学习的关键一步。
50%
50%
专访诺奖得主:大模型是记忆还是理解?
2011 年诺贝尔经济学奖得主托马斯·萨金特(Thomas J. Sargent)教授认为,人工智能和机器学习的核心理念可以追溯至伽利略时代,都是通过构建世界模型并基于模型进行预测和决策。机器学习作为人工智能的关键组成部分,通过数据驱动的方式实现了这一过程。
萨金特教授在写于 2023 年 10 月的工作论文《Sources of Artificial Intelligence》中表示,他所理解的「人工智能」,是指那些旨在完成「智能」任务的计算机程序,而这些任务过去是由像伽利略、达尔文和开普勒这些拓展了人类认知边界的先驱完成的。很多机器学习技术利用数据、概率论和微积分来推断模式,而设计机器学习芯片、算法和代码的程序员,则是在再现(copy)伽利略的自由落体实验。
50%
50%
微软蓝屏全球停摆,这个锅是ta的?一次更新酿成全球灾难
只因一次更新,Windows集体蓝屏,全世界直接「断片」了——
大批金融机构、电视广播公司、医疗机构、支付系统原地瘫痪,甚至连便利店和售货机都「停摆」了。
闯出如此大祸之后,「罪魁祸首」CrowdStrike的股票在收盘时已暴跌11%,市值蒸发了近100亿美元。
50%
50%
仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式
Scaling Laws当道,但随着大模型应用的发展,基础模型不断扩大的参数也成了令开发者们头疼的问题。为了减轻训练负担,Adapter、Prompt-Tuning以及LoRA()等高效微调(Parameter Efficient Fine-Tuning, PEFT)算法越来越受到大家伙的青睐。
尽管近年来高效微调领域发展迅速,涌现了多种方法,但不同PEFT方法背后的数学基础几乎没有得到深入研究此外,不同PEFT方法之间的性能差异及其原因尚未系统地探讨。这种理论深度的缺乏限制了研究者对这些方法潜在优势和局限性的理解,阻碍了它们在实际应用中的优化和创新。
为了解决这一问题,来自上海交通大学的研究者们在对各种PEFT方法进行全面数学分析后,提出了一种新的框架——子空间微调,旨在将所有已知的PEFT方法统一在一个理论下,
50%
50%
推特
Elevenlabs分享新Turbo 2.5型号,增强31种语言速度