- 奇绩大模型日报(5月 11-12日)
- 资讯
- 百万tokens低至1元!大模型越来越卷了
- 人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈论文
- DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
- 从零开始手搓GPU,照着英伟达CUDA来,只用两个星期
- Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
- 博弈论让 AI 更加正确、高效,LLM 与自己竞争
- HeyGen 创始人对话硅谷投资人 Sarah Guo:SaaS 十倍增长背后,Bootstrapping 还是拿融资
- 推特
- Anthropic控制台中现在可以生成提示语啦!
- Jim Fan分享思考:我们学习主流神经网络的像素到大脑会怎么样?我们能否拦截人类计算的“思维链”信号?
- 谷歌在Hugging Face发布TimesFM权重
- Yohei Nakajima: BabyAGI、人工智能代理与人工智能投资
- Chip Huyen:人们没有花足够的时间评估他们的评估流程
- Shunyu Yao分享博士论文答辩:《语言代理:从下一个词预测到数字自动化》
- 谷歌深度学习 Chollet:深度学习模型不能解决训练分布之外的任务,“涌现学习”是不正确的
- 产品
- Wanderboat——你的私人定制旅行伙伴
- Otto——记录生活,高速成长
- FaceSwap
- HuggingFace&Github
- Markdowner
- Crawl4AI
- Rill Flow
- Agentcloud
- 学习
- 新兴的AI AgentOps景观:建设者的视角
- 原理&图解vLLM Automatic Prefix Cache(RadixAttention): 首Token时延优化
- Flash Attention (GPT2 implement)
- StarCoder2-Instruct: 完全透明和可自我对齐的代码生成
- PyTorch加速LLAMA3技术详解
- [CUDA 学习笔记] GEMM 优化: 双缓冲 (Prefetch) 和 Bank Conflict 解决
- 声明
奇绩大模型日报(5月 11-12日)
奇绩大模型日报(5月 11-12日)
2024年5月12日修改
资讯
百万tokens低至1元!大模型越来越卷了
在刚刚举行的 ICLR 2024 大会上,智谱AI的大模型技术团队公布了面向激动人心的AGI通用人工智能前景的三大技术趋势,同时预告了GLM的后续升级版本。今天,智谱大模型开放平台(bigmodel.cn)上线了新的价格体系。入门级产品 GLM-3 Turbo 模型调用价格下调80%!从5元/百万tokens降至1元/百万tokens。1元可以购买100万tokens。调整后,使用GLM-3 Turbo创作一万条小红书文案(以350字计)将仅需约1元钱,足以让更多企业和个人都能用上这款入门级产品。
附件不支持打印
加载失败,