研究人员提出的递归语言模型(Recursive Language Models, RLMs)通过引入Python交互环境,让模型学会写代码去分块读取、检索并递归调用自身处理信息,成功在千万级Token的超长文本任务中实现了性能与成本的双重突破。
传统基础模型在S-NIAH单针大海捞针等简单检索任务中尚能维持表现,但在信息密度更高的复杂任务中,其推理性能随输入长度增加而下降。相比之下,RLM在输入长度超过特定阈值区间后,依然保持得分稳定性。
2025年的最后一天, MIT CSAIL提交了一份具有分量的工作。当整个业界都在疯狂卷模型上下文窗口(Context ...
为此,今天要给大家介绍一款谷歌的开源项目LangExtract,不仅是一个工具,更是一套面向真实场景的 ...
近日,一封由 AI 系统生成的感谢邮件在技术圈引发广泛关注和讨论。Python 之父 Guido van Rossum 对收到的邮件回应一句「Stop」,React 核心团队成员、Redux 作者 Dan Abramov 则投诉称“垃圾邮件泛滥”。
scons ( 2.3.0 ) ant ( 1.8.2 ) Python ( 2.7.3 ) PostgreSQL ( 9.3.4 ) Linux x86-64: g++ ( 4.3.4 ) gcc ( 4.3.4 ) make ( 3.81 ) kernel ( 3.0.13-0.27-default ) Linux PPC64: g++ ( 4.3.4 ) gcc ( 4.3.4 ) make ...
腾讯微信 AI 团队提出 WeDLM(WeChat Diffusion Language Model),通过在标准因果注意力下实现扩散式解码,在数学推理等任务上实现相比 vLLM 部署的 AR 模型 3 倍以上加速,低熵场景更可达 10 ...
这两天,科技圈和金融圈的朋友圈被 MiniMax 赴港上市的消息刷屏。作为大模型领域的明星独角兽,MiniMax 的“上岸”无疑给行业投下了一颗深水炸弹。 但比起资本市场的喧嚣,作为开发者,我更关心其产品底层实力的进化。
单个字符对大模型来说意义有限,使用GPT系列的Llama系列的tokenizer就会发现, 20个字符的问题,在不同AI眼中是10-13个token。
作者:周雅 鉴于Meta收购Manus的消息甚嚣尘上,我们发现Manus这家公司在被收购之前,对外作出了一场公开演讲,Manus AI联合创始人兼首席产品官张涛,在10月29日新加坡企业发展局主办的SWITCH大会上,分享了对于智能体的理解。
【本文由小黑盒作者@idea小时于12月30日发布,转载请标明出处!】 Introducing Inferri: Navigate the AGI Era. Inferri官网 互联网上每天诞生成百上千个 AI ...