资讯

闻乐 鱼羊 发自 凹非寺量子位 | 公众号 QbitAI 编程Agent王座,国产开源模型拿下了! 就在刚刚,阿里通义大模型团队开源Qwen3-Coder,直接刷新AI编程SOTA—— 不仅在开源界超过DeepSeek V3和Kimi ...
作者 | 季逸超 Peak Ji,蝴蝶效应联合创始人、首席科学家译者 | 王强策划 | Tina 在 Manus 项目伊始,我和我的团队面临一个关键决策:我们是应该使用开源基础模型训练一个端到端的 Agent ...
时隔不到一个月,上下文工程更是被一众科学家正式定义为一门学科。日前,来自中美澳累计 6 家高校科研机构的 15 名研究人员,通过分析 1400 ...
人人都是产品经理 on MSN11 小时

上下文工程:大语言模型的新范式

大语言模型不止靠参数“大”,更靠“上下文”聪明。本文系统性拆解上下文工程的设计逻辑与调用策略,从提示构造、状态保持到信息注入,揭示当下LLM开发正从模型调参,走向“上下文编排”的工程新范式。 论文导读: 《A Survey of Context Engineering for Large Language Models》(大型语言模型上下文工程综述)是一篇非常全面的学术论文,提出【上下文工程】这一 ...
整理 | 褚杏娟今天,阿里正式发布了其“迄今为止最具代理能力的代码模型” Qwen3-Coder。Qwen3-Coder 有多个版本,其中 Qwen3-Coder-480B-A35B-Instruct 是一个有 480B 参数、35B 激活参数的 ...
近期,谷歌DeepMind推出的Gemini 2.5 Pro模型在科技行业引发广泛关注。作为当前市场领先的AI大语言模型之一,Gemini 2.5 Pro凭借其处理超长上下文的能力,展现出前所未有的应用潜力。然而,尽管技术先进,该模型的运营成本仍然较高,在质量方面仍有改进空间。
这逐渐造成一个有趣的矛盾: Manus诞生到今天,它做出的交互方式创新,不只塑造了外界对“AI ...
大模型有苦恼,记性太好,无法忘记旧记忆,也区分不出新记忆!基于工作记忆的认知测试显示,LLM的上下文检索存在局限。在一项人类稳定保持高正确率的简单检索任务中,模型几乎一定会混淆无效信息与正确答案。
上下文工程正重塑 AI 应用开发,它整合任务描述、样本示例、检索数据等多要素,构建动态信息供给系统,解决大模型输出效果依赖提示词质量的问题,成为 AI 应用从“玩具”迈向“生产力工具”的关键。 你是不是也觉得,现在做个AI应用,就是找个大模型“套个壳”,然后天天琢磨怎么写“魔法提示词”? 如果你还这么想,那可能要被时代甩在身后了。 最近,圈子里的大佬们,比如Andrej Karpathy(前特斯拉 ...
在语言模型中,上下文窗口对于理解和生成与特定上下文相关的文本至关重要。 一般而言较大的上下文窗口可以提供更丰富的语义信息、消除歧义 ...
这意味着,除了逻辑错误率增加,模型在面对这类“干扰信息”时还会变得拖沓、计算成本升高。研究团队将其称为“减速攻击”,这是除错误率之外另一个关键风险。 有学者曾表示,“精确控制上下文”是AI真正的核心能力。而前OpenAI研究员Andrej ...
AI 时代,你可能听说过提示词工程、RAG、记忆等术语。但是很少有人提及上下文工程(context engineering)。 其实,这一术语并不新鲜,近两年很多 ...