2025-04-13 ai工程师

2025-04-12  本文已影响0人  smallsmall

过去一年你精读了几篇论文,帮助最大的论文是什么

技术相关:

1. 3.7比3.5 有哪些变化

2025.2.25发布,编码能力位于榜首:在SWE-bench(真实软件开发任务)中准确率达70.3%,比3.5提升41%;数学正确率从3.5的88%提升至93%,编码任务HumanEval得分达96%;
引入了混合推理模型,结合了快思考和慢思考模式;

2. SFT会让模型学会新知识吗?为什么

监督式微调(Supervised Fine-Tuning, SFT)本质上不会让模型真正"学会"新知识,但可以教会模型更高效地运用已有知识。这一现象背后的机制需要从三个层面理解:

一、知识获取的本质差异

知识存储阶段:

参数空间限制:

二、SFT的实际作用机制

知识激活器:

表达方式矫正:

安全护栏构建:

image.png
image.png
需要关注Continue-Pretrain
微软:利用监督式微调(SFT),向大模型注入新知识,无需检索增强生成(RAG)!
https://zhuanlan.zhihu.com/p/692706105

3. 如何提升RAG的召回率

4. ChatGPT类对话产品,怎么做记忆管理?

保存记忆+聊天历史双模式
聊天历史:衰减模式
记忆:触发方式,主动配置、用户强烈表达、个人信息、反复强调

5. 有没有了解Cursor类产品,怎么做到相似代码搜索?

不确定,再看看

语义向量引擎

混合索引策略

  1. 怎么用LLM实现类Manus对浏览器操作?
    需结合工具调用框架与浏览器自动化技术
    https://cloud.tencent.com/developer/article/2507263

  2. 介绍一下DeepSeekMLA怎么降低 KV Cache?

  3. 有没有读过哪个开源Agent源码?怎么看待单Agent和多Agent场景?

上一篇 下一篇

猜你喜欢

热点阅读