机器之心原创
作者:张倩
「未来,99% 的 attention 将是大模型 attention,而不是人类 attention。」这是 AI 大牛 Andrej Karpathy 前段时间的一个预言。这里的「attention」可以理解为对内容的需求、处理和分析。也就是说,他预测未来绝大多数资料的处理工作将由大模型来完成,而不是人类。
身为经常接触大量文档和文案的开发者、研究者,相信你对 Karpathy 的这一预言有着深刻的共鸣。如今,当我们拿到一篇论文时,将其交给 AI 进行初步总结,已然成为了一种常规操作。至于选择哪款 AI,顶尖的模型似乎在基础功能上表现得都相差无几。然而,如果想要实现更多功能,例如深入精读或做笔记、存档,很多 AI 就难以满足需求了,因为目前真正为研究场景量身定制的 AI 助手并不多见
这也是为什么「心流 AI 助手」用起来感觉如此与众不同。
这种感觉就像「你可以用便签纸写博士论文,但这肯定不是最优解」。同样的,你可以用任意一款 AI 助手读论文,但未必每个都适合长期用。
从「心流 AI 助手」的一系列设计中,我们能感觉到这是一个可以长期用的工具。比如它接入了 DeepSeek 满血版,支持论文图谱、一键直达引文、自定义知识库问答,还能随时随地就整篇或局部段落与 AI 对话并将对话保存为笔记并导出,甚至生成播客…… 这一系列功能考虑到了科研工作者对于知识获取的高效性和知识管理系统性的需求,提供了其他通用 AI 助手尚未提供的差异化体验。而且,它还是的。
为了了解「心流 AI 助手」究竟对研究者有多大帮助,机器之心进行了一手实测,一起来看看效果如何。
读论文的那些难处
心流 AI 助手给梳理明白了
我们首先体验的是「心流 AI 助手」左边栏的「阅读」功能。这是一个可以检索论文的界面。只要输入论文标题或作者,我们就能找到相应的论文,并选择「AI 精读」。
打开后的精读界面如下所示。在这个界面读论文的过程中我们发现,如果你是一个某研究领域的初学者,你会觉得很多设计非常贴心,比如划重点,划词解读、提问,一键翻译全文,一键导读……
心流 AI 助手的论文精读页面。
心流 AI 助手的「导读」功能。
心流 AI 助手的划词解读。
在翻译对照界面,点击译文的某一段,原文的对应段落就会被高亮显示,不用像之前用翻译工具一样自己去查找。
心流 AI 助手的原文 - 译文对照阅读模式。
而这些刚刚学会的知识点,或刚刚划下来需要记住的东西,通通可以放入笔记,分门别类保存,方便下次查看。
心流 AI 助手无处不在的「笔记」功能,划出的重点、划词之后的解读、自己写的笔记、AI 给出的总结等均可添加为「笔记」。
不过,除了这些基础功能,对于领域资深研究者来说,引文直达论文「图谱」可能更具吸引力。
如图所示,我们拿来测试的这篇论文引用了 DeepSeek R1。如果是直接在 arXiv 上阅读,我们需要点击这个引文,跳转到文末的引用文献列表,然后根据列表中给出的相关信息去浏览器搜索。但是在心流 AI 助手的论文精读界面,我们可以一键直达,而且链接到的 DeepSeek R1 论文依然可以精读,这种「套娃」链接模式简直不要太方便。
心流 AI 助手的引文直达功能。
而点开「图谱」这个按钮,我们还发现了新的惊喜 —— 所有引文都被编织在了一张「网」里,每个节点都可以点击(也是直达论文并支持精读)。这就是心流 AI 助手特有的「论文图谱」功能,它不仅包含所引用的论文,还把论文作者的其他论文也网罗了进去,方便我们追根溯源。
另外,和其他 AI 助手类似,我们可以就这篇论文与心流 AI 助手背后的大模型展开对话,并且可以将对话内容导出为 PDF、markdown 等格式的文件,方便后续导入其他平台进行分享或处理(如把 AI 写的代码导入 Notion,作为笔记或博客的一部分)。
知识库、脑图、播客
读论文也可以私人订制
在论文精读界面,我们会看到右上角有一个「加入知识库」。这就是心流 AI 助手的另一个特色功能,它可以让大家把读过的论文存储成一个一个的文件夹,然后在想要回顾的时候去相应文件夹提问。
心流 AI 助手精读页面的「加入知识库」功能。
比如,在这个「后训练相关论文」文件夹里,我们可以导入多篇论文(精读页面导入、网页链接导入、本地导入均可),在回顾时,每篇都可以选择「速读」和「精读」。所以,即使我们忘了自己存的论文写了什么内容,也能通过这些功能快速回想起来。
心流 AI 助手知识库的速读功能,满足回顾时的快速预览需求。
如果不确定哪篇论文可以解答自己的问题,或者问题比较综合,可以选中文件夹里的所有论文,和大模型展开对话。此时,这些论文都可以作为与大模型聊天的上下文,非常方便。这可能才是 RAG 在科研场景的正确打开方式?
心流 AI 助手的知识库问答功能。
此外,我们注意到,每轮问答的右侧都会附带两个特色功能 ——脑图和播客
在我们的测试中,心流 AI 助手生成的脑图结构非常清晰,适合预览和回顾,而且还能下载为图片、Xmind、Markdown 等格式保存。
播客的生成效果给了我们一些惊喜,因为它能深入浅出地概括论文的核心内容,还穿插了一些形象化的说法来帮助理解。如果你只是想通过播客预览论文,这个功能绝对够用。
播客试听链接:https://mp.weixin.qq.com/s/ZHVmyQI68AuMKqeoAGzizQ
当然,以上这些功能不仅可以用来读论文,把一些有用的公众号文章放进去,同样可以建立一个知识库。利用自己建立的知识库去深度阅读,知识的获取会更加个性化,效率也会更高。
科研专用 DeepSeek
心流 AI 助手未来可期
除了论文精读和知识库,我们还体验了心流 AI 助手的搜索功能。我们发现,这个功能针对不同场景进行了设计 —— 如果我们的问题对信息来源的权威性要求比较高,那可以选择「专业模式」;而如果问题对推理能力要求比较高,我们可以选联网的 DeepSeek 满血版。
在两种模式下,我们都可以清晰地看到模型所引用的内容源,并一键跳转到原网站。如果被引用的内容是论文,我们还可以在精读模式下阅读这篇论文。
此外,这个搜索框还有一个对科研非常有帮助的功能——多轮深度搜索(打开「深度搜索」选项即可激活)。也就是说,对于我们问的问题,AI大模型会反复思考,反思自己的答案是否全面、正确,最终给出简洁但足够有信息量的答案。这种不吝惜 token 的做法在追求严谨的科研场景可能非常必要。
整体体验下来,「心流 AI 助手」的设计理念已经非常清晰,他们就是要为科研工作者打造一个专用的 DeepSeek 级别的 AI 工具。在这个工具里,我们可以高效地完成知识的获取和沉淀,所有思考痕迹都能像实验室笔记般完整保存。毕竟对研究者来说,灵感的脉络往往比结论更珍贵。
当然,这个工具只是初具雏形,还有很多可以改进的功能,比如播客的音色、停顿有时还不够自然,链接到的论文有时不支持直接精读(需要一个上传的操作)…… 相信在未来的版本中,这些小问题都会被一一解决。
期待心流 AI 助手的下一波更新。