长上下文还是 RAG 2024 Week 13 回顾
最近有两种观点,其一认为未来应该是更长的上下文,例如 Kimi 的 200 万 Token 上下文;另一种则认为应该是 RAG(Retrieval-Augmented Generation)。
最近有两种观点,其一认为未来应该是更长的上下文,例如 Kimi 的 200 万 Token 上下文;另一种则认为应该是 RAG(Retrieval-Augmented Generation)。
不要用战术上的勤奋,掩盖战略上的懒惰。
大致上,我们所做的一切,都是为了勤快地懒。
无论是沃伦·巴菲特还是埃隆·马斯克或者比尔·盖茨或者史蒂夫·乔布斯,都有一个共同点:花大量的时间去找一件真正值得做的事情,然后义无反顾地投入其中。
本周,Figure 发布了一段视频。两周前,这家硅谷创业公司刚刚宣布和 OpenAI 的合作。
在这段视频里,Figure 01 以 OpenAI 的模型为大脑,实现了基于自然语言的推理、对环境的判断,并且能自己设计目的和实现。
对 Claude 3 做了一些简单测试。
免费版的能力,与 ChatGPT-4 相仿。收费版的,还没有尝试。
对于要求不高的日常文本摘要、代码编写工作,免费版 Claude 3 比免费版 ChatGPT-3 强一些。
AI 军备竞赛开始了。
最近咪蒙的短剧收入颇丰。
最近每个月起点都有十几二十本书过万订。
最近微博热搜……
在满足了基本生活所需后,人们自然而然会转入对情绪的需求中。“情绪价值”这个词去年热了起来,但其本质就是四个字: