高马尔
一个信息发布的网站

Manus引爆智能体复现潮!DeepSeek已被整合,项目挤满开源榜,海外大V排队求码

今天小编(衛青柏)要和大家分享的是Manus引爆智能体复现潮!DeepSeek已被整合,项目挤满开源榜,海外大V排队求码,欢迎阅读~

Manus 背后公司名为 " 蝴蝶效应 ",真的带火了整个智能体赛道——

开源复现潮出现了,商业闭源产品也卷起来了。‍‍‍

目前进度最快的两个项目,都是在 Manus 发布的第 0 天发布了复现代码。

除了之外,另一个开源项目OWL 已经把 DeepSeek 模型整合到多智能体协作框架中

OWL 来自国内开源社区CAMEL-AI团队。

OWL 最新提交的结果在智能体测试基准 GAIA 的验证集上排名平均分第 3,在开源项目中排第 1。

其 Level 1 分数81.13同样超过了 OpenAI 的 Deep Research,与 Manus 晒出的86.5已经非常接近。

虽然 Level 2 和 Level 3 分数还有差距,不过 CAMEL-AI 团队的李国豪在交流群中表示,有信心刷爆。

今日的 GitHub 热榜上,大多是 Agent 相关的项目和工具库,老牌 Agent 项目 MetaGPT 与 AutoGPT 双双被顶到前排。

Camel-AI、OpenManus 所使用的代码库 browser-use 也现身,此外金融、编程等领網域的垂直智能体也备受关注。

与此同时,有人注意到 Claude 团队推出的模型上下文協定 MCP不是已经有小半年了么,为什么突然每个人都在讨论它?

原来是每个人都想知道如何造一个 Manus,而 MCP 是一种有效的实现途径呀。

Manus 火到海外

再来看看 Manus 本尊的进展。

官方社交媒体账号被短暂禁封后现已恢复,称将发布更多演示和更新。

Manus 这个产品也成功火到了国外,方法很简单:发邀请码。

除了给海外大 V 单独发之外,Manus 联创季逸超还与抱抱脸 CEO 取得联系,公开分享 100 个码,见者有份,先到先得。

两人的交流中季逸超谈到 Agent 能力可能更多的是对齐问题而不是基础能力问题,基础模型被训练为 " 无论任务有多复杂,都一次性回答所有问题 ",而 " 只需对代理轨迹进行一点后期训练,就可以立即产生显著的变化 "。

(顺便码不用去试了,半夜就抢光了。)

海外用户得到码之后的剧情和这边差不多,有不少试用之后被惊艳到的,变成 " 自来水 " 的。

并且海外用户的付费意愿确实要强一些,毕竟比起 OpenAI 两万美元一个月的博士级智能体总是要便宜许多。

很多人拿到 Manus 做的第一件事,都是让他收集自己的资料,编写并部署个人主页。

其中 Rowan Cheung 表示 Manus 收集到关于他的个人信息 100% 准确且是最新的。

类似的任务还有日本网友让 Manus 部署一个介绍他自己的网站。

他分享了体验中的一个细节:虽然 Manus 可以自己完成所有任务,但如果在执行过程中给出意见,它也可以灵活地改变计划并执行,就好像真的再给人下达指令一样。

更复杂的编程类任务还有制作一个 javascript 的飞行游戏。

也有人把它当做 Deep Research 类工具,寻找租房信息只花了不到 10 分钟时间。

主要的抱怨集中在速度有些慢,以及没有码。

One More Thing

作为 Manus 出圈的副作用之一,GAIA 基准测试正在成为智能体类产品必争之地。

GAIA 由 Meta AI、HuggingFace 和 AutoGPT 团队推出,图灵奖得主 Yann LeCun 和 HuggingFace 首席科学家 Thomas Wolf 参与,旨在解决现有大语言模型基准测试被快速突破、难以评估新模型的问题。

GAIA 测试由 450+ 具有明确答案的复杂问题组成,分为三个难度级别,考验智能体系统的工具使用能力以及自主性。

Level 1:通常解题步骤不超过 5 步,且不需要工具,或最多使用一种工具。如简单的信息检索和处理,任何优秀的语言模型都可以完成。

Level 2:需要在 5-10 步之间完成,并且需要组合使用不同工具。如 " 根据附件 Excel 檔案计算当地快餐连锁店食品(不含饮料)的总销售额 "。

Level 3:面向近乎完美的通用 AI 助手,要求 AI 能够执行任意长度的复杂动作序列,使用多种工具,并具备广泛的世界知识和信息获取能力。

如 " 在 2006 年 1 月 21 日 NASA 的每日天文图片中有两名宇航员,截至 2023 年 8 月,找出较小宇航员所在 NASA 宇航员小组中在太空停留时间最短的宇航员及其停留时间 ",解答这类问题需要综合网络搜索、信息筛选、知识推理等多种能力。

人类在 Level 2、和 Level 3 上的成功率分别是92% 和 87.3%,测试推出时最先进的语言模型 GPT-4 得分为 9.7% 和 0。

此外 GAIA 排行榜分为测试集(Test)和验证集(Validation)两项,其中验证集是公开数据,测试集为私有数据,测试集的含金量更高一些。

目前测试集排行榜中,h2oGPTe Agent(来自 H20.ai)、Trase Agent(来自 Trase Systems)两个商业闭源系统的 Level 2 分数与 Manus 公布分数(70.1%)接近。

Manus 团队公布的 Level 3 分数为 57.7%,领先幅度比较大。

ImageNet数据集与竞赛开启了深度学习浪潮之后,每个时代都有自己的当红榜单指引着最前沿技术的发展。

在 BERT 时代是语言理解基准CLUE、SpuerCLUE

随后 ChatGPT、Claude、Gemini 已经刷爆了考验各学科知识的MMLU、以及用户用脚投票的ChatBot Arena大模型竞技场。

o1/r1/QwQ 类推理模型正在比拼数学(AIME、FrontierMath)、博士级别理科题(GPQA)、编程 / 軟體工程能力(Codeforces、SWE-bench、LiveCodeBench)。

智能体刷 GAIA,似乎正在成为行业最新共识。

或者不久以后,可以期待一下 AgentArena 智能体竞技场?

OpenManus

https://github.com/mannaandpoem/OpenManus

OWL

https://github.com/camel-ai/owl

GAIA Bencmark

https://huggingface.co/spaces/gaia-benchmark/leaderboard

https://arxiv.org/abs/2311.12983

关于Manus引爆智能体复现潮!DeepSeek已被整合,项目挤满开源榜,海外大V排队求码就分享完了,您有什么想法可以联系小编(衛青柏)。