Discuz! Board

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 1|回复: 0

常识AI进化撞上“数据墙”大模型研发遇阻,巨头纷纷转向新赛道

[复制链接]

17万

主题

0

回帖

52万

积分

超级版主

Rank: 8Rank: 8

积分
523317
发表于 前天 10:36 | 显示全部楼层 |阅读模式
人工智能(AI)的发展一直建立在这样的信念之上:训练数据规模越大,模型就会越来越好。然而,业界近期曝出了大模型进化遭遇“数据墙”的消息。
据外媒报道,OpenAI、谷歌和Anthropic在AI模型开发方面都陷入了瓶颈,他们发现,新模型法像前面几代产品那样带来巨大的飞跃。这在AI圈瞬时炸开了锅。
图灵奖得主杨立昆(YannLeCun)和OpenAI前首席科学家伊利亚・苏茨克维(IlyaSutskever)等科技圈大佬不客气地指出,大模型的规模法则(ScalingLaw)已经达到极限,必须转变思维,改变训练模式了。
而OpenAICEO阿尔特曼(SamAltman)和AnthropicCEO达里奥・阿莫迪(DarioAmodei)都相继对“瓶颈”说进行反驳。尽管如此,OpenAI和谷歌都在积极转变策略,研究如何解决训练数据匮乏的问题,以及如何调整规模法则的应用,保持模型稳步发展。
在百度CEO李彦宏看来,模型开发放缓也不见得是一件坏事。在比较近的一次访谈中,他表示,基础模型早期速迭代是正常的,但如果两年、年了还这样,那整个生态其是会比较乱。MetaCEO扎克伯格也表示,即使在现有技术的基础上,应用层面依然有很大的发展空间。


图片来源:视觉-VCG41N1309760279
OpenAI、谷歌和Anthropic遭遇开发瓶颈
据外媒,OpenAI的下一代旗舰模型可能不会像前面几代产品那样带来巨大的飞跃。
测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT-3到GPT-4的进步那么大。换句话说,OpenAI改进的速度似乎正在放缓。
OpenAI并不是仅有遭遇阻碍的,其竞争对手谷歌和Anthropic也传出了先进AI模型开发遇到瓶颈的消息。在以惊人的速度推出日益复杂的AI产品之后,这家领先的AI现在意识到,他们在开发新模型上进行的大量投入所带来的回报正在逐渐减少。
据知情人士透露,谷歌即将推出的新版Gemini未达到内部预期,Anthropic也推迟了Claude35Opus模型的计划发布时间。
高质量人造训练数据的缺乏是AI模型开发面临挑战的一大原因。外媒援引两位知情人士称,Orion在编程任务上的表现不尽如人意,部分原因是缺乏足够的编程数据进行训练。即使是有一些小幅的改进,也难以证明新模型构建和运营的高昂成本是合理的,这与市场对于重大升级的期待之间存在差距。
科技圈大佬激辩“数据墙”
AI模型开发遇阻的消息公开后,知AI评论家加里・马库斯(GaryMarcus)甚至直接单方面宣布“胜利”:“游戏结束,我赢了!我早就说过,GPT正在陷入收益递减阶段。”一直以来,马库斯就预测,生成式AI的发展将进入停滞阶段。


图片来源:X平台
AI怀疑论者经常警告,仅仅通过扩大规模来提高大模型的方法是有限的。一年前,比尔・盖茨就表示,有很多理由相信,当前生成式人工智能(agi)已经达到极限。“GPT-5不会比GPT-4好多少。”
OpenAI前首席科学家、SafeSuperintelligence联合创始人苏茨克维近日在接受外媒采访时也表示,扩大预训练的结果已经达到了平台期。所谓预训练,即使用大量未标记数据来训练AI模型以理解语言模式和结构的阶段。
Meta首席科学家、图灵奖得主杨立昆还转发了苏茨克维这条新闻,并评论,“我早就告诉过你们了,Meta早就开始转型了。”


图片来源:Thread
不过,OpenAICEO阿尔特曼周四在X上发帖称,“没有墙(thereisnowall)”,暗示AI发展没有遇到瓶颈。


图片来源:X
Anthropic创始人、规模法则论文的共同作者达里奥・阿莫迪也在近日的播客中表示,规模法则来自经验而非客观规律,他认为这一法则仍然会继续存在。
科技转变策略
尽管阿尔特曼驳斥了“瓶颈”一说,但OpenAI也一直在进行第二手准备。
OpenAI成立了一个基础团队,由之前负责预训练的NickRyder领导。该团队主要探索如何应对训练数据的匮乏,调整规模法则的应用,保持模型改进的稳定性。
例如,OpenAI的研究人员开始采用AI生成的合成数据来训练模型。他们还采用了强化学习方法,通过让模型从大量有正解的任务中学习(比如数学或编程问题),以此来改进处理特定任务的方式。此外,OpenAI还尝试在预训练后进行推理,即让模型在回答问题时花更多时间“思考”。OpenAI科学家NoamBrown称它是推理计算的Scaling(扩展)。


图片来源:X
谷歌似乎也在效仿OpenAI的做法。比较近几周,DeepMind在其Gemini部门组建了一个团队,旨在开发类似OpenAI推理模型的能力。
谷歌的研究人员也在专注于对模型进行手动改进。参与这项工作的人员表示,改进工作包括改变“超参数”,或者是决定模型如何处理信息的变量,例如模型在训练数据中建立不同概念或模式之间联系的速度。
巨头纷纷转向ai应用
在AI进化遇阻的讨论下,AI应用迎来大爆发。
得益于AI广告引擎模型Axon20带来的广告匹配效率提升,广告平台脚本Lon业绩大超预期。年初至今,该股的累计涨幅高达650%,是英伟达同期涨幅的3倍以上,总市值已经接近1000亿美元。


图片来源:谷歌财经
AI平台(AIP)显著推动了Palantir的业务增长。11月15日,这家宣布计划将其上市地点从纽约证券交易所转移至纳斯达克交易所。当天,该股涨1114%,报6577美元,该股年初至今涨28305%。
国内AI应用中,字节跳动旗下的豆包年初至今累计下载量已经突破1亿。10月份,Kimi的月活跃用户数突破千万大关。MiniMax海外版应用的10月访问量较上月暴涨2773%。
百度CEO李彦宏认为,AI模型开发放缓也不一定就是个坏事。在比较近的一次访谈中,他表示,基础模型早期速迭代是正常的,但如果两年、年了还这样,那整个生态其是会比较乱。
李彦宏解释道:“基础模型不能够特别地迭代。如果老在变,那做应用的人就所适从了,该做什么我不知道,我刚做了两个月,你又升级了,把我做的冲掉了,白做了,我又得重新适应一遍新的规则。我觉得可能两年一个大的版本是一个比较合适的节奏。”
扎克伯格也表示,在比较坏的情况下,即使技术没有改进,仍然有很大空间在现有技术的基础上打造消费者和企业产品。
作为AI领域的领头羊,OpenAI也在加强对应用层面的探索。据报道,OpenAI将于明年1月推出能够帮助用户整理文件,预订机票的AI智能体(aiagent)软件。
谷歌正在开发一款代号为贾维斯计划的AI代理软件,“贾维斯”这个字的灵感来自《钢铁侠》的全能AI管家贾维斯。
仁勋也开始对AI应用表达了兴趣。本周,他在日本举行的英伟达AI峰会上和孙正义一起宣布,将联合软银在日本打造AI+5G络。
同时,他也在会上强调了AI智能体的潜力――即具备理解、推理、规划和执行能力的高级数字智能体,能够改变各个行业的生产力。他指出,这些智能体能够处理复杂的多步骤任务,有望“为人类完成50%的工作”,从而大幅提升人类的生产力。通过将数据转化为可操作的见解,代理式AI为企业提供了强大的工具,可以在不取代人类角色的情况下提升运营效率。


图片来源:英伟达
值得注意的是,英伟达的财报将于北京时间11月21日公布,预计在财报发布后的会议上,仁勋将宣布更多关于AI应用的消息。
过去一周,英伟达股价的“疯涨”势头暂时有所放缓。


图片来源:谷歌财经
投资RoundhillCEODaveMazza对《每日经济新闻》表示,英伟达需要在AI领域现新的技术突破以及持续的收入增长,才能保持市值的领先地位。


#AIGC行业资讯#agi#AI#aiagent#aiagent#AI平台#ai应用#AI模型#arc#Gemini#GPT#Meta#MiniMax#OpenAI#人工智能#国内AI#图灵奖#图片#大模型#字节跳动#工具#强化学习#扎克伯格#技术突破#生成式#生成式AI#生成式人工智能#英伟达#视觉#论文#谷歌#豆包#预训练#仁勋
?版权声明

更重要的是,知识库构建做成了产品当中的战斗机,不惧任何竞争对手的攻击。支持企业基于本地私有知识库,训练与开发智能客服、营销自动化、智能销售场景AI应用,助力零售、金融等行业企业智能化转型与决策效率提升。https://www.betteryeah.com/product/knowledgebase

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|芷惯网

GMT+8, 2024-12-27 16:49 , Processed in 0.060809 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表