最专业股票配资平台_国家允许的配资平台-国内十大股票配资软件-广州配资平台 DeepSeek新模型“火”到海外,Meta首席AI科学家称“开源在超越闭源了”
你的位置:最专业股票配资平台_国家允许的配资平台-国内十大股票配资软件 > 最专业股票配资平台 > 广州配资平台 DeepSeek新模型“火”到海外,Meta首席AI科学家称“开源在超越闭源了”
广州配资平台 DeepSeek新模型“火”到海外,Meta首席AI科学家称“开源在超越闭源了”
发布日期:2025-02-02 20:59    点击次数:74

广州配资平台 DeepSeek新模型“火”到海外,Meta首席AI科学家称“开源在超越闭源了”

DeepSeek上周发布开源的DeepSeek-R1广州配资平台,并称该模型性能对标OpenAI o1正式版之后,海外AI业界对该模型的讨论还在持续。

热议的焦点在于,当开源模型能力赶上最新的闭源模型,可能改变大模型的竞争格局。

据DeepSeek介绍,DeepSeek-R1在Codeforces、GPQA Diamond、MATH-500、MMLU、SWE-bench Verified等测试中,得分与o1正式版接近,部分测试中得分还超过o1正式版。该模型在后训练阶段大规模使用了强化学习技术,在只有极少标注数据的情况下提升了模型推理能力。

AI业界人士已经在讨论开源的影响。Meta首席AI科学家Yann Lecun表示,DeepSeek-R1面世与其说意味着中国公司在AI领域正在超越美国公司,不如说意味着开源大模型正在超越闭源。“DeepSeek会从开放研究和开源中获利,可能会类似Meta的PyTorch和Llama。他们提出新想法,并在别人的工作基础上实现。因为他们的工作是公开和开源的,每个人都能从中获利,这就是开放研究和开源的力量。”Yann Lecun表示。

“我们生活在这样一个时代,一家非美国公司正在让OpenAI的初衷得以延续,即做真正开放、为所有人赋能的前沿研究。”英伟达高级研究科学家Jim Fan表示,DeepSeek-R1可能是第一个展示了RL(强化学习)飞轮可发挥作用且能带来持续增长的OSS(开源软件)项目。加利福尼亚大学伯克利分校教授Alex Dimakis则称,DeepSeek似乎是奔赴OpenAI最初使命的“最佳人选”,其他公司需要迎头赶上。

硅谷风投A16Z创始人Marc Andreessen也发表评论称,DeepSeek-R1是他见过的最令人惊叹且令人印象深刻的一个突破,作为开源的模型,它的面世给世界带来了一份礼物。

对比也走开源路线的Meta,新浪微博新技术研发负责人张俊林表示,DeepSeek和阿里在开源方面已经领先Meta,国内的开源风气越来越好,这是被DeepSeek和阿里带动起来的。得益于DeepSeek开源出的众多R1版本模型,业界可以低成本快速复制出逻辑推理能力更强大的模型。

用户可以在自己的服务器上或使用云算力部署开源模型,并用自己的数据微调大模型,使用开源模型在数据安全方面可能优于调用闭源大模型的API接口,且用户不需要向大模型厂商支付API调用费用。在开源大模型能力超过或比肩闭源大模型能力时,开源对闭源将造成冲击。

DeepSeep-R1推出前,开源领域的标杆是Meta的Llama系列模型,MiniMax副总裁刘华此前接受第一财经记者采访时表示,比开源模型更好是一个最基本的门槛,如果基础模型做不到这一点就可以转而做AI应用了。在国内做商业化一个最基本的前提就是比Meta的Llama模型更好。“否则别人可以用Llama,为什么花钱用你的模型?这很现实。”刘华说。

DeepSeek是幻方量化旗下的AI公司,创立于2023年,幻方量化创始人梁文峰在量化投资和高性能计算领域有深厚背景。该公司走开源、性价比路线,也被冠以“AI界拼多多”的名号。去年5月,DeepSeek发布DeepSeek-V2,价格是GPT-4-Turbo的近百分之一,打响了大模型价格战的先声。此次发布的DeepSeek-R1也提供了API调用方式,API输入(缓存命中)、输出定价分别为每百万tokens1云、6元,低于o1的55元、438元。去年12月,DeepSeek还发布了大模型DeepSeek-V3,因该模型“2048个GPU、2个月、近600万美元”的极低训练预算受到关注。

不过,从最新消息看,DeepSeek的产品更新并未改变海外巨头向大模型投入巨额资金、大举建设算力基础设施的做法。近日OpenAI、甲骨文和软银宣布将成立一家合资企业“星际之门计划”,计划未来四年投资高达5000亿美元用于建设AI相关基础设施,该计划得到了刚上任的美国总统特朗普的力挺。

当地时间1月24日,Meta CEO扎克伯格则表示,为了实现公司在AI领域的目标,公司正在建设一个2吉瓦以上的数据中心,占地面积“能够覆盖纽约曼哈顿的很大一部分”,公司预期到今年年底拥有130万块GPU,今年的资本支出将达到600亿~650亿美元的规模。

举报 第一财经广告合作,请点击这里此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。 如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。 文章作者

郑栩彤

相关阅读 “华裔天才”亚历山大·王:DeepSeek性能与美国最好的AI模型相当

Alexandr Wang认为,过去十年来,美国可能一直在人工智能竞赛中领先于中国,但DeepSeek的AI大模型发布可能会“改变一切”。

667 01-24 19:50 国内大模型春节前迎来密集发布周,一手追赶OpenAI一手寻找新方向

这些大模型企业年初释放的信号可能指明了今年大模型领域的竞争方向。

179 01-22 07:39 总规模达到230EFLOPS,位居全球第二,新增算力向枢纽节点集聚,政策推动产业有机协同发展︱产业图谱

总规模达到230EFLOPS,位居全球第二,新增算力向枢纽节点集聚,政策推动产业有机协同发展。

21 01-13 12:05 数据新基建明确五年规划,加快形成全国数据“一本账”

建立覆盖政府、行业、企业等主体及国家、省、市、县等层级的全国一体化的分布式数据目录,形成全国数据“一本账”,支撑跨层级、跨地域、跨系统、跨部门、跨业务的数据有序流通和共享应用。

182 01-06 22:40 性能匹敌GPT-4o的国产模型在海外火了,训练仅花费558万美元

与之相比广州配资平台,GPT-4o等模型的训练成本约为1亿美元。

577 2024-12-27 16:43 一财最热 点击关闭