
2026年4月20日在线股票配资,英伟达首席执行官黄仁勋在一次备受瞩目的访谈中,发出了一则振聋发聩的预警:“若DeepSeek的最新一代大模型,能够率先选择在中国华为的先进芯片平台上发布并全面适配,那么这对美国在全球人工智能领域的战略地位而言,无疑将是一个灾难性的打击。”这段话通过网络迅速传播,为后续事件埋下了伏笔。
仅仅四天之后,即2026年4月24日,DeepSeek-V4的预览版本正式对外上线,并同步以开源形式向全球发布。黄仁勋此前所担忧的,似乎正以一种迅疾而令人瞩目的方式成为现实。
此次发布的DeepSeek-V4系列模型,阵容强大,包含两个关键版本:名为V4-Pro的旗舰级模型,拥有令人惊叹的1.6万亿参数规模;以及更具性价比的V4-Flash版本,参数量亦达到2840亿。两者均原生支持高达100万token的超长上下文处理能力,并且采用了最开放的MIT协议进行开源,极大地降低了开发者和企业的准入门槛。
就在这款重量级模型正式问世前的一周,市场上传出风声,DeepSeek正积极洽谈其首轮外部融资事宜。最初的市场估值目标设定在100亿美元,计划募集至少3亿美元的资金。然而,事态的发展远超预期,在模型发布后的短短六天内,中国科技巨头腾讯和阿里巴巴正式入场,双方的深入洽谈使得DeepSeek的估值直接飙升至令人咋舌的200亿美元以上。
据接近此次融资交易的相关人士透露,DeepSeek之所以选择对外融资,其核心动因之一在于遏制人才的流失。这家成立已近三年的公司,此前一直未进行外部融资,其大部分资金支持均来源于幻方量化。
DeepSeek的创始人梁文锋,此前曾多次公开表达对外部融资的审慎态度。他曾在采访中强调,作为出资方之一的幻方量化,能够为公司提供充足的研发预算。梁文锋更深层次的顾虑在于,担心外部投资者可能会过度干预公司的战略决策。他指出,许多风险投资机构对纯粹的研究投入持保守态度,更倾向于快速实现产品商业化以追求退出收益,这与DeepSeek优先专注于深入研究的长期发展思路存在根本性的冲突。
然而,现实的严峻性在于,DeepSeek的核心技术骨干正面临着来自大型科技公司频繁且极具诱惑力的挖角攻势。多位知情人士透露,DeepSeek此次计划筹集的资金规模,尽管仅在数亿美元级别,但其象征意义远大于实际的资金“补血”需求。其中一位知情人士进一步补充道,如果未能与外部投资者达成有利的协议,DeepSeek创始人梁文锋也在积极评估其他确立公司估值的替代方案,例如进行内部股份回购,或者建立一套基于实际业务表现的评估模型。
在当前在线股票配资人工智能研究领域,期权往往是构成AI研究人员薪酬体系中至关重要甚至占绝大部分的组成部分。在这场炙手可热的顶尖AI人才争夺战中,一个明确且具有吸引力的公司估值,对于留住那些以期权为主要薪酬激励的研究开发人员,具有无可替代的关键作用。
4月24日午间,DeepSeek-V4的正式发布,立即在全球范围内引爆了市场的关注热潮。紧随其后,多家人工智能领域的巨头企业纷纷宣布完成了对DeepSeek-V4模型的适配与接入。百度智能云率先发布消息称,其百度千帆Day0适配服务已经能够提供DeepSeek-V4预览版的API接口服务,并且对外定价策略与DeepSeek官方保持高度一致。
与此同时,华为计算也随即发布公告,其昇腾超节点产品系列已全面支持DeepSeek-V4。此次的成功适配,得益于华为与DeepSeek双方在“芯模技术”上的紧密协同,使得昇腾超节点全系列产品能够无缝支持DeepSeek-V4系列模型的运行。
具体而言,华为昇腾950芯片通过采用创新的融合kernel技术和多流并行技术,有效降低了模型中的Attention计算和显存访存开销,从而大幅提升了推理性能。结合多种先进的量化算法,昇腾950成功实现了DeepSeek-V4模型的高吞吐、低时延推理部署。性能数据显示,在8K输入场景下,基于DeepSeek-V4-Pro模型,昇腾950超节点单卡每秒能够实现约4700个token的解码吞吐量(TPOT约20ms)。对于DeepSeek-V4-Flash模型,在8K长序列输入场景下,单卡每秒可实现约1600个token的解码吞吐量(TPOT约10ms)。
除了昇腾950,华为还宣布,其旗下的昇腾A2和A3系列产品也已完成了对DeepSeek-V4-Flash和DeepSeek-V4-Pro模型的适配。
寒武纪公司也在第一时间宣布,基于vLLM推理框架,成功完成了对DeepSeek-V4-Flash和DeepSeek-V4-Pro这两个版本的Day0适配工作,并将适配代码已开源至GitHub社区。值得一提的是,在去年DeepSeek-V3.2发布时,寒武纪同样是首批发布适配国产芯片的厂商。
深度求索(DeepSeek)官方在DeepSeek-V4的正式发布文稿末尾,特意引用了《荀子·非十二子》中的名句:“不诱于誉,不恐于诽,率道而行,端然正己。”这似乎寓意着公司在面对外界的赞誉与非议时,将始终坚持以道义为准则,行正道而直行。
目前,DeepSeek-V4模型已被公司内部作为Agentic Coding模型使用。根据内部评测反馈,其使用体验已超越了Sonnet 4.5,在交付质量方面已接近Opus 4.6的非思考模式,尽管与Opus 4.6的思考模式相比仍存在一定差距。
在权威的世界知识测评中,V4-Pro模型表现极为抢眼,大幅领先于其他同等规模的开源模型,仅在与顶尖闭源模型Gemini-Pro-3.1的比较中稍显逊色。尤其是在数学、STEM(科学、技术、工程、数学)以及竞赛型代码等专业领域的测评中,V4-Pro更是超越了当前所有已公开评测的开源模型,取得了堪比世界顶级闭源模型的卓越成绩。
然而,DeepSeek方面也坦诚地指出,在纯粹的推理能力方面,V4-Pro-Max版本与当前最先进的前沿模型之间,仍然存在着3至6个月的技术差距。
此次DeepSeek-V4的更新,在互联网上收获了大量积极的评价。不少开发者称赞其“几乎是这个领域里最彻底的开源”,拥有完善的开发者文档,并且价格“低得惊人”,同时却具备了接近前沿模型的强大能力。更有用户直言,模型的质量与价格相比,这是一笔“疯狂划算的交易”。
实际上,DeepSeek-V4的登场比许多市场观察家预期的要晚。这家公司上一次发布重要的模型更新,还要追溯到近五个月之前。
回溯至今年1月的拉斯维加斯消费电子展(CES),黄仁勋在其主题演讲中,曾公开盛赞DeepSeek,称其为“激活”全球开源人工智能转型进程的关键力量。他回顾2025年人工智能领域的关键进展时指出,DeepSeek在去年早些时候发布的系列模型,尽管一度引发了英伟达股价的短暂波动,但却显著加速了全球开源人工智能生态系统的发展。
“我们见证了DeepSeek R1的崛起——这是首个真正具备推理能力的开源模型。”黄仁勋当时表示,这款由中国团队研发的模型“令世界瞩目”,正在推动人工智能领域的革命性变革,并催化着全球范围内的创新浪潮。
然而,到了今年4月,黄仁勋的语气和立场发生了明显的变化。
在谈及美国针对中国实施的芯片出口管制政策时,黄仁勋直言不讳地称这种做法“十分幼稚”。他再次强调了他关于人工智能“五层蛋糕”的理论,认为能源是人工智能发展的最底层基础,而7纳米芯片已经足以满足当前主流人工智能发展的需求。他指出,充足的能源供应正是中国拥有的核心优势。
他进一步认为,人为地将全球人工智能生态系统割裂成两套独立运作的系统,一套是运行在非美国技术架构上的开源生态,另一套则是绑定美国技术架构的封闭生态,这种行为极其愚蠢,最终只会给美国自身带来糟糕的竞争后果。
黄仁勋分析道,中国拥有极为庞大的计算能力储备,只要能够有效地完成自有运算资源的整合与优化,完全有能力满足自身人工智能发展的全部需求。
华为云MaaS(模型即服务)平台,已经为广大开发者提供了免部署、一键调用的DeepSeek-V4-Flash API Tokens服务。华为云方面表示,在本次新模型的适配过程中,华为云在系统层、算子层以及集群层等关键能力上进行了深度协同,分别从调度效率、计算效率和数据流转效率三个维度,有力保障了新模型能够快速适配并实现高性能的落地应用。
据悉,金山办公、360等知名企业,已经通过华为云平台接入并开始使用DeepSeek最新的AI模型。
浙江浙大网新图灵信息科技有限公司总工程师兼数科事业部总经理杨庆先生表示,DeepSeek-V4的发布,其重要意义远不止于单一模型参数的简单跃升,而是一场涉及模型架构、应用范式以及底层算力生态的系统性变革。
根据The Information的报道,腾讯在融资谈判中提议的持股比例最高可达20%,而阿里巴巴则在同期表达了领投的强烈意愿。
知情人士透露,本轮融资的参与者原本预期主要以人民币基金为主,但腾讯和阿里的加入,使得此次融资成为了产业资本与财务资本同台博弈的焦点项目。
DeepSeek公司由幻方量化于2023年7月正式创立,其掌舵人是梁文锋。公司以高效、低成本的gemini-2.5-flash-lite-ssvip技术著称,并坚定地主打开源路线。在此之前的三年里,梁文锋曾因“资本可能会干扰技术决策”的顾虑,而婉拒了包括腾讯、阿里巴巴在内的多家巨头的投资意向。
然而,如今,梁文锋的这一立场发生了显著的转变。
在8K输入场景下,昇腾950超节点可实现TPOT约20ms时单卡Decode吞吐4700TPS。基于DeepSeek-V4-Flash模型,8K长序列输入场景下可实现TPOT约10ms时单卡Decode吞吐1600TPS。
华为方面表示,双方还联合定义了昇腾超节点,旨在进一步大幅提升模型的延迟和吞吐性能,同时实现低成本部署,并兼顾万卡级别的Scaleout集群规模。此举有效解决了从4K到1M序列长度范围内,长序列应用中普遍存在的低延迟和高吞吐难题。
此创新架构支持基于NANDSSU的超低成本、超大容量、高性能KVCache,能够有效支撑长序列应用的需求。
基于昇腾A3 64卡超节点结合大EP模式部署,DeepSeek-V4-Flash模型,在8K/1K输入输出场景下,基于vLLM推理引擎可实现2000TPS的单卡Decode吞吐量,并且单卡吞吐性能仍在持续提升中。
针对DeepSeek-V4-Pro模型,昇腾A3平台也同步支持推理部署,其性能优化工作也在持续进行中。
黄仁勋在今年3月举行的GTC大会上曾表示,能够生成更复杂答案的新型人工智能模型,必然会增加对计算基础设施的巨大需求。针对外界关于DeepSeek的R1模型可能减少对芯片数量依赖并提升服务器性能的担忧,黄仁勋明确表示,这种顾虑是错误的。
他强调,外界对R1模型的理解存在误解,实际上,这类新型人工智能模型对算力的需求远超预期。
业内不少从业者也普遍认为,随着人工智能技术的不断发展,新型模型对算力的要求将变得更加严苛,这将进一步加剧芯片供应的紧张局面。
然而,现实情况是,DeepSeek-V4模型已经能够在华为昇腾芯片上实现稳定运行,并且其性能表现达到了预期水平。
华为昇腾大规模专家并行集群推理解决方案,面向互联网、金融等行业的中心推理等场景,基于昇腾AI基础软硬件平台打造,深度适配DeepSeek V3R1以及业界主流的MoE(混合专家模型)gemini-2.5-flash-lite-ssvip。
该解决方案的核心价值在于其高性能、高可靠性以及易部署性。在同等算力条件下,能够提供更大的吞吐量、支持更多的并发用户,并实现更低的延迟。从单机部署到大规模集群,系统级RAS(可靠性、可用性、可服务性)保障其长久稳定运行。预置的开箱即用菜单简化了交付流程;同时支持vLLM,能够复用开源生态,加速业务上线。
4月24日,华为云也正式宣布,成为首家正式适配DeepSeek V4的企业。
当前,华为云MaaS模型即服务平台,已为广大开发者提供免部署、一键调用DeepSeek-V4-Flash API的Tokens服务。
英赫配资提示:文章来自网络,不代表本站观点。