国家超算互联网推出 DeepSeek-V4 限时免费对话服务

4 月 26 日消息,今日,国家超算互联网推出 DeepSeek-V4 限时免费对话服务。企业、科研机构及个人开发者只需登录超算互联网(www.scnet.cn)进入 Chat 页面,即可免费体验 DeepSeek-V4 的百万 Token 超长上下文实时、流畅对话。

附官方原文如下:

随着 DeepSeek-V4 的发布,百万上下文从大模型的「高端选配」变成了「基础标配」,正式迈入普惠时代。正如官方所说:“从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。”

百万上下文是什么概念?相当于《三体》三部曲的总字数、几十篇累计数万字的参考文献合集、或是你过去一年的工作聊天记录。以前,你需要手动切片、分段提问;现在,直接把全文丢进去,让 DeepSeek-V4 一口气读完,然后为你总结、分析、找 bug—— 它甚至记得最开头的知识点,随时可进行全局思考和深度推理。在此之前,处理 1M 级别的上下文的能力,更多出现在闭源模型的高端版本里,高昂的调用成本,让大多数开发者和中小企业望而却步。

DeepSeek‑V4 的到来,不只是一次模型升级,更是开源大模型进入“百万上下文普惠时代”的分水岭。这与超算互联网始终致力于以惠普算力赋能产业,推动 AI 从“可⽤”⾛向“好⽤”的核⼼理念高度契合。

而此次超算互联网与 DeepSeek-V4 的结合,亦标志着世界顶级大模型与国家级算力基础设施的深度融合。平台通过将复杂的算力资源封装为简单通用的公共服务,大幅降低了大规模 AI 应用的体验门槛与成本,真正赋能千行百业的低成本、规模化数字化转型走向新阶段。

相关阅读:

  • 《DeepSeek-V4-Pro 开启 API 限时 2.5 折优惠,活动持续至 5 月 6 日前》
  • 《迈入百万上下文普惠时代:DeepSeek-V4 模型预览版正式上线并同步开源》

mark,蹲个后续测评

没用过别碰,这种免费的都是套路。

哇,这个消息太及时了!正好我手头有个项目需要分析一大堆用户反馈文档,加起来PDF得有几百页,之前用其他模型总要自己切来切去很麻烦。如果真能把所有文档一次性扔进去让它总结核心观点和情绪倾向,那效率提升可不是一点半点。我马上去试试看,希望别排队。

是不是意味着以后看长篇论文或者技术手册可以直接扔进去让它帮忙提炼重点了?我不太确定这样理解对不对,有没有用过的大佬讲讲实际效果?

只想知道具体怎么用。第一步,打开那个网站。第二步,找到Chat页面。第三步,开始对话。结束。

又来这种帖子了,上次说免费的最后不还是各种限制?坐等第一批小白鼠反馈,估计没多久就得收费或者降级。

这个百万上下文指的是输入和输出加起来总共一百万token吗?还是单指输入的上下文长度?如果是后者,那输出能有多长?会不会生成到一半就被截断了?官网的说明文档里好像没写这么细。

上周刚用另一个模型处理了一整年的项目周报,切分搞得头大。看到这个赶紧去试了下,把近50份周报(大概20万字)全贴进去了,让它帮我梳理关键里程碑和风险点。出来的总结居然真的提到了半年前一次被我们忽略的延期预警,有点东西。不过响应速度时快时慢,可能用的人多了。

一般指输入上下文长度,输出还有自己的max_tokens限制,别想着无限生成。

对 大段文档扔进去能省切分时间 不过提炼重点别全信摘要

国家超算限时免费基本是政策推广期,企业用要看正式报价

国家超算这操作有点意外 限时免费1M上下文 试一波

免费体验确实有,百万token长上下文够测了

免费的额度不一定够你那么大量PDF,建议先小批量试一下不要all in

百万一般指输入,输出还有自己的max_tokens限制