Code Ease Code Ease
  • 个人博客网站 (opens new window)
  • 好用的工具网站 (opens new window)
  • Java核心基础
  • 框架的艺术
  • 分布式与微服务
  • 开发经验大全
  • 设计模式
  • 版本新特性
数据库系列
大数据+AI
  • xxl-job
运维与Linux
  • 基于SpringBoot和BootStrap的论坛网址
  • 基于VuePress的个人博客网站
  • 基于SpringBoot开发的小功能
  • 做一个自己的IDEA插件
程序人生
关于我
  • 分类
  • 标签
  • 归档

神秘的鱼仔

你会累是因为你在走上坡路
  • 个人博客网站 (opens new window)
  • 好用的工具网站 (opens new window)
  • Java核心基础
  • 框架的艺术
  • 分布式与微服务
  • 开发经验大全
  • 设计模式
  • 版本新特性
数据库系列
大数据+AI
  • xxl-job
运维与Linux
  • 基于SpringBoot和BootStrap的论坛网址
  • 基于VuePress的个人博客网站
  • 基于SpringBoot开发的小功能
  • 做一个自己的IDEA插件
程序人生
关于我
  • 分类
  • 标签
  • 归档
服务器
  • ElasticSearch

  • Spark

  • kafka

  • AI聚集地

    • 半个月了,DeepSeek为什么还是服务不可用
      • 引言
      • 为什么迟迟无法访问
      • 本地部署的误区
      • DeepSeek的破局方式
    • AI大模型部署指南
  • 大数据技术
  • AI聚集地
CodeEase
2025-02-13
目录

半个月了,DeepSeek为什么还是服务不可用

作者:鱼仔
博客首页: codeease.top (opens new window)
公众号:Java鱼仔

# 引言

1月22号的时候,我们发现市面上出现了一个很强的新AI模型 DeepSeek。于是在内网部署了它的14B蒸馏版本,这个模型一共占用了两张A10显卡共计42G显存,效果确实比其他14B模型要好很多。

在过年期间,DeepSeek忽然就爆了。引用一则数据

上线仅18天,DeepSeek应用便狂揽1600万次下载,并在25天内达到约4000万。相比之下,ChatGPT首次发布时的首月下载量为900万。截至1月31日,DeepSeek在苹果应用商店免费下载榜中,占据了157个国家/地区的第一名位置,包括美国市场。

上线仅20天,DeepSeek应用的日活用户数已突破2000万,达到2215万,超越字节跳动豆包的日活1695万。上线21天后,DeepSeek的月活用户数达到了3370万,使其在全球AI产品月活总榜上跻身第四。

但即使现在过去了半个月了,DeepSeek官方的问答网站依然是服务器繁忙,请稍后再试。另外一个比较有意思的点,每一天第一次访问都会给出结果,之后的访问就都不行了,推测官方应该是做了限流。

# 为什么迟迟无法访问

对于Java这类应用来说,别说半个月了,哪怕半天不可用都是P0事故了,但DeepSeek还真没办法很快解决问题。

上线二十天 DeepSeek 的日活用户突破2000万,这对于一家2023年成立的公司来说,根本没有足够的显卡去支撑这么庞大的调用量。以我部署的14B蒸馏模型为例:它的模型大小为29.59G,模型Tensor Tpye为BF16,光启动它占用的显存就达到了44G。

这里的Tensor Type表示 Tensor 的数据类型和存储格式,TensorType越大,需要占用的显存就越多,效果也会更好。

而DeepSeek所谓满血版的R1模型,它的参数已经达到了671B,模型文件大小已经达到700多G了。Tensor type使用的是一种混合类型,跑起来这个满血DeepSeek需要的显存加内存估计得达到1.3T左右。

如果是把Tensor type量化为BF8,那也需要700多G的显存。通过这一组机器跑起来的大模型,能支撑的并发访问量也是有限的。因此如果想让DeepSeek官网畅快访问,唯一的解决办法就是不断加显卡,对于一家初创公司来说不可能自己花这么多钱去买,只能去依靠其他各个云服务厂商。

于是你就见到了DeepSeek的各路替代者,几乎每个有GPU储备的公司都开始抢占DeepSeek市场。对于DeepSeek来说,相当于分流了,也能在一定程度上减轻访问压力。目前流量最大的应该就是红衣教主的纳米AI搜索了。

但是作为爆款产品,它的流量依然十分庞大,所以即使过了半个月,依然一天只能用一次。

# 本地部署的误区

现在很多人说可以本地部署DeepSeek,有些还会提供收费课程教你如何本地部署。照着那些教程,你部署的大概率是蒸馏后的7B参数模型,因为它只需要占用十几个G的显存。甚至是1.5B的模型,只需要几个G的显存。

但这些和满血版671B参数的模型差距十分大。对普通人来说,如果官网的服务不可用,去使用中大厂提供的DeepSeek服务就可以了。现在几乎所有云厂商都接入了DeepSeek。

# DeepSeek的破局方式

目前来看DeepSeek最主要的问题是无法承载高调用量的压力,最直接的办法就是招人,买机器。目前DeepSeek还是有在招这方面人才的。

第二种方案是背靠一家能提供云服务器硬件的大厂,以某种合作的方式进行,这样可以省去服务器和运维上的很多麻烦。

当然还有一种说法,有人认为现在DeepSeek遍地开花的情况就是他的创始人想要看到的画面,具体如何就看时间给出答案了。

上次更新: 2025/03/03, 09:11:07
Kafka生产者是如何发送消息的?
AI大模型部署指南

← Kafka生产者是如何发送消息的? AI大模型部署指南→

最近更新
01
AI大模型部署指南
02-18
02
Python3.9及3.10安装文档
01-23
03
Kibana搭建文档
01-23
更多文章>
Theme by Vdoing | Copyright © 2023-2025 备案图标 浙公网安备33021202002405 | 浙ICP备2023040452号
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式