
技术科普
文章平均质量分 94
卓普云
DigitalOcean 成立于 2012 年,为开发者易用、平价的云计算解决方案,从虚拟机、Kubernetes托管,到 GPU 云服务。QQ交流群:611945524
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
AI 推理 GPU 终极指南:RTX 4000 Ada、RTX 6000 Ada、L40s 与 A100 如何选?
在过去两年里,我们见证了人工智能模型规模的爆炸式增长。这不仅仅是技术突破,更意味着 AI 推理已从实验室里的“研究场景”大步迈入了“业务落地”的广阔天地。从智能客服机器人到文生图应用,再到复杂的视频理解,几乎所有令人惊叹的新产品背后,都离不开强大的 GPU 推理算力作为支撑。对于许多正在加速产品落地的团队而言,选择一张既高效又兼具成本效益的推理显卡,无疑是决定产品上线周期和服务稳定性的关键一步。 然而,面对市场上琳琅满目的 GPU 型号,从大家熟悉的消费级卡(如 RTX 4090)到专为数据中心设计的专业卡原创 2025-07-07 17:26:22 · 2281 阅读 · 0 评论 -
MI300X vs H100:DeepSeek 部署在哪个 GPU 上性价比最高?
从 DeepSeek 不同版本的实际资源需求出发,结合这两款 GPU 的性能和定价,来分析一下在哪些使用场景下选择 MI300X 更划算,而哪些情况下用 H100 更值得。原创 2025-06-25 16:21:46 · 1795 阅读 · 0 评论 -
如何优雅地玩转 AIGC?DigitalOcean 开发者沙龙全记录
摘要:6月7日,卓普云与DigitalOcean在北京联合举办首届"AIGC开发者沙龙",聚焦AI训练与推理技术。活动邀请5位行业专家分享:JuiceData介绍分布式存储系统在AI全流程的应用;商汤科技探讨企业级RAG性能优化方案;WaveSpeedAI展示多模态生成引擎技术;NebulaGraph讲解GraphRAG构建知识库;DigitalOcean专家解析AI算力架构设计。100余位从业者参与交流,共同探讨AI开发实践与前沿趋势。原创 2025-06-11 17:43:22 · 1661 阅读 · 0 评论 -
H100/A100如何选?90%人忽略的选型关键:GPU内存带宽决定AI模型性能!
GPU 的内存带宽决定了它能多快地将数据从内存(VRAM)移动到计算核心。它比 GPU 内存速度更具代表性。它由内存和计算核心之间的数据传输速度以及这两部分之间总线中的并行链接数量决定。自20世纪80年代初以来,家用电脑的内存带宽绝对值约为1 MB/s,消费设备的带宽显著增加——增加了几个数量级。然而,可用计算资源的增长速度超过了带宽的增加。为了避免频繁达到带宽限制,确保工作负载和资源在内存大小和带宽方面匹配至关重要。让我们来看看最先进的面向 ML 的 GPU 之一,NVIDIA RTX A4000。原创 2025-03-27 14:25:30 · 1147 阅读 · 0 评论 -
NVIDIA H200 GPU 比 H100 强在哪?
NVIDIA H200是一款功能极其强大的GPU,适用于人工智能训练和推理,是对NVIDIA H100的显著升级。我们建议将其用于所有与深度学习相关的任务,显然它已经在持续的人工智能革命中发挥着重要作用。目前,在市面上有部分云服务平台已经开始提供 H200 GPU 服务器,而其中,DigitalOcean 的 H200 GPU 裸机服务器属于性价比最好的一款。用户不仅可以获得服务器的全部硬件资源,保证数据安全,更能获得相较其它云服务更加透明且实惠的价格。原创 2025-03-12 14:23:40 · 1682 阅读 · 0 评论 -
DeepSeek不同版本私有化部署成本对比:企业如何选择最优方案?
2025年,随着DeepSeek开源模型的爆发式增长,企业私有化部署AI的需求呈现出两极分化的态势。一方面,R1、V3等版本模型凭借“性能对标GPT-4、成本仅10%”的标签,推动AI从实验室走向产业核心场景;另一方面,硬件投入动辄百万级、算力资源分配复杂化等问题,也让企业陷入“效率与成本”的权衡困境。本文将从硬件配置、带宽需求、综合成本等维度,拆解DeepSeek不同版本的私有化部署方案,为企业提供可落地的决策框架。wp:heading。原创 2025-02-18 14:43:06 · 3917 阅读 · 0 评论 -
DeepSeek-R1 1.5b、7b、8b、14b、32b、70b和671b几个版本中怎么选,部署指南
模型选型本质是性能与成本的博弈。建议初创公司从7B模型起步,成熟企业采用32B云端方案,而671B模型目前仍属于"技术战略储备"。随着技术进步,2025年70B级模型有望进入企业本地部署范畴,届时行业将迎来新一轮智能化变革。如果你希望采用云端部署,欢迎了解 Digitalocean 的 H100 GPU Droplet 服务器以及即将上线的 H200 GPU 云服务器,可直接联系Digitalocean 中国区独家战略合作伙伴卓普云。原创 2025-02-11 16:55:30 · 11130 阅读 · 0 评论 -
DeepSeek-V3 模型到底强在哪,以及如何运行它?
近日,“杭州深度求索”推出了其最新的大型语言模型DeepSeek V3,这是一款强大的专家混合(Mixture-of-Experts, MoE)架构语言模型,总参数量达到671B,每个token激活的参数量为37B。经过综合测试它的性能已经比肩GPT-4o、Claude。这个消息在AI圈像一个新年烟花一样炸开。本文将来看看这个新的模型的特性,以及与其它模型的指标对比。然后在最后,我们在 H800 GPU上运行 DeepSeek v3,让我们来体验一下。原创 2025-01-02 16:07:51 · 279247 阅读 · 0 评论 -
生成式AI与RAG架构:如何选择合适的向量数据库?
大规模语言模型和情境感知的AI应用程序推动了检索增强生成(RAG)架构的发展,使其成为关注的焦点。RAG将生成模型的力量与外部知识相结合,允许系统生成更加具体且与情境相关的回应。向量数据库构成了RAG系统的基石。选择正确的向量数据库对于优化我们的RAG系统以实现最大性能和效率至关重要。本文将讨论在选择向量数据库时最重要的因素,并引导读者了解流行的向量数据库、它们的功能和使用案例,以帮助他们做出明智的选择。原创 2025-01-02 10:55:34 · 3975 阅读 · 0 评论 -
A100 vs. L40s vs. H100 vs. H200:英伟达下一代GPU大比拼
在本文中,我们详细比较了四款英伟达 GPU——A100、L40s、H100和H200——这四款GPU算是目前关注度最高的四款,它们专为专业、企业级和数据中心应用而设计。我们探讨了这些GPU的架构和技术应用,它们针对计算任务、AI和数据处理进行了优化。也分析了它们的关键指标、特点和性能指标,帮助你了解它们在各种基准测试中的比较情况。目前,H200 GPU目前还处于量产中,所以预计在明年大家会看到H200的GPU云服务器。原创 2024-12-17 14:08:55 · 8580 阅读 · 0 评论 -
H100、L4、A6000 等 9 款 GPU 横评,告诉你哪些适合模型训练,哪些适合AI 推理
在 AI 领域,有两大场景对 GPU 的需求最大,一个是模型训练,另一个是 AI 推理任务。但是很多人多可能在最开始为自己的项目做 GPU 选型时,都很难判断哪些 GPU 适合做模型训练,哪些 GPU 更适合去做推理任务。所以我们通过这篇文章将基于 GPU 指标来帮助大家对比分析NVIDIA 的 H100、A100、A6000、A4000、V100、P6000、RTX 4000、L40s、L4 九款GPU,哪些更推荐用于模型训练,哪些则更推荐用于推理。原创 2024-11-14 15:42:39 · 3870 阅读 · 0 评论 -
做训练还是推理?热门GPU 对比:H100、A6000、L40S、A100
相对于购买 GPU 自己搭建服务器,我们更推荐使用GPU 云服务,一方面它的成本比购买 GPU 更便宜,只需要几分钟就可以开启 GPU 实例,另一方面,个别 GPU 云服务平台还会提供适合团队协作开发的云环境,包括 Jupyter notebook、模型部署等功能。DigitalOcean GPU 云服务是专注 AI 模型训练的云 GPU 服务器租用平台,提供了包括 A5000、A6000、H100 等强大的 GPU 和 IPU 实例,以及透明的定价,可以比其他公共云节省高达70%的计算成本。原创 2024-10-29 11:22:05 · 5175 阅读 · 0 评论 -
教程:这是Hugging Face最快速完成模型部署的方式
Hugging Face是AI构建者的首选开放平台。他们赋予下一代机器学习工程师、科学家和最终用户合作、创新,并塑造一个开放和道德的AI未来。随着社区的快速增长,一些最常用的开源ML库和工具,以及一个探索技术前沿的才华横溢的科学团队,Hugging Face处于AI革命的核心。近期DigitalOcean 现已提供由Hugging Face支持的。这个名为“”的新推理解决方案提供了可部署的、流行的、第三方生成式AI模型,这些模型经过优化,已可以在上运行。这个。原创 2024-10-26 21:38:37 · 1688 阅读 · 0 评论 -
如何优化批处理策略,最大限度地“压榨”GPU性能
在机器学习和深度学习的训练过程中,GPU 利用率是需要密切关注的重要指标之一。我们可以通过一些知名的第三方工具以及内置的 GPU 工具来监控它。GPU 利用率可以定义为单个或多个 GPU 核心在过去一秒中的运行速度,深度学习程序会并行地使用这些 GPU 资源。换句话说,GPU 利用率反映了 GPU 的工作负载情况。如何判断是否需要更多GPU计算资源?让我们来看一个实际的场景。在典型的一天里,数据科学家可能拥有两块 GPU 供他/她使用,这些资源“应该”足够应对大部分任务。原创 2024-10-16 10:03:01 · 1567 阅读 · 0 评论 -
中小企业的 Kubernetes 最佳实践(二):应对可观察性的挑战
来记录 Grafana 的日志。DigitalOcean Kubernetes (DOKS)以其简单易用的用户体验、稳定且可预测的定价模型、几乎免费的出站流量和多功能的云主机,成为 Kubernetes 托管服务的理想选择。通过将可观察性基础设施外包给托管服务提供商,你可以减少运营开销,降低对专业知识的需求,并确保可观察性堆栈的可扩展性和可靠性。通过利用指标、日志、跟踪和事件,并关联这些数据来源,你可以深入了解应用程序的行为,找出性能问题或故障的根本原因,从而实现更快的问题解决和更好的用户体验。原创 2024-10-11 10:34:58 · 1286 阅读 · 0 评论 -
中小企业在 Kubernetes 托管服务中的最佳实践(一)
DigitalOcean 的使命非常简单——为你提供扩展和加速云开发所需的工具和基础设施。许多独立软件供应商(ISV)和初创公司,例如 Snipitz、ScraperAPI、Nitropack、Zing 和 BrightData,都在(简称 DOKS)上实现了成功扩展和快速增长。我们将通过一个系列文章,分享这些中小企业在使用 DigitalOcean Kubernetes 托管服务过程中总结下来的实践,同时也结合了我们在服务客户过程中总结的经验。原创 2024-09-19 15:16:34 · 1072 阅读 · 0 评论 -
H100、L4、A6000 等 9 款 GPU 横评,告诉你哪些适合模型训练,哪些适合AI 推理
对比分析NVIDIA 的 H100、A100、A6000、A4000、V100、P6000、RTX 4000、L40s、L4 九款GPU,哪些更推荐用于模型训练,哪些则更推荐用于推理。原创 2024-09-13 15:42:05 · 8528 阅读 · 0 评论 -
NVIDIA L40s、A10、A40、A100、A6000横评,哪个GPU 更适合 AI 推理任务?
如何为AI 推理任务选择 GPU?原创 2024-09-06 14:11:41 · 34185 阅读 · 1 评论 -
在 H100 GPU 上使用 Hugging Face Quanto 优化 AI 模型
在本文中,你将发现 Quanto 是一种强大的量化技术,旨在优化深度学习模型的性能,而不影响模型的效果。原创 2024-08-28 15:44:12 · 944 阅读 · 0 评论 -
AI 开发中的隐形瓶颈:GPU 内存层次结构是如何影响你的项目的?
在本文中,我们将要研究 GPU 内存层次结构背后的机制。原创 2024-08-19 09:55:53 · 915 阅读 · 0 评论 -
NVIDIA H100 GPU,它将如何改变AI和计算领域的游戏规则?
随着 H100 GPU 的发布,NVIDIA 继续引领创新潮流。H100 GPU 代表了现代计算的巅峰之作,凭借其尖端的 Hopper 架构,将彻底改变深度学习领域,提供无与伦比的性能和效率。NVIDIA H100 Tensor Core GPU 配备了 NVIDIA NVLink™ Switch System,允许多达 256 个 H100 GPU 连接在一起,以加速处理工作负载。此外,该 GPU 还配备了专用的 Transformer Engine,专为高效处理万亿参数的语言模型而设计。原创 2024-08-13 09:23:01 · 1086 阅读 · 0 评论 -
H100 GPU:为何它能让AI模型开发事半功倍?
本篇文章将探索 H100 GPU 的革命性功能,能够使得我们了解它在塑造 AI 未来方面的重要作用。原创 2024-08-05 17:15:15 · 1614 阅读 · 0 评论 -
从 1 到 100 万+连接数,DigitalOcean 负载均衡的架构演进
在本文中,我们将介绍过去几年中 DigitalOcean 将负载均衡器扩展到超过100万个连接的迭代过程。原创 2024-07-30 10:07:21 · 914 阅读 · 0 评论 -
GraphRAG 为什么能增强生成式 AI ?一篇文章告诉你
我们将探索GraphRAG的概念,以及其实现原理。此外,我们将通过最简单的方法来运行GraphRAG的Web用户界面。原创 2024-07-24 17:22:09 · 968 阅读 · 0 评论 -
最佳实践:中小型企业如何提升 Kubernetes 的可靠性?
在上周举行的 DigitalOcean Deploy 大会上,DigitalOcean Kubernetes团队高级软件工程师 Oliver Love分享了中小型企业的 Kubernetes 可靠性最佳实践。中小型企业往往资源相对有限,部署规模较小,这在确保其 Kubernetes 系统的可靠性方面构成了独特的挑战。而Oliver Love这次分享的重点是中小型企业在集群上面临的可靠性挑战。原创 2024-07-19 10:48:58 · 890 阅读 · 0 评论 -
用LangGraph、 Ollama,构建个人的 AI Agent
事实上,AI Agent 的研究还处于早期阶段,该领域还没有明确的定义。但是 Astra 和 GPT-4o 已经可以成为一个很好的早期示例了。NVIDIA 高级研究员、AI Agent 项目负责人 Jim Fan表示我们距离出现一个有实体的 AI Agent 或者说以 ChatGPT 作为内核的机器人,还有大约 3 年的时间。如果用他话来解释什么是 AI Agent,简单来说,AI Agent 就是能够在动态世界中自主决策的 AI 模型和算法。原创 2024-07-09 17:39:43 · 4435 阅读 · 0 评论 -
LlamaIndex 和 LangChain 对比,应该选择哪个 RAG 框架?
想在 LlamaIndex 和 LangChain 之间做出选择?本文将概览并了解这两种 LLM 时代最流行的框架之间的主要区别。原创 2024-06-28 16:15:54 · 3897 阅读 · 0 评论 -
云成本居高不下?10个最佳实践,让你的云计算开支一省再省!
本文将总结 10 个管理云服务成本,帮助你降低云服务支出的最佳实践。原创 2024-06-07 11:02:06 · 1544 阅读 · 0 评论 -
托管MongoDB vs 自行管理MongoDB:企业应如何做出选择?
MongoDB 数据库要不要托管?一篇文章帮你分析托管型与自主管理的各自优缺点。原创 2024-05-16 14:21:08 · 1271 阅读 · 0 评论 -
想学习人工智能、大语言模型?这份学习路线与免费学习资源最值得推荐
这篇文章试图创建一份免费的课程路径,希望对大家学习有帮助。原创 2024-04-30 16:42:05 · 1395 阅读 · 0 评论 -
教你如何跑 LLama3 模型
本文将介绍LLama 3,以及其框架,并一步步在 GPU 云服务上运行它。原创 2024-04-26 16:15:36 · 1491 阅读 · 0 评论 -
一文教你如何清理 Docker 中闲置的镜像、容器和卷
这份教程为你提供了一些实用的命令,帮你通过删除未使用的 Docker 镜像、容器和卷来释放磁盘空间,保持系统整洁。原创 2024-04-19 14:41:10 · 2413 阅读 · 1 评论 -
2024 你需要知道的 13 个Kubernetes工具
到2024年,已经有很多工具可以帮助开发者和 DevOps 专家们简化 Kubernetes 工作流程、增强安全性和优化性能。本文推荐2024年必须知道的13款 Kubernetes 工具。原创 2024-04-16 12:02:45 · 1331 阅读 · 0 评论 -
AI 创业必备:GPU选型攻略
作为 AI 创业者,你知道应该如何对比选择 GPU 么?原创 2024-04-12 17:06:58 · 1796 阅读 · 0 评论 -
AI创业必备:GPU云、GPU 租赁或自建,你选对了吗?
GPU 已经成为 AI 创业团队必不可少的关键资源。然而 AI 热潮也让 GPU 一卡难求,所幸还有共享 GPU 、GPU 云服务作为可选方案。那么在不同的阶段,创业团队应该选择 自己买卡、共享GPU还是 GPU 云服务呢?原创 2024-04-10 11:19:42 · 2501 阅读 · 0 评论 -
IPv4 vs. IPv6,企业出海云服务IP 应该怎么选?
跨境电商、应用出海,都需要使用云服务。在部分厂商开始对 IPv4 地址收费后,开发者其实还有更多云服务可以选择,降低成本。原创 2024-02-28 17:38:37 · 1401 阅读 · 0 评论