英伟达推出新款 AI 芯片 H200

0
2550

英伟达(Nvidia)推出了 H200。这是一款专为训练和部署生成式人工智能模型的图形处理单元(GPU)。根据介绍,H200 将具备使用高带宽内存(HBM3e)的能力,从而更好地处理开发和实施人工智能所需的大型数据集。

英伟达公司表示,基于 HBM3e,H200 以每秒 4.8 TB 的速度提供 141GB 的内存,与 A100 相比,容量几乎是其两倍、带宽增加了 2.4 倍。

这意味着,相比于其前任产品 H100,H200 的性能直接提升了 60% 到 90%。不仅如此,H200 与 H100 一样都是基于英伟达 Hopper 架构打造,这也意味着两款芯片可以互相兼容,对于使用 H100 企业而言,可以无缝更换成最新的 H200。

英伟达还提到,H200 将带来进一步的性能飞跃。在 Llama 2(700 亿参数的 LLM)上的推理速度比 H100 快了一倍。未来的软件更新预计会给 H200 带来额外的性能领先优势和改进。

预计大型计算机制造商和云服务提供商将于 2024 年第二季度开始使用 H200。据了解 ,亚马逊  AWS、谷歌云和甲骨文云基础设施已承诺从明年开始使用这款新芯片。

华尔街见闻报道,英伟达负责超大规模和高性能计算的副总裁 Ian Buck 表示,“要通过生成式 AI 和高性能计算 HPC 应用程序来创建智能,必须使用大型、快速的 GPU,高速有效地处理大量数据。借助 H200,业界领先的端到端 AI 超级计算平台能够更快地解决世界上一些最重要的挑战。”

媒体援引英伟达表示,通过新产品,该公司正试图跟上用于创建人工智能模型和服务的数据集的规模。添加增强的内存能力将使 H200 在用数据轰炸软件时速度更快,也即训练 AI 执行图像识别和语音等任务的过程。

英伟达将于下周公布财报。今年以来,英伟达股价上涨了 200% 以上,远超费城半导体指数中其他公司,成为最佳表现者。

资料来源:综合报道;图片来源:英伟达

Previous article尼泊尔禁用 TikTok
Next articleChatGPT 版微型手机

LEAVE A REPLY

Please enter your comment!
Please enter your name here