发布单位 : 和硕联合科技股份有限公司
发布日期 : 2024/6/3
和硕AI智慧制造新境界—破壳而出,领航智慧制造的下一步
和硕联合科技 (以下简称”和硕”)身为全球知名的DMS企业将于2024 COMPUTEX期间在总部揭幕新的伺服器展示室,为媒体和重要合作伙伴们展示AI智慧制造与AI伺服器的创新解决方案。
2024和硕伺服器展示亮点:
1. 和硕与NVIDIA携手合作,共同建置旗舰级企业AI伺服器:GB200 NVL72
NVIDIA宣布与和硕成为全球合作伙伴,特别是在最新发表的NVIDIA GB200 NVIDIA Blackwell 架構超级晶片方面。和硕目前正在积极开发的GB200 NVL72是一个多达72个GPU节点的液冷机柜平台,专为处理计算密集型工作负载而设计。透过与NVIDIA的合作,和硕能够获得最新的GPU技术支持,并优先使用NVIDIA的GPU产品于其AI伺服器中。这款尖端服务器采用NVIDIA BlueField®-3 DPU资料处理单元,提供广泛的功能,包括云端网路加速和超大规模AI云端中的GPU运算弹性。这不仅有助于提升和硕产品在市场上的竞争力和认可度,还能够为客户提供更强大的运算能力和性能。
机柜伺服器,最左方为GB200 NVL72
2. 和硕气冷MGX 4U伺服器抢先亮相
和硕在MGX架構上持续开发多款AI伺服器产品,以满足客户在训练和推论等不同算力需求。这些产品具有强大的运算性能、高效的能源利用率和良好的扩展性。在COMPUTEX期间,和硕推出了气冷MGX 4U伺服器,名为「Marco」,支援各种CPU和GPU架构,加速人工智慧训练和推论工作。透过支援NVIDIA的MGX模组化架构,展现了资料中心营运的未来。这款伺服器能够极为轻松有效地处理复杂的任务。Marco配备2P(2插槽)Intel® Xeon® 新一代处理器,且能够支援高达8张NVIDIA H200-NVL GPU卡以及额外5个PCIe Gen5 x16 插槽支援最高400Gb高速网卡、DPU卡等,提供卓越的图形效能,提升运算体验。不论是从事资料中心人工智慧训练还是高效能运算(HPC),这款伺服器的设计都能超乎预期,此外,Marco的设计不仅相容更多卡,还保留了水冷支援的灵活性。
伺服器「Marco」
3. 走在AI制造新时代的前沿:和硕推出Ronnie OVX™伺服器和AI伺服器Jimbo
和硕NVIDIA OVX™伺服器「Ronnie」,是一款功能强大的多功能伺服器,旨在满足AI、图形和Omniverse应用程式的严苛需求。Ronnie基于NVIDIA MGX架構,采用2U MGX机箱,并配备2P(2插槽)Intel® Xeon® 新一代处理器,能够支援4张NVIDIA H200-NVL 或 L40S 显示卡,这种组合确保了加速运算任务的卓越效能和可靠性。
和硕「Jimbo」AI伺服器是一款搭载NVIDIA GH200 Grace Hopper超级晶片的AI伺服器,能够无缝配合LLM训练。基于NVIDIA MGX架構的模组化设计,提供了更大的灵活性,以满足数据中心多样化的加速运算需求,并兼具高效能、可灵活配置与可扩充的特点,特别适合大规模平行运算处理和NVIDIA GPU加速的应用。NVIDIA Omniverse™ Enterprise部署在NVIDIA OVX™上,以支援基于物理的AI数位孪生技术,使他们能够在投入生产之前进行即时设计、模拟和优化产品、设备和流程。
伺服器「Ronnie」
4. 数位孪生技术应用于和硕伺服器生产线,展现虚实协作
和硕以丰富的产品开发经验和垂直整合的制造能力,致力于提供从设计到系统化生产制造的全面性服务,以完整、有效率地满足客户需求。和硕的研发团队投入并深耕AI软件系统,并基于NVIDIA Omniverse™平台,已经建立自身的AI和数位孪生(Digital Twin)等智能软体发展平台。结合和硕开发生产的AI伺服器,以及和硕拥有的5G专网,除了将软硬体平台与设备整合应用至和硕全球工厂的智慧制造上,亦可为外部客户提供完整结合5G智慧制造之解决方案,这些都是和硕在AI伺服器发展上的重要进展。此外,和硕在市场上的扩展也将为客户提供一条龙的服务,对于许多既有客户面临数位转型挑战,以及寻求AI算力和软体服务之情况下,和硕可以提供更多的附加价值。
透过先进的人工智慧和数位孪生技术,使像和硕这样的研发制造厂商,可以远端展示伺服器生产线,模拟不同的场景,并以有别于过往的方式优化生产流程。这项技术具有许多优势,包括增强协作、提高生产效率、降低风险并可以模拟不同的场景、识别瓶颈,以提高效率和生产力。
PEGAAi是先进的人工智慧平台,使和硕能够大规模且无缝整合人工智慧。这个综合平台允许使用者收集和标示数据,以及训练、部署和监控人工智慧模型的效能。它采用了 NVIDIA Metropolis 和 NVIDIA NeMo 等软体来加速 AI 实施。NVIDIA TAO 工具包提供了广泛的预先训练模型,而 NVIDIA TensorRT 和 NVIDIA Triton 推理伺服器则显着提高了推理效率。NeMo 提供了一套用于资料管理和大型语言模型 (LLM) 微调的服务。NVIDIA NIM 推理微服务提供了一种在 NVIDIA 加速基础架构上将 AI 模型部署到生产环境的简单方法。 此外,PEGAVERSE 是一个基于 NVIDIA Omniverse 构建的复杂数位孪生平台,使用户能够透过虚拟环境来规划、设计和最佳化流程,并与其他人远端协作。 NVIDIA Omniverse Nucleus 透过同步数位资产来支援 PEGAVERSE,透过整合 NVIDIA DeepStream、AI 多摄影机追踪及和硕 5G 摄影机解决方案,PEGAVERSE 可以将工厂运作资讯数位化,这种整合对于计算人流量、停留时间、优化路径和增强员工安全有显着的帮助。先进的人工智慧分析与 5G 连接速度的结合确保即时数据处理既快速又可靠,使企业能够做出提高营运效率和工作场所安全的决策。PEGAAi 与 PEGAVERSE 共同推动和硕在工业数位化之路上不断前进。
透过PEGAAi与PEGAVERSE提供AI智慧工厂解决方案
5. 共创绿色未来,和硕展现ESG永续力
和硕致力于透过提供创新解决方案来促进ESG永续发展,帮助企业提高绩效并降低功耗。和硕认知到散热在人工智慧伺服器设计中的重要性,推出了L11液冷架构「Holley」,其能够在提升效能的同时节能40%。此外,和硕还建立了L11系统监控软体与RPU流量控制的散热机制,目标可以支援65KW的散热功率。这些散热技术不需要额外的资料中心改造,且可直接适用于现有的硬体平台,包括NVIDIA、Intel、AMD和Ampere。
和硕除了传统的单相液冷技术外,还采用双相液冷技术,避免漏液疑虑并提升散热效率(70KW)。此外,和硕还有浸没式冷却(immersion cooling)技术,将伺服器直接浸泡在不导电的液体中,提升资料中心的能源效率,减少维修需求。这些散热技术和节能措施不仅提高伺服器效能,也符合ESG永续发展的理念,降低能源消耗和碳排放,为环境保护做出贡献。和硕的伺服器核心设计理念包括模组化,缩短产品开发周期,共享模组件,减少资源浪费,实践低能耗、高效率和可回收再利用的企业永续经营目标。和硕也追求环保永续、社会责任和公司治理等目标,确保在全球市场上的竞争力和持续发展。
【媒体联络人】
陈莹
886-2-8143-9001 *32312
PegatronIR@pegatroncorp.com
林廷玮
886-2-8143-9001 *33524
Pegatron_SVR@pegatroncorp.com
刘宜祥
886-2-8143-9001 *34345
Pegatron_SVR@pegatroncorp.com
Pegatron SVR Website: https://svr.pegatroncorp.com/