随着大型语言模型 (LLM)(如 ChatGPT)和机器学习 (ML) 在生成式 AI 的前景方面引起媒体和业界的无休止关注,这些技术的发展也为数据中心行业带来了大量挑战。
除了 AI,ML 和物联网 (IoT) 等技术也需要具有广泛带宽和创新电源解决方案的数据中心。随着对计算能力和连接性的需求不断增长,系统运营商对数据中心的依赖也在不断增加,以高效处理和存储大量信息,同时保持卓越的性能。
利用先进 AI 算法的边缘计算系统可以在网络内执行实时数据处理和决策,以最大限度地提高整体性能。边缘计算还可以帮助实现为 AI 提供动力所需的实时数据处理。随着生成式人工智能、法学硕士、物联网、云应用、实时数据处理以及对低延迟应用的需求将计算能力推向前所未有的水平,边缘计算市场规模预计将从 2024 年的约 340 亿美元飙升至 2033 年的 7000 多亿美元。
鉴于生成式人工智能的迅猛发展,数据中心行业的任务是快速适应计算能力的激增,并满足对有效电源解决方案日益增长的需求。
释放人工智能潜力的关键可能取决于边缘计算的有效性。边缘计算使用分布式信息技术 (IT) 架构,在网络外围尽可能靠近其原始来源的地方处理数据。这可以减少延迟并提高性能,同时还可以降低能耗——这是大型数据中心运营商的长期对手。
应对实施边缘模型的挑战
为了成功设计和实施边缘计算模型,数据中心部门需要应对一些挑战。随着组织开始减少对传统集中式数据中心收集、处理和存储数据的依赖,边缘计算能够重塑业务开展方式。例如,随着能源网分布越来越广泛,边缘计算可以提供所需的低延迟数据处理,以促进实时发电和配电决策,从而以最佳方式满足需求。
不那么集中的数据中心生态系统也为消费者带来了好处。然而,消费者对处理大量快速移动数据的应用程序的依赖也推动了数据中心开发人员解决物流挑战的需求。这些挑战包括在靠近数据源的社区、设施和人口密集地区建立数据中心。这对于需要极低延迟的应用程序尤其重要,例如直播、增强现实 (AR) 和自动驾驶汽车。
随着这些应用程序对边缘计算基础设施的需求不断增加,另一个挑战也随之而来——减轻这些设施内 IT 设备和电源产生的热量。为了应对产生的高热量,开发人员的任务是实施高效的电源系统,其中包括高效传导或液冷整流器、浸入式冷却和热量控制解决方案等功能。减轻热量对于数据中心的运营效率以及防止设备损坏甚至更糟的系统故障至关重要。
设备损坏和停电的后果可能很严重。根据 Uptime Institute 的一项调查,超过一半的受访数据中心运营商在 2020 年至 2023 年期间遭遇过停电。最严重的停电成本仍然很高,54% 的受访者表示,最严重的停电给他们造成了超过 10 万美元的损失。此外,近六分之一的运营商表示,他们遭遇的停电损失超过 100 万美元。
这些令人警醒的统计数据凸显了弹性数据中心电力系统的重要性,以及需要远程监控和随时解决潜在问题。随着边缘计算推动对更广泛分布的数据中心的需求,远程监控和诊断的重要性也日益凸显。此外,对经验丰富、随时待命的服务技术人员的需求从未如此高涨,以帮助维持这些关键边缘网络的正常运行时间。这要求数据中心运营商建立明确的战略方法来管理根据需要扩展资源的复杂过程。
最后,数据安全是边缘计算流程的另一个关键方面,因为多个边缘位置可能会增加遭受网络攻击的可能性。运营商需要确保其边缘位置符合行业标准的数据隐私和合规措施。还必须实施安全协议,包括访问控制、威胁检测和数据加密。持续监控和审核边缘设备和网络以确保及时发现威胁或攻击也至关重要。
采取整体方法实现全国边缘连接
边缘计算生态系统中的利益相关者(包括政府、服务提供商和应用程序开发商)需要共同努力,充分发挥边缘计算的优势。支持人工智能所需的广泛计算能力并应对该技术带来的挑战需要采取整体和协作的方法来实现网络架构、基础设施设计和系统管理。
作者:Vito Savino
本文转自:千家网,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。