适用于大型语言模型的HPE GreenLake将AI带给更多组织
科技巨头惠普企业(HPE) 通过推出适用于大型语言模型 (LLM) 的 HPE GreenLake,在人工智能云领域迈出了第一步。这种最先进的云服务旨在为从初创公司到财富 500 强企业等各种规模的企业提供广泛的 AI 模型训练、调整和部署能力。
适用于大型语言模型的 HPE GreenLake:它是什么?
作为众多专业人工智能应用程序中的第一个,适用于法学硕士的 HPE GreenLake 将在顶级超级计算机和人工智能软件上运行,大部分由绿色能源提供动力。目前正在计划将该服务扩展到气候建模、医疗保健、生命科学等行业。
对于不太熟悉该术语的人来说,HPE GreenLake 的 Luminous 等大型语言模型是先进的 AI 模型,能够根据给定的输入理解并生成类似人类的文本。这些模型经过大量数据的训练,可以生成相关的上下文响应,这使得它们在许多应用程序中非常有用。
从通过人工智能聊天机器人简化客户服务,到通过扫描和解释医疗记录来帮助医疗保健专业人员,法学硕士可以推动各个领域的效率和创新。HPE 产品的出现使得各种规模的企业都可以更容易地使用这种复杂的技术。虽然 HPE 的愿景是大规模的,但法学硕士不必以这种方式开始,而且通常也这样做。请参阅我们关于Meta LLaMa入门的文章以了解更多信息。
HPE 首席执行官 Antonio Neri 将人工智能的影响与网络、移动和云等革命性技术进行了比较。他表达了慧与对人工智能民主化的承诺,这一领域主要属于大型政府实验室和云巨头。我们经常感叹大多数人工智能工具无法在大型 HPC 和企业数据中心之外访问。虽然我们对 Neri 的人工智能民主化计划表示赞赏,但 HPE 将如何实现这一目标仍有待观察。
适用于大型语言模型的 HPE GreenLake 如何脱颖而出
与并行运行工作负载的典型通用云产品不同,适用于 LLM 的 HPE GreenLake 在 AI 原生架构上运行,旨在以完整计算能力运行大规模 AI 训练和模拟工作负载。这种方法允许同时在数百或数千个 CPU 或 GPU 上处理许多 AI 和 HPC 作业,从而提高 AI 训练效率和模型创建的精度。
该服务允许访问 Luminous,这是 Aleph Alpha 预先训练的语言模型。客户可以利用他们的数据个性化该模型,从而产生有价值的实时见解。这对于该产品意义重大,因为 Aleph Alpha 的“Luminous”预训练模型是 HPE GreenLake for LLM 产品的关键部分。Aleph Alpha 的首席执行官 Jonas Andrulis 强调了使用 HPE 超级计算机和 AI 软件训练 Luminous 的好处。
适用于法学硕士的 HPE GreenLake 将在 HPE Cray XD 超级计算机上运行,这是全球最强大、最环保的计算机之一。使用 HPE Cray 编程环境软件套件可优化 HPC 和 AI 应用程序。因此,客户可以避免购买和维护他们的超级计算机。
HPE 正在接受针对法学硕士的 HPE GreenLake 订单。他们预计到 2023 年底,该产品将在北美、然后在欧洲得到更广泛的应用。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。