概览
借助 AWS 上的 Hugging Face,只需单击几下,即可通过 NVIDIA GPU 上的 Amazon SageMaker 以及专门构建的人工智能芯片 AWS Trainium 和 AWS Inferentia 访问、评估、自定义和部署数百个公开发布的基础模型(FM)。Hugging Face 模型中心中最常用的基础模型均支持这些易于使用的流,因此您可以针对特定使用案例,进一步优化模型性能,同时显著降低成本。 模型中心的“训练”和“部署”下拉菜单下的每个模型页面均提供 Sagemaker 的代码段。
在后台,这些体验在 Hugging Face AWS Deep Learning Containers(DLC)上构建,可提供完全托管体验,让您通过 Amazon SageMaker 构建、训练和部署最先进的基础模型。借助这些 DLC,您可省去软件包依赖关系,也无需针对目标硬件优化机器学习工作负载。例如,AWS 和 Hugging Face 合作开发了开源 Optimum Neuron 库,该库随专为 AWS 人工智能芯片构建的 DLC 打包提供,可以最小开销提供性价比优势。
优势
使用案例
内容摘要
生成文章、博客文章和文档的简明摘要,以识别最重要的信息、突出显示关键要点并更快地提炼信息。Hugging Face 提供 Meta Llama 3 等用于内容摘要的各类模型。
聊天支持或虚拟助手
利用由生成式人工智能驱动的聊天支持和虚拟助手,自动化响应客户服务查询,从而简化客户自助服务流程并降低运营成本。Hugging Face 提供的模型可用于聊天支持或虚拟助手,包括经指令调整的 Meta Llama 3 和 Falcon 2 模型。
内容生成
创建个性化、引人入胜的高质量内容,例如短篇故事、散文、博客、社交媒体帖文、图片和网页文案。Hugging Face 提供 Mistral 等用于内容生成的模型。
代码生成
使用代码建议加快应用程序开发。Hugging Face 提供 StarCoder 等可用于代码生成的模型。
文档向量化
通过使用嵌入模型对文档进行向量化,您可以解锁信息检索、问答、语义搜索、上下文推荐和文档集群等强大功能。这些应用程序增强了用户与信息交互的方式,让用户更轻松便捷地发现、探索和利用大型文档集合中的相关知识。