Amazon Bedrock 中的 TwelveLabs(即将推出)

释放企业视频资产的全部潜力

TwelveLabs 简介

TwelveLabs 运用多模态基础模型(FM)为视频数据带来类似人类的理解能力。该公司的基础模型能够理解视频中发生的事情,包括动作、物体和背景声音,使开发人员能够创建可以搜索视频、对场景进行分类、总结并精确可靠地提取见解的应用程序。

非常先进的视频理解模型

Marengo 2.7

使用 Marengo 2.7,获取快速且具备情境感知能力的结果,精准揭示您在视频中寻找的内容 — 超越基本标签,进入多模态理解的全新维度。

Pegasus 1.2

借助语言的力量来改造您的视频。从视频中生成您需要的一切内容 — 从简洁的摘要、引人入胜的精彩片段,到有效的话题标签和定制化的报告。通过您的内容发现更深入的见解并解锁全新的可能性。
 

优势

使用简单的语言查询就能精准定位视频中的特定时刻,无需再进行繁琐的手动快进查看和人工审核。

无需预先定义标签或类别,即可从内容中提取深刻见解,有助于发现意外的模式和信息。

利用专为企业规模和安全性打造的技术,将大量视频库转化为易于访问、可搜索的知识资源。

同时处理视觉元素、音频内容和文本,实现全面理解,捕捉视频每一个维度的信息。

将不同时间的相关事件关联起来,识别那些手动跟踪既具有挑战性又耗时的模式和关系。

使用案例

通过即时查找、总结和关联视频片段来转变制作工作流程,帮助创作者专注于创意本身,而不是搜索素材。

借助人工智能驱动的视频理解技术,加快内容分析并提升工作流程效率,帮助品牌更有效地与受众建立联系,同时减少制作时间和成本。

通过快速识别视频源中的关键事件和模式,增强态势感知能力,实现主动的安全监控,并做出更迅速、更明智的决策。

从检测驾驶员面临的危险到预测行人的行为,TwelveLabs 的人工智能以类似人类的理解能力分析视频,从而改变交通安全与效率。

Amazon Bedrock 中的 TwelveLabs 概述

借助 Amazon Bedrock 中的 Marengo 和 Pegasus,您可以使用 TwelveLabs 的模型来构建和扩展生成式人工智能应用程序,而无需管理底层基础设施。您还能够在完全掌控自身数据的同时访问广泛的功能,享有企业级的安全性以及成本控制特性,这些特性对于负责任地大规模部署人工智能至关重要。

模型版本

Marengo 2.7

视频嵌入模型,擅长执行搜索和分类等任务,可增强对视频的理解。

了解详情


Pegasus 1.2

视频语言模型,可以根据您的视频数据生成文本。

了解详情