Clarke Rodgers(00:10):
与客户首席执行官以及同行举行这样的非公开会谈时,他们向您提出了什么问题? 对于安全性、隐私和合规性,以及现有的监管制度,他们跟您聊了什么? 您能为我们透露一下那些讨论内容吗?
Adam Selipsky(00:28):
这些都是非常重要的讨论,许多首席执行官都非常关心这些话题,这些话题也确实引起了许多人的共鸣。我想说几点,其中一点是,生成式人工智能是所有人关注的话题。我们收到了很多问题,比如“我如何看待生成式人工智能世界中的安全”、“事物发展如此之快”以及“我应该使用什么类型的应用程序或技术?”,以及“如何才能知晓这些应用程序或技术是安全的,及我该如何看待公司内部的安全?” 答案的第一部分是,
“生成式人工智能应能提供与您从任何其他服务中期望的安全水平完全相同的保障。”
人们似乎在讨论这些服务的企业安全性时存在一种分歧,然后突然转到“哦,现在我们来谈谈生成式人工智能”。 一些最早的生成式人工智能聊天机器人或消费者级别助手竟然没有安全模型,这一点令我感到震惊。数据实际是通过互联网发布的,对模型的任何改进实际上都会由所有使用模型的人共享。因此,许多首席信息官、首席信息安全官和首席执行官实际上在相当长的一段时间内禁止了其公司使用其中一些助理。
► 收听播客:数据信任:人工智能创新最核心的要素
但我感到有些惊讶,因为我想到去找一位注重安全的首席执行官、首席信息官或首席信息安全官,然后告诉他们:“您好,我可以提供这种出色的新数据库服务。”它无与伦比。您会喜欢的。我真的认为您应该采用它。顺便提一句,它并没有与之关联的安全模型,但别担心,我会在第 2 版推出时解决这个问题,到时候就会安全了。” 没有人会相信的。
Clarke Rodgers(02:20):
确实。
Adam Selipsky(02:21)
至少我希望如此,也理当如此。因此,我认为在这个领域的其他公司出于某种原因(说不出是什么原因),对安全采取了不同的态度,将其看得不那么重要。而我们预见到了这一点。我们的生成式人工智能服务,例如用于运营基础模型的托管服务 Amazon Bedrock,和任何其他 AWS 服务同样安全。
以上便是围绕生成式人工智能的第一次对话。还有一些其他话题,比如“如何使我的公司具备安全意识?” 我认为这可以追溯到文化中。这可以回归到我们今天讨论的一些关于真正自上而下的领导力,以及向高层领导人发出信号,表明这很重要的问题。还有门槛,标准是非常高的。我经常为同行提供建议,很多时候涉及坚持最高标准,以及人们需要看到安全标准有多高,以及人们对于任何事情都毫不容忍,唯独对于最高标准十分宽容。