Clarke Rodgers:
讲解得太棒了。随着技术的进步,当然借助现有的生成式人工智能工具,您认为未来的 SOC 会如何? 我不确定您正在使用生成式人工智能工具,还是打算尝试或者正在了解情况,您能否告诉我们这对 SOC 分析师和其他职位有何帮助? 从攻击者的角度来看,他们会如何使用,你们会据此检测到他们的活动,还是对此做出反应?
Tom Avant:
我们已经开始使用它来为一些客户创建自动响应。我们正在研究自动化工作流程,希望能够实现以下目标,“我们知道这些是常见的工作流程(这些都是基于我们正在研究的指标,也是客户通常希望实现的目标)我们整合数据意在明确他们所需要的解决方案,以及什么情况下无需人工判断,为什么我们没有从这个过程中取消人工呢?” 这就是我们现在正在研究的问题。
Clarke Rodgers:
太棒了。那么对手所带来的影响有哪些?
Tom Avant:
从威胁来讲,这非常有意思。这是一个全新的竞争环境。所以,你会听到各种新鲜事物...人们希望参与这项技术,他们只需要访问各种网站然后下载即可。他们甚至有一半时间都不知道自己在下载什么。你不希望让人直奔火海。要先评估火势,然后寻找最佳的灭火点。
因此,当我们谈论生成式人工智能时,也是如此。哪里安全? 在使用之前,如何确保能够确认使用率? 我们可以在后台进行哪些不同的检查,并确保在大范围使用之前明确:“我们认为工作效果非常好”。因为一旦使用,就会开始扩散,这已经不是刚发现抱怨的时候,错误已经发生,因为清理工作已经开始,扩散不会停止。对于我们这些以前曾经遭遇过的人来说,这并不是有趣的事情。所以,一定要预先检查,避免产生麻烦。
► 阅读研究报告:保障生成式人工智能的安全:当下应关注的重点
我认为与之相关的另一种威胁是监管,这种威胁可能并不常见。这可能是我已经预见的一个最大的趋势,因为随着越来越多的客户选择云端,云端会承载越来越多的工作负载。应用的环境在增加,应用的国家也在增加。越来越多的地域出现主权云。现实情况要求必须考虑监管。过去,这可以事后解决,如今,则需要提前商讨解决。在我们考虑其他问题之前,如何采用和遵守规定,同时为客户实现和维护最大价值,而又保持合规还能够沟通?
Clarke Rodgers:
我认为对我来说,这种趋势不可思议。过去我们可以围绕设计中的安全性进行对话,对吧? 在构思阶段,甚至是在原型设计阶段,建立安全性。而现在则是,“还有隐私、合规和监管义务”。
Tom Avant:
当然。
Clarke Rodgers:
我很高兴大家明白这一点,在发布之后的上市过程中,大家已经齐头并进。
Tom Avant:
当然。
Clarke Rodgers:
太精彩了,Tom。感谢您今天抽空莅临。非常感谢!
Tom Avant:
非常感谢您的邀请。我对此心存感激。