GenAI 时代 CTO 强化组织的 3 种方法

图片[1]-GenAI 时代 CTO 强化组织的 3 种方法-超凡AI

很少有技术能像生成人工智能那样激发公众的想象力。似乎每天都有新的基于人工智能的聊天机器人、扩展程序和应用程序被发布给世界各地热切的用户。 

根据Gartner 最近对 IT 领导者的一项调查,55% 的组织正在使用生成式 AI 进行试点或生产模式。无论如何,这都是一个令人印象深刻的指标,尤其是考虑到 12 个月前“生成式人工智能”这个词还几乎不属于我们的集体词汇。  

然而,尽管这项技术有望提高员工的生产力和效率,但它也留下了潜在风险和责任的雷区。Blackberry 8 月份的一项调查发现,全球 75% 的组织正在考虑或实施在工作场所禁止 ChatGPT 和其他生成式 AI 应用程序的禁令,其中绝大多数 (67%) 认为这对数据安全和隐私构成风险。 

之所以出现此类数据安全问题,是因为用户输入和交互是公共人工智能平台持续学习和改进所依赖的燃料。因此,如果用户与聊天机器人共享公司机密数据(例如:产品路线图或客户信息),那么该信息就会集成到其培训模型中,然后聊天机器人可能会将其透露给后续用户。当然,这一挑战不仅限于公共人工智能平台,因为即使是在自己的专有数据集上接受培训的公司内部法学硕士也可能会无意中让无权查看敏感信息的员工访问这些信息。 

为了更好地评估和减轻这些风险,大多数已经开始测试生成式人工智能的企业主要依靠两个高级角色来实施:CISO,最终负责保护公司的敏感数据;总法律顾问负责监督组织的治理、风险和合规职能。然而,当组织开始根据自己的数据训练人工智能模型时,如果他们在战略审议中不考虑另一个重要角色:首席技术官,那就太失职了。 

数据安全和 CTO  

虽然 CTO 的角色因所服务的组织而异,但几乎每个 CTO 都负责构建技术堆栈并定义决定如何最好地利用技术基础设施的策略。鉴于此,首席技术官拥有独特的优势来评估此类人工智能计划如何最符合其战略目标。 

随着越来越多的组织可能犹豫是否要全力投入公共人工智能项目,而是选择投资开发基于自己的数据训练的自己的人工智能模型,他们的战略洞察力变得更加重要。事实上,OpenAI 最近的 DevDay 会议上的一项重大公告集中在发布Custom Models上,这是其旗舰 ChatGPT 服务的定制版本,可以专门针对公司的专有数据集进行培训。考虑到数据安全普遍存在的不确定性,其他法学硕士自然也可能会效仿。  

然而,仅仅因为您选择内部开发并不意味着您已经阻止了所有人工智能风险。例如,考虑当今数字企业最有价值的皇冠上的宝石之一:源代码。随着组织越来越多地将生成式人工智能集成到其运营中,他们面临着与源代码管理相关的新的复杂风险。在训练这些人工智能模型的过程中,组织通常使用客户数据作为训练集的一部分并将其存储在源代码存储库中。  

敏感客户数据与源代码的混合带来了许多挑战。虽然客户数据通常在安全的数据库中进行管理,但通过生成人工智能模型,这些敏感信息可以嵌入到模型的算法和输出中。这就创造了一种场景,即人工智能模型本身成为敏感数据的存储库,模糊了数据存储和应用程序逻辑之间的传统界限。由于界限不明确,敏感数据可能会迅速蔓延到组织内的多个设备和平台,从而显着增加被外部各方无意中泄露的风险,或者在某些情况下被恶意内部人员泄露的风险。  

那么,如何将人工智能模型这样的技术性和抽象性的东西驯服成适合用户的东西——同时又不会让最敏感的数据面临风险呢?  

CTO 帮助实现平衡的 3 种方法 

每个企业的CTO都明白权衡的原则。如果业务部门所有者要求特定应用程序具有更快的性能,则可能需要从其他计划中转移资源或预算。鉴于他们对 IT 环境及其与第三方云服务交互方式的自上而下的看法,CTO 处于独特的地位来定义将数据安全放在首位的 AI 策略。考虑 CTO 可以通过以下三种方式与其他主要利益相关者协作并取得适当的平衡: 

1. 在根除之前进行教育:鉴于通过生成人工智能暴露数据存在许多安全和监管风险,因此许多组织可能会在短期内本能地禁止其使用,这是很自然的。然而,从长远来看,这种短视的心态可能会阻碍创新。 CTO 可以帮助确保组织的可接受使用政策明确概述生成式 AI 技术的适当和不适当使用,详细说明可以使用生成式 AI 的具体场景,同时强调数据安全性和合规性标准。 

2. 隔离和保护源代码存储库:一旦将知识产权引入人工智能模型,过滤掉它的任务就变得更加困难。 CTO 的责任是确保对源代码存储库的访问受到严格控制和监控。这包括建立角色和权限来限制谁可以访问、修改或分发代码。通过实施严格的访问控制,首席技术官可以最大限度地降低未经授权的访问或敏感数据泄露的风险,并建立要求代码在合并到主存储库之前经过审查和批准的流程。  

3. 为用户提供选择退出的选项:允许用户选择退出对于在公司与其用户之间建立信任和透明度至关重要——当用户感到自己的隐私受到尊重和保护时,他们更有可能使用人工智能技术。首席技术官拥有了解人工智能系统中如何收集、处理和使用数据的技术专业知识,这对于创建真正保护用户数据的有效选择退出机制至关重要。首席技术官还可以在定义如何负责任地部署这些人工智能解决方案的战略方向方面发挥关键作用,确保优先考虑用户隐私和数据安全并将其纳入公司的技术战略。 

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容