生成式人工智能(GenAI)的崛起重塑了业务流程、决策方式以及我们与数据的交互方式。其带来的好处显而易见——提高效率、激发创造力、创造新的增长机会——但风险也同样显著,特别是在安全和隐私方面。
对于C级高管而言,挑战在于如何在这些复杂的权衡中导航,并实施一个既能促进创新又能实现负责任治理的框架。
AI挑战和风险的核心在于大型语言模型(LLM)处理数据方式的不确定性。输入AI工具中的专有信息可能会被存储在云端,甚至存储在不同隐私法的外国司法管辖区,从而使公司面临数据泄露的潜在风险。当第三方供应商使用AI时,风险会进一步升级,因为缺乏适当的治理会增加无意数据泄露的可能性。
从外部来看,AI已经赋权了包括网络犯罪分子和国家在内的威胁行动者,使他们能够以前所未有的速度和规模增强攻击,包括AI生成的钓鱼计划和深度伪造内容,这对企业安全构成了重大威胁。
更加严重的是,暗网市场上出现了出售AI工具的现象,如专为帮助恶意行为者扩大攻击规模而设计的ChatGPT的黑帽版本。
但风险不仅来自外部攻击者——内部人员无意中滥用AI工具的风险也变得普遍。如果员工将机密信息上传到生成式AI模型中,可能会无意中使公司面临数据泄露的风险,特别是如果AI服务提供商的条款和条件不保证数据隐私的话。
C级高管必须确保他们的内部员工和第三方合作伙伴都了解这些不断演变的风险,以便有效地缓解这些风险。
随着组织采纳AI,许多组织发现自己正处于治理的十字路口。世界上一些最大的公司已经开始制定框架,但管理AI使用仍没有标准方法。C级高管需要专注于制定与其风险偏好相一致的稳健治理结构,同时确保遵守数据保护法规。
对于律师事务所和金融服务提供商等组织而言,治理委员会已成为指导AI使用的关键工具。这些委员会通常包括重要的利益相关者:首席执行官、首席信息安全官、首席风险官和法律团队,他们的任务是监督AI如何融入业务运营。
但治理不仅仅是制定规则。它还需要围绕AI培养一种责任感文化。需要制定明确的政策,规定AI的使用方式、谁有权访问以及公司将如何监控AI。同样重要的是要记住,对AI工具的全面禁止可能会促使员工使用未经授权、未受监控的服务,从而带来更大的风险。相反,组织必须负责任地接纳AI,并注重可见性——确保领导者了解正在使用哪些工具、由谁使用以及用于什么目的。
在AI时代找到隐私和安全之间的正确平衡不仅仅是为了缓解技术风险。这需要一种全面的方法,考虑AI使用的伦理影响。例如,AI模型中的偏见可能导致歧视性结果,而AI生成的幻觉(即模型产生虚假或误导性信息)可能会产生法律责任或影响糟糕的业务决策。
为了解决这些问题,公司正在采用诸如假名化等方法来保护输入AI系统时的个人身份信息(PII)。通过删除或掩盖敏感信息,组织可以降低AI模型产生偏见或有害输出的可能性,同时保护个人隐私。
平衡隐私和安全的另一个关键方面是教育。员工需要了解在专业和个人生活中使用AI工具的风险。C级高管应该以一种能引起个人共鸣的方式来构建他们的教育倡议——强调滥用AI如何会影响他们家人的隐私和安全以及公司的安全。
主动治理建议
随着威胁环境的演变,组织必须优先考虑其安全性和韧性。采取主动态度对待AI治理可以帮助组织保持领先地位。
以下列表提供了一个清晰的流程图,帮助组织开始行动:
明确用例:首先确定AI可以增值的领域,无论是通过提高业务效率还是增强员工参与度。避免让员工面对无穷无尽的可能性而感到不知所措——将重点缩小到最相关的用例上。
确定风险偏好:每个组织都必须评估与AI相关的风险和回报。C级高管应该根据业务目标来评估这些风险,并为公司如何部署AI设定明确的界限。
协调治理和监控政策:制定一个与组织定义的风险偏好相匹配的治理结构。实施定期监控和安全控制,以确保遵守治理政策。对AI使用的实时监控可以帮助在问题升级之前检测到任何异常。
对供应商进行尽职调查:在与AI供应商合作时,组织必须提出正确的问题,了解这些工具如何处理数据。确保AI供应商对其做法保持透明,并制定了强有力的隐私措施。
明智地协作和信息共享:打击AI滥用需要协作。与行业同行合作,并参与专注于AI风险缓解的论坛。保持对最新AI生成威胁(如深度伪造内容和AI生成的非法内容)的了解。
提供相关的员工培训:信任和参与度至关重要。通过使AI教育在个人层面上具有相关性,员工更有可能了解风险并采取负责任的行动。授权员工在工作场所和个人生活中都承担AI治理的责任。
随着AI继续改变企业的运营方式,平衡隐私和安全的重要性从未如此之高。C级高管和首席信息安全官必须主动应对AI治理,建立能够缓解风险的结构,同时授权员工负责任地利用AI的潜力。在这个快速演变的环境中,能够在安全、隐私和创新之间找到正确平衡的组织将为实现长期成功奠定坚实基础。