在审视员工私下使用能够提升工作效率的先进工具时,不难发现组织内部对生成式人工智能(GenAI)的采纳率远超人们的想象。随着员工广泛接纳和使用这些数字内容创作工具,影子AI已成为IT部门必须面对的挑战与负担。
微软与领英联合进行的一项研究表明,高达78%的员工在工作中采用了“自带人工智能”(BYOAI)技术。尽管这项研究强调了BYOAI对企业数据安全的潜在威胁,但却未能充分揭示组织所面临的数据安全风险的全面性。
不论是称其为BYOAI还是影子AI,采用这种工具带来的风险可能比未经批准使用云计算和移动应用程序要高得多。
IT行业的领导者可能还记得15年前消费者智能手机发展初期的“自带设备”(BYOD)趋势。他们当时惊讶地发现,员工们纷纷放弃了曾经钟爱的黑莓手机,转而选择使用iPhone和Android智能手机。而伴随着从应用商店下载的未经批准应用程序数量的激增,安全风险也随之加剧。
事实上,消费者通常比组织更快地接纳新技术。然而,这种坚持使用个人偏好设备和软件的消费者行为,往往忽视了与企业服务的集成,也忽视了风险或合性要求。
与影子IT同样危险的是,影子AI可能带来的后果更为严重——它们的使用变得随心所欲。尽管期望员工具备足够的安全常识,不会将战略文件随意投入如OpenAI这样的公共GPT模型中,但即使是像会议转录这样看似无害的行为,也可能对业务产生严重后果。
当然,IT领导者也知道,不能对对员工采用的GenAI服务视而不见。如果被忽视,影子人工智能可能会给企业带来灾难性的后果,从知识产权泄露到向竞争对手泄露关键战略。
尽管存在风险,但大多数组织并没有足够快地采取措施来确保安全使用GenAI,毕马威公司调查的69%的公司处于初始阶段或尚未开始评估GenAI风险和风险缓解策略。
安全大规模地部署人工智能
幸运的是,组织可以采取有效措施大规模实施人工智能,以帮助提高员工的技能,同时确保必要的治理措施得以实施,以下是IT领导者应该采取的措施:
• 制定治理政策:在组织内部确立一套明确的人工智能使用指导方针。清晰界定哪些人工智能系统是被批准使用的,对这些应用程序进行审查,并明确告知员工使用未经批准的人工智能的潜在风险与后果。
• 教育和培训:为员工提供经过批准的人工智能应用程序,以帮助他们高效完成工作,从而降低他们使用未授权工具的动机。同时,还需向员工普及与输入敏感内容相关风险的知识,并明确哪些内容属于敏感类别。如果决定允许员工尝试使用未经授权的工具或BYOAI,务必提供必要的指导和防护措施,确保安全使用。
• 明确用例和角色:在教育员工的过程中需要提供具体的用例,展示人工智能如何帮助他们更好地完成工作。同时,根据用户“角色”或基于角色的采用路径,为他们提供相应的支持和指导,以促进人工智能的合理使用。
• 审计和监视使用:实施定期的审计和合规性监视机制,包括利用软件来检测异常网络活动,这有助于及时发现并应对未经授权的人工智能系统或应用程序的使用。
• 鼓励透明度和报告:培养一种鼓励员工积极报告使用未经授权的人工智能工具或系统的文化。这种透明度将促进快速响应和补救措施,以最大限度地减少潜在风险或事件升级带来的后果。
• 保持持续沟通:鉴于GenAI工具的快速发展,需要定期更新人工智能政策和指导方针,并与员工保持沟通,确保他们了解最新的变化。通常情况下,大多数员工都愿意遵循指导,并希望为企业做出贡献。
提供解决方案
GenAI模型和服务每天都在发展,但有一些核心原则:
• 如果需要大规模部署人工智能,组织必须考虑从选择合适的基础设施到为业务选择适合GenAI模型,再到严格把控安全性和治理风险等一系列因素。
• 组织的人工智能战略将对业务转型至关重要,需要在控制GenAI的部署和允许员工自由探索之间找到平衡,并充分理解可能带来的潜在风险。
• 如果允许员工自由选择BYOAI、影子AI或任何工具,组织是否有适当的保障措施来保护业务?
值得信赖的合作伙伴可以帮助引导组织完成学习曲线。一些科技公司提供了一系列人工智能就绪的解决方案和专业服务,以指导企业在GenAI旅程中稳步前行。