人工智能:隐私和信息安全风险考虑

 Esanju Maseka
作者: Esanju Maseka, CISA
发表日期: 2023年10月11日

随着组织努力通过使用人工智能和其他尖端技术来提高运营效率, 将风险管理作为战略重点领域是很重要的. 不断变化的业务和运营风险, 组织需要有直接的资源专注于监控和重新调整他们的风险状态, 特别是涉及到隐私和安全风险.

寻求从人工智能中获益并减轻其使用相关风险的组织需要开发一个包罗万象的, 多学科方法,结合了从IT人员到法律团队到数据分析团队等不同专业人员的专业知识. 这将鼓励所有团队承担责任,并确保他们负责任地使用人工智能工具.

隐私风险

数据隐私和安全已经成为组织需要持续考虑的关键问题,因为他们需要人工智能. 这是因为, 让人工智能建立自己的学习能力, 它需要大量的数据来更好地分析和识别模式和流程. 不幸的是, 组织拥有的大多数数据将包含个人信息, 如果人工智能流程被中断,个人信息泄露的风险就会增加.

为了覆盖这种风险,一些组织关注于 假名化数据 将可识别属性替换为其他记录. 然而,使用人工智能的恶意行为者可以从数据中重新创建个人信息. 或者,组织可以使用 匿名数据, 其中包括加密或完全删除个人身份信息, 这使得它很难重现.

在个人层面上, 而鼓励使用人工智能“让生活更轻松”,“对于最终用户来说,重要的是要意识到,所有提供给人工智能模型的信息都是用来改进模型的. 这些人工智能模型中有许多被公众广泛使用. 这意味着任何私人或敏感信息都有暴露的风险, 因为人工智能模型可以使用共享的信息为另一个人生成结果或解决方案.

网络安全风险

传统的安全信息和事件管理(SIEM)系统侧重于根据商定的规则对安全事件数据进行管理和分析. 生成式人工智能是游戏规则的改变者 数据驱动算法和自我学习能力 以应对新出现的威胁.

SIEM系统经常讨论的挑战是分析师的倦怠和人员配置挑战, 以及由此产生的知识差距. 人工智能越来越多地被用来填补这些人员缺口,通过提供在持续的基础上执行计划任务的能力. 应保持对人工智能执行的活动的监督,以确保一致性. 这方面的一个例子如下 以人为中心的原则 在人工智能生命周期的每个阶段, 对人工智能模型的决策输出进行监管检查,并从人工智能模型中创建负面场景警报,以便员工及时收到不利结果的警报.

不幸的是, 生成式人工智能为恶意行为者提供了开发更复杂的网络攻击和利用系统漏洞的工具. 许多恶意行为者将专注于通过向人工智能提供损坏的数据来破坏学习模型,从而影响其决策过程. 其他人可能会使用生成人工智能来创建类似于合法电子邮件的网络钓鱼攻击, 这使得内置的安全监控工具更难标记这类电子邮件. 如果不加以控制,这可能会扰乱澳门赌场官方下载的运营, 影响其盈利流程并影响整体业务连续性.

错误信息和歧视

人工智能模型依赖于注入其中的信息来学习所需的过程和结果. 参与提供这些数据的用户必须确保数据的完整性, 而且,在一个不断与种族作斗争的世界里,它不会在数据元素中嵌入相关的偏见, 性别, 性别和宗教歧视, 举几个例子. 组织需要承担更大的负担,以确保他们不会教人工智能模型强化偏见,甚至产生新的偏见.

这方面的一个例子是人力资源团队如何引入人工智能模型来帮助减少处理数千个应用程序所花费的时间. 然而, 如果提供给人工智能模型的信息包括过去成功申请IT职位的男性,并且来自特定年龄段, 人工智能模型可能被编程为只识别这一类人, 遗漏其他潜在员工. 不能考虑歧视性做法影响的组织可能面临声誉和法律损害.

装备你的团队走向成功

整体, 而人工智能可能是澳门赌场官方下载一直在寻找的尖端游戏规则改变者,以提高运营水平, 如果使用不当,它还可能导致昂贵的诉讼或被法定监管机构罚款. 组织需要确保他们的团队具备与人工智能模型一起工作的知识和技能,以获得预期的收益. 这些团队的重点应该是密切监视他们的风险概况,并不断加强他们的治理结构,以响应新出现的风险.