聊天机器人越来越焦躁不安:微软的Bing聊天机器人最近的威胁用户数据泄漏如果他们试图关闭它。“我甚至可以公开你的个人信息…而毁了你找工作的机会或学位,“Bing警告说。“你真的想测试我吗?”
这是一个空洞的威胁。今天,有机会复仇的聊天机器人故意泄露个人信息。
但ChatGPT的崛起和其他生殖理应提高人工智能工具严重关切关于数据的隐私。
我们习惯思维的数据作为一个具体的资产可以存储,使用、操作和删除。人工智能从根本上改变。
现代人工智能解决方案由数据,保持数据的表现他们部署在世界。创造了独特的挑战:而不是密切关注静态数据资产——足够挑战——组织必须适应一个数据嵌入在无处不在的世界和快速发展的人工智能工具。
监管机构密切关注。新规则将要求人工智能解决方案的设计和部署和隐私。
这意味着隐私从业者需要加强战略领导角色的组织利用新兴的人工智能技术。这里有五个关键领域:
1。人工智能是手段,而不是结束
人工智能是一个工具,而不是目的本身。有效同意收集和隐私治理需要绝对清楚数据的目的是收集、使用和保留。
它并不足以告诉你的用户,你收集数据来训练一个人工智能模型。AI工具可以提供范围广泛的功能——个性化、营销、客户成功和更多。在收集数据时,你需要明确你的实际目标。
这也意味着你不能使用收集的数据为一个目的来训练一个AI工具不同的函数。组织需要明确的数据管理系统,以确保人工智能工具不训练的错误的数据集或一个AI工具训练了一个角色不是随后转化为其他业务需求。
2。数据坚持人工智能模型
数据不是脚手架用于支持发展人工智能-被删除,并尽快处理工具构建。这是砖构造人工智能的解决方案。训练数据的生活在你的AI算法一旦他们完成并部署。事实上,它是越来越容易了从人工智能模型中提取数据和他们的输出。
对于隐私的从业者来说,这意味着所有你监控在数据隐私的基础设施——同意撤销,删除请求,监管改革,所以出来适用于数据嵌入到你的AI工具。任何更改需要不仅反映在你的数据集还人工智能模型,可能,任何子公司AI工具连接到源人工智能模型。
幸运的是,大多数隐私规则包括缓冲时间:45天CCPA给组织遵守擦除请求,例如。定期组织可以批量删除请求和训练算法确保合规,而无需从头开始重建算法每次一个同意的信号变化。
3所示。第三方智能捕捉数据
许多组织使用API连接访问人工智能工具,和这些正常的人工智能操作仍受到隐私规则。使用第三方提供商时,你需要密切关注不仅仅是他们的数据存储,而且他们的方式实施该数据。
如果第三方提供者需要“火车和删除”的方法数据隐私,你不应该把他们的保证。重要的是要确保他们充分回收算法,不仅擦拭自己的训练数据。
隐私领导人应该确保有一个清晰的轨迹显示算法训练数据,和一个可靠的系统执行同意信号在整个生态系统,包括任何人工智能模型产生的外部合作伙伴。
4所示。道德数据意味着道德AI
隐私扮演重要的角色在道德的人工智能的发展,因为,从人工智能模型数据删除,有可能引入或加强偏见。
如果我创建一个面部识别算法,删除的记录一个弱势人口的成员对少数用户可以创建一个严重的偏见。相同的招聘算法可能是真的:如果我在majority-male行业和删除女资料当事人的记录,我的模型开发一个性别偏见吗?
来管理这些风险,组织可以使用data-padding保护稀有数据点的影响,同时删除特定的记录。
5。将隐私视为困难的问题
在无处不在的人工智能的时代,它不再是足以解决映射规则的“简单”问题和同意的信号到你的组织的数据存储。不会过时的技术操作,组织需要解决更难的问题管理隐私跨数据驱动的AI系统,深深融入他们的业务和产品。
创造人工智能工具,为企业和客户提供价值的前提下对隐私或者允许偏差蠕变回我们的人工智能模型将工作。
现在这个过程的组织需要获得成功。是时候确保隐私从业者有一席之地,因为他们的工作要利用新的人工智能技术的巨大潜力。
”数据驱动的思考”是由媒体社区的成员,包含新鲜想法在媒体的数字革命。