随着监管环境变得越来越严格,这个问题变得越来越重要。GDPR 已经为完全自动化决策制定了具体的透明度要求,而欧洲正在制定一个新框架,该框架将规定风险最高的系统的风险管理、透明度和可解释性的一般要求。
可解释性是人工智能透明度的关键——能够在正确的时间向正确的人提供正确的信息或解释。
近年来,围绕人工智能的可解释性,一个充满活力的研究生态系统已经发展起来,并催生出各种技术和实施方法。其中最著名的是基于变量的工具 Shap 和 LIME。LIME 通过分析环境并确定哪些变量对最终预测影响最大来解释特定决策。
实例证明
作为 Orange 研究的一部分,一项论文项目专门关注通过反事实示例实现的可解释性方法,与以前有 WhatsApp 号码数据 时不稳定的方法相比,这是一种更可取的方法。对于给定的决策,这涉及寻找一个尽可能接近所研究案例但已做出不同决策的例子。然后,专家或客户自己可以确定他们的案例与其他案例之间的差异,以及应该使用哪些参数来做出相同的决策。“作为我们工作的一部分,这种方法已应用于营销用例——预测客户流失(终止)并确定要修改哪些变量值以留住客户。这样做有很多好处,包括能够在决策的同时提供解释。还有一个好处是,让非专家也能理解,而且可以付诸行动,因为改变决策所需的行动是可以清楚地识别的。除了解决信任问题外,透明度还应该帮助人们重新掌控影响他们生活的决策。”
除了提供支持可解释性方法的技术解决方案外
该研究项目还包括人体工程学方面的工作,以确保解决方每位心理健康顾问都在医疗行业 案的可用性和解释的相关性。IAlerting:保护客户免遭网络盗版
年轻女子在咖啡馆使用笔记本电脑
使用数字安全设备 印度手机号码 登录网上银行账户的镜头。互联网安全和数字隐私保护概念。
2022 年 10 月 18 日,星期二
阅读时间:3分钟
网络安全
机器学习
研究
研究展览
分享按钮
在 Orange 研究与创新展览会上亮相的 IAlerting 系统可评估上游的连接合法性,以保护客户免遭身份盗窃,并通知他们可疑行为。
无论是登录网站、订阅在线服务还是在电子商务平台上购物,每次您与互联网服务建立新的连接时,都会为网络攻击者提供可乘之机。黑客使用密码窃取、数据泄露和网络钓鱼攻击等技术来窃取恶意个人的身份。