机器学习

揭开机器学习模型黑箱:模型可解释性方法总结和对比

基于高级机器学习的产品已经成为我们日常生活的一部分并且也存在于医疗保健等高级领域。理解基于ml的模型背后的如何决策是让用户获得对模型的信任、调试模型、发现偏差等等的关键。

打开AI的黑匣子:“可解释的”人工智能(XAI)认知攻略!

2019年,欧盟出台的《人工智能道德准则》中明确提出,人工智能的发展方向应该是“可信赖的”,能够包含安全、隐私和透明、可解释等多个方面。但随着人工智能技术不断普及,由此产生的风险也浮出水面,主要体现在两大方面:1、信任危机,即能否信任和依赖人工智能算法输出的结果。2、道德危机,Deepfake技术的出现在带来新鲜感的同时,也引发了人们对于深度学习和人工智能技术滥用的担忧。