本篇文章940字,读完约2分钟
随着COVID-19流行病的出现,许多人工智能医疗技术已经浮出水面。
然而,人工智能一直是一个黑箱问题。如果人工智能不能解释这个过程,它怎么能被用来诊断病人?然而,很少有关于机器学习的书可以解释这些问题。
最近,复旦大学的研究生朱明超将一本珍贵的《可解释性机器学习》翻译成了中文。
这本书最初是由德国慕尼黑大学的克里斯托弗莫尔纳尔博士在两年内完成的。它有250页长,是唯一系统介绍可解释机器学习的书。
朱明超最近完成了这本书的翻译和校对,这本书已经作为一个开放源码放在github的网页上。在翻译过程中,朱还与原文的进行了多次讨论,中文译本是克里斯托夫·莫尔纳本人在twiter上推荐的。
“解释性”是本书的核心主题。边肖认为可解释性在机器学习甚至日常生活中都是一个非常重要的问题。建议机器学习实践者、数据科学家、统计学家和任何能够解释机器学习模型的人阅读这本书。
《解释性机器学习》一书共有七章:
第一章:前言
第二章:可解释性
第3章:数据集
第四章:可解释模型
第五章:模型无关方法
第6章:基于样本的解释
第七章:水晶球
莫尔纳说,虽然数据集和黑盒机器学习解决了许多问题,但它不是使用姿态。现在模型本身已经取代了数据作为信息源,但是可解释性可以提取模型捕获的额外信息。
当我们的日常生活充满机器和算法时,我们也需要可解释性来增加社会接受度。毕竟,如果连科学家都不能理解“黑匣子”,普通人怎么能完全信任模型所做的决定呢?
这本书着重于机器学习的可解释性。你可以从这本书里学习简单和可解释的模型,比如线性回归、决策树和决策规则。
接下来的章节重点介绍了与模型无关的解释黑箱模型的一般方法,如特征重要性和累积局部效应,并解释了用shapley值和石灰进行的单个案例预测。
对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释他们的输出?这本书使你能够选择和正确应用你的机器学习项目的解释方法。
这本书结合了各种现实生活中的例子来介绍相关的概念,同时,它还配有参考链接来帮助读者进一步学习和理解。
另外,朱的github一直坚持翻译goodfellow的《机器学习》,并附有自己的python代码供参考。感兴趣的学生也可以通过参考来学习。
标题:唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者转发点赞
地址:http://www.hcsbodzyz.com/hcxw/363.html