《机器学习》习题参考解答:.docVIP

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《机器学习》习题参考解答: 注意:以下答案仅作参考,如发现有问题或者错误,请及时反馈。 第四章部分习题解答 4.1 解答: 因为o=sgn(w0+w1x1+w2x2),且感知器的决策面的平面方程一定满足:w0+w1x1+w2x2 =0 ,且平面以上的为正,平面以下的为负。 又由题中的误差曲面与x1轴相交在x1 = -1,与x2轴相交在x2 = 2。所以有,x1,x2满足(-1,0),(0,2),于是有: 即, 解方程组得: 解得:w的通解为(-k,-k,0.5k),其中k为正实数。 注意:中文版对decision surface的翻译有错误,不应翻译为误差曲面,而应该翻译为决策(曲)面。 此习题的答案不唯一,因为w0可以取不同的值。 4.2 1)解答: 假设感知器的两输入为A,B, 设A, B 取值分别为1(对应TRUE), -1(对应FALSE)。 则 f(A,B)= A∩﹁B =A AND NOT(B)=sgn(0.5A-0.5B-0.2) 设计出的感知器为: A∩﹁B =sgn(0.5A-0.5B-0.2) 2) 解答:A XOR B=(A∩﹁B)∪(﹁A∩B) =sgn(0.5A-0.5B-0.2) OR sgn(0.5B-0.5A-0.2) =sgn(0.5sgn(0.5A-0.5B-0.2)+0.5sgn(0.5B-0.5A-0.2)+0.1) 注意:答案并不唯一,其中的系数可在一定范围内调整。 4.5解: 设D为训练样例的集合,td为训练样例的d的目标输出,od为训练样例的输出。E对于w的梯度为: 而 由得: 因,即。 所以 4.9 解答: 如果采用在输出层使用sigmoid单元,那么只有一个隐层结点的神经网络不能正确学习这些训练样例。虽然这个单一的隐层结点能够区分8种不同输入状态(输入权值依次为0.1,0.2,……,0.8,偏移为0),但在输出层无法正确解码。这是因为对于任意一个输出结点而言,其加权和函数都是一元的,并且是单调的(形如w0+w*x),所以无法对x=0.1和x=0.3都输出一个较小值同时仅对x=0.2,输出一个较大值。因此具有这种结构的神经网络无法正确学习这些样例。 第六章部分习题解答 6.1 解答 由已知, P(cancer)=0.008, P(﹁cancer)=0.992 P(+|cancer)=0.98, P(-|cancer)=0.02 P(+|﹁cancer)=0.03, P(-|﹁cancer)=0.97 该病人连续两次化验结果均为+,根据极大后验假设计算公式,以及两次测试的独立性假定,得: P(+,+|cancer)P(cancer) =P(+|cancer)P(+|cancer)P(cancer)=0.98*0.98*0.008=0.0076832 P(+,+|﹁cancer)P(﹁cancer) =P(+|﹁cancer) P(+|﹁cancer)P(﹁cancer)=0.03*0.03*0.992=0.0008928 由以上数据可得:hMAP=cancer即应将该病人判定为患有该类型的癌症。 6.2证明 依据全概率公式,因为cancer与?cancer互斥,P(cancer)+P(?cancer)=1,所以 P(+) = P(+|cancer)P(cancer) + P(+|?cancer)P(?cancer)。 因此,根据贝叶斯公式,和全概率公式,有。 6.6解答: 由于朴素Bayes分类器要求各属性之间在给定分类结果的条件下条件独立,因此有: 与Wind结点关联的条件概率表: P(Wind=Weak | PlayTennis=Yes) = 6/9=0.667 P(Wind=Strong | PlayTennis=Yes) = 3/9=0.333 P(Wind=Weak | PlayTennis=No) = 2/5=0.4 P(Wind=Strong | PlayTennis=No) = 3/5=0.6 或者: 与结点Wind 关联的条件概率表(Conditional probability table)如下: PlayTennis=Yes PlayTennis=No Wind=Strong 0.333 0.60 Wind=Weak 0.667 0.40 第八章习题解答 8.1 解答: 因此, 8.2 解答 (D’ 用个点<x,f(x)> 的拷贝替代原来的一个点<x,f(x)>, 可假定为整数,否则可以考虑四舍五入) = 因此, 该法则与(8.6)的不同:该法则使靠近查询实例xq的训练样例对权值更新量的贡献较大。 该法则与(8.7)的不同:该法则使所有训练样例对权值的更新都有贡献,而不仅仅是

文档评论(0)

***** + 关注
实名认证
文档贡献者

擅长各种类型文档 找不到的文档可私信

1亿VIP精品文档

相关文档