yabo登录|网页版

0834-262353358

在线客服| 微信关注
当前位置: 首页 > 客户案例

Microsoft到Research下一篇文章发表了注意事项|yabo网页版


本文摘要:人工智能的不道德具有可解读性,人类可以进一步利用人工智能。最近,微软公司研究院就机器学习的可解读性公开发表了文章,全文编译器如下。当人工智能系统需要影响人类生活时,人们对其不道德的解释是最重要的。通过解读人工智能系统的不道德,数据科学家需要调整模型。

微软公司

【照片来源:MicrosoftresearchBlog所有者:MicrooftresearchBlog所有者:MicrooftrearchBlog所有者:人类构建了人工智能,受到人工智能的影响。人工智能的不道德具有可解读性,人类可以进一步利用人工智能。最近,微软公司研究院就机器学习的可解读性公开发表了文章,全文编译器如下。

模型

当人工智能系统需要影响人类生活时,人们对其不道德的解释是最重要的。通过解读人工智能系统的不道德,数据科学家需要调整模型。

人工智能

如果您需要解释模型的不道德原理,那么设计师们就需要将这些信息发送给最终用户。如果医生、法官或其他决策者坚信这种增强智能系统的模式,他们可以做出更好的决策。更普遍的是,随着模型的解读更全面,最终用户可能会逐渐拒绝接受人工智能驱动的产品和解决方案,同时也可能更容易满足监督机构日益增长的市场需求。

模型

实际上,构建可解读性很简单,依赖于很多变量和人为因素,避免了一切的方法。可解读性是最先进的跨学科研究领域,创造了机械学习、心理、嵌入、设计思想。微软公司研究院近年来仍致力于研究如何构建具有解读性的人工智能。

现在微软公司在MIT开源协议下开源了lnterpretML软件工具包。开源地址是https://github.com/microsoft/interpret,开发人员需要尝试各种方法来说明模型和系统。InterpretML需要继续执行许多可解释的模型,包括可解释的BoostingMachine(改良了一般的加性模型),以及黑盒模型的不道德和个别预测分解说明的几种方法。

用非常简单的方法评价可解读的方法,开发人员需要用不同的方法进行说明,自由选择符合市场需求的方法。例如,通过检查方法之间的一致性,比较法需要数据科学家理解在多大程度上相信说明。微软公司期待与开源社区合作,然后开发InterpretML,开源地址为https://github.com/microsoft/interpret(公共编号:)记录:本文编译器从Microsoft到Research下一篇文章发表了注意事项。


本文关键词:开源,人工智能,最终用户,yabo网页版登录,解释

本文来源:yabo登陆-www.snebxn.com

客户案例Customer case
  • 移动医疗APP评测:安好时代多款APP值得关注【yabo网页版】
  • 深析商业保险与移动健康的中国式联姻-yabo网页版登录
  • 高晓松起床气视频用的是什么软件高晓松起床气软件制作教程_yabo登陆
  • yabo登陆-AI遇冷?斯坦福年度AI报告来揭秘
  • 网络时代“黄牛”升级用好几千兆宽带秒刷火车票|yabo网页版
  • 科沃斯地宝DN33华丽上市三大“法宝”打造全局规划新旗舰-yabo登陆
  • yabo网页版-暴走大事件1至5季所有视频全被下架王尼玛回应暴漫复播时间
  • 前Polycom首席工程师冯津伟入职阿里iDST再迎大牛级人物|yabo网页版登录
  • iPhone8Plus国行价格暴降!下单立减1300元:yabo网页版
  • 【yabo登陆】用区块链养鸡!众安率先将区块链应用于农业,还将分享技术干货|GAIR2017