返回首页  设为首页  加入收藏  今天是:
网站首页人工智能商业智能智能家居智能手表智能手机智能通信智能电视智能汽车智能机器人
相关文章
 赠书丨打开人工智能“黑盒”…
 2022年医学人工智能大会召开…
 长春理工大学:人工智能专业…
 数字化智能化两手抓厨卫电器…
 海曼科技亮相Matter中国区开…
 智能家居新浪潮:从智能单品…
 真知灼见现场声|省政协委员…
 甘肃高台:技能之花 绚烂绽放
 智能电视看剧越来越复杂 掌握…
 乐播“超级投屏空间”体验:…
 打开电视机看啥都要VIP
 没有广告的看电视剧软件 流畅…
 回家过年如何免费看电视、K歌…
 数据实时化是广告行业数仓建…
 佳都科技:已在试点城市利用…
 企业数据管理中数据可视化的…
 三维地图可视化大数据应用及…
 数据可视化入门:讲述数据可…
 国内首款智能摩托发布 五羊本…
 蓝鲨Robor智能电动摩托车发布…
 都市通勤首选!这2款电摩搭载…
 新大洲推出一款智能电动摩托…
 哈啰自研智能电摩ME70正式发…
 关于机器人的崛起和对未来的…
 机器人未来的发展趋势
 未来机器人设计的发展方向是…
 关于机器人未来的发展预测
 未来展望
 乡村振兴看新疆丨冬日温室大…
 温室大棚绿意浓 种出乡村振兴…
 阿尔梅利亚:全球最大温室大…
 中国企业在美国建温室大棚种…
 2022年温室建设与高效运营高…
 轻奢圈的女性都在戴什么智能…
 送女友礼物?还得是时尚的佳…
 最适合女性的智能手表:苹果…
 华为Watch GT2 42mm新色评测…
 专门为女性做的智能手表性价…
 青少年沉迷智能机有利有弊但…
 关于OPPO Watch 3 Pro的一个…
 揭晓_有关揭晓文章 - 嗨客手…
 智能手机影响未来智能世界
 莫让智能手机危害人身安全
 信息技术在智能电网的四类应…
 大数据和人工智能技术的应用
 智能信息技术在世博会得到了…
 头条 六部门发文:到2030年5…
 RFID技术智能交通信息化的四…
 旅游策划公司经典案例之石林…
 尊贵古典中国十大旅游规划公…
专题栏目
网络
您现在的位置: 智能制造网 >> 智能通信 >> 正文
高级搜索
赠书丨打开人工智能“黑盒”发展可解释、可扩展、可信赖、安全可靠的人工智能
作者:佚名 文章来源:本站原创 点击数: 更新时间:2023/1/22 5:30:54 | 【字体:

  五号特工之偷天换日进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。

  而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂的方式向人类说明,成为发展可信赖,安全可靠人工智能的首要任务。

  可解释性在我们的日常生活当中比比皆是,比如,一位医生在向一位病人解释诊断结果和治疗措施时,要给病人一个好的病因和治疗解释,让病人放心。

  而现实情况是,由于核心AI算法,尤其是深度学习算法,通常运行在类似于“黑盒”中的工作模式下,导致AI系统的运行结果,并不能以合乎情理的方式被人类所理解和认同。

  作为当前人工智能的核心算法之一,深度学习的不可解释性体现在理论和应用两个层面。

  在理论层面,有实验证明,给出若干样本图片,被用于训练一个深度神经网络结合逻辑回归的识别模型;该模型能够将绝大部分的正确图片分类,但却会将雪地背景中的哈士奇误判为狼。因为该识别器从训练数据中学到“可以将图片中的大面积白色背景(雪地)作为识别狼的依据”。由于在输入数据和预期结果之间建立(概率)关联是一种虚假关系,当面对与训练样本不一致的情况时,模型的表现就会大失水准。

  在应用层面,通过数据驱动得到的AI系统存在一系列隐患,并可能引发严重的社会问题。

  首先,由于数据样本收集的局限和偏见,导致数据驱动的AI系统也是有偏见的,这种偏见甚至无异于人类社会中的偏见。比如,芝加哥法院使用的犯罪风险评估算法COMPAS 被证明对黑人犯罪嫌疑人造成了系统性歧视,白人更多被错误地评估为具有低犯罪风险,而黑人被错误地评估为具有高犯罪风险,且黑人的概率比白人高出一倍[1]。

  其次,“黑盒”似的深度神经网络还常常犯一些十分低级的、人类不可能犯的错误,表现出安全性上的潜在风险。例如,一个深度神经网络原本能够正确识别图片中有一辆校车,但在对少量图片像素做一些人眼不能察觉的改动之后,图片就被识别为鸵鸟[2]。

  更有甚者,人们只要戴上一副特制的眼镜,在现实环境中就能够骗过使用深度神经网络的人脸识别系统[3];考虑到人脸识别系统在金融支付等场景中的广泛应用,这种潜在的金融和社会风险令人不寒而栗。

  最后,最重要的是从决策机制来看,当前对深度学习算法的分析还处于不透明的摸索阶段。尤其是拥有亿万个参数的超大规模预训练神经网络,如BERT[4]、GPT3[5]等,其决策过程在学术上仍然没有清晰的说明。这种“黑盒”似的深度神经网络暂时无法获得人类的充分理解与信任,大规模应用此类预训练模型的潜在风险不容忽视。

  在涉及人身财产安全的重大领域中,如金融、医疗、自动驾驶等,模型的可解释性成了决定用户能否信任模型的关键。针对不同解释受众,模型要获得不同人群的信任,必须要考虑每个人的立场背景、教育程度等因素,提供不同内容与形式的解释。

  对于AI 使用者,他们往往是没有相关专业背景的普通人群。他们更关心AI 系统的结果如何影响自身及客户的利益,当出现问题时,需要向他们解释系统做出决策的原因。

  例如,某家医院引入一套AI医疗诊断系统。如果该系统给出判断表明病人的癌症检测为阳性,概率为90%,那么这个结论往往是不被接受的。病人会问:你是如何做出这个判断的?根据什么特征和经验?……对于医生等专业人士来说,可能会问:系统做出这种预测,是否符合医院和医管单位的要求?有没有按照正规的医疗程序来做推断?这种推论是否可靠?有多大的风险?这个系统在多少个案例里面被测试过?是不是稳定、可靠、全面、科学的?

  再比如,在电商平台中,系统设计者也需要向用户做出解释,帮助人们理解“为什么”算法向他们推荐了某些特定的商品,以此来提高推荐系统的透明度、说服力、有效性、可信赖性和满意度。

  对于AI 系统开发者,他们往往是具备专业AI 背景知识的系统开发人员及测试人员,需要准确和深入的专业解释,以便完成对AI 系统的开发调试及测试任务。例如:对于一个大模型来说,是哪一部分的数据对结论起了关键作用?系统的哪一部分被启动?如果发生错误,最大的可能性来自哪里?如何修补?

  除了技术层面,现行的条例法规[6][7]同样要求AI系统的开发使用流程必须在合规的条件下运行。比如,数据收集及模型学习过程是否符合隐私保护及数据治理条例[8],必须要有准确无误的解释及认证。而对违反要求的智能体行为,也需要有明确的事故分析,为严格的问责机制提供技术说明[9]。

  同时,如何将制度层面的规则具体细化落实为可实现的技术方案,仍是可解释AI亟待研究和解决的挑战。

  因此,发展可解释AI具有重要的理论意义与现实意义,一方面,可帮助用户建立对AI系统的信任,防止因为算法的黑盒特性做出有偏见的结论,促进算法的公平性;另一方面,可以满足合规要求,促进AI向公平性、鲁棒性、安全性发展。

  在此背景下,由来自机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的12位著名专家,联合创作了《可解释人工智能导论》一书,现已重磅上市!

  本书全面介绍可解释AI的基础知识、理论方法和行业应用。全书分为三部分,共11章。

  第1章揭示基于数据驱动的人工智能系统决策机制,提出一种基于人机沟通交互场景的可解释人工智能范式。

  第2~5章介绍各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发的稳定学习和反事实推理、基于与或图模型的人机协作解释、对深度神经网络的解释。

  第6~10章分别介绍可解释人工智能在生物医疗、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明可解释性在司法、城市管理、安防和制造等实际应用中发挥的积极作用。

  第11章对全书进行总结,并论述可解释人工智能研究面临的挑战和未来发展趋势。

  加拿大工程院及加拿大皇家科学院两院院士,国际人工智能联合会IJCAI前理事会主席,香港科技大学讲席教授。领衔全球迁移学习和联邦学习研究及应用,最近的著作有《迁移学习》《联邦学习》《联邦学习实战》《隐私计算》等。

  微众银行人工智能首席科学家,研究领域包括机器学习和深度学习、计算机视觉和模式识别、图像和视频处理等。

  清华大学计算机系教授、人智所所长、北京智源人工智能研究院和瑞莱智慧首席科学家,主要从事机器学习研究。

  华夏基金董事总经理,首席数据官兼首席技术官。美国华盛顿大学计算机系教授、大数据科学中心创始主任。研究领域为金融科技、金融数据挖掘、智能投资研究、机器学习、优化算法等。

  上海交通大学副教授,博士生导师。研究方向为机器学习和计算机视觉,尤其是神经网络可解释性。

  北京通用人工智能研究院院长,北京大学人工智能研究院院长,清华大学通用人工智能研究院院长。长期致力于构建计算机视觉、认知科学、乃至人工智能科学的统一数理框架。

  澳大利亚科学院院士,京东探索研究院首任院长,兼任悉尼大学数字科学研究所顾问及首席科学家。主要关注可信人工智能研究,尤其是深度学习的基础理论、大规模模型分布式训练以及相关的机器视觉应用。

  清华大学计算机系长聘副教授,博士生导师。研究兴趣聚焦于大数据驱动的因果推理和稳定预测、大规模网络表征学习等。

  中国科学技术大学讲席教授、生物医学工程学院执行院长、影像智能与机器人研究中心(筹)主任、中科院计算所客座研究员、香港中文大学(深圳)客座教授。长期致力于医学影像的研究创新及其应用落地。

  同济大学生命科学与技术学院生物信息系长聘教授,博士生导师。致力于发展人工智能和生物组学交叉融合的研究范式,进行精准医学研究。

  复旦大学计算机科学技术学院教授,博士生导师。研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。

  罗格斯大学计算机系助理教授,博士生导师,互联网智能与经济实验室主任。研究兴趣为机器学习、数据挖掘、信息检索和推荐系统等。

  本书全面介绍了可解释人工智能在理论上和应用上的发展现状、存在的问题,以及今后发展的方向,对于想了解人工智能和有意献身人工智能事业的研究者、开发者、决策者和使用者来讲,都是一部很好的参考书。

  杨强教授领衔撰写的这本可解释人工智能专著,系统性地总结了对于机器学习本质的深度理解和探索,提出了一种面向人机协作的交互式可解释人工智能范式。本书通过计算机视觉、自然语言处理、推荐系统等技术领域,以及生物医疗和电商金融等应用领域的实际案例,展示了可解释人工智能对提升公众信任及满足合规需求的积极作用。我相信各行各业关心人工智能发展的读者,包括高校计算机及人工智能专业的老师和同学等,都可以从这本专著中发现各种有益的论述和有趣的观点。

  ——沈向洋 微软前全球执行副总裁,美国国家工程院外籍院士,英国皇家工程院外籍院士

  可解释人工智能是一个颇受关注的重要论题,但其内涵和外延的很多方面还缺乏共识。杨强教授领衔撰写的这本书对可解释人工智能进行了生动的探讨,尤其是给出了多个应用领域案例。即便是缺乏相关专业知识的读者,阅读后也能有所收获。

  [7] 中国人民银行. 人工智能算法金融应用评价规范[Z]. 2021.

  AI科技评论本次联合【博文视点】为大家带来6本《可解释人工智能导论》正版新书。

  在本文(仅限AI科技评论微信公众号端)留言区留言,欢迎大家畅所欲言,结合自己的亲身经历,说一下你和人工智能之间的故事~在综合留言质量(留言是敷衍还是走心)和留言点赞(注:点赞最高的前6不意味着一定会中奖)的读者中选出6位读者获得赠书。获得赠书的读者请联系 AI 科技评论客服(aitechreview)。

  留言内容会有筛选,例如选我上去、这书写的很棒(仅仅几个字)等内容将不会被筛选,亦不会中奖。

  留言送书活动时间为2022年5月29日 - 2022年6月5日(23:00),活动推送时间内仅允许赠书福利中奖一次。

智能通信录入:admin    责任编辑:admin 
  • 上一个智能通信:

  • 下一个智能通信: 没有了
  •  
     栏目
    普通智能通信 赠书丨打开人工智能“黑盒”发展可解释、可扩… (01-22)
    普通智能通信 2022年医学人工智能大会召开:11场主题报告医… (01-22)
    普通智能通信 长春理工大学:人工智能专业首次招生 (01-22)
    普通智能通信 信息技术在智能电网的四类应用 (01-21)
    普通智能通信 大数据和人工智能技术的应用 (01-21)
    普通智能通信 智能信息技术在世博会得到了广泛应用 关注7股 (01-21)
    普通智能通信 头条 六部门发文:到2030年5G6G、人工智能等新… (01-21)
    普通智能通信 RFID技术智能交通信息化的四大应用 (01-21)
    普通智能通信 专业解读——智能科学与技术 (01-21)
    普通智能通信 专业专辑 智能科学与技术 (01-21)
    普通智能通信 高考倒计时专业解读:智能科学与技术专业 (01-21)
    普通智能通信 2021年专业推介 智能科学与技术 (01-21)
    普通智能通信 专业纵览 智能科学与技术 (01-21)
    普通智能通信 盟升电子:提供国际一流的卫星终端设备解决方… (01-20)
    普通智能通信 马斯克大手一挥数万星链终端运抵乌克兰中国也… (01-20)
    普通智能通信 移动卫星终端设备项目调研报告 (01-20)
    普通智能通信 一文带你了解中国卫星导航主要终端设备销售情… (01-20)
    普通智能通信 终端市值将破10亿美元 我国卫星通信业迈入新纪… (01-20)
    普通智能通信 四大全球导航卫星系统的2017和2018 (01-20)
    普通智能通信 「测绘精选」全球四大卫星定位系统全方位对比… (01-20)