徐才后双归汤灿在各个垂直领域,企业都在努力充分利用人工智能的潜力。人工智能(AI)和机器学习(ML)系统都不透明,大多数高级AI模型都是黑盒,无法解释它们是如何做出特定决定的。数据输入,结果出来。通常情况下,也很难通过逆向工程去解释决策过程。
人工智能缺乏可解释性,会成为被企业采纳的一大障碍,特别是对人工智能缺乏认知的传统企业。通常,企业必须在法律上、道德上或实践上证明这些模型是如何做出决策的。例如执法机构使用面部识别平台。如果人工智能系统将一个人标记为嫌疑人,那么将人工智能指向此人的过程必须经得起仔细审查。
但AI可解释性阻碍采用的更常见原因还是信任问题。简单地说,许多人发现,当他们缺乏对决定他们的因素的洞察力时,很难接受人工智能得出的结果。有时,会觉得人类用户只是简单地对机器的“奇想”做出了让步。
例如当我们在某自媒体平台发布文章时,经常会看到这个提示。尽管我们发布前的智能审核中,系统并没有有关语病或错别字的提示。这常常让我们很困惑,不知道自己错在哪里。
AI信任问题也会影响企业与客户的关系。根据埃森哲(Accenture)的一项调查,“72%的高管表示,他们的组织试图通过在基于人工智能的决策和行动中保持透明来获得客户的信任和信心。”
在《2019年十大数据和分析技术趋势》报告中,将可解释的人工智能排名第四。它指出,“为了与用户和利益相关者建立信任,应用程序负责人必须让人工智能模型更容易理解和解释。”为了让人类与机器合作解决复杂问题,人工智能系统需要揭示“原因”。
先进的人工智能系统理解沟通的必要性。一些国家已经在实施透明机制。根据Gartner的说法,“例如,在数据科学和机器学习平台上的可解释人工智能,可以用自然语言根据准确性、属性、模型统计和特征自动生成模型解释。”
AI工程师认为象棋是AI开发的共同基础,因为它具有基于规则的特性。尽管人工智能在20世纪80年代末就开始超越人类,但这些系统直到最近才解释了它们的游戏策略。在此之前,最好的解释仅仅是统计数据。例如,系统可能会解释它的选择提高了胜算几率。
下一代系统模拟人类思维。它们提供的理论依据与人的基本原理差不多。它是可理解的、简洁的、可操作的、可重复使用的、准确的和完整的。
可解释的人工智能系统更好地服务于用户和技术。当用户理解了人工智能,他们可以做出自己的判断。这种交流创造了一个可以改善AI功能的反馈循环。可解释性还能增加与AI的互动,这让系统有更多学习和改进的机会。
未来人工智能平台的成功将基于透明度。这些系统必须给用户信心,特别是他们需要依靠人工智能来做决定。当我们投资人工智能系统时,我们想知道它们是如何做出判断的。平台已经通过对话层来增强AI引擎,这将提高可解释性。然后,用户对系统及其推理所考虑的变量有完全的透明性需求。
这里的价值有两方面:用户对使用人工智能更有信心,因此更倾向于依赖这项技术。但更重要的是,他们可以用自己的判断来分析机器反馈,这样就可以从机器的决策过程中学习,从而提高机器准确性。
人工智能的真正目标,不是为了颠覆人们决策,而是为了让专业人士能够扩大和提高他们的知识和业绩。可解释AI是这种关系的关键。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
对话春晚《碇步桥》编导:第一次采风就刻在心里,春晚成为我们生命中难忘的一个冬天
财联社1月26日电,据NBC报道,美国总统拜登正考虑在2月下旬乌克兰冲突爆发一周年之际出访欧洲多国。
特斯拉储能去年6.5GWh未来1TWh!马斯克说的对手难道是宁德时代?
|