返回首页  设为首页  加入收藏  今天是:
网站首页人工智能商业智能智能家居智能手表智能手机智能通信智能电视智能汽车智能机器人
相关文章
 为什么解决人工智能偏见离不…
 ABB新一代智能家居解决方案定…
 超声电子:目前公司相关产品…
 【大讲堂-第4期】智能家居系…
 2023创客广东智能家居专题赛…
 我国将以绿色化智能化适老化…
 江苏每年拨付1千万元培训50万…
 为什么不建议关灯玩手机?伤…
 跨越“数字”鸿沟老人们边纳…
 徐州鼓楼环城街道:智慧助老…
 老年人没有智能手机怎么坐车…
 Keep 港交所上市奖牌之后有何…
 参与京东校园花YOUNG跑享学生…
 体验日式风情!咕咚线上大满…
 咕咚运动APP如何将订单取消?…
 第十五季搜狐新闻马拉松在西…
 闻泰科技获22家机构调研:公…
 车联网先导区“国家队”再扩…
 东杰智能:可以自主设计、自…
 学计算机专业是选择西安电子…
 智能驾驶的攻城之战:小鹏、…
 【法治护我心】海报 促进生成…
 海报|唐毅:人工智能行业将…
 海报|沈健:人工智能全球治…
 海报|沃尔特·福美:全球在…
 海报|巴特·塞尔曼:人类需…
 经典:商业智能BI解读值得收…
 别再弄混流程挖掘、BPM和BI
 2023年已过半智能家居行业如…
 升级与下沉并行:13部门发文…
 专利数连续多年霸榜智能家居…
 家居消费政策再加码 美克家居…
 2023年智能家居生活的现状和…
 商务部将今年定为“消费提振…
 智能家居协议进化史:苹果谷…
 上半年社会消费品零售总额22…
 黄岳+戴康:本轮AI行情或可与…
 AI大模型与“学习机”擦出火…
 行业景气观察:硅料价格止跌…
 女儿训父手机瘾是一针清醒剂
 监管提升打击力度 从源头治理…
 打破eSIM智能手表续航焦虑 荣…
 三星 Galaxy Watch6 系列智能…
 华米Amazfit Pop 3R智能手表…
 五星推荐!华为WATCH Ultima…
 不吐不快小米智能手表一年使…
 新闻日历|7月16日 25年前的…
 微软、Meta又放大招AI催化之…
 高瓴人工智能学院执行院长文…
 有温度的人工智能:为科教兴…
专题栏目
湖南视觉网络"模板城"--汇集CMS、EShop、BBS、BLOG等系统模板
您现在的位置: 智能制造网 >> 商业智能 >> 正文
高级搜索
为什么解决人工智能偏见离不开人口特征数据?
作者:佚名 文章来源:本站原创 点击数: 更新时间:2023/7/20 20:40:35 | 【字体:

  甜性涩爱土豆网人工智能(AI)可能会产生有偏见的结果,因为其算法基于人类的设计选择,而人类选择很少能做到价值中立;

  然而,这不应该让人们望而却步,因为认识到人工智能有延续不平等的倾向,就能让我们在争取公平的斗争中更进一步;

  分析人工智能不公平结果的共有特征,并将敏感信息放回数据集中,可以帮助我们解决人工智能偏见。

  人工智能(AI)可能产生有偏见的结果,这已不是什么新鲜事。其算法基于人类的设计选择,而人类选择很少能做到价值中立。

  我们还要求算法复刻以往的决策模式并产生结果,这种情况下也可能会出现成见。但是,如果我们不希望以后还走过去的老路,尤其是涉及到公平的情况下,我们该怎么做?

  人工智能产生不公平的结果仅是一种可能性,因此我们不应该就此摒弃它,或者像一些知名技术专家建议的那样,将其搁置。我们要做的正好相反。

  认识到人工智能有延续不平等的倾向,就能让我们在争取公平的斗争中更进一步。无论如何,减轻人工智能偏见无疑会比纠正人类偏见更容易。

  这是因为人工智能缺失的公平性是可以被系统化和量化的,而且比人类决策更加透明。人类决策往往会受到无意识的偏见和错误观念的影响。

  人工智能并不创造偏见。相反,它可以作为一面镜子,映射出偏见的影子。鉴于其问题是可以被看到并测量的,阻止人工智能偏见比阻止人类偏见也更加容易。

  但首先,我们必须正视这面镜子里的影子。政府和企业需要将人工智能的公平性作为优先事项,因为算法影响着从就业、借贷到医疗卫生的一切决策。

  目前,美国和欧盟正在通过美国平等就业机会委员会(EEOC)的监管以及欧盟的《人工智能法案》(AI Act)和《人工智能责任指令》(AI Liability Directive),限制人工智能偏见事件的增加。

  首要的关注重点应该是一些特定行业,例如信贷、医疗卫生、就业、教育、住房所有权、执法和边境管制等,其中的人工智能偏见可能会让人们无法获得应有的重要服务。在这些领域,刻板印象和偏见经常帮助维持不公平的现状,而这可能会导致人们预期寿命缩短、失业、无家可归和贫困等问题。

  对人工智能偏见的控制必须从采用前的算法结果测试就开始。当算法评估者只在意用于决策的数据,而非结果公平性时,人工智能偏见错误最常发生。

  在大多数情况下,由于人工智能模型的复杂性及其所触及的现实生活场景,我们并不总能预测到人工智能的建议可能产生的不同影响。而人工智能的建议就是其表现偏见的地方。

  为了可靠地控制偏见,我们需要让私营部门或政府建立诸如年龄、性别、种族、残疾、婚姻状况、家庭组成、健康和收入等敏感数据的中央数据库,对照这些数据测试人工智能驱动模型并纠正偏见。

  这种“人工智能公平性”数据集将使得企业招聘时能够在发布岗位要求前就审查其中的偏见。大学招生时则可以主动分析人工智能的建议,以了解求学者的经济地位、性别、种族或残疾对其录取结果的影响。

  直到前不久,很多人都以为消除偏见的方法就是完全从算法中删除性别和种族信息。如果算法不知道候选人的种族或性别,就不会基于此做出决定。这一假设被证明是错误的。有许多案例表明,算法仍然能从匿名数据的其他方面确定候选人的种族和性别。

  以借贷为例。如果去掉性别和种族数据,人工智能仍将对白人男性更有利。据统计,白人男性有更稳定的收入历史和更可观的资产,而这本身就是不公平就业的结果。

  由于信贷算法试图复制以往的贷款模式,它就更有可能拒绝为非白人和非男性人群提供贷款,因为算法基于以往的偏见结果和缺失的数据判断这些人还贷的可能性相对更低。

  另一个例子:银行还会把贷款人是否愿意提供手机号码作为其是否会还债的一个考察指标。由于统计数据显示,女性更不愿意留下手机号码,她们在借贷时就会处于明显的不利地位。

  人工智能的结果也需要进行准确性测试,否则会使结果出现偏差。例如,当谈及生成性人工智能,如ChatGPT时,我们目前既看不到也没有要求其结果能达到某种准确性和真实性水平,这就为人工智能偏见的传播提供了另一个途径。聊天机器人无法测试输入数据的事实根基,只是简单地模仿人类聊天模式,无论其是否可取。

  如果我们把敏感信息放回数据集,以此分析不公平结果的共有特征,我们将能够更有效地解决人工智能偏见。但这也意味着需要通过人工智能本身来发现人工智能在公平方面的缺陷。

  Michael Zeltkevic,奥纬咨询执行合伙人兼全球能力总负责人

商业智能录入:admin    责任编辑:admin 
  • 上一个商业智能:

  • 下一个商业智能: 没有了
  •  
     栏目文章
    普通商业智能 为什么解决人工智能偏见离不开人口特征数据? (07-20)
    普通商业智能 经典:商业智能BI解读值得收藏 (07-20)
    普通商业智能 别再弄混流程挖掘、BPM和BI (07-20)
    普通商业智能 2023年已过半智能家居行业如何破局? (07-20)
    普通商业智能 升级与下沉并行:13部门发文力促家居消费 (07-20)
    普通商业智能 专利数连续多年霸榜智能家居国产比海外品牌更… (07-20)
    普通商业智能 瓴羊Quick BI:商业智能工具的全新选择 (07-19)
    普通商业智能 Caseware品牌再造推出领先商业智能工具 (07-19)
    普通商业智能 Qlik Sense与Tableau:自助服务分析工具的比较 (07-19)
    普通商业智能 2023年商业智能行业前景分析 (07-19)
    普通商业智能 NIQ 和 GfK 完成合并引领全球的消费者研究公司… (07-19)
    普通商业智能 你已进入智能商业时代 别忘了刷新你的商业逻辑 (07-19)
    普通商业智能 深圳商业进入“智慧”时代 (07-19)
    普通商业智能 深度报告:人工智能佼佼者厚积薄发开启商业征… (07-19)
    普通商业智能 2023世界人工智能大会|容联云「生成式营销服… (07-19)
    普通商业智能 商业智能再度崛起落后十年中国还能弯道超车吗… (07-19)
    普通商业智能 商业智能市场要玩什么新花样 (07-18)
    普通商业智能 汇仁药业深化创新驱动 促高品质发展 (07-18)
    普通商业智能 对话元戎启行CEO周光:智能驾驶大规模落地已近… (07-18)
    普通商业智能 数字化转型是对业务体系的重新设计 (07-18)