新闻
您现在的位置:首页 > 新闻 > AI是否像人类创造它一样有偏见?
  • 从0到1,这些新锐品牌在抖音做对了什么?

    从0到1,这些新锐品牌在抖音做对了什么?

    发布时间:2021/06/22

    如今的食品饮料行业,新机会往往由新的玩家率先挖掘,他们中的佼佼者将成为行业中极具竞争力的年轻选手,我们称之为新锐品牌。 在漫天的战报中,我们很容易就能找到一个数据猛增的新锐品牌,但挖掘新锐品牌背后的...

  • Gislaved熊牌轮胎正式进入中国市场

    Gislaved熊牌轮胎正式进入中国市场

    发布时间:2021/04/24

    德国马牌轮胎亚太区产品总监Tolga MUTLU介绍Gislaved熊牌新品轮胎 大陆马牌轮胎(中国)有限公司宣布,拥有百年辉煌历史的轮胎品牌 — Gislaved熊牌轮胎正式进入中国市场,进一步夯实德国马牌在华“多品牌”战...

  • 麦当劳中国推出金菠萝雪芭

    麦当劳中国推出金菠萝雪芭

    发布时间:2021/04/23

    麦当劳中国推出首个雪芭类产品 麦当劳中国与国际知名水果品牌都乐首次合作,推出全新夏日新品 — 金菠萝雪芭,为夏日冰品市场增添了一个创新的美味轻食选择。 金菠萝雪芭是麦当劳中国的首个雪芭类产品,使用...

AI是否像人类创造它一样有偏见?

发布时间:2020/03/12 新闻 浏览次数:591

 
数据-您在科学文章,历史书或一组调查结果中找到的信息-似乎只是客观事实的集合。如果数字来源合理,应该被认为是观点,观点或偏见所掩盖的硬道理。实际上,这种情况很少发生。这就是AI可以像人类创造它一样受到偏见的方式。
数据的获取方式,获取方式,解释和分析方式以及传输方式都非常出色。
这些方面的误区会过滤掉我们根据数据得出的结论-并经常导致我们希望我们的“事实”避免的主观性和偏见。
即使是像调查这样简单的事情,也有许多因素(从问题的措辞到我们定义术语的方式以及我们评估形成判断的样本集的方式)可能会给我们的数据带来偏差。偏差会影响我们得出的结论。
“我知道有句谚语说:’犯错是人的误解,但是人为的错误与计算机尝试执行的操作无关。” —阿加莎·克里斯蒂(Agatha Christie)
缺乏人类感觉,意识形态和偏好的自动化系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。但是,人类必须设计和构建这些系统,这使它们面临同样的陷阱。
事实仍然是,人工智能的偏见已成为一个广泛的问题,以至于Salesforce最近在其教育平台Trailhead中增加了一个人工智能偏见课程,以向企业家和其他专业人员传授同质数据的危险。
AI偏见的后果
自动化系统中的偏差已经对某些群体产生了不利影响。例如,威斯康星州试图在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。
不幸的是,该程序偏向有色人种,并错误地将黑人标记为比白人更容易犯下另一项罪行。
同行评审研究如何?
在另一个案例中,一项经过同行评审的研究确定,亚马逊的面部识别技术很难识别肤色较深的女性和个体。这怎么发生的?训练集(输入到系统中以教授AI编程的示例数据)缺乏多样性。
法院摘要?
我公司的数据提取软件有多种用途。这样的目标之一是为法律专业人士总结法院案件。为了使程序能够提供准确的摘要,培训集必须包括广泛的案例类型。例如,如果仅针对侵权案件对系统进行培训,那么在总结刑事案件方面效率将大大降低。
机器学习AI-以及其他难以发现的AI学习。
这些示例说明了基于机器学习的AI系统的破坏性。如果用于设置数据的数据不能充分代表他们正在研究的内容,或者与尝试评估的案例相比差异性较小,那么结果可能很不幸。但是,人工智能的偏见并不总是那么容易发现。
例如,在商业中,使用有偏见的数据集可能导致领导层注定注定要失败的项目。当项目不可避免地失败时,执行团队可能会把责任归咎于应该首先依赖计划的错误假设。
人工智能和自动化技术可以为企业带来巨大的好处,尤其是那些依靠技术来完成需要团队合作的公司。
但是,如果该技术的构建方式无法防止引入不良数据(或扭曲有用的数据),则弊大于利。
对此问题的一个建议答案是鼓励数据科学家团队之间的多样性-那些构建我们所依赖的AI系统的科学家。面临的挑战是,我们不能总是找到并促进正确的多样性来解决我们的偏见问题。
多样性比皮肤更深
在招聘数据科学家时,实现我们通常认为的多样性(种族和性别差异)是不够的。
多样性的价值。
当然,拥有一支由不同种族,宗教和文化的男人和女人组成的劳动力队伍很有价值。但是,这些领域的多样性仍然可能导致AI产生偏差。
例如,来自世界各地的男女团队可能会建立一个差距很大的系统;例如,他们都可以使用相同的教育框架进行培训,或者分享与所讨论的项目或问题相关的相同个人观点。
如果人们具有相同的文化,社会经济背景和政党,他们可能会使用非常相似的方法来解决数据问题。这些区域的同质性将不可避免地渗入开发团队创建的AI系统。
避免偏见。
为了避免AI偏见,我们需要从思想和观点出发,而不是仅仅从肤色和性别表达出发,考虑多样性。相貌各异的人也可能会有所不同,但事实并非总是如此。
实现多样性
人类不可能完全避免主观偏好,错误的信念以及我们思维过程中的各种漏洞。因此,消除偏差也不太可能。但是,我们仍然可以采取一些措施来减轻我们的偏好(认为偏见)对我们创建的系统的影响。
思想的多样性是一个很好的起点。为了组建具有正确多样性的数据科学团队,招聘经理必须专注于寻找具有独特观点和非常规想法的人员。
这些不同的态度,观点,概述和客观性通常来自新颖的经验和非常规的训练。
当然,这里的挑战是,经理人不能在面试时询问应聘者其社会经济背景,年龄,文化背景以及宗教和政治信仰。
如何使您的团队和所有员工多样化。
他们所能做的就是问一些与潜在员工将从事的工作有关的尖锐问题。例如,为候选人提供数据建模项目的示例。询问他们如何解决问题,收集数据并进行分析。
如果您已经有团队成员愿意使用方法X和Y来处理此案,则如果候选人提出了一种经过深思熟虑的方法Z,则认为这是有利的。
个人的自信是另一个关键因素。
如果某人发现问题时不愿意大声说出来,那么增加其他人的思维方式对您的团队不利。为了避免分析系统和AI工具产生偏差,您需要的候选人不仅要拥有独特的观点,还要知道如何表达它们。
最后,在您的技术开发和数据科学团队中努力培养开放和协作的文化非常重要。当他们可以轻松表达观点时,他们可以发现并纠正错误。
切记:当团队拥有一个尽可能客观的总体目标时,过程中的偏见就会降到最低。
人工智能和自动化技术正在兴起,这些系统有望帮助最大限度地减少人类主观性和偏见的影响,同时提高我们的效率和生产力。但是,要实现此目标,必须非常小心地构造它们。
要谨慎前进-我们必须非常重视多样性。雇用数据科学家和系统架构师时,这不仅仅是简单地关注外观。领导者需要更深入地挖掘,努力引入不同的观点以及可以表达观点的人们,并支持包容性的发展文化。
具有不同想法和协作结构的团队更有可能构建AI系统,这些系统将真正超越我们人类努力消除的偏见。