财经
您现在的位置:首页 > 财经 > 人工智能现实世界中不道德的风险A.I.
  • 从0到1,这些新锐品牌在抖音做对了什么?

    从0到1,这些新锐品牌在抖音做对了什么?

    发布时间:2021/06/22

    如今的食品饮料行业,新机会往往由新的玩家率先挖掘,他们中的佼佼者将成为行业中极具竞争力的年轻选手,我们称之为新锐品牌。 在漫天的战报中,我们很容易就能找到一个数据猛增的新锐品牌,但挖掘新锐品牌背后的...

  • Gislaved熊牌轮胎正式进入中国市场

    Gislaved熊牌轮胎正式进入中国市场

    发布时间:2021/04/24

    德国马牌轮胎亚太区产品总监Tolga MUTLU介绍Gislaved熊牌新品轮胎 大陆马牌轮胎(中国)有限公司宣布,拥有百年辉煌历史的轮胎品牌 — Gislaved熊牌轮胎正式进入中国市场,进一步夯实德国马牌在华“多品牌”战...

  • 麦当劳中国推出金菠萝雪芭

    麦当劳中国推出金菠萝雪芭

    发布时间:2021/04/23

    麦当劳中国推出首个雪芭类产品 麦当劳中国与国际知名水果品牌都乐首次合作,推出全新夏日新品 — 金菠萝雪芭,为夏日冰品市场增添了一个创新的美味轻食选择。 金菠萝雪芭是麦当劳中国的首个雪芭类产品,使用...

人工智能现实世界中不道德的风险A.I.

发布时间:2019/08/26 财经 浏览次数:874

 
人工智能现在被用于以对人们构成真正风险的方式做出关于现实世界中的生活,生计和互动的决策。
我们都曾怀疑过一次。就在不久之前,传统智慧认为机器智能显示出巨大的希望,但它总是在几年之后。今天,人们绝对相信未来已经到来。
对于像国际象棋和围棋这样的游戏来说,驾驶自己的软件以及击败人类的软件并不令人惊讶。你不能因为印象深刻而责怪别人。
但是,即使是复杂的棋盘游戏,与现实生活中的混乱和不确定性相差甚远,自动驾驶汽车仍然没有与我们分享道路(至少没有一些灾难性的失败)。
人工智能被用于数量惊人的应用程序中,对许多其他人的工作绩效,招聘,贷款和刑事司法做出了判断。大多数人都不了解这些判断中的潜在风险。他们应该是。人们普遍认为技术本质上是中立的 – 即使是许多开发人工智能解决方案的技术也是如此。但人工智能开发人员会做出决策并选择影响结果的行业。开发人员在技术中嵌入了道德选择,但没有考虑他们在这些方面的决策。
这些交易通常是技术性和微妙的,并且在做出决策时,下游影响并不总是显而易见的。
亚利桑那州坦佩的致命优步事故是一个(不是微妙的)但很好的说明性例子,可以很容易地看出它是如何发生的。
自动驾驶汽车系统实际上及时检测到了行人,但是开发人员已经调整了紧急制动系统,而不是制动太多,平衡了不稳定驾驶和安全之间的交易。优步开发商选择了更具商业可行性的选择。最终,自动驾驶技术将提高到安全和平稳驾驶的程度,但是在此之前我们会将自动驾驶汽车放在路上吗?有利可图的人正在努力让他们立即上路。
物理风险构成了明显的危险,但自动化决策系统也存在真正的危害。事实上,人工智能确实有可能使世界受益。理想情况下,我们会减少缺点,以便以最小的伤害获得好处。
一个重要的风险是我们以降低个人人权为代价推进人工智能技术的使用。我们已经看到了这种情况。一个重要的例子是,当涉及AI工具时,上诉司法决定的权利被削弱。在许多其他情况下,个人甚至不知道通过统计算法告知不雇用,促销或延长贷款给他们的选择。
买家要小心
当技术买家对卖家知之甚少时,他们处于劣势。在大多数情况下,决策者没有能力评估智能系统。从经济角度来看,信息不对称使人工智能开发人员处于比使用者更强大的地位。 (旁注:人工智能决策的主体通常根本没有权力。)人工智能的本质是你只信任(或不信任)它做出的决定。您不能问技术为什么决定某事或者是否考虑其他替代方案或建议假设来探究您提出的问题的变体。鉴于目前对技术的信任,供应商承诺以更便宜,更快捷的方式完成工作可能会非常诱人。
到目前为止,我们作为一个社会还没有办法评估算法的价值与他们对社会造成的成本。即使政府机构决定采用新的人工智能解决方案,也很少有公众讨论。更糟糕的是,有关用于培训系统的数据加上其加权方案,模型选择以及供应商在开发软件时所做的其他选择的信息被视为商业机密,因此无法进行讨论。
耶鲁大学法律与技术杂志发表了一篇由Robert Brauneis和Ellen P. Goodman撰写的论文,他们描述了他们的作用,以测试政府采用预测算法数据分析工具的透明度。他们向各公共机构提出了关于他们使用决策支持工具的42条公开记录请求。
他们的“具体目标是评估开放记录流程是否能使公民发现这些算法所体现的政策判断,并评估其效用和公平性”。几乎所有涉及的机构都不愿意或无法提供可能导致了解算法如何决定公民命运的信息。政府记录保存是最大的问题之一,但公司积极的商业秘密和保密索赔也是一个重要因素。
使用数据驱动的风险评估工具可能非常有用,尤其是在识别可以从减刑期间获益的低风险个人的情况下。减少或放弃的刑罚减轻了对监狱系统的压力,也使个人,他们的家庭和社区受益。尽管可能存在上升空间,但如果这些工具干扰宪法对正当程序的权利,那么它们就不值得承担风险。
我们所有人都有权质疑司法程序和许多其他情况下使用的信息的准确性和相关性。不幸的是,对于威斯康星州的公民而言,公司的利益超过了被告的正当程序权利这一论点是由该州最高法院于2016年提出的。
公平是在旁观者的眼中
当然,人类的判断也是有偏见的。实际上,专业文化必须不断发展才能解决它。例如,法官努力将他们的偏见与他们的判断分开,并且有一些程序来挑战司法判决的公平性。
在美国,通过了1968年“公平住房法”,以确保房地产专业人员在不歧视客户的情况下开展业务。科技公司没有这样的文化。最近的消息恰恰相反。对于个人AI开发人员而言,重点是以高精度使算法正确无误,无论他们在建模中采用何种精确度。
我最近听了一个播客,其中谈话想知道是否谈论人工智能的偏见是不是让机器达到了与人类不同的标准 – 似乎暗示机器在与人类的某些想象竞争中处于劣势。
作为真正的技术信徒,主持人和客人最终得出的结论是,一旦AI研究人员解决了机器偏差问题,我们就会有一个新的,甚至更好的标准,人类可以实现,并且在那时机器可以教人类如何避免偏见。这意味着有一个客观的答案,虽然我们人类一直在努力找到它,但机器可以向我们展示道路。事实是,在许多情况下,关于公平的含义存在矛盾的概念。
在过去的几年中,出现了一些研究论文,从统计学和数学的角度来解决公平问题。例如,其中一篇论文正式确定了一些基本标准,以确定决策是否公平。
在他们的形式化中,在大多数情况下,对公平意味着什么不同的想法不仅仅是不同的,而且实际上是不相容的。可以称之为公平的单一目标解决方案根本不存在,使得经过统计训练的机器无法回答这些问题。从这个角度考虑,关于机器给予人类公平教训的谈话听起来更像是荒谬的戏剧,而不是关于涉及的问题的所谓深思熟虑的谈话。
当存在偏见问题时,需要进行讨论。例如,在刑事判刑,发放贷款,工作和大学机会等情况下公平的意义尚未得到解决,不幸的是包含政治因素。我们被要求加入幻想,即人工智能可以某种方式将这些问题去政治化。事实是,这项技术体现了一种特殊的立场,但我们不知道它是什么。
专注于算法的技术专家正在确定重要的结构问题并做出政策选择。这将删除集体对话并从其他观点切断输入。社会学家,历史学家,政治学家以及社区内的所有利益相关者都将为辩论做出很多贡献。为这些棘手的问题应用人工智能描绘了一种科学的外表,试图为不同的问题提供非政治解决方案。
谁会观看(AI)观察者?
当前采用人工智能解决方案趋势的一个主要驱动因素是,使用人工智能的负面外部性并非由开发人工智能的公司承担。通常,我们通过政府监管来解决这种情况。例如,工业污染受到限制,因为它会给社会带来未来成本。我们还使用监管来保护个人可能受到伤害的情况。
这些潜在的负面后果都存在于我们目前对AI的使用中。对于自动驾驶汽车,已经有监管机构参与,因此我们可以期待公开对话,了解AI驾驶车辆何时以及以何种方式使用。人工智能的其他用途怎么样?目前,除了纽约市的一些行动外,对人工智能的使用几乎没有任何规定。无论是技术用户还是自动决策主体,都无法保证算法问责制的最基本保证。
不幸的是,我们不能让公司自行报警。 Facebook的口号“快速移动和破坏事物”已经退役,但整个硅谷的心态和文化仍然存在。做你认为最好的态度并且后来道歉继续占主导地位。
当建立系统以向消费者追加销售或将车手与司机联系起来时,这显然是有效的。当你做出影响人们生活的决定时,这是完全不可接受的。即使是善意的,编写代码的研究人员和开发人员也没有接受培训,或者冒着结束一些优秀同事的风险,不愿意考虑这些问题。
我见过很多研究人员,他们对人类的影响表现出令人惊讶的冷淡态度。我最近参加了硅谷以外的创新会议。其中一个演讲内容包括一个非常有名的人的篡改视频,发表了一个从未发生过的演讲。对视频的操纵完全不可察觉。
当研究人员被问及欺骗性技术的含义时,她对这个问题不屑一顾。她的回答基本上是,“我制作技术,然后将这些问题留给社会科学家解决。”这只是我从许多研究人员看到的最糟糕的例子之一,他们的雷达上没有这些问题。我认为要求计算机科学家在道德哲学中加倍专业是不切实际的,但缺乏关注是惊人的。
最近我们了解到亚马逊放弃了他们一直在测试的内部技术,以从他们的申请人中选择最好的简历。亚马逊发现,他们创建的系统对男性候选人产生了偏好,这会影响到应用的女性。在这种情况下,亚马逊充满动力确保自己的技术尽可能有效地运作,但其他公司是否会保持警惕?
事实上,据路透社报道,其他公司正在快速推进人工智能招聘。除非客户要求,否则销售此类技术的第三方供应商实际上没有动机去测试它没有偏见,正如我所提到的,决策者大多无法进行这种对话。同样,人类偏见也是招聘的一部分。但公司可以而且应该处理这个问题。
通过机器学习,他们无法确定系统可能学到什么歧视性功能。缺乏市场力量,除非公司被迫对公平性重要领域的发展和不透明技术的使用保持透明,否则不会发生。
在现实世界的应用程序中安全使用AI,问责制和透明度至关重要。法规可能要求获取有关该技术的基本信息。由于没有解决方案是完全准确的,因此规则应允许采用者理解错误的影响。错误是相对轻微还是重大?优步使用AI杀死了一名行人。其他应用程序中最糟糕的情况有多糟糕?如何训练算法?哪些数据用于培训,以及如何评估其数据是否符合预期目的?它真的代表了正在考虑的人吗?它是否包含偏见?只有获取此类信息,利益相关方才能对适当的风险和交易做出明智的决策。
在这一点上,我们可能不得不面对这样一个事实,即我们目前对AI的使用正在超越其功能,并且安全地使用它需要比现在更多的思考。
 
 
 
 
 
 
 
 
 
 

姓 名:
邮箱
留 言: