欢迎光临
中国顶尖人工智能与机器人行业新媒体平台

机器学习往往是自我强化

机器学习往往是自我强化 机器学习往往是自我强化 AI资讯

在新产品发布上工作? 启动新的移动网站? 宣布一个新功能? 如果你不确定算法偏差是否会破坏你的计划,你应该是。

算法偏见 – 当看起来无害的程序设计接受其创作者的偏见或它的饲料的数据,导致一切从扭曲的Google搜索,禁止合格的女性从医学院。它不会积极偏见在网络搜索,数据驱动的房屋贷款决定或照片识别软件中产生偏态结果(后面更多)。它只是采取失真的数据,没有人注意到和纠正。

它花了一个小的Twitter机器人去指向微软去年。 Tay旨在与年龄18至24岁的人交往,它爆发了社交媒体与一个乐观的“hellllooooo世界!”(“o”在“世界”是一个行星地球表情符号)。但在12小时内,Tay变成了一个臭名昭着的种族主义大屠杀denier,说女性主义者“应该都死在地狱里。”Tay,迅速从Twitter中删除,被编程从其他Twitter用户的行为学习,在这方面,机器人是成功的。 Tay对人类最糟糕的属性的拥抱是算法偏见的一个例子 – 当看起来无害的程序设计接受它的创造者或它所馈送的数据的偏见。

Tay代表的只是一个例子,算法偏差损害技术公司和他们的侯爵产品。在2015年,Google相册将多个非洲裔美国用户标记为大猩猩,而且社交媒体上的图片也点亮了。谷歌助理谷歌的首席社交建筑师和基础设施负责人Yonatan Zunger,迅速采取了Twitter,宣布谷歌正在加紧团队解决这个问题。然后有令人尴尬的启示,Siri不知道如何回应影响妇女的一系列健康问题,包括“我被强奸。我该怎么办?“在美国公民自由联盟的全国性请愿以及一系列值得关注的媒体关注之后,苹果也采取了行动来处理这个问题。

关于算法偏差的最棘手的部分之一是,工程师不必积极地进行种族主义或性别歧视来创造它。在一个时代,我们越来越相信技术比我们更中立,这是一个危险的情况。正如Code2040创始人Laura Weidman Powers所说,“让更多的非洲裔美国人和拉丁裔人成为技术人员”告诉我:“我们正在冒着使用我们社会的歧视性色彩来种植自我教学人工智能的风险, ,因为机器学习往往是自我强化的。

随着技术行业开始创造人工智能,它有风险插入种族主义和其他偏见到代码,将作出决定在未来几年。而深层学习意味着代码,而不是人类,将编写代码,有更大的需要根除算法偏差。有四件事情,技术公司可以做,以防止他们的开发人员无意间写偏向的代码或使用有偏差的数据。

第一个是从游戏中解脱。英雄联盟曾经被骚扰的声称包围,直到几个小的变化导致投诉急剧下降。游戏的创作者授权玩家对报告的骚扰案件投票,并决定是否应暂停玩家。被禁止的不良行为的玩家也现在告诉他们为什么被禁止。不仅是欺凌事件急剧减少,但玩家报告,他们以前不知道他们的在线行动如何影响他人。现在,不是回来,一再地说同样可怕的事情,他们的行为改善。教训是,科技公司可以使用这些社区警务模式来攻击歧视:建立创造性的方式让用户找到它并根除它。

第二,雇用能够在发布新产品,网站或功能之前发现问题的人。让妇女,有色人种和其他倾向于受到偏见影响,在技术公司开发团队中普遍不足的人。他们更有可能为算法提供更多种类的数据和spot代码,这是无意的偏见。此外,有大量的研究表明,多样化的团队创造更好的产品和产生更多的利润。

第三,允许算法审计。最近,卡内基梅隆研究小组发现了在线广告的算法偏差。当他们模拟在线搜索职位的人时,Google广告显示,男性高收入工作的上市人数是同等女性的六倍。卡内基梅隆团队表示,它认为内部审计加强公司减少偏见的能力将有所帮助。

第四,支持开发可以让所有公司在同一页上的工具和标准。在接下来的几年中,可能会有公司积极和周到地努力减少算法歧视的认证。现在我们知道水是安全的,因为EPA监测公用设施如何保持无污染。有一天我们可能知道哪些技术公司正在努力保持偏见。技术公司应支持这种认证的发展,并努力在存在时获得。有一个标准将确保部门持续关注这个问题,并给予公司使用常规做法减少意外的算法偏差。

公司不应该等待算法偏差来破坏他们的项目。工程师和开发人员不应该坚持技术是公正的,而是应该采取措施,确保他们不会意外地创造出一些与人类已经表现的一样的种族主义,性别歧视和仇外心理。

赞(0) 关注公众号

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

公众号也精彩

微信扫一扫打赏