东南教育网您的位置:首页 >互联网 >

斯坦福大学的研究人员说多样化的团队可以帮助减少偏见算法

导读 与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。斯坦福大学高级研究学者兼数字公民社会实验室主任露西·伯恩

与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。

斯坦福大学高级研究学者兼数字公民社会实验室主任露西·伯恩霍尔兹(图)表示,为了解决这个日益增长的问题,必须将人的价值观纳入整个数据科学过程。

她说:“ ​​[价值]不应成为单独的讨论主题。” “我们需要就以下内容进行对话:我们要为什么而努力,我们要保护谁,如何试图识别单个人为因素,而这必须贯穿于整个数据科学之中。”

伯恩霍尔兹与之交谈索尼娅Tagare,theCUBE,SiliconANGLE Media的移动即时串流工作室主持人的女性数据科学大会在斯坦福大学,加州期间,。他们讨论了价值在数据科学中的重要性,为什么必须要有一个多元化的团队来构建和分析算法以及数字公民社会实验室正在开展的工作。

打破偏见周期

伯恩霍尔茨说,所有数据都是有偏见的,因为收集数据的是人。她强调说:“我们正在将偏见建立到数据科学中,然后将这些工具导出到偏见系统中。” “你猜怎么着?问题变得越来越严重。因此,让我们停止这样做。”

Bernholz解释说,在创建算法并进行分析时,数据科学家需要确保他们正在考虑数据集中所有不同类型的人,并在上下文中了解这些人。

“我们非常清楚,有色女性与白人男性面临的环境不同;他们不会以同样的方式走遍世界。”她解释说。“并且以为您的购物算法不会影响他们在现实世界中所经历的差异是荒谬的。”

她补充说,还需要让参与算法创建以及公司管理的人员具有不同的个人资料,这些人可以决定是否以及如何使用它们。

“我们需要一套不同的教学机制,在这些机制中,实际上已经训练了人们从一开始就要考虑什么是预期的积极因素,什么是预期的消极因素以及什么是可能的消极因素,然后决定他们沿着这条道路走多远” 。

免责声明:本文由用户上传,如有侵权请联系删除!