在AI时代开发数据伦理框架
汤姆是在线编辑。 他在萨塞克斯大学(Sussex University)学习英语文学和历史,然后从城市大学(City University)获得报纸新闻学硕士学位。 他对公共部门以及新兴技术的伦理影响特别感兴趣。
近几周来,数据伦理已经成为主流意识,媒体在YouTube上刊登了恐怖主义广告,Cambridge Analytica使用Facebook帖子来个性化竞选活动,以及无休止的丑闻席卷出租车服务应用程序Uber。
原则和规则正在努力跟上技术发展的步伐。 由techUK召集的一个专家小组讨论了如何确保有原则的行为。 随着技术的最新发展不断扩展了同意和隐私的道德观念,因此需要一种新的结构来建立保护数据的标准。
皇家统计协会执行董事Hetan Shah说:“您需要能够确定创新的标准。” “没有公众的信任,您可能会失去经营许可证。”
NHS在care.data崩溃中丢失了该许可证。 尽管人们广泛支持使用NHS记录来改善健康服务的概念,但是处理数据保护问题却引起了强烈抗议,从而破坏了该计划。
最近有关数据使用的丑闻使公众的信任度降低。 皇家学会最近询问公众,他们对某机构的信任程度如何,以及他们对数据的信任程度。
沙阿说:“第二个答案总是比第一个答案低。您永远不会比一般人更信任数据机构。 有一个信托赤字,这是一个社会问题。”
皇家学会科学政策主任克莱尔·克雷格(Claire Craig)参与了一项研究,要求不同社会经济背景的英国公民对数据使用的看法。 定性研究表明,公众判断风险的标准始于感知动机。
“主要信息是上下文的重要性,” Craig说。 “他们判断特定应用程序的风险和收益的基本标准很大程度上始于可察觉的动机。
“他们真的在乎为什么要引入新技术,为什么要有新的应用程序,需要什么数据以及目的。 他们关心受益者。 特别是,如果他们看到它可以帮助他们,更喜欢他们的人,更喜欢他们的团体以及更广泛的社会,他们会更支持。”
基本上,必须有直接的消费者利益。 如果这项工作对人类有利,那么利润就不是问题。
由数据驱动的任何自主决策都将根据感知到的风险和责任程度进行评估。 例如,与自动驾驶汽车相比,人们对亚马逊的建议的关注要少得多。
他们支持诸如通过腾出时间与朋友和家人共度时光来实现更多人与人之间的联系的应用程序。
对技术的过度依赖可能导致人们永久失去他们世代相传的技能。
需要证明技术可以促进人类而不是破坏人类。 帮助专业人员节省时间以进行更重要的工作将得到广泛支持,但是可以替代他们的自动化将毫不奇怪地使他们警惕。
Craig说:“人们对更换工作以及工作的未来充满担忧。” “潜在的新工作机会在哪里?”
这些担忧扩展到存在的恐惧,因为技术使我们走上了去人格化的必经之路,并挑战了人类的价值和精髓,如果一台计算机能够提供比他们所能更好的一切。 如果算法有权决定您的选择,那么在职业,教育和经济支持等领域限制自由似乎是不可避免的结果。
积极使用数据很少会得到与否定数据相同的风险。
发表于7wData.be。