为研究全球人工智能伦理状况,巴西研究人员对全球人工智能使用指南进行了系统审查和荟萃分析。他们发现,虽然大多数指南重视隐私、透明度和问责制,但很少重视真实性、知识产权或儿童权利。此外,大多数指南描述了道德原则和价值观,但并未提出实施方法,也没有推动具有法律约束力的监管。相关研究近日发表于生物学、化学和药学领域期刊Patterns。
“为在全球范围内部署人工智能建立明确的道德准则和治理结构,是促进信任和信心、减轻风险、确保其利益公平分配的第一步。”论文共同作者、南大河州天主教大学社会科学家James William Santos说。
(资料图片仅供参考)
“以前的相关工作主要集中在北美和欧洲,这促使我们积极寻求来自亚洲、拉丁美洲、非洲等地区的观点。”南大河州天主教大学和波恩大学的Nicholas Kluge Correa说。
为了确定是否存在关于人工智能的伦理开发和使用的全球共识,研究人员对2014年至2022年期间发布的政策和伦理指南进行了系统审查。他们确定了来自6大洲37个国家的200份与人工智能伦理和治理相关的文件,这些文件被翻译成5种不同的语言(英语、葡萄牙语、法语、德语、西班牙语),包括建议、实用指南、政策框架、法律案例和行为准则。
然后,研究小组对这些文件进行了荟萃分析,以确定最常见的道德原则,检查它们的全球分布,并根据制作这些文件的组织或人员的类型评估偏见。
研究人员发现,最常见的原则是透明、安全、公正、隐私和责任,分别出现在82.5%、78%、75.5%、68.5%和67%的文件中。最不常见的原则是劳工权益、真实、知识产权、儿童/青少年权利,分别占19.5%、8.5%、7%、6%,但作者强调这些原则应该得到更多的关注。例如,随着ChatGPT等生成式人工智能技术的发布,真实性(即人工智能应该提供真实信息)正变得越来越重要。
大多数(96%)的指导方针是规范性的——描述了在人工智能开发和使用过程中应该考虑的道德价值观,而只有2%的指导方针推荐了实现人工智能伦理的实用方法,只有4.5%的指导方针提出了具有法律约束力的人工智能监管形式。
“它们大多是自愿承诺,说‘这些是我们认为重要的一些原则’,但缺乏实施方法和法律要求。”Santos说,“如果你试图建立人工智能系统,或者你在企业中使用人工智能系统,你必须尊重隐私和用户权利,但如何做到这一点是这些指导方针中没有出现的。”
研究人员还发现,这些指南的区域和作者等方面存在一些偏见。研究人员指出,虽然66%的样本没有作者信息,但其余文件的作者更多是男性。从地理上看,大多数指南来自西欧(31.5%)、北美(34.5%)和亚洲(11.5%)的国家,而来自南美、非洲和大洋洲的文件不到4.5%。其中一些分布上的不平衡可能是由于语言和公众访问的限制,但该团队表示,这些结果表明,南半球许多地区在人工智能伦理全球话语中代表性不足。在某些情况下,也包括大量参与人工智能研发的国家,如中国,其人工智能相关研究的产出在2016年至2019年期间增长了120%以上。
林文共同作者、南大河州天主教大学的Camila Galvao说:“我们的研究证明南半球应该积极投身该领域,并呼吁北半球做好倾听和欢迎我们的准备。我们不能忘记,我们生活在一个多元、不平等和多样化的世界。”
研究人员表示,此外,未来的努力应该集中在如何实施人工智能伦理原则上。Santos说:“下一步是在抽象的道德原则和人工智能系统及应用的实际发展之间建立一座桥梁。”
相关论文信息:
http://doi.org/10.1016/j.patter.2023.100857