您的位置:首页 >生活 >

科学存在人工智能问题研究小组表示他们可以解决它

导读 人工智能有潜力帮助医生找到疾病的早期标志,帮助政策制定者避免导致战争的决策。但越来越多的证据揭示了机器学习在科学中的应用存在深刻的

人工智能有潜力帮助医生找到疾病的早期标志,帮助政策制定者避免导致战争的决策。但越来越多的证据揭示了机器学习在科学中的应用存在深刻的缺陷,这个问题已经席卷了数十个领域,涉及数千篇错误论文。

现在,由19名研究人员组成的跨学科团队,由普林斯顿大学计算机科学家ArvindNarayanan和SayashKapoor领导,发布了在科学中负责任地使用机器学习的指南。

普林斯顿大学信息技术政策中心主任、计算机科学教授纳拉亚南表示:“当我们从传统统计方法转向机器学习方法时,有更多的搬起石头砸自己脚的方法。”

“如果我们在基于机器学习的科学方面没有采取干预措施来提高我们的科学标准和报告标准,那么我们不仅面临一门学科的风险,而且还面临许多不同科学学科接连重新发现这些危机的风险。”

作者表示,他们的工作是为了消除这种阴燃的可信度危机,这种危机可能会席卷研究事业的几乎每个角落。一篇详细介绍其指导方的论文于5月1日发表在《科学进展》杂志上。

纳拉亚南表示,由于机器学习几乎已被每个科学学科所采用,而且没有通用标准来保障这些方法的完整性,因此当前的危机(他称之为可重复性危机)可能会比社会心理学中出现的可重复性危机严重得多十多年前。

来自计算机科学、数学、社会科学和健康研究领域的作者表示,好消息是,一套简单的最佳实践可以帮助在这场新危机失控之前解决它。

“这是一个需要系统解决方案的系统性问题,”与纳拉亚南一起工作并组织制定新的基于共识的清单的研究生卡普尔说。

该清单的重点是确保使用机器学习的研究的完整性。科学取决于独立重现结果和验证主张的能力。否则,新工作就无法可靠地建立在旧工作之上,整个企业就会崩溃。

虽然其他研究人员已经制定了适用于特定学科问题(尤其是医学问题)的清单,但新指南从基本方法开始,并将其应用于任何定量学科。

主要收获之一是透明度。该清单要求研究人员提供每个机器学习模型的详细描述,包括代码、用于训练和测试模型的数据、用于产生结果的硬件规格、实验设计、项目的目标以及任何限制。研究结果。

作者表示,这些标准足够灵活,可以适应各种细微差别,包括私有数据集和复杂的硬件配置。

虽然这些新标准日益严格可能会减缓任何特定研究的发表,但作者相信,这些标准的广泛采用将提高发现和创新的总体速度,甚至可能大幅提高。

“我们最终关心的是科学进步的步伐,”主要作者之一、正在攻读博士学位的社会学家艾米丽·坎特雷尔(EmilyCantrell)说。在普林斯顿。

“通过确保发表的论文具有高质量,并为未来的论文奠定坚实的基础,这可能会加快科学进步的步伐。关注科学进步本身,而不仅仅是发表论文门确实是我们应该重点关注的地方。”

卡普尔表示同意。这些错误很伤人。“从集体层面来看,这只是一个重大的时间浪费,”他说。那个时间是要花钱的。这些钱一旦被浪费,可能会产生灾难性的下游影响,限制吸引资金和投资的科学种类,阻碍无意中建立在错误科学基础上的企业,并使无数年轻研究人员灰心丧气。

作者表示,在努力就指南中应包含的内容达成共识时,他们的目标是取得平衡:足够简单以便被广泛采用,足够全面以发现尽可能多的常见错误。

他们表示,研究人员可以采用这些标准来改进自己的工作;同行评审员可以使用清单来评估论文;期刊可以采用这些标准作为出版的要求。

“科学文献,特别是应用机器学习研究领域,充满了可以避免的错误,”纳拉亚南说。“我们想帮助人们。我们想让诚实的人保持诚实。”

免责声明:本文由用户上传,如有侵权请联系删除!