导读 现在很明显,2023年是人工智能之年。自从ChatGPT进入主流以来,我们已经看到人工智能渗透到几乎每个行业。从为搜索引擎提供支持的大型语言
现在很明显,2023年是人工智能之年。自从ChatGPT进入主流以来,我们已经看到人工智能渗透到几乎每个行业。从为搜索引擎提供支持的大型语言模型,到嵌入AdobePhotoshop的GenAI成像,再到重塑消费者体验的聊天机器人和广告算法,人工智能无处不在——不仅是时代精神的一部分,而且越来越融入我们的生活和工作方式。
从伦理数据的角度来看,人工智能的主流化带来了明显的挑战。我们都知道人工智能是由数据驱动的——但人工智能的普遍性意味着,未来几乎所有数据都会在其生命周期的某个时刻接触到人工智能算法。谁来决定哪些数据被输入到人工智能工具中,以及出于什么目的?数据应该如何在算法中保留下来,这对同意和隐私意味着什么?在无处不在的人工智能世界中,需要什么样的护栏来保护我们的安全?
这些都是重要的问题。与任何强大的新技术一样,人工智能看起来令人恐惧,而且可能会产生意想不到的后果;一些科技大佬甚至呼吁我们完全停止人工智能创新。然而,我们不应该把人工智能当成需要扑灭的大火,而应该认识到人工智能的崛起正在给已经熊熊燃烧的火焰火上浇油。与人工智能相关的偏见、数据隐私问题和其他道德问题并不是由算法造成的——它们是由算法揭示出来的,人工智能将组织数据实践中预先存在的缺陷暴露在聚光灯下。
这是一个关键的区别,因为这意味着虽然人工智能革命带来了挑战,但它也为道德数据倡导者提供了巨大的机会。在监管要求、消费者需求和经济需要的推动下,企业现在被迫重新评估其数据实践和数据基础设施——不仅仅是对他们的人工智能工具,而是对他们所有的运营。因此,人工智能的到来有可能加速整个数据经济中负责任做法的采用。