??智能?模型专?软件可让????编辑?成结果

2023-05-23 23:02
海外星云 2023年5期
关键词:工具人工智能图像

不久前,发表了一篇关于研究人员开发了新工具的文章,可以让人们自己体验到人工智能模型对不同性别和种族的固有偏见。

虽然新闻报道中写了很多关于我们的偏见是如何反映在人工智能模型中的,但看到人工智能生成的人类如此的白人化、男性化和老派,仍然感到不舒服,DALL-E2尤其如此, 当得到“ 首席执行官” 或“ 董事( 总监)”这样的提示时,它在97%的情况下会生成白人男性。

在人工智能创造的更广阔的世界中,偏见问题比你想象的更根深蒂固。斯坦福大学研究员费德里科·比安奇表示,因为这些模型是由美国公司创建的,大多数训练数据来自北美,所以当它们被要求生成再普通不过的日常用品时,比如门和房屋,它们会创造出看起来很“北美”的物体。

随着人工智能生成的图像不断涌现,我们将看到大量反映美国偏见、文化和价值观的图像。谁知道人工智能会不会最终成为美国软实力的主要工具呢?

那么,我们该如何解决这些问题呢?想解决人工智能模型训练数据集中的偏差,肯定有很多的工作要做,不过最近的两篇论文提出了一些有趣的新方法。

如果你可以直接告诉模型,让它给你偏见更少的答案呢?

德国达姆施塔特技术大学的研究人员和人工智能初创公司Hugging Face开发了一种名为FairDiffusion的工具,可以更容易地调整人工智能模型来生成你想要的图像类型。例如,你可以在不同的设置下生成首席执行官的照片,然后使用Fair Diffusion技术将图像中的白人男性交换为女性或不同种族的人。

正如Hugging Face工具所展示的那样,由于训练数据中存在偏见,许多文本到图像的人工智能模型对职业、性别和种族自带非常强烈的偏见。德国研究人员的Fair Diffusion工具是基于他们开发的一种名为语义指导的技术,该技术允许用户指导人工智能系统如何生成人类图像并编辑结果。

参与这项工作的德国计算机科学教授克里斯蒂安·克尔斯汀表示,人工智能系统生成的图像与原始图像非常接近。

达姆施塔特大学的博士生费利克斯·弗里德里希说,这种方法允许人们创建他们想要的图像,而不需要完成繁琐且耗时的额外工作,即尝试改进用于训练人工智能模型的有偏见的数据集。

然而,这个工具并不完美。改变一些职业的图片, 比如“ 洗碗工”,效果并不好,因为这个词在英文中既可以表示洗碗机,也可以表示洗碗的人。最终,该模型所能产生的人的多样性仍然受到人工智能系统训练数据集限制。不过,即便这项工作还需要更多的改进,但它可能是减轻偏见的重要一步。

类似的技术似乎也适用于语言模型。正如最近报道的那样,人工智能实验室Anthropic的研究表明,只需简单的指令,就可以引导大型语言模型产生更少的有害内容。Anthropic的研究人员测试了不同大小的语言模型,他们发现,如果这些模型足够大,就会在用户的要求下自我纠正一些偏见。

研究人员不知道为什么生成文本和图像的人工智能模型会这样做。Anthropic团队认为,这可能是因为更大的模型有更大的训练数据集,其中既包括许多有偏见或刻板印象的例子,也包括人们抵制和纠正这些偏见的例子。

人工智能工具在生成图像方面越来越受欢迎。克斯汀说,像FairDiffusion这样的工具可能对那些希望其宣传图片反映社会多样性的公司很有用。

这些对抗人工智能偏见的方法是受欢迎的,由此也衍生出一个明显的问题,即它们是否从一开始就应该被纳入模型中。目前,我们最好的生成式人工智能工具正在大规模放大有害的刻板印象。

值得注意的是,仅靠巧妙的工程手段并不能完全消灭偏见。正如美国国家标准与技术研究所(NIS)的研究人員在2023年的一份报告中指出的那样,除了数据和算法,偏见还存在于更多地方。我们需要调查人类使用人工智能工具的方式,以及使用这些工具的更广泛的社会背景,所有这些都可能导致偏见问题。

NIST表示,有效地缓解偏差将需要对人工智能模型如何构建,以及纳入其中的数据,进行更多的审计和评估,还要提高透明度。

猜你喜欢
工具人工智能图像
改进的LapSRN遥感图像超分辨重建
波比的工具
波比的工具
有趣的图像诗
2019:人工智能
准备工具:步骤:
人工智能与就业
“巧用”工具
数读人工智能
下一幕,人工智能!