艺术家斯蒂芬妮·丁金斯(Stephanie Dinkins)长期以来一直是布鲁克林实践中将艺术与技术相结合的先驱。 5月,她被授予10万美元 古根海姆博物馆 表彰她的突破性创新,包括对人形机器人 Bina48 进行的一系列采访。
在过去的七年里,她一直在尝试利用人工智能的能力,使用各种文字提示来真实地描绘黑人女性的微笑和哭泣。 第一个结果即使不令人震惊,也很乏味:她的算法产生了一个被黑色斗篷笼罩的粉红色阴影的人形生物。
“我期待一些更像黑人女性的东西,”她说。 尽管自第一次实验以来这项技术已经有所改进,丁金斯发现自己在文本提示中使用了一些转义术语来帮助人工智能图像生成器实现她想要的图像,“让机器有机会给我我想要的东西。” 但无论她使用“非裔美国女性”还是“黑人女性”这个词,机器扭曲会频繁发生,从而破坏面部特征和头发纹理。
“改进掩盖了我们应该提出的有关歧视的一些更深层次的问题,”丁金斯说。 这位黑人艺术家补充道:“偏见深深地嵌入到这些系统中,因此它变得根深蒂固且自动化。 如果我在一个使用算法生态系统的系统中工作,那么我希望该系统以细致入微的方式了解黑人是谁,以便我们能够感受到更好的支持。”
她并不是唯一一个对人工智能与种族之间令人不安的关系提出尖锐问题的人。 许多黑人艺术家在人工智能中发现了种族偏见的证据,无论是在教机器如何生成图像的大数据集中,还是在运行算法的底层程序中。 在某些情况下,人工智能技术似乎忽略或扭曲了艺术家的文本提示,影响了黑人在图像中的描绘方式,而在其他情况下,它们似乎刻板印象或审查黑人历史和文化。
近年来,关于人工智能领域种族偏见的讨论激增,研究表明 面部识别技术 数字助理无法识别图像 演讲 非白人的模式。 这些研究提出了更广泛的公平和偏见问题。
人工智能图像生成器背后的主要公司——包括 OpenAI、Stability AI 和 Midjourney——已承诺改进他们的工具。 OpenAI 发言人亚历克斯·贝克 (Alex Beck) 在电子邮件采访中表示:“偏见是一个重要的全行业问题。”他补充说,该公司正在不断努力“提高绩效、减少偏见并减少有害输出”。 她拒绝透露有多少员工在解决种族偏见问题,也拒绝透露公司为解决这个问题分配了多少钱。
“黑人习惯于不被人看见,”塞内加尔艺术家 琳达·杜尼亚·雷贝兹 在她的展览“In/Visible”的介绍中写道, 野性档案,一个 NFT 市场。 “当我们被人看到时,我们已经习惯了被歪曲。”
为了在接受记者采访时证明自己的观点,28 岁的 Rebeiz 询问 OpenAI 的图像生成器, 达尔-E 2, 想象她家乡达喀尔的建筑。 该算法产生了干旱的沙漠景观和被毁的建筑物,雷贝兹说这些与塞内加尔首都的沿海房屋完全不同。
“这令人士气低落,”雷贝兹说。 “该算法偏向西方创造的非洲文化形象。 它默认了互联网上已经存在的最糟糕的刻板印象。”
去年,OpenAI 说 它正在建立新技术来使 DALL-E 2 生成的图像多样化,以便该工具“生成更准确地反映世界人口多样性的人物图像”。
雷贝兹展览中的一位艺术家, 明尼·阿泰鲁 是一名博士学位。 哥伦比亚大学师范学院的候选人,计划对南布朗克斯的有色人种年轻学生使用图像生成器。 但她现在担心“这可能会导致学生产生令人反感的图像,”阿泰鲁解释道。
野性档案展览中包括她的“金发辫子研究”中的图像,这些图像探索了 Midjourney 算法在生成自然金发黑人女性图像方面的局限性。 当艺术家要求提供一张金发的黑人同卵双胞胎的图像时,程序却生成了一个肤色较浅的兄弟姐妹。
“这告诉我们算法从哪里汇集图像,”阿泰鲁说。 “它不一定是从黑人的语料库中提取的,而是针对白人的语料库。”
她说,她担心年幼的黑人儿童可能会尝试生成自己的图像,并看到皮肤变亮的孩子。 Atairu 回忆起她之前对 Midjourney 进行的一些实验,直到最近的更新提高了它的能力。 “它会生成像黑脸的图像,”她说。 “你会看到一个鼻子,但它不是人的鼻子。 它看起来像狗的鼻子。”
Midjourney 创始人 David Holz 在回复评论请求时在一封电子邮件中表示,“如果有人发现我们的系统存在问题,我们会要求他们向我们发送具体示例,以便我们进行调查。”
提供图像生成服务的 Stability AI 表示,计划与人工智能行业合作,改进针对更多国家和文化多样性的偏见评估技术。 这家人工智能公司表示,偏见是由其一般数据集中的“代表性过高”引起的,尽管它没有具体说明白人的代表性过高是否是这里的问题。
本月早些时候,彭博社 分析过的 研究人员对 Stability AI 生成的 5,000 多张图像进行了研究,发现其程序放大了关于种族和性别的刻板印象,通常将肤色较浅的人描绘成高薪工作,而肤色较深的人则被贴上“洗碗机”和“管家”的标签。
这些问题并没有阻止科技行业的投资狂潮。 咨询公司麦肯锡最近发布了一份乐观的报告 预料到的 生成式人工智能每年将为全球经济增加 4.4 万亿美元。 去年,近 3,200 家初创企业获得了 521 亿美元的融资, 根据 到 GlobalData Deals 数据库。
自 20 世纪 50 年代彩色摄影早期以来,科技公司一直在努力应对对深色皮肤描绘存在偏见的指控,当时柯达等公司使用 白色款 在他们的颜色发展。 八年前,谷歌禁用了其人工智能程序让人们搜索的能力 大猩猩和猴子 通过其照片应用程序,因为该算法错误地将黑人分为这些类别。 截至今年5月,该问题仍未得到解决。 两名从事该技术工作的前雇员 告诉《纽约时报》 谷歌没有用足够的黑人图像来训练人工智能系统。
其他研究人工智能的专家表示,偏见比数据集更严重,他们指的是 20 世纪 60 年代这项技术的早期发展。
“这个问题比数据偏见更复杂,”达特茅斯学院的文化历史学家、最近出版的一本关于 计算机视觉的诞生。 根据他的研究,在机器学习的早期,关于种族的讨论很少,大多数研究该技术的科学家都是白人。
“很难将今天的算法与历史分开,因为工程师正在那些以前的版本的基础上进行构建,”多布森说。
为了减少种族偏见和仇恨图像的出现,一些公司禁止用户提交给生成器的文本提示中使用某些单词,例如“奴隶”和“法西斯”。
但多布森表示,希望找到简单解决方案的公司,例如审查用户可以提交的提示类型,正在避免底层技术中更根本的偏见问题。
“随着这些算法变得越来越复杂,这是一个令人担忧的时期。 当你看到垃圾出来时,你必须想知道模型内仍然存在什么样的垃圾过程,”教授补充道。
奥瑞亚·哈维,惠特尼博物馆近期展出的一位艺术家 展览 关于数字身份的“重构”在最近使用 Midjourney 的项目中遇到了这些禁令。 “我想询问数据库对奴隶船的了解,”她说。 “我收到一条消息,说如果我继续的话,中途将暂停我的帐户。”
丁金斯在她创建和销售的 NFT 中遇到了类似的问题,这些 NFT 展示了奴隶和定居者如何将秋葵带到北美。 当她尝试使用生成程序时,她受到了审查, 复制,拍摄奴隶船的照片。 她最终学会了使用“海盗船”一词来智取审查员。 她收到的图像与她想要的很接近,但这也给艺术家提出了一些令人不安的问题。
“这项技术对历史有何影响?” 丁金斯问道。 “你可以看到有人试图纠正偏见,但同时抹去了一段历史。 我发现这些删除和任何偏见一样危险,因为我们只会忘记我们是如何来到这里的。”
古根海姆博物馆首席策展人内奥米·贝克威斯 (Naomi Beckwith) 认为丁金斯在表现和技术问题上的细致入微的方法是这位艺术家获得博物馆首个艺术与技术奖的原因之一。
“斯蒂芬妮已经成为艺术家和文化工作者传统的一部分,他们在这些关于事物运作方式的总体理论中找出漏洞,”贝克威斯说。 策展人补充说,当她意识到这些算法对黑人文化几乎一无所知时,她最初对人工智能程序取代人类创造力的偏执就大大减少了。
但丁金斯还没有准备好放弃这项技术。 她继续将其用于她的艺术项目——带着怀疑。 “一旦系统能够生成黑人妇女哭泣或微笑的真正高保真图像,我们就可以休息了吗?”