我们在谷歌的搜索结果中发现了一个偏见问题跳过这里直接进入正题.这是一个重要的发现/提醒,我们不应该盲目地使用人工智能分析的结果.
虽然在洞察方面,我们可以比以前走得更远,但我们仍然需要确保我们对结果进行直觉检查,而不是盲目地追随数据。
图像AI假说
在这个假设过程中,我们发现了我们将在下面讨论的偏差:
人工智能能帮助我们为客户挑选更好的图像吗?
我看着当前的状态,想,我们今天如何为电子商务订阅和社交广告挑选图片?我们的设计团队是否从客户、品牌指南等处获得需求,然后去现场挑选它们?我们在做这些决定时使用(或不使用)哪些数据?
我大脑的另一边在想,我要什么数据已经是否可以帮助我的设计团队选择不同的图像进行测试?
当我们发现“我们在谷歌上的排名”时,我们必须部署工具来抓取搜索引擎结果页面,以便告诉我们我们相对于竞争对手的排名。在这个过程中,我们也得到了很多信息,比如谷歌是否显示图像作为答案,在什么位置?——这就是我关注的地方。
现在我可以看到一些事情,比如我的客户在哪里花了很多钱来针对一个带有文本广告的关键字,但API认为一组图像更可能是用户问题的正确答案?
奇迹发生了
一旦我找到触发图像的关键字,如果我可以从谷歌搜索和进入这些图像谷歌视觉API我可以得到图像的所有部分,找到它们的共性,并将共性与我们展示的进行比较。
正是在研究这个假设的过程中,我遇到了这个问题……
为什么图像API显示黑人医生的“街头时尚”?
在为新的医疗保健客户做准备时,我想向他们展示使用我们的产品的力量数据仓库/基础设施,所以我在他们的领域里选了一个例子。
我看到了一些趋势黑人医生呈上升趋势对于其他医疗保健客户。当你在谷歌趋势中搜索黑人妇产科时,你可以看到:
在谷歌搜索结果中,你可以看到他们认为图片是黑色妇产科医生的一个很好的答案。所以他们展示了黑人女医生,完美的匹配。
如果你想大规模地做到这一点,你必须进入谷歌的视觉AI API,但对于初学者来说,我们只是为了获得这个新的医疗保健客户端所需的东西,我们认为我们只需要将这些照片上传到演示版本:
下图是第一个运行演示API的图片:
以下是人工智能的反馈:
但更让人困惑的是再往下两步的鉴别:
街头时尚吗?也许因为她的脸被遮住了图像API可以使用的就少了很多?再试一次……
结果:
街头时尚再一次。?这就是我开始要求我们的Seer团队进行理智检查的时候。他们开始插话……
尼科尔提出了一个假设并进行了验证:
戴娜和特蕾莎进行了更多的测试
这对图像AI的未来意味着什么
随着公司不断利用人工智能和机器学习提升数据成熟度曲线,密切关注我们分析的输出非常重要。使用数据的危险在于盲目地相信它,并创建一个错误的数据断开你和听众之间的联系.
值得注意的是,这也不是责怪谷歌的视觉API——谷歌显然知道偏见是他们产品中的一个问题他们正在积极努力解决其中一些问题.当他们致力于改善预训练模型的偏见时,我们将准备好对我们的输入和输出进行彻底检查,并建议其他营销人员在我们获得更多数据时也这样做。
额外的资源
了解更多关于为每个人构建更具包容性的产品的重要性:
正在寻找一个机构合作伙伴来帮助释放数据的力量?探索先见的数字营销服务!