Pinterest 采取了另一项出色的举措,其算法旨在为搜索带来更多多样性。谷歌本身也认识到了文字的力量,并推出了一款包容性语言工具,试图考虑一些以性别为中心的术语。例如,当你输入“警察”时,引擎会建议“警官”。
虽然在以前的案例中我们谈论的是
社交媒体和更多的人为决策,但当谈到 whatsapp 号码列表 SERP 时,我们还有其他因素,例如人工智能和算法。
令人悲伤的是,数据和技术可能会带有种族歧视。这听起来可能很矛盾,因为两者都应该是客观和精确的科学。
然而,我们要记住,数据和技术都是人类构建的,即使在构建人工智能时,它们也容易受到自身偏见的影响。
罗琳·莱登所说:“算法和机器学习的好坏取决于我们输入这些模型的数据。”
幸运的是,作为营销人员,我们有能力改变我们的想法,发现我们的偏见,并采取行动。如果我们发现我们自己的偏见,我们就能察觉到某些事情只是一种刻板印象,并不代表现实。
如何减少偏见
对抗算法并不容易,尽管谷歌已经尝试减少 SERP 中的偏见,但距离拥有无偏见的技术还有很长的路要走。
但我们可以做一两件事来改善它;毕竟,我 去五任总统中第四位连任成 们是证明这些算法内容的人。请查看以下重要提示:
首先,从自己做起
让我们明确一点:有偏见并不会让我们成为坏人,但我们需要更加致力于承认我们的偏见。当您下次发现自己对某人有刻板印象时,请想一想,“我为什么会这么想?” ”或“这是真的吗?”
他认为没有人可以被归结为一个刻板印象。每个人都充满了细微差别、性格特征和不同的出身。
当您执行搜索(或浏览信息)时,请始终尝试从各种来源收集信息。尝试摆脱过滤泡沫,确保你收到的内容中不包含种族主义或性别歧视的思想。
让你的内容具有包容性
请记住,算法和机器学习是根据我们提供的信息采取行动的。不幸的是,我不是 Google 工程师,所以我无法直接致力于改进 SERP 算法。
然而,作为内容创造者,我们可以做 人工智能文本 很多事情来让互联网成为一个更具包容性的地方。一个很好的起点可能是我们自己的语言。包容性沟通可以减少性别假设和排斥。
另外,考虑一下如何在自己的图像中展现多样性。他们是否正确地展现了多样性?你的视觉交流是否强化了刻板印象?
不要忘记,