上线24h就马上下架,AI性别识别平台翻车

2020-07-31 11:55   来源: 互联网

一些公司在成立之初就声名狼藉,而另一些公司则首次亮相,Genderify属于后者。


AI能用用户名来区分性别吗?



是的,但级别有限。请注意。


最近,一个名为Genderify的人工智能性别识别平台引起了人们的关注。该产品声称使用了一种简单、快速、独特的人工智能技术,允许用户直接输入姓名或电子邮件地址,以获得性别判断结果。


开发人员说,该产品的目标是帮助人们更好地理解特定性别的需求。这项技术也可以很容易地集成到现有的系统中,如注册表格、客户关系管理(CRM)、企业风险管理(ERM)等等。


因此,当该产品第一次上线时,许多用户率先尝试了这个新功能。但我没有想到。我太措手不及了,以至于把车打翻了。


如果MeghanSmith的评价结果是"男性为39.6%,女性为60.4%",则改名为"MeghanSmith博士",结果为"男性为75.9%,女性为24.10%"。


MeghanSmith"是一个女人,但是"MeghanSmith博士"变成了一个男人?同时,其他以"Dr"开头的名字也会产生类似的倾向于男性的结果。


进入"科学家",被评价为男性的概率高达95.7%:


有些人输入了奥普拉,结果显示78.3%的人是男性,但最熟悉的"奥普拉"是女性:脱口秀主持人奥普拉温弗雷(Oprahwinfrey)。


如果你先输入"Yifatshalk",结果将是94.4%的男性,然后只有"Yifat",这一比例将降至78.6%。


我觉得人工智能对男人来说是默认的,当他不知道如何判断的时候,"这位用户说。这样的判断方法和"如果你不选择多个选择的话"(C)差不多。


有些人把Genderify首席运营官的名字放在搜索框里,结果仍然令人尴尬:无论如何,阿瑞维克不会是一个男人,即使搜索结果的比例高达91.2%。


推特也被证明是个男孩。


人工智能系统中的性别偏见并不是一个新话题,至少许多人都理解它的存在。但Genderify惊人的判断震惊了整个行业。


人工智能社会影响研究公司、纽约大学AINow的联合创始人MeredithWhittaker在Twitter上呼吁:"我们都被疏远了吗?


这个严重偏颇的人工智能系统存在许多隐患,比如将服务集成到医疗对话机器人中,而性别判断算法的错误可能会导致医疗建议的完全偏离。尽管该产品的创建者阿里韦克-加斯帕良(AerekGasparyan)只是将其定义为"帮助营销数据分析"的工具。


在它上线后不久,Genderify就引发了来自社交媒体平台的强烈抗议。


这个产品太糟糕了。拜托别说了。


最后,Genderify不得不选择关闭该网站,该网站已无法访问。


不仅删除了最初的推文,还直接注销了账户。


下架需要24小时,Genderify的产品生命周期似乎太短了。




责任编辑:萤莹香草钟
分享到:
0
【慎重声明】凡本站未注明来源为"科技周刊网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!