blxdzhang1qd7 发表于 2018-1-16 19:12:48

照片会暴露你的性取向吗?人工智能通过社交软件的照片判断同性恋

谷歌专家称,这款机器的“识别同性恋脸”的行为是基于人们如何自拍而非面部特征的模式。
斯坦福大学的研究人员通过一个约会网站上的图片来训练人工智能系统。
他们说,它会测量不同面部特征之间的比率,这使得人们对该人工智能感到厌恶。
但是谷歌和普林斯顿的专家研究了这一发现并驳斥了这种说法。
他们声称这依赖于同性恋和异性恋者自拍的模式而非脸部特征。

来自谷歌和普林斯顿大学的研究人员研究了用于创建斯坦福大学原始软件的数据,以得出结论。
人工智能分析了来自美国约会网站的35,326张男性和女性的照片,这些人都在自己的个人主页上公布了自己的性取向。
斯坦福大学的研究小组称,他们的软件能够准确识别男性的性行为,可以检测出人类眼睛难以分辨的面部结构的细微差别。
在普林斯顿大学社会心理学家亚历山大·托多罗夫(Alexander Todorov)的帮助下,谷歌AI专家Blaise Aguera y Arcas和Margaret Mitchell研究了人工智能产生的合成图像,这些图像是异性恋者和男同性恋者的脸的平均表现。
他们发现了更明显的表面差异,比如眼镜的存在,这在图像中很突出。

他们对8000名美国人进行了一项调查,他们使用亚马逊的土耳其机器人众包平台来独立确认这些模式。
进一步的研究表明,这些变量是人工智能能够识别的,而不是生理上的差异。
在一篇中篇博客文章中,作者写道:“斯坦福大学的研究人员声称,关键的区别在于面相,也就是说,性取向倾向于带有特征的面部结构。”

但是,我们可以立即看到,其中一些差异更加明显。
例如,“普通”的女异性恋者似乎戴着眼影,而“普通”女同性恋则没有。
“男异性恋者倾向于自拍照,他们的下巴会变大,鼻子变短,前额变小,微笑也会减弱。”


“在自拍照中,同性恋和异性恋者之间的明显区别在于,修饰、表现和生活方式——也就是文化差异,而不是面部结构。”
来自斯坦福大学的研究人员Michal Kosinski和Yilun Wang对研究结果给出了不同的解释。
他们说,在子宫内,睾丸激素等荷尔蒙会影响胎儿发育的骨骼结构。
他们认为,这些相同的激素在决定性欲方面起着重要作用,而这台机器能够识别出这些信号。
这些要求和方法都遭到了激烈的批评。
全球最大的LGBTQ媒体宣传组织GLAAD和美国最大的LGBTQ公民权利组织(LGBTQ civil Rights organisation)在该研究发布后予以回击,
它的声明呼吁所有报道这项研究的媒体包括它的缺陷,说它做出了不准确的假设,遗漏了非白人的主题,并没有被同行评议。
GLAAD的首席数字官吉姆哈洛兰(Jim Halloran)说,技术不能识别人的性取向。
他们的技术能识别出一个模式,在约会网站上发现了一小部分白人同性恋和女同性恋者,他们看起来很相似。
这两个发现不应该混为一谈。
“这项研究不是科学或新闻,而是对约会网站上的美容标准的描述,忽略了LGBTQ社区的巨大群体,包括有色人种、跨性别者、老年人和其他不愿意在交友网站上发布照片的LGBTQ人群。”
“在少数群体成为攻击目标的时候,这些鲁莽的发现可能会成为伤害异性恋者和同性恋者的武器,而这些人在出现危险的情况下也会受到伤害。”
在理论上,这个软件可以用来挑选那些愿意让自己的性伴侣选择隐私的人。
谷歌搜索结果显示“我的丈夫是同性恋吗?”比“我丈夫有外遇”或“我丈夫抑郁”更常见。
科辛斯基博士此前曾参与过有争议的研究。
他发明了一款应用程序,可以在一个人的Facebook档案中使用信息来塑造他们的个性。
唐纳德特朗普(Donald Trump)竞选团队利用这一信息来选择选民,让他们认为自己的目标是可以接受的。
页: [1]
查看完整版本: 照片会暴露你的性取向吗?人工智能通过社交软件的照片判断同性恋