人脸识别背后:可怕的不是技术

全文共3001字,预计学习时长9分钟

人脸识别背后:可怕的不是技术

刚开始,FaceApp的爆红似乎并没有什么异样,直到一些心怀疑虑的互联网调查员发现软件提供商为俄方公司,事情有了新的走向。

民众一瞬间沸腾起来,社交平台、网络论坛无不充斥着人们的焦虑感:这些俄罗斯人是谁?为什么想要我们的脸部照片?他们会怎样利用收集的数据?一些新闻媒体主播就此提醒广大民众;还有一位民主党人士呼吁(有关部门)对此展开调查。全国上下所有人内心都有这么个疑问——令人不安的俄方情报机构是否在非法利用他们的面部信息来完善本国的人脸识别程序?

而事实证明,FaceApp供应商与俄政府之间的联系被夸大了,其实什么都没有。据《华盛顿邮报》的一项调查报告显示,该公司与国际情报组织没有交集,也不会给非法监视组织提供信息资源,目前也并没有用存储的照片来升级改造什么人脸识别系统。整件事下来就是对数据的小题大做。

但这样的骚动并不意外。人们对许多看似有趣方便且有利用价值的网络服务都相继产生担忧,而FaceApp的窘境不过是最近刚发生的。人们想知道,这种自动给脸书上照片贴标签排队的技术会让公司了解他们的个人信息并跟踪利用他们吗?在顾客走进一家免付款(cashier-less)亚马逊商店时,零售商会利用收集的监控录像对付顾客吗?

人们对此通常是无法感知的——而这就是问题所在。所以背后引发的一个问题就是:当下AI程序到底会用人类面孔做什么?有多少的恐惧是来源于传言,而非摆在面前的事实?技术的力量是否让人类的担忧不断增多?

我们来一起想想这个问题。

人脸识别背后:可怕的不是技术

来源:detail.zol.com.cn

人脸识别可以(或不能)做什么?

与观众追的所有间谍剧剧情不同的是,FRT很少会立即反馈准确的信息,在环境复杂时亦如此。说政府会通过街道上不清晰的监控片段在几秒内找到目标人物的说法实属夸张。

但人脸识别监控的确有可能实现,所要面临的无非是精确度低和各种环境因素问题。相机质量、计算程序、时间、距离、数据库大小甚至包括人口学中的种族和性别都会影响FRT搜索的最终效果。

笔者记得很清楚,2018年美国公民自由联盟(ACLU)组织进行了一项测试,其结果显示亚马逊平台的人脸识别系统Rekognition错误地将28名国会成员与警方存底的嫌犯照片进行了匹配。

另一项由麻省理工媒体实验室(MIT Media Lab)发起的调查显示亚马逊识别系统还在苦苦挣扎于性别的识别,有19%的可能性会将女性误认为男性,有超过1/3的可能性会将肤色较深的女性误判为男性。而亚马逊将一切的误差都归咎于低校准度。

亚马逊的说法也不为过,至少还是占点理的。毕竟研究人员发现脸书的识别系统比FBI还准确,因为社交平台上有相当多的照片可供参考,同时还会主动要求用户验证其相片从而完善算法。人们因此会对Rekognition产生误解,当然所有的FRT软件都免不了遭受质疑:这些软件能做到的程度只取决于其照片参考量。

人脸识别背后:可怕的不是技术

来源:Pexels

现在领悟到什么了吗?

下一次有照片过滤器、网上游戏或数字趋势蔓延开来,系好安全带把自己拴紧,考虑一下要不要跻身潮流。

哪怕觉得自己的自拍会以数字或文字形式隐匿于某西伯利亚的服务器,也要想着会有人利用它。

就像国内ZAO的横空出世,地下灰色产业逐渐浮出水面一般,在掀起病毒式恐慌之前,人们永远不会意识到问题有多严重。。

没有危机意识的你,也许只有在看毛片黄图时,意外发现自己的脸后,才会感到恐慌和危险。

人脸识别背后:可怕的不是技术

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注