看完乌克兰这波骚操作,我再也不敢用人脸识别了
掐指一算,距离2月底的俄乌冲突爆发,已经过去快两个月。这段时间,小雷和哔哥没闲着,一有空就紧盯事件的进展情况。
想着针对冲突中的一些科技事件,给不了解情况的小伙伴解读一番。
不得不说,这场战争是很残酷的,各方制裁轮着来,让俄罗斯喘口气都难。
比如某些国家地区,在经济方面搞事儿,限制了和俄罗斯的经济和贸易往来。
全球科技巨头更是纷纷断供,整得俄罗斯在科技和互联网这两块儿,也吃了瘪。
更别说还有一些奇奇怪怪的制裁,甚至连俄罗斯的猫猫狗狗,都无辜躺枪。
大伙如果觉得这些制裁已经到顶,可就大错特错,战争的残酷程度远超咱们想象。
这不,最近小雷刷着新闻,就刷到了一条关于“人脸识别”的恐怖消息!
而这次搞事的对象,不是美国和西方,而是这场冲突的另一方——乌克兰。
乌克兰+人脸识别这组合,能搞出什么离谱操作呢?今天小雷就带大伙瞧瞧。
乌军扫描阵亡俄军人脸
“人脸识别”这操作,大伙应该再熟悉不过,识别身份and刷脸付款时都会用到。
然鹅这次,乌克兰方却把人脸识别搬到打仗上,用作了“军事打击手段”。
自从俄乌冲突开始,美国科技公司Clearview AI,就主动向乌克兰方提供面部识别软件。
软件功能贼强大,乌方利用它对俄罗斯士兵,进行了超过8600次面部识别搜索。
除了被俘的,甚至连死亡的士兵,都能使用人脸识别来辨认尸体。
如果说是为了获取情报,利用人脸识别身份,放在战争里看其实也是一种手段。
但是,小雷要说但是了嚯,这件事远远没有看上去的这么简单。
乌克兰士兵拍摄俄罗斯士兵尸体 图源:美联社
利用Clearview AI的人脸识别软件,一些乌克兰的黑客和志愿者,组成了乌克兰IT大军(IT Army)。
就在这个月,乌克兰IT军在Telegram上,发布了一段让人觉得不寒而栗的视频。
视频里,IT军表示已经通过Clearview AI人脸识别软件,识别出俄罗斯士兵的尸体。
并且联系了582名俄罗斯士兵的家属,还给他们发送了阵亡士兵尸体的照片。。。
好家伙,人脸识别身份就算了,还给家属发送尸体照片,这是什么下头操作?
不仅炫耀发尸体照片,乌克兰IT大军还公布了,和俄罗斯家属的部分对话。
其中有一个俄罗斯母亲,她看到血淋淋的尸体照片后,歇斯底里地质问:
“你为什么要这么做?你想让我死吗?我已经活不了了。”
然而IT大军却觉得自己是“正义化身”,回复道:“这就是你把人送上战场的后果。”
图源:《华盛顿邮报》
Clearview AI是什么来头?
乌克兰IT大军能这么搞,关键还是靠了Clearview AI的人脸识别技术。
问题来了,Clearview AI公司到底是什么来头,人脸技术怎么这么牛X?
介绍一下,Clearview AI是美国一家人脸识别的初创公司,成立于2016年。
只要上传一张人脸照片,就可以得到这个人,在其他社交网站上的照片资料。
目前,通过在社交平台和互联网其他地方的收录,数据库已经有200亿张图片。
小雷查了一下,数据库中有20亿张图片,是来自于俄罗斯社交平台VKontakte。
So,通过这技术,乌IT大军就能轻松知道俄罗斯士兵身份,还有家属联系方式。
不过大伙估计猜不到,其实一开始,Clearview AI是为美国警察和FBI提供服务的。
用途非常正经了属于是,主要是用来验证犯罪嫌疑人,或者证人的身份是否属实。
依小雷看啊,Clearview AI这次愿意掺和俄乌冲突,主要有两方面的原因。
一方面,乌克兰方把IT大军,发尸体照片给家属的这种操作,叫作“心理战”。
他们认为针对阵亡士兵家属的心理打击,能打击俄军的积极性,早日结束战争。
另一方面,Clearview AI也可以通过这事儿,大力推广自家产品技术,变现挣钱。
技术是把双刃剑
别看Clearview AI跟美国官方有合作,其实从成立以来,它的日子就过得磕磕绊绊。
Clearview AI在Facebook、Twitter、Instagram等社交平台,收集了上百亿的图片。
而收集了大量的图片后,Clearview AI还会利用人脸识别算法,对图片进行处理。
然鹅这里有一个大前提,收集图片这事儿,Clearview AI就没得到过用户的同意。
So,自从Clearview AI出现在公众视野,围绕它的争议就一直没有停过。
小雷瞅见嚯,它和官方组织打官司、被罚巨款,都可以说是家常便饭了。
去年5月,好几个欧洲人权组织对Clearview AI提起诉讼,指控其违反了有关保护个人数据的法律。
同年11月,英国信息专员办公室,对Clearview AI没有遵守国家数据保护法, 罚款2260万美元。
今年3月,因为违规收集意大利用户的生物特征信息,意大利隐私监管机构对 Clearview AI处以2000万欧元的罚款,还被责令删除。
小雷觉得,Clearview AI在用户不知情的情况下,违规收集图片,已经做得不对。
如果把这项人脸识别技术,用在打击违法犯罪上,估摸着还能少挨点喷。
然而现在竟然用到战争里,用来攻击士兵无辜的家属,多少就有点不人道了。
技术本是中立,但是如果有人“用心险恶”,那大概率只会造成更大更深的灾难。
科技公司要挣钱能理解,只是抛开人道主义一味追求利益,最终只会反噬自己啊。
页:
[1]