几百位俄罗斯母亲,被迫收到了儿子战死的照片。
2022-04-27 10:00:30 来源: 差评

本文原创于微信公众号:差评  作者:差评君

最近,几百位俄罗斯的老母亲,突然收到了儿子在战争中阵亡的消息。

不仅如此,她们之中甚至还有人,亲眼看到了战场上惨不忍睹的遗体照片。

但通知她们这些事的并不是俄罗斯政府,而是来自乌克兰的 IT 志愿者部队。

这个组织利用人脸 AI 识别技术,扫描战死后的俄罗斯士兵面部,以此获得其生前的个人信息,包括社交平台账号、家庭照片,以及人员关系网等。

然后他们再将 “ 丧生 ” 这个噩耗,逐个匹配对应好,直接发送给远在俄罗斯,时刻担心子女安危的家庭中。

这种击破民众心理防线,再通过民众向政府施压的做法,也许是战争中不可避免的战术方案,但兵法和套路并不是差评君关心的地方。

在差评君看来,反而是拿 AI 这种本该造福社会的技术,用来伤害无辜家庭的手段,有点太不讲武德了。

在相关新闻评论区里,尽管网友们立场不同,但基本都在感慨这种行为的不人道。

有的人说,“ 士兵的母亲和妻子都没有任何错误 ”;

也有人表示,“ 告知这些可怜母亲的应该是俄罗斯政府,而不该是其他人 ”;

还有一份部分人说,士兵家庭有权利知道阵亡的消息,这些事不该被隐瞒。

“ 但也许可以弄一个网站,如果真的有家庭想主动了解,那就自己去获取信息 ”。

总之,这种事不能硬来。

当然,也有人意识到了问题真正严重的地方 ——

比如一位老哥就写下这样的评论:

“ 乌克兰 IT 军拥有所有俄罗斯士兵的样貌信息,并且还有他们的家庭方式?这可不是啥好兆头 ”。

要知道,人脸、指纹等个人隐私信息,连每个国家自己都要制定法律,高度保密。

怎么如此庞大的隐私数据库,就被其他国家搞走了呢?

而要解释这件事,就不得不提到一个叫做 Clearview AI 的公司了。

根据华盛顿邮报的报道,这家公司正是乌克兰 AI 技术和人脸数据信息库的提供方。

现在,共 5 个乌克兰政府机构,包含 340 多名官员,已经可以随时使用这些面部识别工具了,还是免费的。

不仅如此,这家公司也会培训新士兵使用方法、给他们开通操作权限。

可以说,Clearview AI 这波配合,突出一个 “ 尽心尽责 ”。

Clearview AI 的 CEO ▼

报道还称,这家公司的数据库里,至少拥有 20 亿张来自俄罗斯的照片信息。

但得到巨量照片资源的方法,既不是我们想象中的高端黑客破解技术,也不是什么碟中谍式信息窃取。

他们只是堂而皇之地从各种社交平台,抓取各个国家地区的公开图片。

其中俄罗斯的照片信息,大部分就是来自俄罗斯最大的社交网络 VKontakte

VKontakte 类似于 Facebook、微博等 ▼

如果用不严谨的假设来解释整个过程,那就是 ——

你曾用自己的微博账号,发了一张自拍。

然后 Clearview AI 就会偷偷把这张照片保存到他们的数据库里,再将其与你的账号做好对应。相当于同时获取了人脸数据 + 个人资料里的信息。

而获取信息后,通过 AI 就能实现反向操作。

比如某天你被别人拍下了一张照片,根据这张照片,AI 就能再追溯到你的微博账号,以此取得更多详细信息。

听完有没有点细思极恐?这次的俄罗斯士兵事件,大致上就是这么一回事儿。

Clearview AI 的 CEO,

自己演示操作过程 ▼

而且,这家公司涉及的层面还远不止如此。

像 Google、YouTube、Facebook 和 Venmo 等全球性的网络社区,都曾因为被 Clearview AI 抓取信息,不约而同发出了警告性质的终止函。

因为这些平台上的个人信息数据过于庞杂,且不分年龄、国籍、性别,如果被加以利用,那将留下严重的隐私泄露隐患。

但 Clearview AI 这边则表示,“ 我们只是获取网络上的公开资料,这些资料没准儿以后抓捕犯罪嫌疑人有很大帮助。更何况我们已经收集几十亿张图片了,识别准确率能达到 98%。

再说了,连美国第一修正案( 美国宪法 )都没有对此约束,就证明了我们有行使自己权利的自由 ”。

看起来是不是挺无赖?然而这还不是最可怕的。

因为从这家公司的官网来看,它还是一个标准的私营企业。。。

尽管他们声称,自己与国家执法机构签订了 600 多份安全协议,并且只会将软件提供给指定的专业安全人员。

但这些资本的场面话,建议千万别全信。

毕竟,早在几年前 A 轮融资时,他们就利用自己的隐私库当做 “ 福利 ”,吸引到了一批有钱人。

比如纽约时报的一篇报道《 Clearview 在成为警察的工具之前,它是有钱人的秘密玩物 》中,就提到了 ——

某位亿万富翁,曾使用 Clearview AI 来识别自己女儿和谁约过会。。。

除此之外,还有很多财大气粗的社会精英,都在 Clearview 上注册过会员服务。

这也就意味着,至少在这家公司初创期,个人隐私数据完全可以被金钱左右,至于具体用来干过啥,就无从得知了。

类似事件的曝光,引起了很多人士的警惕,这也让 Clearview 的地位,逐渐变得微妙了起来。

首先,Clearview 想摆脱大众对它的 “ 隐私滥用 ” 印象,急需找一些正规机构合作,为自己挽回口碑与信任。

而在 “ 个人隐私神圣不可侵犯 ” 的社会大环境下,谁也不想趟它这浑水,引得一身舆论。

但这个庞大数据库 + AI 识别吧,确实在各行各业都很有用。所以,私下里有没有合作还真不好说。

就比如,接下来这个打脸事件。。。

有一次,Clearview 公开说它利用自己的软件,帮助纽约警察抓捕了一个潜在的嫌疑犯。

但纽约警察则一口否决,说他们只是试用过几次软件,破案时压根没用。这让媒体对 Clearview 进行了好一顿批判。

尴尬的是,还没过多久,就有人搞到了一封警局内部邮件。

邮件里详细揭露了警方与 Clearview 的密切合作,纽约警察们,甚至已经使用搜索软件超过 5100 次。

而事到如今,为了再获得乌克兰支持者的认可,Clearview 甚至不惜将自己应用到战争中。

这对于那些丧失孩子、丈夫的俄罗斯家庭来说,相当于伤口上撒盐,过于残忍。

尤其是在相关新闻的下方,也有一些人开始渐渐畏惧 AI 技术,以及背后那不可估量的生物数据集信息。

只要进入官网,

就能看到他们的相关宣传 ▼

其实,大家的担心也不是毫无道理。

因为技术的不正义性,会在战争中被迅速放大,甚至造成 “ 技术恐慌”。

还记得 2018 年 “ AI 人脸识别无人机,靠近目标后立即引爆 C4  ” 的新闻么?当时,委内瑞拉正在举行阅兵仪式,忽然间一架迷你无人机靠近演讲台后爆炸,总统命悬一线,场馆内几千名人员四散而逃。

这里的 AI 人脸识别技术,就能保证无人机精准袭击到总统本人,完全不需要谁在背后遥控。

所有人都很难想象,一个平日里用来寻人、支付的功能,居然成了完美犯罪中的关键一环。

战争,本身就是一件舍弃道德底线的事。

以至于所有人眼里 “ 中立且无罪的技术 ”,在战争之下也会变得不那么纯粹,成为伤及无辜家庭的手段之一。

而利用技术去刻意试探人性,加速悲剧,则显得更不体面。

如果再不加以制止的话,那从今往后,怕是连技术的名声都要搞臭了。

图片、资料来源:

MAIL ONLINE:Ukraine scans the faces of thousands of dead Russian soldiers and uses facial recognition technology to find and contact their mothers;

MIT Technology Review:The NYPD used a controversial facial recognition tool. Here’s what you need to know;

CNET News:Clearview AI says the First Amendment lets it scrape the internet. Lawyers disagree;

CBS News:Google, YouTube, Venmo and LinkedIn send cease-and-desist letters to facial recognition app that helps law enforcement;

Ars Technica:Secretive face-matching startup has customer list stolen;

Clearview AI、维基百科、纽约日报、华盛顿邮报;

责任编辑:zN_2310