这是每个父母最担心的噩梦。你的孩子尖叫着恐惧地打来电话,一个面目不清的绑架者要求一百万美元的赎金才能让孩子安全回家。 亚利桑那州的母亲Jennifer DeStefano 这周收到了这样的要求,来自她的十五岁女儿Brie。她陷入恐慌,开始考虑她能挽救女儿生命的代价。但 Brie 完全不知道她的母亲正在经历什么样的恐惧。
这是一种利用日益令人细思恐极的人工智能技术的新型诈骗,现在只需要三秒钟的采样就可以克隆一个人的声音并对他们最亲密的人进行攻击。 DeStefano声称,她接到了一个来自陌生电话号码的电话,接了电话后就听到女儿声泪俱下地喊着“妈妈!”。接着一个男人的声音告诉“Brie”(女儿)将头朝后仰,躺下。 然后男人威胁母亲不要报警,否则他会给Brie注射毒品,对她施暴,并把她带到墨西哥。在这个电话的整个过程中,DeStefano一直非常恐惧地认为她的女儿处于危险之中。 一开始,绑架者要求一百万美元。当她说她没有这笔钱时,他把要求降到了五万美元。那时候,DeStefano在她的另一个女儿的舞蹈课上被其他母亲包围着。她们在她还在与骗子通话的时候拨打了911,还打电话给她的丈夫,证实Brie是安全的。 很难相信,这些语音是通过人工智能仿真的。亚利桑那州立大学计算机与人工智能学院的教授Subbarao Kambhampati 表示,“现在有一些方法,只需要三秒钟的时间就能够实现这个功能,而且还可以接近你的声音。” 他还说,如果有足够大的样本量,人工智能可以模仿一个人的语调和情感。同时,联邦调查局专家警告说,诈骗者经常在社交媒体上寻找目标。为了避免被骗,FBI建议问诈骗者关于“被绑架者”的问题,以及查看电话区号或是否使用国际号码等红旗标志。 DeStefano 警告其他家长有关这种快速发展的技术的危险性,她说:“那完全是她的声音。她的语调,她的哭声,完全是她的样子。我从来没有怀疑过那不是她,这真的让我感到非常恐惧。我最大的担忧是,这将被用于诱骗和绑架他人,就像他们要求我那样。如果这种情况发生在你或你认识的任何人身上,请报警!”
|