互联网上哪些是真、哪些是假,几乎是一个永远不会有答案的问题,因此在上网冲浪时去伪存真,可以说是当下网民的必备技能。只可惜随着技术的快速进步,互联网世界的一切似乎都变得真假难辨了,特别是在生成式人工智能(AIGC)逐步成熟之后。最近一段时间,马斯克化身“超市大盗”的视频在海外被大量传播,其实就是海外用户使用Grok AI和最新的文生图模型FLUX生产的恶搞内容。
甚至在借助AI技术恶搞名人背后,是AI已然成为了网络黑灰产的得力助手。例如一家英国跨国企业的香港分公司被AI换脸和AI音频冒充的总公司CFO骗走2亿港币、“AI马斯克”骗走老人退休金、“Yahoo Boys”使用AI生成的视频进行网恋骗局等,类似被曝光的“AI作恶”案例更是数不胜数。眼见AI技术被滥用,OpenAI等大厂和相关科研人员就坐不住了。
日前来自麻省理工学院、加州大学伯克利分校、OpenAI、微软等25家机构的科学家,在探讨AI带来的网络安全挑战中所可能面临的困难与前景时,联手提出了一个打击AI造假的新手段——“人格凭证”(Personhood Credentials, PHC)。作为一项全新的数字身份认证技术,PHC的核心是证明用户是人类,这与当下主流的验证码(CAPTCHA)正好相反,后者的核心是要求用户证明“我不是机器人”。
“CAPTCHA”(全自动公共图灵测试)作为一项在本世纪初诞生的技术,是为了对抗当时泛滥的垃圾邮件而生。彼时由于OCR等提取图像中文字信息的技术尚不成熟,开发者借助人类可以用肉眼识别出在图片中被扭曲过、污染过的文字信息,而电脑则缺乏这一能力的原理,开发了CAPTCHA技术。
只是随着计算机视觉技术在过去十年间的快速成熟,传统的、基于文字的验证码技术也被攻破,业界也在不断升级防御措施,以谷歌reCAPTCHA、BotDetect的CAPTCHA生成器为代表的这一代验证码技术也应运而生。比如ReCAPTCHA上显示的待验证内容,就是谷歌自家OCR也无法识别的内容构成。