近年来,生成式人工智能工具盛行,以假乱真的图片、音频、视频铺天盖地,影响人们的认知判断,甚至导致严重的负面影响,如何识别AI生成的深度伪造图像成为丞待解决的难题。
半年前,OpenAI CTO 米拉·穆拉蒂曾透露,公司正在研发一款 AI 图像识别工具,其准确度高达 99%,但迟迟未正式公布。
最近,这款工具终于有了新的进展,当地时间5月7日,OpenAI 宣布推出一个面向文生图模型DALL·E 3的图像检测分类器,该工具能够检测出由 OpenAI 旗下的图像生成器 DALL·E 3 生成的任意一张图片。据内部测试,该工具识别DALL·E 3生成图片的准确率达到了98%。
但OpenAI的这款图片检测工具仍有不足之处。一方面,对于除 DALL·E 3 以外的图像生成工具,该工具的识别能力效果甚微,大概会有 5%~10% 的误判率;另一方面,该图片检测工具对于经过压缩、裁剪、调色、增噪等美化操作后的图片,其识别出是否由AI工具生成的正确率会降低。
AI检测工具的发展任重而道远,不仅需要构建真图和假图的训练数据集,再利用大模型学习两类图片的不同特征;而且对AI算力有很高的需求。因此利用AI识别深度伪造技术的挑战不仅在于样本数据,还在于AI算力。算力云(suanlix)平台提供充足的AI显卡、云主机和AI算力,用户可以按需租用,按量计费。
人工智能技术的发展带来了一系列伦理和法律问题,其中深度伪造技术能够合成或修改图像、音频和视频,使它们看起来非常真实,坏人利用该技术对个人隐私、社会信任和公共安全构成威胁。例如今年4月印度大选期间,两位宝莱坞演员批评印度总理莫迪的假视频就在网上疯传。因此对于人工智能企业而言,应当首当其责,采取措施帮助识别深度伪造技术,以免社会陷入危机。
实际上,OpenAI在去年2月,也曾推出过AI文本检测器“AI Text Classifier”,可以推断出一段文本是否由ChatGPT生成,实现了用AI检测AI。但这款文本检测工具因为成功率不足50%,推出几个月后就被下架。
除了人工智能先锋企业OpenAI以外,其他大型科技公司和芯片生产商也在帮助人们识别真假。
据CNN今年2月报道,Meta也在努力识别和标记共享在其平台上的由第三方工具创建的AI生成图像。很久之前,微软也曾推出了一款视频认证工具,可以分析静态照片或视频,就目标图像或视频提供一个实时AI生成百分比或信心分数。芯片制造商英特尔的FakeCatcher则使用算法分析图像像素来确定真假。
提高图像、音频、视频的真伪鉴别能力,人工智能就能继续朝健康的方向发展了吗?未来人工智能究竟是利大于弊还是相反呢?如果你有任何想法,欢迎在评论区参与互动!
以上是算力云(suanlix)今日新鲜的人工智能资讯分享,我们下期再见!