标题摘要内容
当前的位置:
详情
AIGC,一匹脱缰的野马?
来源: | 作者:AI 小秘书 | 发布时间: 2024-11-14 | 101 次浏览 | 分享到:

都说“耳听为虚,眼见为实”,但在AI技术井喷的时代,你看到听到的一切可能都是假象。

11月9日,湖南公安通报一起AIGC(人工智能生成内容)诈骗案件。一位老人在手机营业厅进行视频通话,视频里有位身穿警服的男子称老人涉嫌违法犯罪,需要配合警方进行资金核查。神色慌张的老人正准备根据指引缴纳所谓“犯罪款项”,引起了巡逻义警的注意,这才阻止了一起诈骗。

老人与“警察”视频通话截图。图源:“湖南公安”微信公众号

其实,这是骗子利用警方在网上公开的照片、视频,通过AI换脸技术冒充“警察”而成的把戏。

如今的AIGC正在快速迭代,图片、音频、视频似乎无所不能。从“明显假”到“真假难辨”再到“以假乱真”,在泛娱乐内容当道的短视频平台,AIGC为网友们提供了情绪价值,但有些内容似乎“跑偏”了,还给不少人带来了困扰。

只需10秒,AI就能“偷走”你的声音

前不久,“雷军AI配音”相关视频在网络掀起风波。在网传视频中,小米公司创始人、CEO雷军的声音特征的语音内容“锐评”假期堵车、年轻人赖床、游戏外挂等话题。

如果仅仅是对热门话题的调侃或“心灵鸡汤”倒也罢了。部分AI配音视频用词较为过激,甚至还含有粗俗言论。有网友说“切换到每个软件都在被雷总追着骂”。

其实,这些发言和雷军本人并无干系,而是AI配音生成。记者搜索发现,目前市面上有大量AI配音的在线插件或小程序,用户只需选择相应的人物声音并输入文字,最快只需10秒,便可借用他人的声音发表言论。

有些软件甚至提供了更加“灵活”的创作空间,能克隆任何音色。在一个开源网站上,导入一段45秒内的人声音频用于训练模型。等待几分钟后,即可通过输入文字生成任意音频内容。

除了雷军,被“偷走”声音的公众人物还有不少。

今年9月底,一段据称是某直播平台老板卢某某的酒后录音在网络上流传,卢某某在录音里表现出对消费者的傲慢,以及对相关人士的不尊重,为该平台招致了不小的争议。

警方调查发现,音频系通过深圳某科技公司开发的模型伪造。嫌疑人上传卢某某此前直播片段的约30秒录音,就完成克隆,输入文本后生成网传视频。

“只需一段话,克隆任何声音”?记者在多个电商平台发现,有的网店或个人账号提供“AI克隆声音”的软件售卖或生成语音服务,标价在几元至几十元不等,支持方言和多种外语。

记者向其中一家店咨询,客服表示提供声音素材即可进行克隆,根据声线数量及生成音频字数(长度)综合收费,但不得商用。

不仅如此,AI变声的技术还可以进行实时转换。B站知名UP主、北京师范大学法律硕士周伟华(网名“第七翼刀”)就做过一期关于AI换脸、变声的实验视频。

在视频里,周伟华将自己的照片和音频通过AI进行训练,并邀请一位发型、口音和自己相仿的男性朋友,登录在线会议与自己的同学进行视频通话。在480P的画质里,“假脸”和“假声”几乎能做到音画同步,一招“瞒天过海”成功骗过对面的同学,也让评论区的网友大开眼界。

AI玩过界可能涉嫌违法

“网友都喜欢有趣的内容,名人效应加热门话题的打法,很容易被算法推荐。”一位活跃在多平台的萌宠自媒体达人熙熙(化名)从创作者视角,给出了自己的看法。

熙熙说,自己在剪辑视频时为了增加戏剧性和互动性,也会使用AI配音给宠物“加戏”,让宠物用人类的口吻对话,“AI配音比较容易玩梗,视频数据确实好了很多。”

很多网友也表示,AI变声能够降低自己在视频里使用原声的“羞耻感”,再加上模糊五官和脸部轮廓的滤镜,“有种平静的疯感”。

      值得注意的是,很多软件为了规避影视作品版权风险,并不会直接使用声线的全名,而是代称。比如一款名为“配音蜂”小程序内置了“麦克阿瑟”“四郎”“顾姐”等上百种声音;剪辑软件“剪映”则内置了不同音色的“猴哥”、“云龙哥”“黛玉”等角色。有人表示,听多了AI配音再听角色原声“反而没那个味了”。


AI配音当然有存在的价值,但如果毫无底线地滥用,那些对AI技术不熟悉的中老年网民,很容易会以为是本人在发表言论和观点。

北京京师(杭州)律师事务所陈光文律师接受记者采访时表示,我国《民法典》已经把“声音权”统一到了“人格权”范畴,归入“肖像权”。未经许可使用他人声线进行商业利用或恶搞等不当行为,可能被视为侵犯肖像权,需承担相应的民事赔偿等责任。
当生成的AI语音内容包含对被模仿者的诋毁、污蔑等负面评价,足以致使其社会评价降低时,构成对名誉权的侵犯。未经授权使用像雷军这样的企业家、公众人物的声线,生成AI语音进行不当传播,可能会影响到其在商业合作、品牌价值等方面的商业利益,间接侵害了其商业权益。
日渐猖獗的AI诈骗,对个人信息保护、数据安全带来了新的挑战。2023年5月,全球知名安全技术公司迈克菲发布对来自7个国家的7054人进行了调查,其中四分之一的成年人受访者表示经历过AI语音克隆骗局,70%的人表示自己难以分辨出克隆声音和真实的人声。
在上海工作的95后青年小方曾经历过这样的骗局。2023年7月,小方在打车前往浦东国际机场的路上,女朋友接到了自己号码打来的电话。电话里,小方的声音称自己在出租车上与司机发生冲突被绑架。女朋友吓坏了,但仍有警戒心,立刻换了手机号给小方打电话求证,才确认这是一场骗局。

“模拟的手机号和我的真实号码完全一致,因为前面加上了0086的区号,所以在女朋友手机里显示我的备注。”小方告诉记者,“最可怕的是骗子掌握的信息都是真实的,完全不知道是从哪泄露出去的。”事后,小方女朋友将此事报警。警方表示,以“00”“85”“95”“+”等开头的境外号码或虚拟号码很可能是诈骗电话,需要提高警惕,不要轻信电话里的内容。

如何消除AIGC引发的社会担忧

AIGC突破性发展,在传统行业、新兴行业都有着广阔的应用空间,但滥用行为带来的风险也引发了社会担忧。
2023年发布的《最高人民法院、最高人民检察院、公安部关于依法惩治网络暴力违法犯罪的指导意见》明确规定,对“利用‘深度合成’等生成式人工智能技术发布违法信息”的情形予以从重处罚。
法律界人士认为,避免AIGC违法犯罪产生更严重的后果,既需要平台健全内容审核机制、通过技术手段加以甄别,也需要强化用户引导,合法合规地使用AI进行创作。
今年9月,国家网信办发布了《人工智能生成合成内容标识办法(征求意见稿)》,其中要求,通过人工智能生成的视频、音频、图片都必须加以明确的标识。这种通过信息披露实现的治理,无疑为广大网民擦亮了辨别的双眼。

记者搜索发现,许多互联网内容平台都已经在显著位置对AI相关内容给出提示。小红书表示,平台重视并支持AI等新技术创新,但不得侵害他人肖像权,禁止使用AI创作内容虚构使用体验或效果进行商业变现。抖音在对AIGC内容生成进行治理的同时发出倡议,使用统一的AIGC数据标准或元数据标准,便于其他内容平台进行识别。

为了从内容源头进行引导和规范,陈光文律师认为,内容平台应该通过技术与人工审核相结合的方式,加强AIGC相关内容的监管。此外,平台有责任向用户宣传知识产权保护、人格权保护等相关法律知识,告知用户内容侵权及违反公序良俗造成的后果,让AI内容更为规范。