来源:央视网 在上海工作的陈晓伟,在父亲位于嘉兴的生鲜店三个月内连续发生九起“只能退款”事件后,他很担心。今年十月假期,他特意回到家乡,仔细查看父亲的手机记录,试图找出原因。 “我父亲的店专做‘现摘现种’,已经营业五年了。发货前,我们会录制封箱视频,清楚地记录柑橘包装的颜色、直径和订单号。”陈晓伟告诉央视网《前方》记者。然而,当我登录我的网店后台查看时,我发现所有在这些情况下发出“仅退款”的买家都提供了开箱照片。箱内的柑橘类水果已腐烂、脱水,甚至出现虫蛀迹象。受访者供图 起初,陈父以为快递有问题交货链接并同意前几笔订单的退款请求。但随着类似情况越来越多,他多次联系运输公司未果,只得向女儿求助。 “我仔细地一张一张地查看了每张照片,发现其中一张照片的一角有一道所谓的水印痕迹,就像被裁剪过一样。”陈小伟思考了近期媒体报道的AI图像编辑“只退款”现象,怀疑该店遭遇了系统性恶意退款。通过简单的搜索,陈小伟发现,利用人工智能技术伪造照片、假冒产品质量问题并要求退款的情况已不再是例外。她立即向该平台投诉涉嫌被人工智能篡改的密封视频和照片,但因“凭据不足”而被拒绝。该平台提供谈判与买家协商解决问题。 “但那些买家通常会屏蔽我们,根本无法联系我们。”陈小伟无奈的说道。当我致电平台客服时,对方说:“无法判断图像是否是人工智能生成的。”该订单总金额为1,由于金额不足1000元,不符合诈骗罪立案标准,报警难度较大。陈晓伟遗憾的是,人工智能生成的水印很容易被删除,而平台缺乏有效的检测机制。毕竟,像你父亲那样诚信经营的小企业常常会遭受损失。值得注意的是,2025年3月14日,国家网信办联合公布了《人工智能生成的合成内容标注办法》,明确规定人工智能生成的内容必须强制标注,如在文字中添加警告符号、嵌入警告标志等。在照片和视频上添加术语,这项措施于今年9月1日正式实施。资料来源:中央网络安全和信息化委员会秘书处网站。不过,《前线》记者调查发现,一方面,仍有大量新生成的AI内容没有被标记为必需。另一方面,即使添加了水印,也可以通过技术手段轻松去除。这对“强制标签”政策的实施提出了新的挑战。 “水品牌”的延续 事实上,自生成式AI技术出现以来,“打假”和“真伪鉴别”就成为技术发展过程中不可避免的话题。 “目前,在相关规定中,人工智能内容的标识主要分为显式标识和隐式标识。显式标识要求将人工智能生成的内容标注在独立人工智能开发者陆磊指出,目前争议主要集中在显式识别的实现层面。“然而,传统的‘水印’方法有一个致命的缺陷。它很容易操纵或移除。 “陆磊举了一个例子。 “例如,大多数人工智能绘图工具将水印放置在屏幕的角落。用户只需使用手机自带的裁剪功能,就可以在不影响画面整体效果的情况下轻松去除水印。”事实证明,现在有很多“照片视频去水印”服务,一次性费用从几元到十几元不等。有提供商透露,照片去除水印很简单,有些情况下甚至使用基本的照片编辑软件就可以完成。而视频去水印则相对复杂,如果需要逐帧修复调整,但图像质量不好,这样您可以轻松地从视频和照片中删除“AI生成”标签。 “水印一旦去除,不仅普通用户难以区分,而且一些专业的检测工具也会失效。”陆磊说。 “过度识别”的问题。插画师李慕言抱怨道:“我用了72层、手绘了3万多笔来完成这幅作品,系统将其标记为‘AI生成’,只是因为我使用了AI来调整局部光影。” “他的作品发布到社交平台后,不仅被自动标记,还面临流量拦截,曝光量不到正常的十分之一,还收到了‘懒惰AI’的负面评价。从头发的移动到衣服的褶皱,一切都经过精心打磨,这种创作精度是目前的AI无法达到的。” “先生。李梦阳弱弱地表示,她联系了平台客服,但被拒绝人工干预并通过“系统自动识别”进行修正。一方面,消费者难以识别人工操纵的人工智能内容,另一方面,创作者却被平台的自动识别机制所困。尽管人工智能水印平台上的“强制标签”看似违反直觉,但它实际上面临两个常见问题。 《生成人工智能技术》预计,根据中国通信研究院发布的《智能产业发展报告(2025)》,2024年日本生成式AI用户数量将达到3.8人左右。同时,根据《中国网络视听发展研究报告(2025)》,预计到2024年,平均每天新增视频内容数量将突破1亿条。面对如此海量的数据,平台面临着资源困境。据吕磊观察,李牧阳目前面临的“错误决策”主要是AI识别的模式造成的。平台上常用的ion。 “这些模型通过学习大量人工智能生成的内容来建立决策标准,但它们很容易误判人类创造的产品的高质量特征。”例如,画家反复完善的笔触和色彩组合,或者学术作品的逻辑呈现,都可以被系统标记为人工智能作品。工作越复杂,就越容易被误判,从而产生技术悖论。西南政法大学人工智能系教授冯子轩进一步指出,“人工智能生成的内容涵盖了文本、短视频、直播、虚拟场景等多种格式。不同场景的技术架构和通信逻辑差异很大,没有一种技术方案能够适合所有场景。”然而,即使在代码中内置隐式识别,我们仍然面临挑战“技术标准不一致。”一家大型互联网公司的人工智能架构师张说,“平台很难适应几十甚至上百条识别规则。在平台之间的沟通过程中,经常会出现识别丢失、无法识别等问题。”张晓还表示,多模态人工智能识别需要强大算力的支持。目前,为了降低成本,企业无法对所有上传的内容进行彻底测试,只能通过随机检查、关键词过滤等方式简化任务,因此平台陷入了双重困境。另一方面,“创客前任”需要在用户体验和流量之间取得平衡。平台”和“履行验证人工智能生成内容的义务”。李牧阳认为,目前平台尚未建立完善的投诉机制。 “我可以接受误判,但我不能接受”他多次尝试联系平台,但问题仍未得到解决。“现在人工智能越来越普及,平台判断失误在所难免,但有必要建立专门的申诉渠道。”从这个意义上说,陆磊澄清,建立专业评审团队需要大量既懂技术又懂人工智能创造的复合型人才,而这样的人才目前稀缺,培养成本高。因此,出现了“李木阳投诉”这样的情况。 “花了12天解决”的问题很可能会持续存在一段时间。解决人工智能的困惑,需要的不仅仅是加个水印。在采访中,受访者普遍认为要求对人工智能内容进行标注的初衷是合理的。但对于如何防止人工智能作为“技术领域的技术”偏离轨道,许多专家和业内人士也提出了自己的看法。或者很好。”北京航空大学法学院副教授赵景武指出,强制标签并不是解决人工智能混乱的“万能钥匙”。真正需要建立的是覆盖全链条的治理架构。那么我们如何才能建立普遍存在且广泛适用的标准呢?在冯子轩看来,基本框架应建立在“弹性”与“弹性”相结合的基础上,“即在法律上建立统一的识别标准,同时为不同的应用场景预留适应性空间。” “例如,服务提供商有‘来源识别义务’,平台有‘验证和补充义务’和有意识别。”明确删除信息的用户的法律责任。面对“造假成本低,但合规只会导致损失”的现象,冯子鑫表示,“内容创作者应该承担依法第一责任并完成标识。如果发生欺诈行为,作为第一责任人,我们必须承担法律后果。对于平台来说,必须提供标签技术的支持。还必须建立实时验证机制。如果违法内容大规模传播,违法成本就会增加。如果平台有责任,Silverform应该承担相应的补充责任。”针对人工智能标记可能造成的“意外伤害”问题,冯子轩提出区分商业和非商业场景,对原创性制定差异化的标注要求。“非商业内容可以使用轻度、明确的标识,但商业内容应确保标识清晰可见,并建立判断错误的审查机制,以便创作者可以向平台请求纠错和赔偿。名词“事实上,除了强制标签外,人工智能相关法规仍在完善中。专家律师安玉华指出,目前的《生成人工智能服务暂行管理办法》和《人工智能合成内容标签管理办法》都是部门性法规,法律效力不大。此外,内容也比较碎片化,缺乏先进的调整手段。”郑嵘举例说。权利只能基于零散的条款来保护,比如肖像权、隐私权。大规模的声誉损害难以量化,缺乏强有力的高层法律支持。 “虽然规则还没有很好衔接,但具体细节还需要进一步明确。冯子轩认为,目前双向认定机制的标准比较模糊,处罚规则也不够明确。“需要出台更详细的实施细则。”充分地,依靠强制性国家标准来确保隐式身份识别可以在所有平台上进行跟踪和验证。将罚款数额与违法所得挂钩,国家根据违法情节分级处罚,防止恶意伪造标签、大规模仿冒等行为。加大对行为的制裁力度,明确创作者、平台、技术提供者的责任限额。 “可以预见的是,《人工智能合成内容标注办法》的出台只是治理进程的起点,完善强制标注只是基础,构建人工智能信息综合治理或许才是真正解决问题的办法。”
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容t(包括图像和视频,如有)由网易号用户上传和发布,网易号是一个仅提供信息存储服务的社交媒体平台。