这个世界正在变得真假难辨,而罪魁祸首,不是别人,正是我们每个人口袋里那台号称“智能”的手机。以前说“有图有真相”,现在?有图可能才有“坑”!
最近电商圈里叫苦连天。一个卖毛绒玩具的商家,遇到个“高手”买家。东西拿到手一个多星期,突然发来张照片申请退款,说玩偶裙子烧坏了。照片一看,粉嘟嘟的娃娃,裙摆上一片焦黑,还带着点不自然的裂纹。客服一开始也信了,觉得是顾客自己不小心弄的。可仔细一琢磨,不对啊!毛绒布料烧了应该是卷边、发黑,那照片上的裂痕,硬邦邦、齐刷刷,倒像是瓷器摔出来的!一鉴定,果然是AI生成的假图。就凭这张“零成本”的假图,买家愣是从平台那里骗走了50块。商家费尽周折,最后是平台自认倒霉垫了钱,那个造假的呢?早拿着东西和钱,消失得无影无踪。
你看,造假的成本已经低到什么地步?不需要暗房,不需要PS高手,只需要对着手机说句话:“帮我把这个娃娃P成烧坏的样子。”几秒钟后,“证据”就来了。过去干这行的,好歹还得是个“技术工种”,现在?门槛低到连好奇心都能迈过去。一个普通学生,一时贪念,就能完成一次“技术犯罪”。这叫什么?这叫技术的“民主化”——作恶的民主化!
这还只是小打小闹。公关行业的朋友告诉我,现在他们面对的,已经不是有血有肉的对手,而是AI流水线上批量生产的“谣言工厂”。一篇黑稿,细节翔实得吓人:某董事长办公室墙上挂什么图,财务总监说了什么话,有鼻子有眼。可一查,全是子虚乌有!办公室根本没那幅画,总监也不叫那个名儿。造谣者的想象力,被AI无限放大。以前一个人绞尽脑汁,一天编一两个谣顶天了;现在,AI几秒钟就能在一篇文章里塞进十个“细节”,生产效率呈指数级暴涨。
更可怕的是背后的生意经。这些AI黑稿,本身就是一门肮脏的生意。一条链,是专门用来敲诈企业的:用海量的假消息淹没你,逼得你焦头烂额,最后不得不掏钱“投广告”求删帖。另一条链,是收割普通人的:用AI编造“内幕消息”、“股神分析”,把渴望暴富的人引流到私域,再卖课、卖咨询。央视都报过,有MCN机构用AI一天能生成几千篇假新闻,日入过万。技术,在这里完美地服务于贪婪。
面对这种“降维打击”,我们现有的防御体系,幼稚得像幼儿园的过家家。平台审核,还停留在比对关键词、等用户举报的原始阶段。商家被假图骗了,想申诉?你得自己证明这图是假的。怎么证明?去找专家鉴定,去求AI工具反推,折腾一圈,平台可能还不认。企业被黑稿攻击了,想删帖?你得像写论文一样,一条条举证反驳:我们财务总监真名叫什么,附上公告;董事长办公室没挂画,难道要拍个全景视频给你看?荒谬至极!造谣一张嘴,辟谣跑断腿。现在更是升级了:造谣者动动手指,辟谣者就得耗尽九牛二虎之力。
这就形成了一种极其荒诞、极其危险的倒挂:作恶的成本无限趋近于零,而维权的成本却高耸入云。中间巨大的落差,由每一个守规矩的普通人、正经商家来承担。当守法的代价远远高于违法的收益时,法律和道德就成了一张废纸。当“试试看,反正没什么损失”成为普遍心态,那么人人都有可能,在某个瞬间,滑向造假的那一边。
技术从来都是双刃剑。AI这柄剑,锋利无比。它本应帮我们斩断信息的芜杂,却先被用来制造了更多的迷雾。它本应提升创作的效率,却先繁荣了造假的产业。问题的核心,从来不在技术本身,而在用技术的人心,以及纵容甚至滞后于技术发展的规则。
平台们还在慢悠悠地“打标签”,给AI生成的图片视频标上一行小字,仿佛那就是尽了义务。但对于更隐蔽、危害可能更大的AI文字,却几乎毫无作为。这就像在洪水滔天时,只给每个人发了一个救生圈,却对决堤的大坝视而不见。
我们正在步入一个“自证清白”的时代。你的商品没问题?请证明那张坏掉的照片是AI生成的。你的公司没说过那句话?请证明那篇AI文章全是虚构。当每个人都不得不耗费巨大精力,去证明一件原本就不存在的事情是“不存在”的时候,这个社会最基础的信任纽带,也就开始崩解了。
AI照出的,不仅是虚假的图片和文字,更是我们社会肌体在应对新型挑战时的脆弱与迟钝。当造假变得如此轻松惬意,而坚守真实却需要付出高昂代价时,我们每个人,都该脊背发凉。因为下一个需要拼命自证的,很可能就是你自己。这场关乎真假的战争,没有旁观者。
Tim悦读室每日分享:
新闻早报、每天听一本书(有声书)、经典文章
最新影视、软件、趣站
最新电子书、经济学人、财新周刊等国内外优质报刊
顶级策划方案、行业报告、付费文章