AI,正在疯狂污染中文互联网

AI,正在疯狂污染中文互联网

污染中文互联网,AI成了“罪魁祸首”之一。

事情是这样的。

最近大家不是都热衷于向AI咨询嘛,有位网友就问了Bing这么一个问题:

象鼻山是否有缆车?

Bing也是有问必答,给出了看似挺靠谱的答案:

AI,正在疯狂污染中文互联网

在给出肯定的答复之后,Bing还贴心地附带上了票价、营业时间等细节信息。

不过这位网友并没有直接采纳答案,而是顺藤摸瓜点开了下方的“参考链接”。

AI,正在疯狂污染中文互联网

此时网友察觉到了一丝丝的不对劲——这人的回答怎么“机里机气”的。

于是他点开了这位叫“百变人生”的用户主页,猛然发觉,介是个AI啊!

AI,正在疯狂污染中文互联网

因为这位用户回答问题速度可以说是极快,差不多每1、2分钟就能搞定一个问题。

甚至能在1分钟之内回答2个问题。

在这位网友更为细心的观察之下,发现这些回答的内容都是没经过核实的那种……

AI,正在疯狂污染中文互联网

并且他认为,这就是导致Bing输出错误答案的原因:

这个AI疯狂地污染中文互联网。

AI污染源”,不止这一个

那么被网友发现的这位AI用户,现在怎么样了?

从目前结果来看,他已经被被知乎“判处”为禁言状态。

AI,正在疯狂污染中文互联网

但尽管如此,也有其他网友直言不讳地表示:

不止一个。

AI,正在疯狂污染中文互联网

若是点开知乎的“等你回答”这个栏目,随机找一个问题,往下拉一拉,确实是能碰到不少“机言机语”的回答。

例如我们在“AI在生活中的应用场景有哪些?”的回答中便找到了一个:

AI,正在疯狂污染中文互联网

不仅是回答的语言“机言机语”,甚至回答直接打上了“包含AI辅助创作”的标签。

然后如果我们把问题丢给ChatGPT,那么得到回答……嗯,挺换汤不换药的。

AI,正在疯狂污染中文互联网

事实上,诸如此类的“AI污染源”不止是在这一个平台上有。

就连简单的科普配图这事上,AI也是屡屡犯错。

AI,正在疯狂污染中文互联网

网友们看完这事也是蚌埠住了:“好家伙,没有一个配图是河蚌”。

AI,正在疯狂污染中文互联网

甚至各类AI生成的假新闻也是屡见不鲜。

例如前一段时间,便有一则耸人听闻的消息在网上疯传,标题是《郑州鸡排店惊现血案,男子用砖头砸死女子!》。

AI,正在疯狂污染中文互联网

但事实上,这则新闻是江西男子陈某为吸粉引流,利用ChatGPT生成的。

无独有偶,广东深圳的洪某弟也是通过AI技术,发布过《今晨,甘肃一火车撞上修路工人, 致9人死亡》假新闻。

具体而言,他在全网搜索近几年的社会热点新闻,并使用AI软件对新闻时间、地点等进行修改编辑后,在某些平台赚取关注和流量进行非法牟利。

警方均已对他们采取了刑事强制措施。

AI,正在疯狂污染中文互联网

但其实这种“AI污染源”的现象不仅仅是在国内存在,在国外亦是如此。

程序员问答社区Stack Overflow便是一个例子。

早在去年年底ChatGPT刚火起来的时候,Stack Overflow便突然宣布“临时禁用”。

当时官方给出来的理由是这样的:

(这样做)的目的是减缓使用ChatGPT创建的大量答案流入社区。

因为从ChatGPT得到错误答案的概率太高了!

AI,正在疯狂污染中文互联网

Stack Overflow进一步阐述了这种现象。

他们认为以前用户回答的问题,都是会有专业知识背景的其他用户浏览,并给出正确与否,相当于是核实过。

但自打ChatGPT出现之后,涌现了大量让人觉得“很对”的答案;而有专业知识背景的用户数量是有限,没法把这些生成的答案都看个遍。

加之ChatGPT回答这些个专业性问题,它的错误率是实实在在摆在那里的;因此Stack Overflow才选择了禁用。

一言蔽之,AI污染了社区环境。

而且像在美版贴吧Reddit上,也是充斥着较多的ChatGPT板块、话题:

AI,正在疯狂污染中文互联网

许多用户在这种栏目之下会提出各式各样的问题,ChatGPT bot也是有问必答。

不过,还是老问题,答案的准确性如何,就不得而知了。

但这种现象背后,其实还隐藏着更大的隐患。

滥用AI,也毁了AI

AI模型获得大量互联网数据,却无法很好地辨别信息的真实性和可信度。

结果就是,我们不得不面对一大堆快速生成的低质量内容,让人眼花缭乱,头晕目眩。

很难想象ChatGPT这些大模型如果用这种数据训练,结果会是啥样……

AI,正在疯狂污染中文互联网

而如此滥用AI,反过来也是一种自噬。

最近,英国和加拿大的研究人员在arXiv上发表了一篇题目为《The Curse of Recursion: Training on Generated Data Makes Models Forget》的论文。

AI,正在疯狂污染中文互联网

探讨了现在AI生成内容污染互联网的现状,然后公布了一项令人担忧的发现,使用模型生成的内容训练其他模型,会导致结果模型出现不可逆的缺陷。

这种AI生成数据的“污染”会导致模型对现实的认知产生扭曲,未来通过抓取互联网数据来训练模型会变得更加困难。

论文作者,剑桥大学和爱丁堡大学安全工程教授Ross Anderson毫不避讳的直言:

正如我们用塑料垃圾布满了海洋,用二氧化碳填满了大气层,我们即将用废话填满互联网。

对于虚假信息满天飞的情况,Google Brain的高级研究科学家达芙妮 · 伊波利托(Daphne Ippolito)表示:想在未来找到高质量且未被AI训练的数据,将难上加难。

AI,正在疯狂污染中文互联网

假如满屏都是这种无营养的劣质信息,如此循环往复,那以后AI就没有数据训练,输出的结果还有啥意义呢。

AI,正在疯狂污染中文互联网

基于这种状况,大胆设想一下。一个成长于垃圾、虚假数据环境中的AI,在进化成人前,可能就先被拟合成一个“智障机器人”、一个心理扭曲的心理智障。

AI,正在疯狂污染中文互联网

就像1996年的科幻喜剧电影《丈夫一箩筐》,影片讲述了一个普通人克隆自己,然后又克隆克隆人,每一次克隆都导致克隆人的智力水平呈指数下降,愚蠢程度增加。

那个时候,我们可能将不得不面临一个荒谬困境:人类创造了具有惊人能力的AI,而它却塞满了无聊愚蠢的信息。

如果AI被喂进的只是虚假的垃圾数据,我们又能期待它们创造出什么样的内容呢?

假如时间到那个时候,我们大概都会怀念过去,向那些真正的人类智慧致敬吧。

话虽如此,但也不全坏消息。比如部分内容平台已开始关注AI生成低劣内容的问题,并推出相关规定加以限制。

一些个AI公司也开始搞能鉴别AI生成内容的技术,以减少AI虚假、垃圾信息的爆炸。

AI,正在疯狂污染中文互联网

1、推书网发布的文章《AI,正在疯狂污染中文互联网》为推书网注册网友“推书网”原创或整理,版权归原作者所有,转载请注明出处!

2、推书网文章《AI,正在疯狂污染中文互联网》仅代表作者本人的观点,与本网站立场无关,作者文责自负。

3、推书网一直无私为图书馆转载发布活动及资讯动态。对于不当转载或引用本网内容而引起的民事纷争、行政处理或其他损失,推书网不承担责任。

4、本文转载链接:https://tuibook.com/wangping/9014.html

(0)
上一篇 2023-06-22 17:29
下一篇 2023-06-22 17:42

相关推荐

  • 女子打包自助餐被商家扣1000元押金,女子:将起诉维权,网友热议

    这位女子邀请了79人去吃自助餐,消费了四千多元,并支付了1000元押金。据她所说,因为带了许多小孩,所以餐后剩下了不少食物,她便将剩余的烤肉打包了五小袋,声称是为了避免浪费。 当她在退押金时,商家检查了她的包发现了5袋烤肉,随后拒绝退还押金,并说她盗窃。 对此女士感到非常不满称“商家是有什么样的权利说我是小偷的?为什么要翻我的包?”。并表示会起诉维权。 女子指出,虽然自助餐厅规定了不得打包,违反者将被扣款200至500元押金,但她被扣除了1000元,她认为这种做法不合理。 女子和商家认为各自都有理起了争议 视频↓ 自助…

    2024-10-19 互联网评
    0061
  • 习以成俗是什么生肖打一个动物,最新解析解释落实

    习以成俗指的是生肖猪、指的是生肖龙、指的是生肖猴,指的是生肖马。 习以成俗在十二生肖中代表羊、狗。 生肖猪 2025年的属猪人尽管事业颇为不顺心,但有“天厨”的出现,预示着有很多聚餐或者享受美食的机会。不过,此星有利有弊,好处在于有口福,不用为了生活费而发愁,经常可以蹭吃蹭喝。但坏处是会对身体健康造成影响。 生肖龙 生肖龙的人对自己要求很高,敢于战胜自己,超越自己,不会满足现状,说话算数,能够起到模范带头作用,给人们带来希望,增强人们的信心,人们和他在一起感觉更踏实,更有自信,他想做的事情没有能够能够阻止…

  • 看了14岁王诗龄最新近照,我才知道自己真的低估了李湘的高明!

    本文授权自:脆皮先生 ID:cpxs2009     昨天,有个视频很火。 一个中国女孩,在一群外国记者的包围下。 一口流利英文,侃侃而谈。 一头微卷长发,一身气质套装,整个人似乎在发光。 如果不看名字,一下子真的没认出这是王诗龄。 全然不见当初《爸爸去哪儿》时的娇憨稚嫩。 吾家有女初长成,有了具体的画面。 14岁的年龄,不属于这个岁数的知性,从容。 很多人说,在王诗龄身上看到了真正名媛的样子。 真正让人感叹的,却不是其流利的英文交流。 也不是气质外貌的蜕变。 而是那份由内而外的自信。 小小年纪,名利场周旋,没有…

    2024-10-15 互联网评
    00101

发表回复

登录后才能评论

评论列表(2条)