AI,正在疯狂污染中文互联网 |
珠江路在线
2023年6月19日
【
转载
】樱花动漫网
|
|
传染中文互联网,AI成了“罪魁祸首”之一 。
事件是这样的 。
近期大家不是都热衷于向AI 征询嘛,有位网友就问了Bing这么一个问题:
象鼻山是不是有缆车?
Bing也是有问必答,给出了看似挺靠谱的答案:
在给出 确定的 答复之后,Bing还贴心地附带上了票价、营业 工夫等细节信息 。
不过这位网友并没有直接采用答案,而是顺藤摸瓜点开了下方的“参考链接” 。
此时网友 发觉到了一丝丝的不对劲——这人的 答复怎么“机里机气”的 。
于是他点开了这位叫“百变人生”的消费者主页,猛然 发现,介是个AI啊!
由于这位消费者 答复问题速度 能够说是极快,差不多每1、2分钟就能搞定一个问题 。
甚至能在1分钟之内 答复2个问题 。
在这位网友更为 精心的 视察之下,发现这些 答复的内容都是没 通过核实的那种……
并且他认为,这就是招致Bing输出 舛误答案的缘由:
这个AI疯狂地 传染中文互联网 。
“AI 传染源”,不止这一个
那么被网友发现的这位AI消费者,现在怎么样了?
从当前 后果来看,他已经被被知乎“判处”为禁言状态 。
但 只管如此,也有 其余网友 直抒己 看法 示意:
不止一个 。
若是点开知乎的“等你 答复”这个栏目,随机找一个问题,往下拉一拉, 确切是能碰到不少“机言机语”的 答复 。
例如我们在“AI在生活中的 利用场景有哪些?”的 答复中便找到了一个:
不只不过 答复的语言“机言机语”,甚至 答复直接打上了“包括AI辅助创作”的标签 。
而后假如我们把问题丢给ChatGPT,那么得到 答复……嗯,挺换汤不换药的 。
事实上,诸如此类的“AI 传染源”不止是在这一个平台上有 。
就连 容易的科普配图这事上,AI也是 每每犯错 。
网友们看完这事也是蚌埠住了:“好家伙,没有一个配图是河蚌” 。
甚至各类AI生成的假新闻也是 层出不穷 。
例如前一段 工夫,便有一则 骇人听闻的 信息在网上疯传, 题目是《郑州鸡排店惊现血案,男子用砖头砸死女子!》 。
但事实上,这则新闻是江西男子陈某为吸粉引流,利用ChatGPT生成的 。
独一无二,广东深圳的洪某弟也是通过AI技术,公布过《今晨,甘肃一火车撞上修路工人, 致9人死亡》假新闻 。
具体而言,他在全网查找近几年的社会热潮新闻,并 使用AI软件对新闻 工夫、地点等进行 批改编辑后,在某些平台赚取关注和流量进行非法牟利 。
警方均已对他们采取了刑事强制措施 。
但其实这种“AI 传染源”的 景象不只仅是在国内存在,在国外亦是如此 。
程序员问答社区Stack Overflow就是一个例子 。
早在上一年年底ChatGPT刚火起来的时候,Stack Overflow便蓦地 宣告“暂时禁用” 。
当时官方给出来的理由是这样的:
(这样做)的 目标是减缓 使用ChatGPT 创立的大量答案流入社区 。
由于从ChatGPT得到 舛误答案的概率太高了!
Stack Overflow进一步 阐述了这种 景象 。
他们认为以往消费者 答复的问题,都是会有专业 常识背景的 其余消费者阅读,并给出正确与否,相当于是核实过 。
但自打ChatGPT浮现之后,涌现了大量让人感觉“很对”的答案;而有专业 常识背景的消费者数量是有限,没法把这些生成的答案都看个遍 。
加之ChatGPT 答复这些个专业性问题,它的 舛误率是实 着实在摆在那里的; 因而Stack Overflow才 取舍了禁用 。
一言蔽之,AI 传染了社区环境 。
并且像在美版贴吧Reddit上,也是充斥着较多的ChatGPT板块、话题:
许多消费者在这种栏目之下会提出各式各样的问题,ChatGPT bot也是有问必答 。
不过,还是老问题,答案的精确性如何,就不得而知了 。
但这种 景象背后,其实还 潜藏着更大的隐患 。
滥用AI,也毁了AI
AI模型 获得大量互联网数据,却 无奈很好地辨认信息的 实在性和可信度 。
后果就是,我们只能面对一大堆 快捷生成的低 品质内容,让人 目迷五色,头晕目眩 。
很难 设想ChatGPT这些大模型假如用这种数据训练, 后果会是啥样……
而如此滥用AI,反过来也是一种自噬 。
近期,英国和加拿大的探究人员在arXiv上发表了一篇题目为《The Curse of Recursion: Training on Generated Data Makes Models Forget》的论文 。
探讨了现在AI生成内容 传染互联网的现状, 而后公布了一项令人 担心的发现, 使用模型生成的内容训练 其余模型,会招致 后果模型浮现不可逆的缺点 。
这种AI生成数据的“ 传染”会招致模型对 事实的认知产生扭曲, 将来通过抓取互联网数据来训练模型会变得更加 困苦 。
论文作者,剑桥大学和爱丁堡大学安全工程 传授Ross Anderson毫不避讳的直言:
正如我们用塑料垃圾弥漫了海洋,用二氧化碳填满了大气层,我们马上用废话填满互联网 。
关于 虚假信息满天飞的状况,Google Brain的高级探究科学家达芙妮 · 伊波利托(Daphne Ippolito) 示意:想在 将来找到高 品质且未被AI训练的数据,将难上加难 。
假如满屏都是这种无 养分的劣质信息,如此 周而复始,那以后AI就没有数据训练,输出的 后果还有啥 意思呢 。
基于这种状况,大胆 设计一下 。一个成长于垃圾、 虚假数据环境中的AI,在进化成人前,可能就先被拟合成一个“智障机器人”、一个心理扭曲的心理智障 。
就像1996年的科幻喜剧电影《丈夫一箩筐》,影片讲述了一个一般人克隆自己, 而后又克隆克隆人,每一次克隆都招致克隆人的智力水平呈指数 降落, 愚昧程度添加 。
那个时候,我们可能将只能面临一个 荒谬 窘境:人类制造了 存在惊人 威力的AI,而它却塞满了无聊 愚昧的信息 。
假如AI被喂进的只不过 虚假的垃圾数据,我们又能等待它们制造出什么样的内容呢?
假如 工夫到那个时候,我们大约都会 思念过去,向那些真正的人类智慧致敬吧 。
话虽如此,但也不全坏 信息 。 比方 部分内容平台已开始关注AI生成低劣内容的问题,并推出 有关规定加以 制约 。
一些个AI公司也开始搞能 甄别AI生成内容的技术,以削减AI 虚假、垃圾信息的爆炸 。