近(jìn)日,甘肃省平凉市公安(ān)局(jú)网安大(dà)队侦破一起利用AI人工智能技术炮制虚假不(bú)实信息的案件(jiàn)。
说起来,这已不是(shì)ChatGPT第一次(cì)陷(xiàn)入假新(xīn)闻风波了。
问世伊始,便有(yǒu)人见识到其“一(yī)本正经胡说八(bā)道(dào)”的高超(chāo)本领。让解释高(gāo)深物(wù)理理论,说得有(yǒu)鼻(bí)子有(yǒu)眼(yǎn),结果所附论文一查均无出处;让推荐(jiàn)相关领域学(xué)者,瞬间就有人选,可(kě)人物履历却是七拼八(bā)凑(còu)。
出于其(qí)“天赋”的内容生成能力(lì),ChatGPT似(sì)乎比从前的人工智能都更“聪(cōng)明”,编出的内容往往形真实假、杂(zá)糅难辨(biàn)。
用ChatGPT编(biān)假新(xīn)闻
警方出手(shǒu)
4月25日(rì),平凉市公安局崆峒分(fèn)局网安大队对“今(jīn)晨甘肃一(yī)火车(chē)撞上修路工人致9人死亡”的(de)文章(zhāng),初(chū)步判断为信息虚假不实。
网安民警(jǐng)随即开展工作,发现共计(jì)21个账号(hào)均(jun1)在同一(yī)时间段(duàn)发(fā)布该(gāi)文章,文章内容地点(diǎn)除平凉市崆峒区外还(hái)涉及(jí)兰(lán)州、陇南、定(dìng)西、庆阳等地,文章点击量已达1.5万余次。
经查(chá),涉案账号均为广东深圳某(mǒu)自(zì)媒(méi)体(tǐ)公司所有,公司法人代表(biǎo)洪某弟有重大作案嫌疑。
5月(yuè)5日,专(zhuān)案民警在广东东(dōng)莞(wǎn)嫌疑人住处对其(qí)使用(yòng)的(de)电脑进行取证。
经审讯,犯罪(zuì)嫌疑(yí)人洪某弟,在全网搜索近几年社会热点新闻,为规(guī)避平台(tái)查重功能,洪某弟通过近期(qī)火爆(bào)的ChatGPT人工智能软件(jiàn)将搜集(jí)到的新闻要素修(xiū)改(gǎi)编辑后,上传至(zhì)其多个(gè)账号进(jìn)行非法获利。
洪某弟利用现代科技(jì)手段编造虚(xū)假信息,并散布(bù)在互联(lián)网上,被大量传播(bō)浏览,其行为已(yǐ)涉(shè)嫌寻衅滋事(shì)罪。
目前,崆峒(dòng)公安分局对犯(fàn)罪(zuì)嫌疑人洪某弟采取刑事强制措施,案件正在进一步侦办之中。
这条假新闻也出自ChatGPT
此前,一条关于(yú)杭州3月1日(rì)取消限(xiàn)行的“新闻稿(gǎo)”,引发广泛传播。但经记者调查(chá)发(fā)现,这是一条不实新闻。
据了解,2023年2月16日下午,杭(háng)州(zhōu)某小区业主群在讨论ChatGPT。一位业主(zhǔ)就开玩笑(xiào)说尝试用它写篇杭州取消限行的新闻稿看看。
随后该业主在(zài)群里直播了ChatGPT写作(zuò)过(guò)程,还把文章发群里。有不(bú)明(míng)所(suǒ)以的业主(zhǔ)误将其当真并截图转发,最(zuì)后导致错(cuò)误信息被(bèi)传(chuán)播(bō)。
据了解,杭州相关政府部门均没有(yǒu)发(fā)布此类政策,警方已介入调查,涉事(shì)业主也在(zài)群里公(gōng)开道歉。
ChatGPT的潜在(zài)风险
大(dà)型预训练人工智能语(yǔ)言(yán)模型ChatGPT在全球爆火。
此前,一(yī)家媒体与ChatGPT展开的“对话(huà)”中,就提到了“你(nǐ)会取(qǔ)代记者吗”这(zhè)一问。对此,ChatGPT回复如下——
华中科技大学法(fǎ)学院副教授滕锐(ruì)表示(shì):
ChatGPT是大(dà)量(liàng)不(bú)同的数(shù)据集群训练出来的语言模型,目前其背后仍(réng)是“黑(hēi)盒”结(jié)构,即无法确切对其内(nèi)在的算法逻(luó)辑进行分解,所以不(bú)能确保在使用(yòng)ChatGPT的过程中(zhōng),其所输出的内容不会产生攻击伤(shāng)害用(yòng)户的表述。
“如果ChatGPT的回复是(shì)错误或虚(xū)假信息,会具(jù)有极大的误(wù)导(dǎo)性(xìng),有潜在法律风险。”在他看来,ChatGPT难免存在一(yī)些侵犯用户隐(yǐn)私的内容。此外,若回(huí)复中存在过度借鉴(jiàn)他(tā)人作品的情况,使用(yòng)不(bú)当就(jiù)有可能侵犯他人(rén)的著作权。
值得注意(yì)的(de)是,目前,为(wéi)了避免学(xué)生(shēng)过于依赖人工智(zhì)能(néng)类工具,防止作弊,多国学校已经发出禁(jìn)令,禁止学(xué)生在学校内使用类似(sì)于ChatGPT的人工(gōng)智能工具完(wán)成学习任(rèn)务和考试。
面对科技,多一些理性与(yǔ)冷(lěng)静
早有新闻可信度评估机构提(tí)出,“ChatGPT可能成为互联网有史以来最强(qiáng)大的传播(bō)虚假信息的工具。”也(yě)有一些实验表明,ChatGPT等个(gè)性化的(de)实时(shí)聊天机器人在制造阴谋论方(fāng)面甚至(zhì)相比人类(lèi)更具(jù)优势,它(tā)能够修正糟糕的语法或(huò)错误的翻译,并变(biàn)换表(biǎo)达方式,使阴谋论显(xiǎn)得更具说(shuō)服力和可信(xìn)度。
一方面是(shì)超(chāo)强的“造假能力”,而另一方面却是相对缺失(shī)的“审(shěn)核(hé)门槛”——在算法逻辑中,事(shì)实核查能力天然缺失,来(lái)源不明的所(suǒ)谓“新闻(wén)稿”随时可能成为舆(yú)论(lùn)爆点,大众在将信将疑中“且(qiě)传且围(wéi)观”。
乱象频(pín)仍、真相缺失充分警示:面对(duì)这样的超强(qiáng)生(shēng)产能力,如若不加治理限制,任(rèn)由人工智能随性发展,必将严重威胁我们的信息生态。
科技(jì)是一把双刃剑,人工智能也是如此。我们当(dāng)然不必视之为洪水猛兽(shòu),关键是在积极拥抱新技术(shù)、新事物的同(tóng)时,注意规避(bì)潜在的问题和风险。
人工智能浪潮滚滚而来,相关法律与伦(lún)理框架(jià)不仅不能落(luò)后,反而更要(yào)尽量赶(gǎn)在前面(miàn)。
目(mù)前,世界各国皆在开展相关工作,以我国来说,今年1月《互(hù)联网信(xìn)息服务深度合成管理规定》颁布(bù)实(shí)施;4月,国家网(wǎng)信办(bàn)起草(cǎo)《生成式人工智(zhì)能服务管(guǎn)理(lǐ)办法(fǎ)(征求意见(jiàn)稿)》。相信随着法律法(fǎ)规(guī)的逐渐完善,相关权责会更加明晰,操(cāo)作规范会更(gèng)加具体。
与此同时(shí),对待技术带来的新问题,也要多多寻求“技术解”。比如,对于人工智能合成的文章进行识别、并打上不可抹掉的标签(qiān)。
ChatGPT在接(jiē)受《时(shí)代》专访时曾回答:我还有很(hěn)多(duō)局限,但人类应准备好应对AI。确(què)实(shí),当为ChatGPT打开的新世界而激动万(wàn)分时,我们更应(yīng)该有一丝理(lǐ)性的冷(lěng)静(jìng)。
构建人(rén)工智能应用(yòng)的伦理和法律框架,让其与(yǔ)技术研发齐头并进,规定好人工(gōng)智能(néng)缔造者的(de)义(yì)务,充(chōng)分提醒用户保持警(jǐng)觉。“凡事(shì)预则立”,尽(jìn)快做好(hǎo)方方面面的准备(bèi)工作,社会就能(néng)更好应对“人工智能生产(chǎn)内容新纪元”。