(資料圖)
近日,一些人工智能領(lǐng)域的專家指出,隨著越來越多的AI生成內(nèi)容在互聯(lián)網(wǎng)上發(fā)布,接受這些數(shù)據(jù)訓(xùn)練的人工智能最終可能會(huì)陷入混亂。一群來自英國和加拿大的科學(xué)家發(fā)布了一篇論文,試圖了解幾代AI相互訓(xùn)練后可能出現(xiàn)的情況。 在論文的一個(gè)例子中,經(jīng)過九次迭代的人工智能系統(tǒng)談?wù)摰膬?nèi)容變得喋喋不休,并以野兔為話題,而最初的材料實(shí)際上與中世紀(jì)建筑相關(guān)。
劍橋大學(xué)教授羅斯·安德森將這種“模型崩潰”現(xiàn)象比作大規(guī)模污染,表示我們在海洋里撒滿了塑料垃圾,大氣中放滿了二氧化碳,而現(xiàn)在我們可能將讓互聯(lián)網(wǎng)上充滿胡言亂語。 據(jù)在線虛假信息監(jiān)管機(jī)構(gòu)NewsGuard的數(shù)據(jù)顯示,已有49個(gè)新聞網(wǎng)站似乎完全由人工智能撰寫內(nèi)容,而市場營銷和公關(guān)機(jī)構(gòu)也越來越多地將文案外包給聊天機(jī)器人。盡管如此,專家表示對于人工智能來說,人工生成的數(shù)據(jù)仍然十分必要,因?yàn)槿祟愓Z言具有很多自然變化和不可預(yù)測的結(jié)果。