2024-07-19 12:52 來源:得道網(wǎng)
兒童安全專家警告稱,捕食者利用人工智能生成的兒童色情圖片數(shù)量之多,已經(jīng)超出了執(zhí)法部門識(shí)別和營救現(xiàn)實(shí)生活中受害者的能力。
致力于打擊針對(duì)兒童犯罪的檢察官和兒童安全組織表示,人工智能生成的圖像變得如此逼真,以至于在某些情況下,很難確定真實(shí)的兒童是否因?yàn)檫@些圖像的制作而受到了真正的傷害。一個(gè)人工智能模型可以在短時(shí)間內(nèi)生成數(shù)萬張新圖像,這些內(nèi)容已經(jīng)開始在暗網(wǎng)和主流互聯(lián)網(wǎng)中泛濫。
“我們開始看到有關(guān)人工智能生成的真實(shí)兒童圖像的報(bào)道,但該兒童并未受到性虐待。但現(xiàn)在他們的臉出現(xiàn)在了一個(gè)被虐待的孩子身上,”Kristina Korobov說,她是零虐待項(xiàng)目的高級(jí)律師,這是一個(gè)總部位于明尼蘇達(dá)州的兒童安全非營利組織。“有時(shí)候,我們能認(rèn)出視頻或圖像中的床上用品或背景,犯罪者,或它來自的系列,但現(xiàn)在有另一個(gè)孩子的臉在上面?!?/p>
每年已經(jīng)有數(shù)以千萬計(jì)的關(guān)于真實(shí)的兒童性虐待材料(CSAM)的報(bào)告被創(chuàng)建并在網(wǎng)上分享,安全組織和執(zhí)法部門正在努力調(diào)查這些報(bào)告。
“我們已經(jīng)被這些東西淹沒了,”司法部(Department of Justice)的一名檢察官說。由于沒有獲得公開發(fā)言的授權(quán),這名檢察官要求匿名?!皬膱?zhí)法的角度來看,針對(duì)兒童的犯罪是資源較為緊張的領(lǐng)域之一,人工智能的內(nèi)容將會(huì)出現(xiàn)爆炸式增長?!?/p>閱讀更多
去年,美國國家失蹤和受虐兒童中心(NCMEC)收到了一些報(bào)告,報(bào)告稱,捕食者以幾種不同的方式使用人工智能,比如輸入文本提示來生成虐待兒童的圖像,修改之前上傳的文件,使其變得色情和虐待,上傳已知的CSAM,并根據(jù)這些圖像生成新的圖像。在一些報(bào)告中,罪犯提到聊天機(jī)器人來指導(dǎo)他們?nèi)绾握业絻和M(jìn)行性行為或傷害他們。
專家和檢察官擔(dān)心,罪犯試圖通過使用生成式人工智能來改變性虐待兒童受害者的圖像,從而逃避偵查。
“在聯(lián)邦系統(tǒng)中起訴案件時(shí),人工智能不會(huì)改變我們可以起訴的對(duì)象,但在許多州,你必須能夠證明這是一個(gè)真正的孩子。對(duì)圖像合法性的爭論將在審判中引發(fā)問題。如果我是辯護(hù)律師,我就會(huì)這么說。”
根據(jù)美國聯(lián)邦法律,擁有兒童性虐待的描述是犯罪行為,今年美國已經(jīng)逮捕了幾名涉嫌擁有CSAM的罪犯,這些CSAM被認(rèn)定為人工智能生成的。然而,在大多數(shù)州,并沒有法律禁止擁有人工智能生成的描繪未成年人的露骨色情材料。首先,創(chuàng)造圖像的行為不受現(xiàn)行法律的保護(hù)。
然而,今年3月,華盛頓州立法機(jī)構(gòu)通過了一項(xiàng)法案,禁止擁有人工智能生成的CSAM,并故意泄露人工智能生成的其他人的私密圖像。今年4月,國會(huì)提出了一項(xiàng)兩黨法案,旨在將生產(chǎn)人工智能生成的CSAM定為刑事犯罪,該法案得到了全國總檢察長協(xié)會(huì)(NAAG)的支持。
兒童安全專家警告說,人工智能內(nèi)容的涌入將耗盡NCMEC網(wǎng)絡(luò)熱線的資源,該熱線是世界各地虐待兒童報(bào)告的信息交換中心。該組織在確定這些報(bào)告的地理位置、優(yōu)先地位以及是否已經(jīng)知道受害者之后,將這些報(bào)告轉(zhuǎn)發(fā)給執(zhí)法機(jī)構(gòu)進(jìn)行調(diào)查。
“警方現(xiàn)在有更多的內(nèi)容要處理。他們怎么知道這是不是一個(gè)真正需要拯救的孩子?你不知道。這是一個(gè)巨大的問題,”加拿大兒童保護(hù)中心研究和分析主任雅克·馬爾庫說。
已知的兒童性虐待圖像可以通過圖像的數(shù)字指紋來識(shí)別,稱為散列值。NCMEC維護(hù)著一個(gè)包含超過500萬個(gè)散列值的數(shù)據(jù)庫,可以與圖像進(jìn)行匹配,這是執(zhí)法部門的一個(gè)重要工具。
當(dāng)已知的兒童性虐待圖像被上傳時(shí),運(yùn)行監(jiān)控此活動(dòng)的軟件的科技公司有能力根據(jù)其散列值攔截和阻止它們,并向執(zhí)法部門報(bào)告用戶。
沒有已知散列值的材料,例如新創(chuàng)建的內(nèi)容,對(duì)于這種類型的掃描軟件是無法識(shí)別的。使用人工智能對(duì)圖像的任何編輯或更改也會(huì)改變其哈希值。
“哈希匹配是防御的第一線,”Marcoux說?!巴ㄟ^人工智能,生成的每張圖像都被視為全新的圖像,并且具有不同的哈希值。它削弱了現(xiàn)有防線的效率。它可能會(huì)破壞哈希匹配系統(tǒng)?!?/p>
兒童安全專家將人工智能生成的CSAM的升級(jí)追溯到2022年底,與OpenAI發(fā)布ChatGPT和向公眾介紹生成式人工智能同時(shí)發(fā)生。當(dāng)年早些時(shí)候,LAION-5B數(shù)據(jù)庫啟動(dòng),這是一個(gè)包含超過50億張圖像的開源目錄,任何人都可以用它來訓(xùn)練人工智能模型。
閱讀更多斯坦福大學(xué)的研究人員在2023年底發(fā)現(xiàn),之前檢測到的兒童性虐待圖像被包含在數(shù)據(jù)庫中,這意味著在該數(shù)據(jù)庫上訓(xùn)練的人工智能模型可以產(chǎn)生CSAM。兒童安全專家強(qiáng)調(diào),在使用人工智能制造CSAM的過程中,即使不是全部,也有大部分兒童受到了傷害。
“每次將CSAM圖像輸入人工智能機(jī)器時(shí),它都會(huì)學(xué)習(xí)一項(xiàng)新技能,”零濫用項(xiàng)目的科羅博夫說。
該公司發(fā)言人表示,當(dāng)用戶將已知的CSAM上傳到其圖像工具時(shí),OpenAI會(huì)進(jìn)行審查并向NCMEC報(bào)告。
發(fā)言人說:“我們已經(jīng)做出了巨大的努力,以盡量減少我們的模特產(chǎn)生傷害兒童的內(nèi)容的可能性?!?/p>
2023年,NCMEC收到了3620萬份在線虐待兒童的報(bào)告,比前一年增加了12%。收到的大多數(shù)舉報(bào)都與現(xiàn)實(shí)生活中被性侵兒童的照片和視頻的傳播有關(guān)。然而,它也收到了4700份由生成式人工智能制作的兒童性剝削圖像或視頻的報(bào)告。
NCMEC指責(zé)人工智能公司沒有積極阻止或檢測CSAM的生產(chǎn)。去年只有5個(gè)生成式人工智能平臺(tái)向該組織發(fā)送了報(bào)告。超過70%的人工智能生成的CSAM報(bào)告來自用于分享材料的社交媒體平臺(tái),而不是人工智能公司。
NCMEC的CyberTipline主任法倫·麥克納爾蒂(Fallon McNulty)說:“據(jù)我們所知,有許多網(wǎng)站和應(yīng)用程序可以用來創(chuàng)建這類內(nèi)容,包括開源模型,它們沒有與CyberTipline合作,也沒有采取其他安全措施?!?/p>
考慮到人工智能允許捕食者在很少的時(shí)間和最小的努力下創(chuàng)建數(shù)千個(gè)新的CSAM圖像,兒童安全專家預(yù)計(jì),他們試圖打擊兒童剝削的資源將會(huì)增加負(fù)擔(dān)。NCMEC表示,預(yù)計(jì)人工智能將推動(dòng)其網(wǎng)絡(luò)熱線報(bào)告的增加。
兒童安全專家表示,預(yù)計(jì)報(bào)告的激增將影響受害者的識(shí)別和救援,威脅到已經(jīng)資源不足和不堪重負(fù)的執(zhí)法領(lǐng)域。
捕食者習(xí)慣性地在點(diǎn)對(duì)點(diǎn)平臺(tái)上與他們的社區(qū)分享CSAM,使用加密的消息應(yīng)用程序來逃避檢測。
去年12月,textarea對(duì)Facebook Messenger進(jìn)行加密,并計(jì)劃對(duì)Instagram上的信息進(jìn)行加密,這一舉動(dòng)遭到了兒童安全組織的強(qiáng)烈反對(duì),他們擔(dān)心,在textarea平臺(tái)上每年發(fā)生的數(shù)百萬起案件中,有許多案件不會(huì)被發(fā)現(xiàn)。
在過去的一年里,textarea還在其社交網(wǎng)絡(luò)中引入了一系列生成式人工智能功能。人工智能生成的圖片已經(jīng)成為社交網(wǎng)絡(luò)上最受歡迎的內(nèi)容之一。
在給《衛(wèi)報(bào)》的一份聲明中,textarea的一位發(fā)言人說:“我們有詳細(xì)而有力的政策來反對(duì)兒童裸體、虐待和剝削,包括兒童性虐待材料(CSAM)和兒童性化,以及使用GenAI創(chuàng)建的內(nèi)容?!备鶕?jù)我們的法律義務(wù),我們將所有明顯的CSAM事件報(bào)告給NCMEC?!?/p>
兒童安全專家表示,開發(fā)人工智能平臺(tái)的公司和立法者應(yīng)該對(duì)阻止人工智能生成的CSAM的擴(kuò)散負(fù)主要責(zé)任。
閱讀更多麥克納爾蒂說:“必須在發(fā)射前安全設(shè)計(jì)工具,以確保它們不會(huì)被用來制造CSAM?!薄安恍业氖牵缥覀冊谝恍╅_源生成人工智能模型中看到的那樣,當(dāng)公司不遵循安全設(shè)計(jì)時(shí),可能會(huì)產(chǎn)生無法逆轉(zhuǎn)的巨大下游影響?!?/p>
此外,Korobov說,可能用于交換人工智能生成的CSAM的平臺(tái)需要分配更多的資源來檢測和報(bào)告。
她說:“這將需要更多的人工審核員來查看圖片,或者進(jìn)入聊天室和其他服務(wù)器,人們在那里交易這些材料,看看那里有什么,而不是依靠自動(dòng)化系統(tǒng)來完成?!薄澳惚仨氉屑?xì)看看,并意識(shí)到這也是兒童性虐待的材料;它只是新創(chuàng)建的?!?/p>
與此同時(shí),主要的社交媒體公司已經(jīng)削減了用于掃描和報(bào)告兒童剝削的資源,削減了兒童和安全管理員團(tuán)隊(duì)的職位。
“如果大公司不愿意做CSAM檢測的基本工作,我們?yōu)槭裁磿?huì)認(rèn)為他們會(huì)在沒有監(jiān)管的情況下在人工智能領(lǐng)域采取所有這些額外步驟?”洛杉磯兒童安全組織Heat Initiative的首席執(zhí)行官莎拉·加德納(Sarah Gardner)說?!拔覀円呀?jīng)看到,純粹的自愿是行不通的?!?/p>