2024-10-28 19:24 來源:本站編輯
錯誤的信息常常在情緒上起作用
在科技飛速發(fā)展的時代,深度造假越來越難以被發(fā)現(xiàn)。
真實(shí)但偽造的圖像、視頻和音頻,深度偽造對數(shù)字內(nèi)容的隱私、安全和信任構(gòu)成重大風(fēng)險。
它們也會給人們的聲譽(yù)帶來風(fēng)險。深度造假已經(jīng)成為互聯(lián)網(wǎng)的一個黑暗角落,成千上萬的人聚集在那里分享女明星做愛的假視頻。
2023年11月,印度出現(xiàn)了一系列深度造假,寶萊塢女演員被描繪成大膽的場景。
其中最引人注目的是拉什米卡·曼丹娜(Rashmika Mandanna)穿著低胸緊身衣的視頻。
人工智能在不斷發(fā)展,因此,用于制造令人信服的深度偽造的技術(shù)也在不斷發(fā)展。
然而,雖然這些數(shù)字偽造品可能具有很強(qiáng)的欺騙性,但它們通常包含可以識別的跡象,只要有正確的知識,就可以識別這些跡象。
一位人工智能專家分享了發(fā)現(xiàn)深度造假的主要技巧和策略,強(qiáng)調(diào)了可能暴露被操縱媒體的微妙但關(guān)鍵的缺陷。
在X上,假新聞比合法新聞傳播得更快。
考慮到英國近三分之二的年輕人將社交媒體作為常規(guī)新聞來源,這一點(diǎn)令人擔(dān)憂。
總是關(guān)注你所消費(fèi)內(nèi)容背后的信息來源的可信度。
如果消息來源不熟悉或可疑,請使用可靠的新聞機(jī)構(gòu)或事實(shí)核查平臺(如谷歌事實(shí)核查工具)反復(fù)核查內(nèi)容的真實(shí)性。
錯誤信息經(jīng)常利用恐懼、憤怒或憤怒等情緒觸發(fā)因素來影響判斷。
當(dāng)遇到能夠激起強(qiáng)烈情緒的內(nèi)容時,停下來并重新評估以確保自己不會成為別人游戲中的棋子是很重要的。
深度造假往往難以復(fù)制面部表情和自然動作的微妙復(fù)雜性。
重點(diǎn)關(guān)注的區(qū)域包括眼睛和嘴巴周圍的微表情。
觀察不自然的眨眼模式、不規(guī)則的眼球運(yùn)動或突然的頭部運(yùn)動,并評估面部表情是否與所傳達(dá)的情感相匹配。
此外,牙齒均勻度、頭發(fā)質(zhì)地和整體面部結(jié)構(gòu)等細(xì)節(jié)可以幫助識別深度偽造。
例如,蘭維爾·辛格批評總理納倫德拉·莫迪的深度造假視頻在網(wǎng)上瘋傳。
雖然很有說服力,但深度造假視頻的一個重要特征是臉部和耳朵的形狀——深度造假視頻在這些區(qū)域的測量結(jié)果往往略有偏差,耳朵尤其難以復(fù)制。
另一個要看的是體型。通常情況下,女明星的臉被疊加在其他女性的身體上,并在網(wǎng)上分享,以達(dá)到淫穢的目的。
有一次看到卡特里娜·凱夫在《虎3》中的毛巾打斗場面被篡改了。
deepfake用一條暴露的兩件式毛巾代替了毛巾。
她的身體也經(jīng)過ps處理,曲線明顯變得更豐滿。
這張假照片顯示,卡特里娜的手放在他們身上,擺出更性感的姿勢。
利用反向圖像和視頻搜索工具來追蹤視覺內(nèi)容的來源并評估其真實(shí)性。
對于圖像,將文件上傳到谷歌反向圖像搜索等工具可以幫助識別圖像是人工智能生成的,還是經(jīng)過數(shù)字修改的,或者是在誤導(dǎo)性的環(huán)境中使用的。
通過在線查找該圖像的其他實(shí)例,您可以確定它首次出現(xiàn)的位置,以及它是否被操縱或?yàn)E用。
對于視頻,InVID或WeVerify等更專業(yè)的工具對分析視頻片段很有用。
這些工具允許您將視頻分解為幀,對單個幀進(jìn)行反向圖像搜索,并檢查元數(shù)據(jù)以檢測編輯,更改或鏡頭是否出現(xiàn)在不同的上下文中。
這些技術(shù)使您能夠發(fā)現(xiàn)差異,驗(yàn)證真實(shí)性,并發(fā)現(xiàn)任何篡改或重用的跡象。
總之,這些搜索可以幫助確保視覺內(nèi)容不被歪曲或惡意修改。
深度造假通??梢酝ㄟ^細(xì)微的數(shù)字缺陷來識別,比如模糊或不自然的像素化,尤其是在人臉或物體的邊緣。
注意光線、陰影和反射的不一致是很重要的,因?yàn)檫@些可能是操縱的跡象。
即使是小細(xì)節(jié),比如多了一根手指或放錯了地方的特征,也可能表明出了問題。
此外,檢查背景的扭曲或不規(guī)則可以幫助揭示操縱,因?yàn)檫@些元素可以破壞場景的整體一致性。
阿利亞·巴特大膽的深度模仿,做出暗示性的表情和旋轉(zhuǎn),表現(xiàn)出嘴部扭曲和膚色對比等異常。
一種幫助你識別人工智能生成內(nèi)容的有趣方法是玩“哪張臉是真的”,這是一款由華盛頓大學(xué)教授創(chuàng)造的游戲。
識別深度假音通常取決于仔細(xì)觀察嘴唇的運(yùn)動,因?yàn)槲覀兊淖煸诎l(fā)音某些字母時自然會形成不同的形狀。
人工智能系統(tǒng)經(jīng)常難以精確地復(fù)制這些微妙的動作,因此這是一個需要關(guān)注的關(guān)鍵領(lǐng)域。
事實(shí)上,近三分之一的深度假視頻無法準(zhǔn)確地將嘴唇運(yùn)動與聲音同步,特別是對于像“M”、“B”和“P”這樣需要特定嘴唇形狀的字母。
當(dāng)說話者的嘴唇與發(fā)出的聲音不匹配,或者在視聽同步中出現(xiàn)明顯的延遲或不匹配時,就應(yīng)該引起懷疑。
此外,要注意說話人的語調(diào)、音高或說話節(jié)奏是否不規(guī)則。
這些也可以作為操縱視頻的指標(biāo),因?yàn)槿斯ぶ悄苌傻囊纛l通常缺乏人類語言的自然呆板和節(jié)奏。
AIPRM的人工智能專家Christoph C Cemper說:
世界經(jīng)濟(jì)論壇(World Economic Forum)已將虛假信息列為2024年的最大風(fēng)險,而深度造假正成為人工智能最令人擔(dān)憂的用途之一。
“如果你遇到一個潛在的深度騙子,最好的做法是不要分享它。
“如果你看到其他人在分享,花點(diǎn)時間禮貌地告知他們,并向他們指出可靠的事實(shí)核查資源,尤其是在虛假信息已被揭穿的情況下。
此外,利用社交媒體平臺上的報道功能來限制其影響范圍。
“至關(guān)重要的是,我們都要在提高意識方面發(fā)揮作用——分享你如何識別深度偽造的經(jīng)驗(yàn)和見解,以幫助他人應(yīng)對類似的威脅?!?/p>
“通過對我們在網(wǎng)上消費(fèi)的內(nèi)容保持警惕,我們可以共同打擊錯誤信息,維護(hù)我們數(shù)字環(huán)境的完整性。”
隨著深度造假變得越來越復(fù)雜,識別它們的能力對于保持對數(shù)字內(nèi)容的信任至關(guān)重要。
雖然人工智能生成的贗品可能看起來令人信服,但它們往往會留下微妙的線索。
通過了解這些指標(biāo)并使用反向圖像搜索和視頻分析等工具,我們可以更好地保護(hù)自己免受錯誤信息和操縱。