1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站

事實核查:如何識別有關以哈戰爭的AI圖像?

Ines Eisele | Uta Steinwehr
2023年11月11日

真的還是假的?人工智慧生成的圖像已成為以哈戰爭中的造謠工具。德國之聲事實核查團隊向您解釋如何識別它們。

https://p.dw.com/p/4YhMV
這三幅有關加薩衝突的圖片都是由人工智慧生成的。
這三幅有關加薩衝突的圖片都是由人工智慧生成的。

(德國之聲中文網)用人工智慧(AI)製造的假新聞是如何運作的?它們呈現了怎樣的敘事方式?它們有多危險?在這篇文章中,德國之聲事實核查人員將回答有關人工智慧圖像在以哈衝突中所扮演角色的幾個關鍵問題。

1)人工智慧工具是如何製造假圖像的?

如今,人工智慧無處不在,在戰爭中更是難以避免。人工智慧應用在今年有了很大的改進,現在幾乎任何人都可以使用標準的人工智慧生成器來生成圖像,這些圖像至少第一眼看上去是真實的。

要做到這一點,用戶只需要向Midjourney或Dall-E等人工智慧工具輸入提示,包括規格和訊息。然後,這些工具會將文字提示轉換成圖像。

這些工具既能生成更具藝術性的插圖,也能生成逼真的「照片」。生成過程基於所謂的機器學習。

例如,如果要求人工智慧生成器製作一位70歲的老人騎著自行車的圖像,它們就會搜索資料庫,將提示語與圖像配對。

根據現有的訊息,人工智慧生成器就會生成老年騎車人的圖像。得益於越來越多的訊息輸入和技術更新,這些工具已經有了很大改進,並在不斷地學習。

所有這些技術都適用於與中東衝突有關的圖像。

假新聞?!AI造!

根據我們的觀察,這些假場景往往是為了通過捕捉情感瞬間來傳播某些宣傳敘事。關於這一點,我們稍後再談。

人工智慧專家法裡德(Hany Farid)說,在「情緒強烈高漲」的衝突中,包括通過人工智慧圖像傳播的虛假訊息,異常有效。

法裡德是美國加州大學伯克利分校研究數位鑑別學的教授。他告訴德國之聲,衝突前線是製造和傳播虛假內容、激化情緒的完美溫床。

2)有多少有關以哈戰爭的人工智慧圖像在流傳?

人工智慧輔助製作的圖像和影片已經增加了與烏克蘭戰爭有關的虛假訊息——而且還在繼續增加。

自2022年俄羅斯入侵烏克蘭以來,人工智慧工具發展迅速,許多觀察家早前預計它將在以哈戰爭中扮演更重要的角色。然而,據專家稱,人工智慧圖像並沒有洶湧而來。

歐洲數字媒體觀察站的專家卡內塔(Tomasso Canetta)說:「在以哈衝突及其相關的虛假訊息中,我們並沒有看到人工智慧生成圖像的大規模使用。」

他說:「目前實際上是用舊圖片和舊影片傳播的虛假訊息數量較大,相比之下,人工智慧生成的圖片有一些,但不是很多。」

如何識別以哈衝突中的假新聞?

不過,這並不意味著技術不是一個造假手段。法裡德解釋說,他認為人工智慧造假的數量並不是關鍵因素。

「你可以只製造兩張虛假圖片,但如果它們在網上瘋傳,上億人都會看到。這就會產生巨大的影響。」他說,「因此,這不一定是一場數量游戲,我認為真正問題是訊息生態系統的污染。」

3)人工智慧圖像在以哈戰爭中扮演了什麼角色?

在社群網站網路上流傳的人工智慧圖像通常會引發強烈的情緒。

卡內塔認為這些虛假圖像主要有兩類:一類關注平民苦難並引起人們同情,另一類宣傳愛國情緒,誇大人們對以色列、哈馬斯或巴勒斯坦人的支持。

這是一幅人工智慧生成的圖像。紅框裡的提示表明其偽造的明顯特徵。
這是一幅人工智慧生成的圖像。紅框裡的提示表明其偽造的明顯特徵。


例如,上圖中一位父親和他的五個孩子在一堆廢墟前的照片就屬於第一類。在以色列轟炸加薩地帶時,這張圖片在X(前Twitter)和Instagram上被多次分享,觀看量達到數十萬次。

好在至少在X上,這張圖片被標注為假造。可以通過人工智慧圖像中典型的各種錯誤和不協調來識別它。

例如,男子的右肩高得不成比例。從下面伸出的兩條腿也很奇怪——好像是從他的毛衣裡長出來的一樣。

同樣讓人覺得奇怪的是,兩個男孩摟著父親脖子的手是如何交疊在一起的?此外,畫面中還有幾隻手和腳,手指和腳趾不是過多就是過少。

這也是一幅人工智慧生成的圖像。紅框裡的提示表明其偽造的明顯特徵。
這也是一幅人工智慧生成的圖像。紅框裡的提示表明其偽造的明顯特徵。

上面這張在X上瘋傳的人工智慧假圖也有類似的異常現象,圖片顯示一個巴勒斯坦大家庭在一片廢墟中一起進餐。

下面這張圖片顯示,士兵們揮舞著以色列國旗,走過一個滿是被炸毀房屋的定居點。這屬於第二類,旨在激發愛國主義情感。

在Instagram和X上分享這張圖片的賬戶似乎主要是親以色列的,並對所描述的事件表示歡迎。德國之聲還在保加利亞的一家線上媒體上發現,這張圖片被用作文章配圖,但並未標注其為人工智慧生成。

這是一幅人工智慧生成的圖片,顯示以色列坦克和士兵舉著國旗在被轟炸後的加薩街道上行進。
這是一幅人工智慧生成的圖片,顯示以色列坦克和士兵舉著國旗在被轟炸後的加薩街道上行進。圖片來源: X

這張圖片上看起來最假的地方是以色列國旗飄蕩的方式。中間的街道也顯得過於乾淨,而瓦礫看起來則非常均勻。被摧毀的建築看起來也像雙胞胎,以相當規律的間隔矗立著。

總之,視覺印象過於「整潔」,顯得不真實。這種完美無瑕讓圖像看起來像是畫出來的,這也是人工智慧圖像的典型特徵。

4)此類人工智慧圖像來自何處?

大多數人工智慧生成的圖片都由社群網站上的個人賬戶發布。這些賬戶的個人訊息既有真實的,也有明顯虛假的。

不過,人工智慧生成的圖片也可用於新聞產品。目前,許多媒體公司正在討論這是否可行,在哪些情況下能用或者有效。

軟體公司Adobe於2022年底在其圖片庫中加入了人工智慧生成的圖片,這引起了軒然大波。這些圖片在資料庫中都有相應的標注。

Adobe圖片庫中提供的一張關於加薩衝突的人工智慧生成圖像
Adobe圖片庫中提供的一張關於加薩衝突的人工智慧生成圖像

批評者認為這種做法很有問題,但一些線上網站和媒體仍在使用這些圖片,而且沒有標注人工智慧生成。例如,上面這張圖片出現在「Newsbreak」網站上,但沒有任何相關標注。德國之聲通過反向圖片搜索發現了這一點。

就連歐洲議會的科學服務機構——歐洲議會研究服務處也在一篇關於中東衝突的線上文章中使用了Adobe資料庫中的一張假圖,同樣沒有標明這是一張人工智慧生成的圖片。

歐洲數字媒體觀察站的專家卡內塔呼籲記者和媒體專業人士在使用人工智慧圖像時要非常慎重,最好不要使用人工智慧圖像,尤其是在涉及加薩戰爭等真實事件時。

如果是為了說明未來技術發展,相關文章則可能適合使用人工智慧生成的配圖。

5)人工智慧圖像可能造成多大損害?

傳播人工智慧生成的內容會讓讀者對他們在網上遇到的一切感到不安全。

加州大學伯克利分校研究學者法裡德解釋說:「如果我們進入了這個可以操縱圖像、音頻和影片的世界,那麼一切都會受到質疑。因此,你會看到真實的東西也會被說成是假的。」

下面的案例正是如此:以色列總理納坦雅胡和美國保守派評論員夏皮羅(Ben Shapiro)等人在X上分享了一張據稱顯示被燒焦的以色列嬰兒屍體的圖片。

隨後,備受爭議的反以色列網紅欣克爾(Jackson Hinkle)聲稱,這張圖片是用人工智慧製作的。

網紅欣克爾的X帖文截圖,他稱納坦雅胡和夏皮羅轉發的圖片是假的。
網紅欣克爾的X帖文截圖,他稱納坦雅胡和夏皮羅轉發的圖片是假的。


作為所謂的證據,欣克爾在帖文中附上了來自人工智慧檢測器「AI or not」的截圖,該檢測器將該圖片歸類為人工智慧生成。

欣克爾在X上的這一指控被瀏覽了2000多萬次,並引發了激烈討論。

最後,許多人表示,這張圖片很可能是真實的,而欣克爾說法是錯誤的。法裡德告訴德國之聲,他在圖片中找不到任何不協調的地方,無法證明其為人工智慧假造。

你可能會問,這怎麼可能呢?人工智慧檢測器的確可以用來檢測圖片或文字是否可能是人工智慧生成的,但它仍然非常容易出錯。根據所檢測圖像的不同,它們的判斷有對有錯,而且往往只能做出可能的判斷,而不是百分之百的確定。

因此,它們最適合作為檢查人工智慧假圖的輔助工具,但絕對不是唯一的工具。

德國之聲用人工智慧檢測器「AI or not」檢測同一張圖片,得到的回答是「很可能是人類」。
德國之聲用人工智慧檢測器「AI or not」檢測同一張圖片,得到的回答是「很可能是人類」。

德國之聲的事實核查團隊也未能在這張可能顯示嬰兒屍體的圖片中發現任何明顯的人工智慧製作痕跡。

奇怪的是,當我們用人工智慧檢測器「AI or not」親自檢測時,它並沒有把這張圖片歸類為人工智慧生成的圖片,而且還指出圖片品質很差。

另一個人工智慧檢測器——Hive moderation也認為該圖片是真實的。
 

©2023年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。