1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站

事實核查:如何識別人工智慧生成的圖片?

Joscha Weber | Kathrin Wesolowski | Thomas Sparrow
2023年4月13日

人工智慧生成的圖片充斥著社群網站。這有時會帶來訊息扭曲。如何分辨真假?德國之聲總結了一些相關程序的常見錯誤。

https://p.dw.com/p/4PxpC
Faktencheck KI-Bilder EN
你有沒有發現普丁左側的警察有六根手指?這是AI圖片生成工具常犯的錯誤

(德國之聲中文網)近來不少圖片在網上熱傳,比如:俄羅斯總統普丁看上去似乎被捕了;或者,特斯拉總裁馬斯克和通用汽車女總裁博拉(Mary Barra)手牽手。

230406 Faktencheck KI-Bilder Elon Musk EN
馬斯克牽手通用女總裁博拉?假的!

這只是眾多人工智慧圖片的兩個例子。甚至有攝影師也曾濫用過這一技術,發表合成的照片。

有些這樣的圖片是為了搞笑。然而,專家說,有時候,人工智慧技術生成的圖片也會帶來危險,比如使人們得到錯誤的訊息,或者被用於宣傳。

從未發生的地震

如果涉及到名人,比如普丁或者川普,那麼,要澄清真假是很快的。然而,倘若涉及到的並非名人,那就很難很快地阻止以訛傳訛。

比如,德國議會極右翼選項黨的一名議員就在其instagram賬戶上傳播了一幅人工智慧生成的圖片,上面是尖叫的人,以此顯示他反對難民的到來。

人工智慧专家愛德(Henry Ajder)向德國之聲表示,除了以人物為主題的假照片之外,其它種類的人工智慧合成圖片也能帶來訊息的扭曲。

有時會有人捏造從未發生過的事件。比如,在Reddit分享的一些圖片據稱顯示的是2001年美加西北部太平洋海岸的一場嚴重地震。

然而,這是一場從未發生過的地震。專家愛德說:「如果你合成一張非人物景觀的照片,那很難被識別出是假的。」

儘管如此,人工智慧合成圖片的工具並非完美,即便不斷完善。截至2023年4月,相關程序包括Midjourney,DALL-E或者DeepAI。德國之聲「事實核查」團隊在此有一些建議,幫助你發現假照片。

1.放大仔細看

搜尋相關照片你能找到的最高清晰度的一張,然後放大來看細節。

2. 找到最早的發圖來源

有時讀一下圖片最早發布的網站上相關的評論留言,你會搜尋到關於這幅圖片的某些訊息。

或者,你也可以使用谷歌的圖片反向搜索功能,或者TinEye,Yandex。或許能找到最早的發圖來源。有時候,你也會發現一些有可信度的媒體已經對其中某些圖片進行了事實核查。

3. 關注身體比例

人工智慧生成的圖片時常會出現人體某個部分比例失調的問題。比如,手太小,或者手指太長。或者頭、腳與身體其它部分不匹配。

DW-Bildanalyse | Kniefall von Putin vor Xi
耳朵的形狀是否有點奇特?另外,鞋子是不是感覺有點太大太寬?這都是AI圖片工具常犯的錯誤圖片來源: Twitter/DW

上面普丁看上去好似跪在習近平面前的圖片就是如此。跪下的人的鞋子不合比例的又大又寬;腦袋似乎也太大了。

4. AI的常見錯誤

Midjourney或DALL-E常犯的錯誤是——手。有時畫中人有六根手指,比如普丁看上去被捕的圖片中,他左邊的警察就是如此。

又比如教宗方濟各的這兩張照片,你會看到右邊的這幅他似乎只有四根手指?而左邊的照片他的手指好像有點略長。兩張照片都是假的。

還有些時候,人工智慧合成的圖片中,人物有太多顆牙齒,或者眼鏡的形狀被扭曲,或者耳朵的形狀極其獨特——比如習近平與普丁的那張被合成的圖片。

此外,像Random Face Generator這樣的程序,能夠在短短數秒之內,合成出並不真實存在的人物肖像。即便看上去可以以假亂真,仍然值得去詳加審視耳朵、眼鏡、頭髮、眼鏡、耳環的形狀是否極不自然,因為這是程序常犯的錯誤。

不過,專家愛德也警告,Midjourney這樣的程序日益完善,將來可能更不容易發現其中的錯誤。

5. 太完美?

Midjourney合成的許多照片看上去都太完美了,以至於不可能是真的。你可以想想看:真的有這樣完美無缺的人存在嗎?

德國人工智慧研究中心的登格爾(Andreas Dengel)向德國之聲表示:「面部太純淨,紡織品太完美。」

許多人工智慧生成的照片中的人物,皮膚極其光潔,毫無瑕疵,甚至頭髮和牙齒也都十分完美。現實生活中應該很難找到這樣的人。

很多圖片的那種光澤,即便是專業攝影師在攝影棚裡也難以做到。人工智慧工具時常正是為了生成理想化的圖片,用完美來取悅盡可能多的人。


6. 檢查背景

背景也可能出現扭曲的情況,比如街燈。有時候,人工智慧会克隆人像和物品,並兩次使用。再就是,人工智慧图片時常會模糊背景。

但模糊也可能出錯。比如上圖中威爾‧史密斯的背景就明顯出了錯。

結論

儘管有一些專門用於識別AI圖片的工具,比如Hugging Face,但德國之聲團隊發現,除了提供某些線索之外,用處不大。專家更是表示,有時候,這些工具還會把真實的圖片識別為假的。所以,專家建議不用為妙。

看來,人們還是更應該依賴自己的常識,多從可信賴的媒體獲取訊息,以及避免傳播可能是人工智慧合成的圖片。

© 2023年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。