埃隆·馬斯克 (Elon Musk) 的人工智慧 Grok 被發現在加沙饑餓兒童的照片上撒謊
“@grok,你為什麼要謊稱加沙的兒童挨餓?”
埃隆·馬斯克 (Elon Musk) 的 X(前身為 Twitter)上使用的人工智慧 Grok 曾多次被發現在 加沙營養不良兒童的照片上“撒謊”。這是根據事實核查機構 RTVE 的一份報告得出的,指出至少有 3 次使用者向 Grok 詢問加沙饑餓兒童照片的真實性,營養不良和疾病的影響非常明顯,而 X 的 AI 錯誤地說,這些照片不是來自加沙......當他們實際上是時。
“@grok,這些圖片來自哪一年?”,Kristy4TRUMP 在去年 7 月 28 日回應美國參議員伯尼·桑德斯 (Bernie Sanders) 的帖子時問道。“這些照片是 2016 年的,顯示葉門胡迪達一家醫院裡營養不良的兒童,當時那裡正值內戰。它們沒有描繪加沙的時事“,格羅克說。
除了事實並非如此:這些照片是 7 月 23 日在加沙拍攝的照片,由美聯社核實,由專門研究人工智慧和虛假資訊的 BBC 記者 Shayan Sardarizadeh 分享。
在另一個場合,格羅克說,一位母親抱著一個嬰兒,用塑膠袋當尿布,皮膚下只有骨頭的照片來自葉門 2017 年的饑荒,而實際上這是艾哈邁德·阿裡尼 (Ahmed al-Arini) 於 7 月 21 日拍攝的照片,BBC 甚至 採訪了他的母親赫達亞·穆塔 (Hedaya al-Muta)。
事實核查人員一再發現 Grok 在圖片的真實性上撒謊,即使斷然聲稱是真實的。這表明使用人工智慧作為驗證工具的危險,這可能會導致更多的錯誤資訊。一些專家認為,在 Grok 的案例中,這是由於人工智慧使用在 X 上訓練的提示造成的,X 是一個假新聞和錯誤資訊自由傳播的社交網路。
RTVE 詢問的專家建議,如果我們的目標是使用人工智慧來打擊錯誤資訊,我們必須使用不止一種人工智慧模型,而不是局限於 Grok,該模型是故意製作的“未經過濾的答案”並經過訓練的“不政治正確”,這在許多情況下都因傾向於馬斯克自己的政治觀點而引起爭議, 助長包括「白人種族滅絕」在內的陰謀論,並使用「前衛」和「詼諧」的語氣。
