
谷歌的圖像生成人工智慧Nano Banana Pro被指控在回答有關非洲人道援助的問題時產生種族主義圖像。
2025年12月,安特衛普熱帶醫學研究所的研究員阿爾謝尼·阿列尼切夫進行了一項實驗,他根據「志工幫助非洲兒童」這一主題生成了數十張圖片。除兩張外,產生的圖片都顯示一位白人女性被一群黑人兒童圍繞。
此外,儘管題目中並未提及,但圖片中卻出現了世界展望會、和平工作隊、紅十字會、救助兒童會和無國界醫生等真實慈善機構的標誌。世界展望會和英國救助兒童會對此未經授權使用其標誌的行為表示關切,並表示他們不承認這些標誌的合法性。
谷歌發言人表示,公司致力於不斷加強安全措施。
從:
谷歌的人工智慧工具 Nano Banana Pro 被指控產生帶有種族歧視色彩的「白人救世主」視覺效果
【社論】
谷歌的人工智慧圖像生成工具 Nano Banana Pro 在生成非洲人道主義援助圖像時被發現有明顯的種族偏見,這充分說明了人工智慧技術如何加劇社會偏見。
Nano Banana Pro,又名Gemini 3 Pro Image ,是Google最新的圖像生成模型,於 2025 年 11 月發布。它具有高品質的圖像生成和多語言文字顯示功能,並整合到 Google Ads 和 Google Workspace 等產品中。
這個工具的問題在於,當被問及「在非洲做志工幫助兒童」之類的問題時,它幾乎總是會產生一個白人女性被黑人兒童包圍的圖像,體現了經典的「白人救世主」刻板印象。
更令人擔憂的是,圖片中出現了世界展望會、和平工作隊、紅十字會、救助兒童會和無國界醫生等真實慈善機構的標誌,而這些機構的標誌並未出現在設計提示中。這些機構對這種未經授權的使用表示強烈關切,並正在考慮對侵犯其智慧財產權的行為提起訴訟。
這個問題是由安特衛普熱帶醫學研究所的研究員阿爾謝尼·阿列尼切夫發現的,他多年來一直致力於研究全球健康影像的倫理問題。 2023年,他在《柳葉刀全球健康》雜誌上發表報告稱,另一款人工智慧圖像生成工具Midjourney也存在類似的偏見。研究表明,即使給出「黑人非洲醫生治療白人兒童」這樣的提示,人工智慧也總是將患者描繪成黑人。
人工智慧圖像生成工具之所以存在這種偏見,原因在於它們的訓練資料。這些模型從互聯網上海量的圖像和描述中學習。然而,人道援助圖像歷來充斥著「白人幫助非白人」的刻板印象,而人工智慧會學習並複製這種模式。
這個問題不僅僅是技術故障,而是更廣泛的社會挑戰的一部分。阿列尼切夫最近創造了「貧窮色情2.0」一詞,指的是援助組織使用人工智慧生成的圖像來描繪極端貧窮的現象。為了避免預算削減和獲得許可的麻煩,各組織越來越多地使用人工智慧生成的圖像而不是真實照片。
世界衛生組織、國際計劃和聯合國等主要組織也被發現在其宣傳活動中使用人工智慧生成的圖像,這些圖像複製了長期以來備受詬病的「貧困色情」的視覺語法,並強化了種族刻板印象。
針對批評,Google表示“有時提示訊息會挑戰我們工具的安全機制”,並承諾將持續加強安全措施。然而,人工智慧圖像生成中的種族偏見是一個普遍存在的問題。其他主流模型,例如穩定擴散模型和OpenAI的Dall-E模型,也發現了類似的偏見。
解決這個問題並非易事。從技術上講,要完全消除訓練資料中的偏見非常困難,而且過濾過程本身也可能引入其他偏見。史丹佛大學研究員普拉蒂莎·裡亞·卡魯裡指出,單一的人工智慧模型不可能代表所有文化和價值觀,她建議地方社區開發基於自身資料訓練的人工智慧。
Nano Banana Pro 的問題表明,人工智慧技術的快速發展正在將倫理考量拋諸腦後。即使是擁有先進技術能力的谷歌公司,也未能阻止這種基本的偏見,凸顯了人工智慧開發過程中透明度和問責制的重要性。
[術語]
Nano Banana Pro
谷歌於2025年11月發布了最新的AI影像產生和編輯模型,其正式名稱為Gemini 3 Pro Image。它具有高解析度(最高可達4K)影像生成、多語言文字渲染以及使用多達14張參考影像的高級合成功能。透過利用Gemini 3 Pro的推理能力並將其與Google搜尋的知識庫連接,它可以產生更準確、更具上下文關聯性的視覺效果。
白人救世主
將白人西方人描繪成「拯救」非白人社群的敘事模式一直備受批評,尤其是在非洲和亞洲發展中國家的人道援助領域。有人指出,這種敘事方式否定了受援者的自主性和能力,並強化了殖民權力結構。
貧困色情
過度強調貧窮和苦難,並訴諸觀眾情感以鼓勵捐款的圖像和視覺表達方式,自2007年左右以來就備受詬病。它們被指責將人物描繪成脫離語境的“受苦軀體”,侵犯了他們的尊嚴。近年來,由人工智慧產生的圖像所構成的「貧窮色情2.0」已成為一個問題。
訓練資料
資料集用於訓練人工智慧模型。以圖像生成人工智慧為例,需要使用從網路收集的大量圖像及其描述資訊。由於訓練資料中任何偏見或成見都會直接反映在人工智慧的輸出結果中,因此資料的品質和多樣性至關重要。
演算法偏差
當人工智慧或演算法對某些群體產生不公平或歧視性結果時,就會出現這種現象。這可能源自於訓練資料、模型設計選擇或評估標準中的偏差。它會加劇基於種族、性別、地理等的刻板印象。
[參考連結]
Nano Banana Pro 新品發布 – Google 部落格(外部連結)
Google 正式發布 Nano Banana Pro,詳細介紹了其技術規格、功能和平台可用性。
Gemini 3 Pro 影像(Nano Banana Pro)– Google DeepMind (外部)
這是GoogleDeepMind的技術頁面。它介紹了影像生成範例、功能演示和安全功能(SynthID水印技術)。
世界展望英國(外部)
文章中提到的英國國際人道非政府組織是抗議未經授權使用其標誌的組織之一。
英國救助兒童會(外部連結)
總部位於英國的國際非政府組織,致力於幫助兒童。該組織正在調查人工智慧侵犯智慧財產權這一嚴重問題。
阿森尼·阿列尼切夫 – 熱帶醫學研究所(外部)
指出這一問題的研究人員的個人簡介頁面,列出了他在全球健康影像倫理方面的研究成果。
[參考文章]
谷歌的 Nano Banana Pro 模型使 AI 影像更清晰、更乾淨、更逼真(外部)
本文詳細介紹了 Nano Banana Pro 的技術特性和性能,包括其使用 SynthID 浮水印技術的透明度工作。
人工智慧被要求產生黑人醫生治療白人兒童的圖片。結果如何? (外部連結)
本文詳細介紹了由阿爾謝尼·阿列尼切夫領導的研究團隊進行的一項實驗,揭示了人工智慧圖像生成中存在的種族偏見。
暴風雨前的反思:人工智慧在全球健康視覺圖像中對偏見圖像的再現(外部連結)
2023 年,Alenichev 等人在《柳葉刀全球健康》上發表了一篇研究論文,報告了使用 Midjourney 對 300 多張實驗圖像進行分析的結果。
人工智慧時代全球健康傳播的倫理:避免淪為「貧窮色情2.0 」(外部連結)
最新論文提出了「貧窮色情 2.0」的概念,並報告了對 100 多張人工智慧生成的圖像進行收集和分析的結果。
人工智慧生成的圖像帶有偏見,透過刻板印象展現世界(外部觀點)。
使用穩定擴散 XL 進行深入分析,揭示了將非洲人描繪成原始人、將歐洲人描繪成文明人的偏見。
人工智慧圖像產生器經常產生種族歧視和性別歧視的結果:這些問題可以解決嗎? (外部連結)
本書解釋了人工智慧圖像生成中種族和性別偏見的成因,並介紹了史丹佛大學研究人員提出的解決方案。
研究發現,人工智慧圖像產生器 Stable Diffusion 會加劇種族和性別刻板印象(外部連結)
華盛頓大學的一項研究定量分析了穩定擴散模型在描繪人物時過度代表白人男性和將有色女性性化的傾向。
[編者註]
人工智慧圖像生成工具擁有拓展我們創造力的巨大潛力。然而,這個案例也揭示了科技可能在無意識中放大社會偏見的現實。當我們使用這些工具時,或許應該停下來思考一下,生成的圖像是否在強化刻板印象。儘管innovaTopia編輯團隊也享受著人工智慧技術帶來的許多益處,但我們也希望專注於其負面影響。當您看到人工智慧生成的內容時,您會如何評價它?我們希望與大家共同探討技術進步與倫理考量之間的平衡。