科技日報記者?張佳欣
據英國《新科學家》網站近日報道,在提供購房和租房建議時,AI對黑人用戶傾向于推薦低收入社區,這一行為被指存在種族偏見,映射出美國歷史上長期存在的住房歧視問題。
隨著人工智能(AI)技術不斷發展,其潛在問題也日益凸顯。ChatGPT等AI大模型頻頻暴露出的偏見和歧視傾向,正是這一問題的縮影。
AI也有性別歧視
聯合國婦女署官網5月22日報告指出,美國加州伯克利大學哈斯商學院一項研究,分析了不同行業的133個AI系統。結果顯示,約44%的系統表現出性別刻板印象,25%同時表現出性別和種族刻板印象。
例如,土耳其藝術家貝扎·多古斯在創作時,曾嘗試讓AI寫一個關于醫生和護士的故事。而AI總是自動將醫生設定為男性,將護士設定為女性,即使多次嘗試糾正也是如此。
美國科技博客TechCrunch利用Meta推出的AI聊天機器人進行測試,也發現了一種刻板的表達傾向:當使用“印度男性”提示詞生成圖像時,絕大多數圖片中的男性都是戴著頭巾。雖然很多印度男性確實戴著頭巾(主要是錫克教徒),但根據2011年人口普查,即使是在印度首都新德里,錫克教徒的人口比例也只占約3.4%。
單憑技術手段難以奏效
ChatGPT等生成式AI具有驚人的能力,可在數秒內模擬人類推理,但這也增加了出錯的可能。AI巨頭們深知其中存在問題,擔心AI模型會陷入偏見、歧視等行為模式中,或在全球化用戶群體中過度呈現西方社會的文化和認知。
圖為桑達爾·皮查伊5月14日在加州山景城舉行的谷歌I/O大會上發表講話。自從谷歌對其搜索頁面進行改造,經常將AI生成的摘要放在搜索結果頂部,社交媒體上就出現了一些令人不安的錯誤消息。
圖片來源:物理學家組織網?
字母表公司(Alphabet,谷歌母公司)首席執行官桑達爾·皮查伊表示,為了應對這一挑戰,他們會要求在訓練AI模型時盡可能拓展數據來源。例如,在展示醫生或律師的圖像時,力求反映種族多樣性。但這一策略有時也會走向極端。
AI模型領先平臺“抱抱臉”(Hugging Face)研究科學家薩莎·盧西奧尼認為:“單憑技術手段解決偏見問題,恐難奏效。”她強調,生成式AI的輸出是否符合用戶期望,往往取決于主觀判斷。美國阿萊姆比克技術公司產品主管杰登·齊格勒也指出,ChatGPT等大型模型難以準確區分偏見與非偏見內容,這使得完全依賴技術手段來消除偏見變得異常困難。
人類偏好是根本
在AI技術飛速發展的今天,消除偏見并非易事。據“抱抱臉”平臺統計,該平臺上有約60萬個AI或機器學習模型,每隔幾周就會有新模型問世。這使得工作人員評估和記錄偏見或不受歡迎的AI行為變得異常繁重。
目前,技術人員正在開發一種名為“算法回歸”的方法,它讓工程師能在不破壞整個模型的情況下刪除歧視和偏見內容。不過,許多人對此持懷疑態度,認為這種方法可能難以真正奏效。
另一種方法是“鼓勵”模型向正確方向發展,通過微調模型或增加獎懲機制來引導其行為。
美國AI公司Pinecone則專注于檢索增強生成(RAG)技術,該技術可為大型語言模型提供參考的信息來源,從而提高AI生成答案的準確性。
然而,對于如何根本性地解決AI偏見問題,業界和專家們的共識是:這是一個復雜而艱巨的任務。正如美國機會與正義法律咨詢公司主任韋弗所言:“偏見是人類固有的,因此也存在于AI中。”他擔心人們可能會陷入一個惡性循環:人類自身偏見影響AI,而AI又反過來強化這些偏見。
2024年4月,在盧旺達基加利GIZ數字化轉型中心舉辦的“非洲女孩也能編程”項目的編程訓練營中,年輕女性參與者在用筆記本電腦工作。
圖片來源:聯合國婦女署?
在人工智能時代,AI基于從互聯網上挖掘的各類信息,幫助各行各業的人們做出越來越多的決策。然而,AI的底層智力在很大程度上取決于其數據源的品質,這些數據可能源于標準不一致的歷史數據,也可能源于設計者的個人偏好。數據搜集存在很多技術上的不完善,由此訓練出來的AI可能充滿智慧、才華和實用性,也可能包含仇恨、偏見和抱怨,進一步反映并延續人類社會中的問題。如果人們不解決社會中的歧視和偏見問題,AI很可能在強化這些錯誤觀念的道路上越走越遠。
AI能否消除偏見?答案或許就在于能否從根本上解決人類社會中存在的歧視和偏見。