一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

ChatGPT爆火,人工智能背后的性別偏見與“去偏”策略

 職場辦公高手 2023-02-16 發(fā)布于安徽

日,聊天機器人程序ChatGPT在互聯(lián)網(wǎng)上爆火。它是美國人工智能研究實驗室OpenAI開發(fā)的一種全新聊天機器人模型,能夠通過學(xué)習(xí)和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,并協(xié)助人類完成一系列任務(wù)。


然而,你有沒有想過,AI也會歧視?

近年來,關(guān)于 AI 倫理和AI歧視的話題屢見不鮮,其中不乏針對女性的歧視。AI對女性的偏見主要有貶低女性、女性代表性不足、刻板印象、識別能力弱四類。

對于人工智能背后的性別偏見,本文作者倡導(dǎo)從女性學(xué)與算法學(xué)兩個方面分別進行去偏,認為建立一個完整的偏見審查機制是一個可能的著力方向;同時提出,在追求性別平等的同時,科學(xué)技術(shù)、大數(shù)據(jù)背后所引發(fā)的其他社會不公平、不正義現(xiàn)象也應(yīng)為人類所警惕。
算法是絕對科學(xué)的么?我想絕大多數(shù)人的答案是否定的。然而,在算法已潛入生活方方面面的當(dāng)下,我們卻總是不自覺地傾向于信賴算法。面對我們對算法科學(xué)性習(xí)慣性盲從,數(shù)據(jù)科學(xué)家凱西·奧尼爾(Cathy O'Neil)認為,算法神祇或許是一位男性神——人工智能及其背后所謂科學(xué)的算法隱含著大量的性別偏見——而科學(xué)膜拜卻遮蔽了我們發(fā)現(xiàn)性別偏見的眼睛。

算法中的性別偏見


在近年的新聞中,關(guān)于AI倫理和AI歧視的話題屢見不鮮,其中包括針對女性的歧視:谷歌圖片搜索中“CEO”的結(jié)果幾乎全部是男性,翻譯軟件總是將“醫(yī)生”翻譯為男性而將“護士”翻譯為女性。

正如人類的偏見和歧視不可避免一樣,AI的性別偏見是真實存在的。AI對女性的偏見可以總結(jié)于如下四類:貶低女性、女性代表性不足、刻板印象、識別能力弱。人工智能六大領(lǐng)域中“自然語言處理”的核心算法之一——詞嵌入,便表現(xiàn)出了其中若干項:在“女人:男人”=“A :B”的映射測試中,不僅產(chǎn)生了“壘球:棒球”這樣的刻板印象劃分,更出現(xiàn)了貶低性的“保姆:老板”組合。

性別偏見背后是強大的歧視理論和算法過程,算法以代碼形式重新包裝后進一步放大的社會偏見,無形地讓女性利益受損,加劇了社會既有的性別歧視。
性別偏見產(chǎn)生的機制:
社會學(xué)角度和算法結(jié)構(gòu)

對于隱藏在科學(xué)面具下的不公,凱西·奧尼爾為這種有害的模型取了一個有些諷刺的名字:數(shù)學(xué)毀滅性武器WMDs,其縮寫與大規(guī)模毀滅性武器相同。在某種意義上,這個修辭上的小心機也展示了大規(guī)模使用算法可能造成的殺傷力。那么,一個有缺陷的算法何以產(chǎn)生?

我們可以簡單地把人工智能的代表算法之一——神經(jīng)網(wǎng)絡(luò)算法,理解為一個有許多層級的回歸函數(shù)。通過大量的訓(xùn)練數(shù)據(jù),算法將不斷調(diào)整其中的系數(shù),以使得對訓(xùn)練集的整體誤差最小。不難發(fā)現(xiàn),人工智能的本質(zhì)是一個對大數(shù)據(jù)特征進行提取后形成的“黑箱”。正是通過這些特征值,這個“黑箱”才得以對新的個例做出預(yù)測。

大規(guī)模的數(shù)據(jù)是AI實現(xiàn)的基礎(chǔ),而算法被用于處理大量個案,那么哪些個體的需求能夠成為一個算法的主要目的?答案顯而易見,在統(tǒng)計性歧視的作用下,弱者的需求被消解。除性別以外,女性的種族、階層、年齡、性取向等都成為女性被歧視的原因。單身女性現(xiàn)狀或許能成為大數(shù)據(jù)參與交叉性壓迫的例證:媒體通過大量報道“大齡未婚女性”“單身母親”等話題,并利用“平均工資低”“年齡大”等刻板印象對單身女性進行污名化。這種刻板印象不僅反映在單身女性被歧視,也成為其他算法系統(tǒng)學(xué)習(xí)的數(shù)據(jù),構(gòu)成一個不恰當(dāng)?shù)姆答伝芈罚觿×诵詣e不平等。

如何判斷一個算法是否有偏見


可以見到,不公平的算法實際上正在加劇不平等,而算法本身的非實體性則很好地為他們開脫了罪名。假定我們接受了這種“讓機器擁有話語權(quán)”的方式,則必須引入一個更高維的框架對算法進行約束與評價。作為一個無法了解詳細結(jié)構(gòu)的“黑箱”,AI算法的各個層級難以被規(guī)范化。在一個只有輸入和輸出的模型中,算法的輸入數(shù)據(jù)只能通過篩選來規(guī)范,那么我們應(yīng)該如何評價算法的結(jié)果?

一個廣為接受的評價體系——機會平等,是羅爾斯所提倡的平等理念在機器學(xué)習(xí)領(lǐng)域的體現(xiàn),即在不同群體中,有資格并被判斷為有資格的個體所占比例相同。對于算法公平性不同定義的應(yīng)用廣泛體現(xiàn)在了各個去偏算法中,而它們的結(jié)果卻令人不甚滿意:大部分去偏算法只是掩飾了一部分偏見。

那么,針對算法中依然存在的性別偏見,與其追求平等的概率,是否可以采取一個更為激進的角度,要求一種暫時的“不平等”,以對女性這一弱勢群體做出補償?我們認為,想要實現(xiàn)機會公平,一種“補償正義”是必要的:必須保證每個人發(fā)展能力的機會平等。我們期望算法結(jié)果中針對以女性為代表的弱勢群體的“優(yōu)待”——這不僅能夠為弱勢群體提供更多的展示的空間,更可以為未來算法學(xué)習(xí)提供數(shù)據(jù)。

偏見的去除探索


AI的背后是一套人造的算法模型,這是無法跳脫出的桎梏。百年前的遴選模型必然不適用于今日,需要AI背后的工程師們?yōu)樗⑷腱`魂。而對于性別偏見,我們倡導(dǎo)從女性學(xué)與算法學(xué)兩個方面進行去偏。

性別偏見在家庭、生育、職場等領(lǐng)域頻繁出現(xiàn)。算法模型記錄了歷史狀態(tài),因而我們可以更多地關(guān)注訓(xùn)練數(shù)據(jù)、算法模型的選擇。同時,我們可以吸納更多的女性進入AI研究隊伍。LinkedIN的分析發(fā)現(xiàn),全球只有22%的AI專業(yè)人士是女性。長期以來,以男性為主的創(chuàng)作者難免將偏見帶入算法設(shè)計,使AI以男性的視角來看待這個世界。

此外,人工智能的“黑箱”模型并非完全不能干預(yù)——我們期望從算法的角度介入大數(shù)據(jù)中的性別偏見。如今許多去偏算法,如幾年前流行的“硬去偏”和谷歌最近在翻譯中施行的“覆寫式去偏”,都是通過修改某個與性別偏見有關(guān)的數(shù)值,進而干涉算法結(jié)果的例子。此外,建立一個完整的偏見審查機制以平衡訓(xùn)練數(shù)據(jù)中的性別比例和“特征-性別”聯(lián)系,或許是未來去偏的一大方向。

人工智能在展現(xiàn)其有利于人類的生活一面時,其性別偏見卻令人心有戚戚。在追求性別平等的同時,科學(xué)技術(shù)、大數(shù)據(jù)背后所引發(fā)的社會不公平、不正義現(xiàn)象也應(yīng)該為人類所警惕。人類性別平等的理想不應(yīng)該迷失在技術(shù)的海洋里。



來源/中國婦女報(ID:fnb198410)

作者/彭鯤志 黃雋愷

責(zé)編/田園黃蝶

審簽/一帆
監(jiān)制/志飛

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    91精品日本在线视频| 欧美日韩最近中国黄片| 国产日韩熟女中文字幕| 午夜亚洲少妇福利诱惑| 久久精品国产亚洲av麻豆| 国产性情片一区二区三区| 在线免费视频你懂的观看| 日韩精品视频香蕉视频| 日本精品中文字幕在线视频| 国产一区二区三区午夜精品| 国产又长又粗又爽免费视频| 国产熟女一区二区精品视频| 内射精子视频欧美一区二区| 色狠狠一区二区三区香蕉蜜桃| 欧美不卡一区二区在线视频| 国产一二三区不卡视频| 欧洲精品一区二区三区四区| 好吊妞视频只有这里有精品| 亚洲丁香婷婷久久一区| 国产老女人性生活视频| 亚洲熟女一区二区三四区| 欧美成人久久久免费播放| 国产国产精品精品在线| 午夜成年人黄片免费观看| 午夜成年人黄片免费观看| 国产女性精品一区二区三区| 日本丁香婷婷欧美激情| 午夜福利视频偷拍91| 日韩一级一片内射视频4k| 国产免费无遮挡精品视频| 午夜国产精品福利在线观看| 丰满少妇被粗大猛烈进出视频| 国产高清精品福利私拍| 国产精品一区二区不卡中文 | 日韩成人动作片在线观看| 国产白丝粉嫩av在线免费观看| 高跟丝袜av在线一区二区三区| 人妻人妻人人妻人人澡| 日本妇女高清一区二区三区| 欧美国产极品一区二区| 少妇成人精品一区二区|