糾正人臉識別技術的偏差 – 建立包容性辨認模型

siteadmin | security

人臉識別技術不斷傳出有缺憾,尤其對有色人種、或性別均存在誤差。為了打造一個更公平的人臉識別系統,Fb 近日的 AI 團隊在 F8 分享大會中公佈一個較公平的演算法,此外該團隊也發現業界在尋找相片去訓練機器時,發現白人男性的照片與有色人種及女性的照片比例不是 1:1,這也讓到人工智能在識別人面時出現了偏差,這也導致 Amazon Rekognition 出現了嚴重偏差。 read more