siteadmin | security

人臉識別技術不斷傳出有缺憾,尤其對有色人種、或性別均存在誤差。為了打造一個更公平的人臉識別系統,Fb 近日的 AI 團隊在 F8 分享大會中公佈一個較公平的演算法,此外該團隊也發現業界在尋找相片去訓練機器時,發現白人男性的照片與有色人種及女性的照片比例不是 1:1,這也讓到人工智能在識別人面時出現了偏差,這也導致 Amazon Rekognition 出現了嚴重偏差。

Fb 這個公佈也代表科技界是可以用技術解決人臉識別的「歧視」問題,而人們也不需要因為系統偏差而排斥,甚至恐懼使用科技。


這個網站採用 Akismet 服務減少垃圾留言。進一步瞭解 Akismet 如何處理網站訪客的留言資料