Tag標(biāo)簽
  • 三級等保咨詢
    三級等保咨詢

    由于算法的設(shè)計(jì)者的認(rèn)知存在某種偏見,或者訓(xùn)練算法使用了有問題的數(shù)據(jù)集等原因,可能讓人工智能系統(tǒng)決策出現(xiàn)有歧視性的結(jié)果。這類事例媒體時有報(bào)道,例如,在金融領(lǐng)域“降低弱勢群體的***得分”“拒絕向’有色人種’**”“廣告商更傾向于將高息**信息向低收入群體展示”等。當(dāng)公共服務(wù)或者**決策中使用人工智能時,就更需要警惕算法歧視問題。就地鐵這一場景,我們已知的是,通過人臉識別進(jìn)行的分類安檢將基于分類標(biāo)準(zhǔn)和“白名單”制度之上。但我們無從得知,識別系統(tǒng)是基于怎么樣的標(biāo)準(zhǔn)對乘客進(jìn)行分類,以及這些標(biāo)準(zhǔn)是否具有正當(dāng)性。與個人相關(guān)的標(biāo)簽――乘客的戶籍地、犯罪記錄、家庭情況、工作單位、征信記錄等――是否可以...