圖像識(shí)別應(yīng)用 谷歌AI工具今后不再識(shí)別男性和女性標(biāo)簽了嗎?
谷歌AI工具今后不再識(shí)別男性和女性標(biāo)簽了嗎?在為開發(fā)者提供的人工智能工具中,谷歌表示未來不會(huì)給圖片貼上性別標(biāo)簽,因?yàn)樗J(rèn)為一個(gè)人的性別不能單憑照片中的照片來決定。今天,谷歌在一封致開發(fā)者的公開信中表示
谷歌AI工具今后不再識(shí)別男性和女性標(biāo)簽了嗎?
在為開發(fā)者提供的人工智能工具中,谷歌表示未來不會(huì)給圖片貼上性別標(biāo)簽,因?yàn)樗J(rèn)為一個(gè)人的性別不能單憑照片中的照片來決定。
今天,谷歌在一封致開發(fā)者的公開信中表示,將對廣泛使用的云視覺API工具進(jìn)行調(diào)整,該工具主要使用人工智能分析圖像,以識(shí)別人臉、地標(biāo)建筑、可顯示內(nèi)容和其他內(nèi)容。
未來,谷歌將用“人”來標(biāo)記圖像,而不是用“男”或“女”來識(shí)別圖像,從而避免人工智能算法傳遞偏見。
據(jù)business insider稱,谷歌在發(fā)給開發(fā)者的電子郵件中引用了自己的人工智能指南?!庇捎跓o法從外表推斷出一個(gè)人的性別,我們決定刪除這些標(biāo)簽,以符合谷歌的人工智能原則,特別是原則2:避免制造或強(qiáng)化不公平的偏見?!?/p>
在過去,人工智能圖像識(shí)別一直是谷歌棘手的問題。2015年,一位軟件工程師指出,谷歌照片的圖像識(shí)別算法將其黑人朋友歸類為“大猩猩”。谷歌承諾會(huì)解決這一問題,但《連線》在2018年的后續(xù)報(bào)告中發(fā)現(xiàn),谷歌已阻止其人工智能識(shí)別大猩猩,但核心問題并未得到妥善解決。