2016/8/29 9:01:562048 閱讀
Facebook 在當(dāng)?shù)貢r(shí)間周四宣布開源了一系列 AI 軟件,可以識(shí)別出照片里物體的種類和形狀。
這些軟件由 Facebook 的 AI 研究團(tuán)隊(duì)(FAIR)打造,軟件包括 DeepMask,SharpMask 和 MultiPathNet,這三個(gè)軟件共同分解和識(shí)別圖片內(nèi)容。
這些軟件雖然目前在 Facebook 用戶產(chǎn)品上還不能被積極使用,但類似于今年四月 Facebook 發(fā)布的 AI 軟件“自動(dòng)替代文字(automatic alternative text)”,用來為盲人描述圖像內(nèi)容。
DeepMask 和 SharpMask 作為 Facebook 的實(shí)驗(yàn)研究項(xiàng)目,其重點(diǎn)在于 FAIR 團(tuán)隊(duì)稱的“分割(segmentation)”。
人類可以在幾秒內(nèi)迅速識(shí)別一張照片中的組成元素,但是電腦要做到這樣很難,需要去感知一系列根據(jù)顏色差異用數(shù)字標(biāo)記出來的像素。接著,還要讓電腦搞明白圖像的主體和背景,或者前景部分如何打散成可區(qū)別的各個(gè)物體。最后,還要讓電腦準(zhǔn)確地識(shí)別出該物體是什么,這些都很難做到。
(圖:The Verge)
而通過機(jī)器學(xué)習(xí),F(xiàn)acebook 用算法讓電腦學(xué)會(huì)演繹人類如何認(rèn)知事物。團(tuán)隊(duì)也經(jīng)過了無數(shù)個(gè)實(shí)驗(yàn)來研究人類神經(jīng)網(wǎng)絡(luò)中怎樣理解現(xiàn)實(shí)世界中的物體和環(huán)境特性。
舉個(gè)例子,F(xiàn)AIR 的算法就是讓電腦接收一只羊的多張照片,并告訴算法一只羊看起來應(yīng)該是什么樣子的,電腦就會(huì)學(xué)會(huì)在照片中辨別出這只羊。
(圖:The Verge)
神經(jīng)網(wǎng)絡(luò)辨別物體的過程就稱為“分割”,通過詢問電腦一系列“是或不是”的問題來將內(nèi)容分類,這就是 DeepMask 需要做的事情。
SharpMask 進(jìn)一步優(yōu)化 DeepMask 篩選出來的物體來達(dá)到更準(zhǔn)確的答案。MultiPathNet 則將物體區(qū)分開來并將其歸類。
這個(gè) AI 技術(shù)讓使用者不用鍵入標(biāo)簽就可以輕松找到所需的圖像,幫助殘疾人接收到他們看不見的信息。
FAIR 的研究成員 Piotr Dollar 表示:
我們的目的是提供更浸入式的體驗(yàn),用戶只要用手指點(diǎn)擊圖像,系統(tǒng)就會(huì)描述出用戶觸碰到的內(nèi)容。不需要用雙眼,用戶就能得知圖像有什么東西。
另一方面,該技術(shù)也可以進(jìn)一步完善汽車的自動(dòng)駕駛技術(shù)。
(圖:INVERSE)
一位 Facebook 發(fā)言人接受 The Verge 的采訪:
我們開源我們的編碼,將研究發(fā)現(xiàn)作為學(xué)術(shù)論文發(fā)表在公眾網(wǎng)站上,是想鼓勵(lì)他人來共同分享這些技術(shù)。我們希望其他人也能加入我們團(tuán)隊(duì)來提升我們的軟件技術(shù)。
實(shí)際上,微軟和 Google 等公司也在做相關(guān)的研究。Google 已經(jīng)將這樣的技術(shù)應(yīng)用在 Google 圖片搜索上,也開源了它的技術(shù),如 TensorFlow AI-training 軟件。Facebook 這次開源也感受到一定的壓力。
接下來,F(xiàn)acebook 想要挑戰(zhàn)一下識(shí)別視頻中的事物,這項(xiàng)技術(shù)相比在靜態(tài)的圖像上難非常多,但卻是有必要的。
(圖:Forbes)
馬克·扎克伯格表示,以視頻為中心的媒體形態(tài),是未來五年內(nèi)除了 VR 和更厲害的 AI 技術(shù),社交網(wǎng)絡(luò)最大機(jī)遇。
微信小程序
掃描手機(jī)瀏覽