「AI新青年講座」將邀請(qǐng)世界頂尖AI研究機(jī)構(gòu)和大學(xué)的科研新青年,主講他們?cè)谟?jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)等人工智能領(lǐng)域的最新重要研究成果。
AI新青年是加速人工智能前沿研究的新生力量。AI新青年的視頻講解和直播答疑,將可以幫助大家增進(jìn)對(duì)人工智能前沿研究的理解,相應(yīng)領(lǐng)域的專業(yè)知識(shí)也能夠得以積累加深。同時(shí),通過(guò)與AI新青年的直接交流,大家在AI學(xué)習(xí)和應(yīng)用AI的過(guò)程中遇到的問(wèn)題,也能夠盡快解決。
「AI新青年講座」目前已完結(jié)220講;有興趣分享學(xué)術(shù)成果的朋友,可以與智東西公開(kāi)課教研團(tuán)隊(duì)進(jìn)行郵件(class@m.loveliyi.com)聯(lián)系。
大語(yǔ)言模型已經(jīng)給自然語(yǔ)言處理領(lǐng)域帶來(lái)了新的革命。在計(jì)算機(jī)視覺(jué)領(lǐng)域,Meta AI近期推出的Segment Anything Model(SAM)工作,在視覺(jué)定位(Localization)任務(wù)上取得了令人振奮的結(jié)果。然而SAM作為一個(gè)極致的定位大模型,并沒(méi)有識(shí)別(Recognition)能力,而識(shí)別是與定位同等重要的CV基礎(chǔ)任務(wù)?,F(xiàn)有的開(kāi)放式檢測(cè)、分割任務(wù)嘗試同時(shí)做好識(shí)別和定位,卻在兩個(gè)任務(wù)上都不能達(dá)到極致。
來(lái)自 OPPO 研究院、IDEA研究院的研究者們最新開(kāi)源了一個(gè)視覺(jué)感知大模型Recognize Anything Model(RAM),提供最強(qiáng)的圖像識(shí)別能力。RAM 為圖像識(shí)別領(lǐng)域提供了一種新的范式,使用海量無(wú)需人工標(biāo)注的網(wǎng)絡(luò)數(shù)據(jù),可以訓(xùn)練出泛化能力強(qiáng)大的通用模型,甚至在垂域下可以超越人工標(biāo)注訓(xùn)練的有監(jiān)督模型。

RAM 可以以較高的準(zhǔn)確率自動(dòng)識(shí)別超過(guò) 6400 類的圖像標(biāo)簽,橫跨學(xué)術(shù)數(shù)據(jù)集和商業(yè)化產(chǎn)品,并根據(jù)其 Open-Set 能力覆蓋任意標(biāo)簽類別。

7月27日晚7點(diǎn),「AI新青年講座」第221講邀請(qǐng)到 RAM 一作、OPPO 研究院研究實(shí)習(xí)生、復(fù)旦大學(xué)在讀博士黃新宇參與,主講《視覺(jué)感知新范式——萬(wàn)物識(shí)別大模型 RAM》。
講者
黃新宇復(fù)旦大學(xué)在讀博士,同時(shí)是 OPPO 研究院研究實(shí)習(xí)生,并與粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院保持密切合作;研究方向?yàn)槎嗄B(tài)學(xué)習(xí)與圖像視覺(jué)理解,提出的 Recognize Anything(RAM)模型是目前最強(qiáng)的開(kāi)源圖像識(shí)別模型。
主 題
《視覺(jué)感知新范式——萬(wàn)物識(shí)別大模型 RAM》
提 綱
1、圖像分割大模型 SAM 概述
2、現(xiàn)有檢測(cè)、分割模型的局限性
3、開(kāi)源圖像識(shí)別大模型 RAM
4、泛化訓(xùn)練及未來(lái)研究探討
直 播 信 息
直播時(shí)間:7月27日19:00
直播地點(diǎn):智東西公開(kāi)課知識(shí)店鋪
成果
論文標(biāo)題:《Recognize Anything: A Strong Image Tagging Mode》
論文地址:https://arxiv.org/pdf/2306.03514.pdf
代碼地址:https://github.com/xinyu1205/recognize-anything
Huggingface Demo:https://huggingface.co/spaces/xinyu1205/recognize-anything