《東方看點(diǎn)|SAM模型發(fā)布 關(guān)注AI視覺領(lǐng)域》
時間:2023-04-10
近日Meta發(fā)布AI模型Segment Anything Model(SAM模型),由于其泛化能力和數(shù)據(jù)多樣性,SAM模型能夠在零樣本的基礎(chǔ)上查找和分割圖像中的任意對象。
東方基金權(quán)益研究部認(rèn)為,SAM與之前計算機(jī)視覺的不同點(diǎn)在于,計算機(jī)視覺依賴于人工標(biāo)注和企業(yè)自身數(shù)據(jù)訓(xùn)練,缺點(diǎn)是舉一反三的能力不夠強(qiáng),且容易被圖像中可能存在的對象目標(biāo)小、數(shù)量多和相互重疊等因素干擾,難以區(qū)分和識別對象。在Chatgpt實(shí)現(xiàn)了文字端的智能化之后,SAM模型的出現(xiàn)又進(jìn)一步實(shí)現(xiàn)了視覺端的智能化,在沒有預(yù)訓(xùn)練的情況下,SAM模型也能夠進(jìn)行圖像識別和分割。而且SAM模型學(xué)會了對象通用的概念,能夠在從未識別過的圖像和視頻中分離出對象,或許代表著AI具備了視覺能力。
東方基金權(quán)益研究部認(rèn)為,SAM模型意味著多模態(tài)模型在視覺領(lǐng)域加速發(fā)展,其對圖像處理和識別的功能有望應(yīng)用于多個領(lǐng)域,包括安防鏡頭識別、智能駕駛識別(3D物體自動建模)、機(jī)器視覺和工業(yè)自動化、AR追蹤和內(nèi)容產(chǎn)出、醫(yī)療影像識別、遙感衛(wèi)星等,建議關(guān)注AI視覺領(lǐng)域的機(jī)會。
市場有風(fēng)險,投資需謹(jǐn)慎。
|
關(guān)閉本頁 打印本頁 |