成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

比Meta「分割一切AI」更全能!港科大版圖像分割AI來了:實現更強粒度和語義功能

人工智能 新聞
Semantic-SAM,在多個粒度(granularity)上分割(segment)和識別(recognize)物體的通用圖像分割模型。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

比Meta“分割一切”的SAM更全能的圖像分割AI,來了!

模型名為Semantic-SAM,顧名思義,在完全復現SAM分割效果的基礎上,這個AI還具有兩大特點:

  • 語義感知:模型能夠給分割出的實體提供語義標簽
  • 粒度豐富:模型能夠分割從物體到部件的不同粒度級別的實體

圖片圖片

用作者自己的話說:

Semantic-SAM,在多個粒度(granularity)上分割(segment)和識別(recognize)物體的通用圖像分割模型。

據我們所知,我們的工作是在 SA-1B數據集、通用分割數據集(COCO等)和部件分割數據集(PASCAL Part等)上聯合訓練模型的首次嘗試,并系統研究了在SA-1B 上定義的交互分割任務(promptable segmentation)和其他分割任務(例如,全景分割和部件分割)上多任務聯合訓練的相互促進作用。

論文來自香港科技大學、微軟研究院、IDEA研究院、香港大學、威斯康星大學麥迪遜分校和清華大學等研究單位。

具體詳情,一起來看~

  • 論文地址:https://arxiv.org/abs/2307.04767
  • 代碼地址:https://github.com/UX-Decoder/Semantic-SAM
  • 在線Demo地址:上述代碼倉庫的首頁

(以下為論文作者投稿)

1.簡介

Semantic-SAM可以完全復現SAM的分割效果并達到更好的粒度和語義功能,是一個強大的vision foundation model。Semantic-SAM 支持廣泛的分割任務及其相關應用,包括:

  • Generic Segmentation 通用分割(全景/語義/實例分割)
  • Part Segmentation 細粒度分割
  • Interactive Segmentation with Multi-Granularity Semantics 具有多粒度語義的交互式分割
  • Multi-Granularity Image Editing 多粒度圖像編輯

圖片圖片

1.1 復現SAM

SAM是Semantic-SAM的子任務。我們開源了復現SAM效果的代碼,這是開源社區第一份基于DETR結構的SAM復現代碼。

1.2 超越SAM

  • 粒度豐富性: Semantic-SAM能夠產生用戶點擊所需的所有可能分割粒度(1-6)的高質量實體分割,從而實現更加可控和用戶友好的交互式分割。
  • 語義感知性。Semantic-SAM使用帶有語義標記的數據集和SA-1B數據集聯合訓練模型,以學習物體(object)級別和細粒度(part)級別的語義信息。
  • 多功能。Semantic-SAM 實現了高質量的全景,語義,實例,細粒度分割和交互式分割,驗證了SA-1B 和其他分割任務的相互促進作用。

只需單擊一下即可輸出多達 6 個粒度分割!與 SAM 相比,更可控地匹配用戶意圖,不用擔心鼠標移動很久也找不到想要的分割了~

2. 模型介紹

2.1 模型結構

Semantic-SAM的模型結構基于Mask DINO進行開發。Mask DINO是基于DETR框架的統一檢測和分割的網絡,目前仍然是相同模型size下的SOTA模型。Semantic-SAM的模型結構主要改進在decoder部分,同時支持通用分割和交互式分割。通用分割的實現與Mask DINO相同。交互式分割包括point和box兩種形式,其中box到mask不存在匹配的ambiguity,實現方式與通用分割相同,而point到mask的匹配是Semantic-SAM的關鍵設計。

在Semantic-SAM中,用戶的point輸入被轉換成6個prompt, 每個prompt包含一個可學習的level embedding進行區分。這6個prompt通過decoder產生6個不同粒度的分割結果,以及object和part類別。

圖片圖片

2.2 訓練

為了學到物體級別(object)和部件級別(part)的語義,Semantic-SAM同時從多個數據集中進行學習,如多粒度數據集(SA-1B),物體級別數據集(如COCO),以及部件級別數據集(如Pascal Part)

為了從聯合數據集中學習語義感知性和粒度豐富性,我們引入以下兩種訓練方法:

解耦物體分類與部件分類的語義學習:為了學習到可泛化的物體和部件語義,我們采用解耦的物體分類和部件分類,以使得只有object標注的數據也可以學習到一些通用的part語義。例如,head是在幾乎所有動物上都通用的part,我們期望模型從有標注的dog head,cat head,sheep head等head中學習到可泛化的lion,tiger,panda等head的識別能力。

圖片圖片

Many-to-Many的多粒度學習:對于交互式分割中的point輸入,Semantic-SAM利用6個prompt去輸出多粒度的分割結果,并用包含該點擊的所有標注分割來作為監督。這種從多個分割結果到多個分割標注的Many-to-Many的匹配和監督,使得模型能夠達到高質量的多粒度分割效果。

圖片圖片

3. 實驗

3.1 SA-1B 與通用分割數據集的聯合訓練

我們發現,聯合訓練 SA-1B 和通用分割數據集可以提高通用分割性能,如對COCO分割和檢測效果有大幅提升。

圖片圖片

在訓練SA-1B數據的過程中,我們也發現了利用少量SA-1B的數據即可得到很好的效果。

圖片圖片

3.2 SA-1B 與細粒度分割數據集的聯合訓練

同樣的,聯合訓練 SA-1B 和細粒度分割數據集可以提高部件分割性能。

圖片圖片

4. 可視化

4.1 Semantic-SAM的prompt從大量數據中學到了固定模式的表征

Semantic-SAM一共有6個可學習的prompt。對于不同圖片的點擊,觀察每個prompt對應的分割結果,可以發現每個prompt的分割都會對應一個固定的粒度。這表明每個prompt學到了一個固定的語義級別,輸出更加可控。

圖片圖片

4.2 Semantic-SAM與SAM, SA-1B Ground-truth 的比較

每行最左邊圖像上的紅點是用戶點擊的位置,(a)(b) 分別是Semantic-SAM和 SAM 的分割輸出, (c) 是包含用戶點擊的 Groud-truth 分割。與 SAM 相比,Semantic-SAM具有更好的分割質量和更豐富的粒度,方便用戶找到自己需要的分割粒度,可控性更好。

圖片圖片

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-04-25 11:36:17

CV模型

2023-10-24 19:06:59

模型訓練

2024-07-30 10:51:51

2023-05-19 13:24:20

模型AI

2023-04-10 15:52:57

模型樣本

2025-05-09 08:02:30

2024-03-01 10:04:11

研究訓練編碼器

2023-06-27 17:35:39

FastSAM模型SAM

2023-11-22 11:40:00

Meta模型

2023-05-04 12:19:47

模型AI

2023-12-07 07:16:57

Meta訓練

2020-09-16 11:46:05

AI

2023-07-05 14:06:43

視頻AI

2023-12-06 13:36:00

模型數據

2023-04-27 09:27:44

視頻AI

2025-03-13 11:11:04

2023-04-23 15:42:18

圖像視頻

2025-03-10 13:11:00

2023-12-29 07:54:33

AI智能體人工智能

2023-04-18 15:08:46

模型圖像
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产乱码精品1区2区3区 | 美女天天干天天操 | 欧美精品一区三区 | 久久久久久久国产精品 | 狠狠色网 | 九九在线视频 | 一级毛片免费 | 国产精品欧美一区二区 | 久草免费在线视频 | www97影院 | 天堂国产 | 国产免费一级一级 | 国产精品久久久久久久免费观看 | 日本一区二区高清视频 | 亚洲日本欧美日韩高观看 | 精品国产一区二区国模嫣然 | 日本精品一区二区 | 精品久久久久久久久久久久久久 | 91久久夜色| 男女视频在线观看网站 | 久久国产精品视频 | 久久久亚洲 | 国产精品成av人在线视午夜片 | 91精品久久久久久久久久 | 国产色网站 | 超碰在线免费av | 国产精品久久久久久久久图文区 | 日本视频免费 | 精品美女在线观看视频在线观看 | 欧美日韩视频在线第一区 | 欧美激情黄色 | 久久国产精品视频 | 亚洲精品久久久久avwww潮水 | 天天精品在线 | 亚洲精品91 | 国产色| 午夜久久久久 | 黄色网址在线播放 | 精品美女久久久 | 国产欧美日韩一区二区三区在线 | 日韩在线视频网址 |