📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
阿里大模型又開源!能讀圖會識物,基於通義千問7B打造,可商用
來源:量子位
繼通義千問-7B(Qwen-7B)之後,阿里雲又推出了大規模視覺語言模型Qwen-VL,並且一上線就直接開源。
舉個🌰,我們輸入一張阿尼亞的圖片,通過問答的形式,Qwen-VL-Chat既能概括圖片內容,也能定位到圖片中的阿尼亞。
首個支持中文開放域定位的通用模型
先來整體看一下Qwen-VL系列模型的特點:
按場景來說,Qwen-VL可以用於知識問答、圖像問答、文檔問答、細粒度視覺定位等場景。
比如,有一位看不懂中文的外國友人去醫院看病,對著導覽圖一個頭兩個大,不知道怎麼去往對應科室,就可以直接把圖和問題丟給Qwen-VL,讓它根據圖片信息擔當翻譯。
視覺定位能力方面,即使圖片非常複雜人物繁多,Qwen-VL也能精準地根據要求找出綠巨人和蜘蛛俠。
研究人員在四大類多模態任務(Zero-shot Caption/VQA/DocVQA/Grounding)的標準英文測評中測試了Qwen-VL。
另外,研究人員構建了一套基於GPT-4打分機制的測試集TouchStone。
如果你對Qwen-VL感興趣,現在在魔搭社區和huggingface上都有demo可以直接試玩,鏈接文末奉上~
Qwen-VL支持研究人員和開發者進行二次開發,也允許商用,不過需要注意的是,商用的話需要先填寫問卷申請。
項目鏈接:
-聊天
論文地址: