Gate動態廣場創作者星火招募計劃限時開啓!
無論你是加密KOL、項目方還是媒體,現在入駐發帖,即可搶先解鎖:Gate百萬流量曝光、超$10,000月度激勵獎金、深度生態合作資源等專屬福利!
參與攻略:
1️⃣ 立即填寫申請表:https://docs.google.com/forms/d/e/1FAIpQLSdStzGVu-fj14EM07-cVLYf0pk0axwMQbS-0tk1YK3Y6x5Vew/viewform?usp=header
2️⃣ 審核通過,開啓創作之旅!
🎁 活動獎金獎勵:
基礎創作激勵:參與動態內容挖礦,輕鬆發帖即可獲得高達10%手續費返佣!
$10,000/月內容激勵池:每週精選TOP 10優質內容,入選即獎勵 $50 USDT/篇!
爆款內容獎勵:閱讀量≥3萬可獲得額外 $50 USDT,閱讀量≥10萬可獲得額外 $100 USDT!
🎁 生態合作&流量曝光權益:
空投/AMA/白名單等項目合作優先權
參與Gate Labs早期項目評測,贏潛在種子輪獎勵
APP首頁推薦位、官方宣發、峯會嘉賓等資源加持
本活動長期開放,首批入駐動態廣場用戶權益優先!
立即申請,搶佔流量紅利,輕鬆發帖賺高額獎勵,項目方更有生態扶持等你來享!
阿里大模型又開源!能讀圖會識物,基於通義千問7B打造,可商用
來源:量子位
繼通義千問-7B(Qwen-7B)之後,阿里雲又推出了大規模視覺語言模型Qwen-VL,並且一上線就直接開源。
舉個🌰,我們輸入一張阿尼亞的圖片,通過問答的形式,Qwen-VL-Chat既能概括圖片內容,也能定位到圖片中的阿尼亞。
首個支持中文開放域定位的通用模型
先來整體看一下Qwen-VL系列模型的特點:
按場景來說,Qwen-VL可以用於知識問答、圖像問答、文檔問答、細粒度視覺定位等場景。
比如,有一位看不懂中文的外國友人去醫院看病,對著導覽圖一個頭兩個大,不知道怎麼去往對應科室,就可以直接把圖和問題丟給Qwen-VL,讓它根據圖片信息擔當翻譯。
視覺定位能力方面,即使圖片非常複雜人物繁多,Qwen-VL也能精準地根據要求找出綠巨人和蜘蛛俠。
研究人員在四大類多模態任務(Zero-shot Caption/VQA/DocVQA/Grounding)的標準英文測評中測試了Qwen-VL。
另外,研究人員構建了一套基於GPT-4打分機制的測試集TouchStone。
如果你對Qwen-VL感興趣,現在在魔搭社區和huggingface上都有demo可以直接試玩,鏈接文末奉上~
Qwen-VL支持研究人員和開發者進行二次開發,也允許商用,不過需要注意的是,商用的話需要先填寫問卷申請。
項目鏈接:
-聊天
論文地址: