OBOL 項目分享活動開啓!調研 Obol (OBOL) 項目,在Gate.io動態發布您的看法觀點,瓜分 $100 OBOL!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 OBOL 獎勵!
項目簡介:
Obol 致力於分布式、去中心化和民主化未來的數字基礎設施——從以太坊開始,並擴展到整個 Web3 平台。作爲 Layer 1 區塊鏈和去中心化基礎設施網路的基礎,Obol Collective 擁有全球最大的去中心化運營商生態系統。目前,全球超過 800 個去中心化運營商運行 Obol 分布式驗證器 (DV),保障主網超過 10 億的資產安全,Obol 正在賦能下一代去中心化系統。
參與方式:
1.調研$OBOL項目,發表你對項目的見解。具體可包含但不限於:
🔹 Obol 是什麼?
🔹 Obol 去中心化驗證器有何優點?
🔹 $OBOL 代幣經濟模型如何運作?
2.帶上$OBOL現貨交易連結:https://www.gate.io/trade/OBOL_USDT
3.推廣$OBOL Launchpool 質押挖礦活動,分享OBOL Launchpool 參與步驟及質押福利,質押$GT、$BTC、$OBOL 免費瓜分2,250,000 $OBOL空投獎勵,年華收益率高達168%:https://www.gate.io/launchpool/OBOL?pid=291
阿里大模型又開源!能讀圖會識物,基於通義千問7B打造,可商用
來源:量子位
繼通義千問-7B(Qwen-7B)之後,阿里雲又推出了大規模視覺語言模型Qwen-VL,並且一上線就直接開源。
舉個🌰,我們輸入一張阿尼亞的圖片,通過問答的形式,Qwen-VL-Chat既能概括圖片內容,也能定位到圖片中的阿尼亞。
首個支持中文開放域定位的通用模型
先來整體看一下Qwen-VL系列模型的特點:
按場景來說,Qwen-VL可以用於知識問答、圖像問答、文檔問答、細粒度視覺定位等場景。
比如,有一位看不懂中文的外國友人去醫院看病,對著導覽圖一個頭兩個大,不知道怎麼去往對應科室,就可以直接把圖和問題丟給Qwen-VL,讓它根據圖片信息擔當翻譯。
視覺定位能力方面,即使圖片非常複雜人物繁多,Qwen-VL也能精準地根據要求找出綠巨人和蜘蛛俠。
研究人員在四大類多模態任務(Zero-shot Caption/VQA/DocVQA/Grounding)的標準英文測評中測試了Qwen-VL。
另外,研究人員構建了一套基於GPT-4打分機制的測試集TouchStone。
如果你對Qwen-VL感興趣,現在在魔搭社區和huggingface上都有demo可以直接試玩,鏈接文末奉上~
Qwen-VL支持研究人員和開發者進行二次開發,也允許商用,不過需要注意的是,商用的話需要先填寫問卷申請。
項目鏈接:
-聊天
論文地址: