📢 #Gate广场征文活动第三期# 正式啓動!
🎮 本期聚焦:Yooldo Games (ESPORTS)
✍️ 分享獨特見解 + 參與互動推廣,若同步參與 Gate 第 286 期 Launchpool、CandyDrop 或 Alpha 活動,即可獲得任意獎勵資格!
💡 內容創作 + 空投參與 = 雙重加分,大獎候選人就是你!
💰總獎池:4,464 枚 $ESPORTS
🏆 一等獎(1名):964 枚
🥈 二等獎(5名):每人 400 枚
🥉 三等獎(10名):每人 150 枚
🚀 參與方式:
在 Gate廣場發布不少於 300 字的原創文章
添加標籤: #Gate广场征文活动第三期#
每篇文章需 ≥3 個互動(點讚 / 評論 / 轉發)
發布參與 Launchpool / CandyDrop / Alpha 任一活動的截圖,作爲獲獎資格憑證
同步轉發至 X(推特)可增加獲獎概率,標籤:#GateSquare 👉 https://www.gate.com/questionnaire/6907
🎯 雙倍獎勵機會:參與第 286 期 Launchpool!
質押 BTC 或 ESPORTS,瓜分 803,571 枚 $ESPORTS,每小時發放
時間:7 月 21 日 20:00 – 7 月 25 日 20:00(UTC+8)
🧠 寫作方向建議:
Yooldo
Meta 發佈了 audio2photoreal AI 框架,可以通過輸入配音檔生成角色對話場景
Bit News Meta 最近宣佈了一個名為 audio2photoreal 的 AI 框架,它能夠生成一系列逼真的 NPC 角色模型,並藉助現有的畫外音檔自動“對口型同步”和“擺姿勢”角色模型。
官方研報指出,Audio2寫實框架收到配音檔后,會先生成一系列NPC模型,然後利用量化技術和擴散演演演算法生成模型動作,其中量化技術為框架提供動作樣本參考,擴散演演演算法用於提升幀生成的人物動作效果。
對照實驗中有43%的評估者對幀生成的人物對話場景“非常滿意”,因此研究人員認為Audio2逼真框架能夠產生比業內競爭產品“更具活力和表現力”的動作。 據悉,研究團隊現已在 GitHub 上公開了相關代碼和數據集。