🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 聯合推廣任務上線!
本次活動總獎池:1,250 枚 ES
任務目標:推廣 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 專場
📄 詳情參考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任務內容】
請圍繞 Launchpool 和 Alpha 第11期 活動進行內容創作,並曬出參與截圖。
📸【參與方式】
1️⃣ 帶上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 發帖
2️⃣ 曬出以下任一截圖:
Launchpool 質押截圖(BTC / ETH / ES)
Alpha 交易頁面截圖(交易 ES)
3️⃣ 發布圖文內容,可參考以下方向(≥60字):
簡介 ES/Eclipse 項目亮點、代幣機制等基本信息
分享你對 ES 項目的觀點、前景判斷、挖礦體驗等
分析 Launchpool 挖礦 或 Alpha 積分玩法的策略和收益對比
🎁【獎勵說明】
評選內容質量最優的 10 位 Launchpool/Gate
IT 之家今日發文表示,AI 模型盲堆體積實際上效果並不見得更好,更多要看訓練數據的質量,微軟日前最近發布了一款13 億參數的語言模型phi-1,採用“教科書等級”的高品質資料集訓練而成,據稱“實際效果勝於千億參數的GPT 3.5”。該模型以Transformer 架構為基礎,微軟團隊使用了包括來自網絡的“教科書等級”數據和以GPT-3.5 經過處理的“邏輯嚴密的內容”,以及8 個英偉達A100 GPU,在短短4 天內完成訓練。微軟團隊表示,比起增加模型的參數量,通過提高模型的訓練數據集質量,也許更能強化模型的準確率和效率,於是,他們利用高質量數據訓練出了phi-1 模型。在測試中,phi-1 的分數達到50.6%,比起1750 億參數的GPT-3.5(47%)還要好。微軟還表示,phi-1 接下來會在HuggingFace 中開源,而這不是微軟第一次開發小型LLM,此前,他們打造一款130 億參數的Orca,使用了GPT-4 合成的數據訓練而成,表現也同樣比ChatGPT 更好。