📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
大模型長文本處理成新標配 挑戰與機遇並存
長文本能力成爲大模型廠商新"標配"
大模型正以驚人的速度提升其文本處理能力,從最初的4000 token擴展到目前的40萬token。長文本處理能力似乎已成爲衡量大模型廠商實力的新標準。
目前,國內外頂級大模型公司和研究機構都將擴展上下文長度作爲重點升級方向。OpenAI的GPT系列模型經過多次升級,上下文長度從4千增至3.2萬token。Anthropic更是一舉將上下文長度提升至10萬token。國內的月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。
長文本能力的提升意味着模型可以處理更長的輸入文本,增強了閱讀理解能力。從最初只能讀完一篇短文,到現在可以處理一本長篇小說。這不僅擴展了模型的應用場景,也爲金融、法律、科研等專業領域的智能化升級提供了可能。
然而,文本長度並非越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接畫等號。更重要的是模型對上下文內容的有效利用。
月之暗面創始人楊植麟認爲,大模型的上限由單步能力和執行步驟數共同決定,其中單步能力與參數量相關,而執行步驟數即上下文長度。長文本技術既可以解決大模型早期的一些問題,也是推進產業落地的關鍵技術之一。
目前,長文本技術在信息提取、代碼生成、角色扮演等方面展現出強大潛力。但在實際應用中仍存在一些問題,如無法聯網獲取最新信息、生成過程無法暫停修改等。
長文本技術面臨"不可能三角"困境:文本長短、注意力和算力三者難以兼顧。這主要源於Transformer結構中自注意力機制的計算量隨上下文長度呈平方級增長。
爲解決這一困境,目前主要有三種方案:
雖然長文本的"不可能三角"困境暫時無解,但這也爲大模型廠商指明了探索方向:在文本長短、注意力和算力三者之間尋找最佳平衡點,以處理足夠信息的同時兼顧注意力計算與算力成本限制。