


Solana Foundation專注於資助與支持開源AI工具,促進開發者與應用更有效率地運用及互動Solana區塊鏈。然而,產業的核心挑戰在於,如何以標準化方式有效評量這些創新工具的價值與影響。
Solana生態系過去嘗試過多種評估方法。問答型基準測試因維護成本高而難以長期執行;整合於Agent工具包的工具呼叫基準測試,在不同技術堆疊下表現分散且不穩定;單一工具包的補助計畫也難以追蹤對開發者社群的實質影響。雖然每種方法都帶來一定洞見,但始終缺乏可持續且標準化的評估體系。
為解決這一問題,Solana Foundation推出Solana Bench——專為評估大型語言模型(LLM)於Solana鏈上操作能力而設計的輕量級開放式測試環境。該基準測試體系強調簡潔、可重現及客觀的測量標準。
Solana Bench包含兩大配套環境:
基礎環境:此環境僅使用@solana/web3.js、Anchor等核心SDK,藉由統計成功執行的新指令數來評估成果,專注於Solana基礎開發能力的評量。
DeFi環境:以基礎環境為基礎,DeFi環境將相同評量標準應用於去中心化金融場景,整合主要DeFi協議,如Jupiter、Orca、Raydium、Phoenix與Meteora,並預載範例提示與SDK,方便全面性測試。
值得一提的是,這些環境並不評估盈虧或財務結果,而是專注於Solana操作能力。基準測試獎勵能有效構建合法交易、正確選擇帳戶、合理運用SDK、具備錯誤復原能力,並展現跨項目的廣泛知識。該設計理念參考了ClaudePlaysPokemon、TextQuest、Nvidia Voyager等成熟的開放式基準測試。
Solana Foundation歡迎開發者及研究人員參與Solana Bench相關研究,並投入資源支持開源高品質Solana LLM基準測試專案。這種協作模式旨在推動生態系更有效評估與提升AI開發工具的能力。
開發者可參與開源Solana Bench框架,提出優化建議,擴充測試環境,涵蓋更多實際應用場景。
Solana Bench在標準化、可重現地評估大型語言模型於Solana鏈上構建與執行複雜交易能力上,邁出了關鍵一步。透過雙重互補測試環境,強調操作能力而非財務指標,Solana Foundation為開發者社群提供透明且客觀的AI區塊鏈開發進度測量框架。隨著持續的開源合作與資助,Solana Bench有望成為生態AI工具革新的基礎設施。
Solana理論TPS為710,000,實測吞吐量達65,000。開發者預期合理目標是400,000 TPS。
Solana每秒最多可處理65,000筆交易,且手續費低廉;Ethereum為13-15 TPS,Polygon速度與Solana相近。Solana採用Proof of History共識機制,能實現高速交易,非常適合高效能應用。
Solana平均確認時間約13秒,遠快於多數其他區塊鏈網路,是其主要競爭優勢之一。
Solana基準測試透過分散式節點進行高負載壓力測試,以評估網路吞吐量和延遲。Solana會在全球節點間執行可擴展性測試,不斷優化鏈上效能。
Solana測試網TPS峰值高達470,000,表現卓越。但實際營運時,網路壅塞、驗證者擴展性與頻寬限制等因素,可能影響高負載下的持續效能。
Solana透過Proof of History(PoH)進行時間戳驗證,並採用Delegated Proof of Stake(DPoS)實現高效共識,並具備自訂指令集架構。這些技術讓Solana可用極低成本達到高TPS。
可前往status.solana.com獲取即時數據,並透過Solana RPC的getHealth()方法檢測叢集健康度,結合官方儀表板與區塊瀏覽器監控交易量、區塊時間及驗證者活躍狀況。











