📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
可驗證的人工智能:在人工智能政策中平衡創新與信任的關鍵
以下是ARPA Network創始人Felix Xu的客座文章.
美國政府對人工智能(AI)的態度發生了劇烈變化,強調加速創新而非監管監督。特別是,總統唐納德·特朗普的行政命令《消除美國在人工智能領域的領導障礙》為人工智能的發展設定了新基調,根植於促進言論自由和推動技術進步。同樣,美國副總統JD Vance拒絕支持全球人工智能安全協議,表明美國將優先考慮創新,而不妥協其競爭優勢。
然而,隨著人工智能系統在金融市場、關鍵基礎設施和公共話語中的影響力日益增強,問題依然存在:我們如何能確保在不扼殺創新的情況下,保證人工智能模型驅動的決策和輸出的信任和可靠性?
這就是可驗證AI的作用,它提供了一種透明的、具有加密安全性的AI方法,確保責任感而無需過度監管。
缺乏透明度的人工智能挑戰
人工智能的快速發展帶來了一個新的時代,智能AI代理能夠進行復雜和自主的決策。但是如果沒有透明度,這些系統可能會變得不可預測和無法追責。
例如,金融人工智能代理依賴於複雜的機器學習模型來分析大量數據集,現在在披露要求上有所減少。雖然這鼓勵了創新,但也產生了信任差距:如果無法瞭解這些人工智能代理是如何得出結論的,公司和用戶可能會在驗證其準確性和可靠性方面遇到困難。
由AI模型錯誤決策引發的市場崩潰並不僅僅是一個理論風險,如果在沒有可驗證的保障措施的情況下部署AI模型,這是一種可能性。挑戰不在於放慢AI的發展速度,而在於確保其輸出可以被證明、驗證和信任。
著名的哈佛心理學家B.F. Skinner曾說過:“真正的問題不是機器是否思考,而是人是否思考。”在人工智能中,關鍵問題不僅在於這些系統有多智能,而在於人類如何驗證和信任它們的智能。
如何可驗證的人工智能彌補信任鴻溝
斯坦福人本人工智能研究所的執行董事拉塞爾·沃爾德總結了美國的人工智能方法:
這正是可驗證人工智能至關重要的原因。它使人工智能創新得以進行而不損害信任,確保人工智能輸出可以以去中心化和保護隱私的方式進行驗證。
可驗證的人工智能利用諸如零知識證明(ZKPs)和零知識機器學習(ZKML)等密碼學技術,為用戶提供對人工智能決策的信心,而不暴露專有數據。
從本質上講,可驗證的人工智能提供了一層獨立的驗證,確保人工智能系統保持透明、負責,並且可能是準確的。
可驗證的人工智能:人工智能問責制的未來
美國的人工智能發展軌跡將走向激進創新。但行業必須倡導技術解決方案,以確保進步和信任,而不僅僅依賴政府監管。
一些公司可能會利用較寬鬆的人工智能法規推出沒有充分安全檢查的產品。然而,Verifiable AI 提供了一種強大的替代方案,使組織和個人能夠構建可證明、可靠且抗濫用的人工智能系統。
在一個人工智能越來越多地做出重大決策的世界裡,解決方案不是減緩進步,而是使人工智能可驗證。這是確保人工智能保持創新、信任和長期全球影響力的關鍵。
在本文中提到