這一共識機制具有良好隨機性。PoW的出塊節點是隨機的,因而基于這些節點選出的超級節點也是隨機的。這種隨機性將極大提高節點作惡成本,降低節點作惡的可能性。
另一方面,這一共識機制能夠保證挑選出綜合指標最好的節點,從而實現網絡效率最大化。這一保證來自于AI優秀鑒別能力,增強型AI學習算法會鍛煉AI成為“節點選擇”專家。
AI:節點選擇專家
2017年12月7日是AI史上具有里程碑意義的一天,谷歌的AlphaZero 在經過 8小時的圍棋學習后,擊敗了與李世石對戰獲勝的 AlphaGo;又經過 4 個小時的象棋訓練,擊敗了世界頂級國際象棋程序Stockfish;緊接著在2個小時的練習之后,它讓世界上最強的日本將棋程序Elmo敗在自己的手下。
不同于Stockfish這些傳統AI,取勝依靠數百年來人類國際象棋經驗和計算機象棋經驗,AlphaZero運用的是機器學習原理,它未被教授任何基本起手下法,僅僅通過不斷和自己下棋自學成長。國際象棋被認為是人類智慧的最高展現,但AlphaZero僅僅花了4個小時,在沒有任何經驗指導的情況下,從一無所知成為絕頂高手。
這種“強化學習”(reinforcement learning)訓練方法就是PoAI共識機制中采用的增強型AI學習算法。
在AICHAIN系統中,最開始運行PoW共識機制,在運行幾十萬個塊后,將這些塊數據交給AI算法。AI算法依據歷史區塊數據進行分析和計算,這其中包括但不局限于每個節點打包的交易數量、塊數量,網絡等待的交易數量等信息,最后選擇出加權評分排名靠前的節點,將這個節點結果與系統預先設定好的幾個性能穩定且優越的服務器節點對比,然后修正AI算法和參數,完成一次學習。
通過一次次類似的學習過程,逐漸使AI算法挑選節點的結果接近實際的最優結果。
在之后,系統從PoW共識機制切換到PoAI共識機制,AI在已有經驗的基礎上邊工作邊修正,每一次計算都能讓它進化成更符合網絡綜合實際情況的更好算法,從而在短時間內成為一位遠超任何人或者任何團隊的節點選擇專家,讓系統擁有最高的效率。
除了卓越挑選能力,PoAI還有更好安全性和容錯能力,即使黑客攻擊所有超級節點,導致它們無法正常工作,其余節點依然可以用PoW出塊,然后AI會迅速選出新的超級節點,不會中斷運行,也不用等待人工干預。
在AICHAIN,人類只用掌握一個開關。
最大變量
在現有區塊鏈系統中,共識機制是決定區塊鏈基礎性能關鍵性因素。
PoW機制消耗大量計算資源和能量資源除了產生比特幣區塊外,對人類社會沒有其他任何價值,其性能也不能滿足區塊鏈真實應用場景的需求,更因為算力的過度集中與其去中心化的初衷背道而馳。
DPoS機制讓本來由算法保障的世界重新回到人類之手,于是種種發生于中心化社會的弊病在區塊鏈上重演一遍,而這種弊病正是人們希望通過區塊鏈來解決的。
PoAI的異軍突起似乎帶來一個不一樣的未來,通過增強型AI學習算法和PoAI共識機制的設計,讓區塊鏈在效率、安全性、公平性等等維度上總體往前邁進了一大步。
這個區塊鏈思維與人工智能方法結合而生的產物是否是區塊鏈領域近幾年來最大的革命?我們拭目以待。