百度競價優化_微商推廣_今日頭條自媒體_新媒體運營_劍謙網絡
如今大多數AI模型都基于人工神經網絡。這些神經網絡由通過軟件連接鏈接在一起的人工神經元系統組成。這些連接通過傳遞數據將不同的輸入連接到不同的輸出,執行數學算法以生成最佳結果。相同的數據路徑很多,但是在許多AI模型中只使用了其中的一小部分,而其他的則未使用,占用了大量空間。這可能會導致模型變慢。神經網絡引擎-我是錢QQ/微信:6439979
為了克服這個問題,Google最近發布了RigL,該算法可以使基于神經網絡的人工智能模型更加高效。它通過在模型的訓練階段對神經網絡的結構進行策略性調整來消除無用的連接,從而實現這一目標。
為了測試RigL,研究人員使用圖像處理模型來分析不同字符的圖像。在模型的訓練階段,RigL觀察到只需要在前景圖像中跳過背景圖像即可對其進行處理。因此,它刪除了用于處理背景像素的連接,并添加了新的更有效的連接。神經網絡引擎
Google聲稱,即使RigL刪除了某些連接,也不會影響模型的準確性。在一項測試中,Google研究人員使用RigL刪除了ResNet-50模型的80%的連接。最終的神經網絡獲得了與原始神經網絡相當的準確性。在另一個實驗中,研究人員將ResNet-50縮小了99%,但仍達到了70.55%的最大精度。
并非只有Google的RigL會嘗試壓縮神經網絡以提高準確性。有許多方法可以做到這一點,但是它們通常會損害模型的準確性。Google聲稱可以達到更高的準確性,同時所需的FLOP數比迄今為止最成功的三種替代技術少。因此RigL可以同時實現精度和效率。神經網絡引擎-我是錢QQ/微信:6439979
推薦閱讀:
來源:我是錢博客(微信/QQ:7399058),歡迎分享!
本文鏈接:http://www.juj858.com/post/54519.html