首頁>Club>
Long short term memory.in RNN
16
回覆列表
  • 1 # 北航秦曾昌

    長短期記憶模型(Long short-term memory,LSTM)是從RNN(迴圈神經網路)改進而來的、廣泛應用於自然語言處理領域中的模型。本文只是筆者站在自己的理解程度上闡述自己對LSTM的一點看法。

    LSTM脫胎於RNN,它解決了RNN在訓練過程中可能會發生的梯度消失的問題(簡單來說就是因為其在內部系統結構設計的時候引入了forget gate,且在不同位置上的f是不同的,做到了連續多個f的值接近1,這樣其所對應的梯度就不會趨近於0)。同時將LSTM應用於語言模型的時候,因其具有的記憶和忘記功能,使其在理論上能夠處理任意長度的文字資料。同時因LSTM對句子中較為重要的詞具有較強的記憶功能,使其對文字的處理不同於以往的停留於幾個相鄰詞一起出現的機率上的計算,而是能夠將間隔較遠的詞聯絡到一起,這就使得機器能夠更加深入的“理解”語意,這對自然語言處理產生的意義是積極的。

    但是LSTM依舊沒能解決RNN訓練過程中梯度爆炸的問題,但是好在梯度爆炸的問題透過Gradient Clipping方法經過適當的處理就可以較好的解決,所以這並不是致命的問題。LSTM用於處理分類問題上的能力目前來看並沒有CNN表現良好,但是LSTM在解決複雜問題上的能力依舊強勁,有著不錯的發展前景。

    基於LSTM的研究不勝列舉,可見LSTM在學術和工業界有著重要的應用,切實的提高了機器的智慧、更高效的解決了自然語言處理領域中的工程問題。總的來說LSTM更真實地表徵和模擬了人類行為、邏輯發展和神經組織的認知過程,這在深度學習的發展史上的意義是深遠的。

  • 中秋節和大豐收的關聯?
  • 孩子如何練好跳繩?