how to

8.4.RNN

Aug 16, 2024
notesjulyfun技术学习d2l
2 Minutes
261 Words

RNN 基础模型

𝑯𝑛×𝑡=𝜑(𝑿𝒏×𝒅输入维度𝑾𝒅×𝒉𝒙𝒉+𝑯×𝑡1𝑾×𝑏)

𝑂𝑡=𝐻𝑡𝑊𝑞输出维度+𝑏𝑞

这里 𝑊𝑥,𝑊 极其类似于单隐藏层感知机中的隐藏层,只是前一刻的隐藏层输出会成为下一刻隐藏层的输入的一部分。而 𝐻𝑡 隐状态则存储在网络之外。

Perplexity 困惑度

exp(1𝑛𝑛𝑡=1log𝑃(𝑥𝑡|𝑥𝑡1,,𝑥1))

可以直接利用神经网络输出的概率,评估它有多自信。当每个输出的概率均为 1 时,困惑度为 1,当概率为 0 时困惑度正无穷,当概率为均匀分布时困惑度为唯一词元数(也是未压缩情况下存储序列最好的编码方式)。看到一个语言模型报告其 perplexity 为 109 时,直观理解为它每次输出认为有 109 个词作为下一个词的合理选择。ref: http://sentiment-mining.blogspot.com/2016/11/perplexity.html

Article title:8.4.RNN
Article author:Julyfun
Release time:Aug 16, 2024
Copyright 2025
Sitemap