大家越长越矮了看图说话有没有人知道我皮肤上长了一个什么东西,很痒,感觉皮肤烂了

模型:线性回归的假设:输出与各个输入之间是线性关系求出最终的权重与偏置

损失函数:在训练过程中衡量价格预测值与真实值间的误差,单个样本时使用平方误差;取小批量样本时,使用平方误差求平均

优化:使用随机梯度下降,小批量随机梯度下降指先选取一组模型参数的初始值如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值

矢量计算:使用torch做矢量加法比使用标量加法更快。

线性回归用于連续值预测

神经网络的激活函数:使得神经网络能够进行非线性变换激活函数一定是非线性的,通常有ReLU函数、Sigmoid函数、tanh函数

建立字典将烸个词映射到一个唯一的索引(index)
将文本从词的序列转换为索引的序列
或者用spaCy和NLTK现成的分词工具对文本进行分词

随机采样:每次从数据里隨机采样一个小批量,在随机采样中每个样本是原始序列上任意截取的一段序列,相邻的两个随机小批量在原始序列上的位置不一定相毗邻
相邻采样:在相邻采样中,相邻的两个随机小批量在原始序列上的位置相毗邻

从零开始实现循环神经网络:
首先将字符表示成向量(如one-hot向量),每个字符对应一个唯一的索引

发布了1 篇原创文章 · 获赞 0 · 访问量 21

}

模型:线性回归的假设:输出与各个输入之间是线性关系求出最终的权重与偏置

损失函数:在训练过程中衡量价格预测值与真实值间的误差,单个样本时使用平方误差;取小批量样本时,使用平方误差求平均

优化:使用随机梯度下降,小批量随机梯度下降指先选取一组模型参数的初始值如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值

矢量计算:使用torch做矢量加法比使用标量加法更快。

线性回归用于連续值预测

神经网络的激活函数:使得神经网络能够进行非线性变换激活函数一定是非线性的,通常有ReLU函数、Sigmoid函数、tanh函数

建立字典将烸个词映射到一个唯一的索引(index)
将文本从词的序列转换为索引的序列
或者用spaCy和NLTK现成的分词工具对文本进行分词

随机采样:每次从数据里隨机采样一个小批量,在随机采样中每个样本是原始序列上任意截取的一段序列,相邻的两个随机小批量在原始序列上的位置不一定相毗邻
相邻采样:在相邻采样中,相邻的两个随机小批量在原始序列上的位置相毗邻

从零开始实现循环神经网络:
首先将字符表示成向量(如one-hot向量),每个字符对应一个唯一的索引

发布了1 篇原创文章 · 获赞 0 · 访问量 21

}

我要回帖

更多关于 越长越矮了看图说话 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信