引言

语言模型,在百度百科中的描述是:根据语言客观事实而进行的语言抽象数学建模,是一种对应关系。语言模型与语言客观事实之间的关系,如同数学上的抽象直线与具体直线之间的关系。在我看来,语言模型本质上其实是在解决这样一个问题:语句是否合理(更直白的说法就是,说的是不是人话 😏)。本文会介绍语言模型在计算机领域的几个转变的重要节点以及个人的一点小小的理解。

数学研究 > 信息时代
神经网络语言模型N-Grams

引言

【搞定神经网络系列】博客开坑第一篇,循环神经网络篇。

循环神经网络(Recurrent Neural Network, RNN)是一类人工神经网络,通常以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接。需要注意的是循环神经网络具有记忆性且参数共享。

数学研究 > 信息时代
RNN神经网络LSTMGRU

引言

【PyTorch 源码阅读系列】主要是记录一些阅读 PyTorch 源码时的笔记(好记性不如烂笔头)。事实上 PyTorch 的文档齐全,哪怕你不阅读源码也能够很好地使用它来搭建并训练自己的模型,我之所以选择阅读源码,一方面是为了对 PyTorch 有更深入的理解,另一方面是学习这种优秀的源码也能够帮助自己写出更优雅规范的代码。本文为 torch.nn.Module 篇,本系列的第一篇。

信息时代
PyTorch源码阅读Module

引言

PyTorch 是一个开源的 Python 机器学习库,提供了两个高级功能:

  • 具有强大的 GPU 加速的张量计算
  • 包含自动求导系统的的深度神经网络(Autograd)

Autograd 包是 PyTorch 所有神经网络的核心,为张量上的所有操作提供自动求导机制。它是一个运行时定义的框架,即反向传播是随着对张量的操作来逐步决定的,这也意味着在每个迭代中都是可以不同的。

现在由于很多封装好的 API 的存在,导致我们在搭建自己的网络的时候并不需要过多地去关注求导这个问题,但如果能够对这个自动求导机制有所了解的话,对于我们写出更优雅更高效的代码无疑是帮助极大的。本文会简单介绍 PyTorch 的 Autograd 机制。

信息时代
PyTorch自动微分Autograd

引言

本文介绍如何利用 Github Pages + Hexo 搭建自己的个人博客静态网站

  • Github Pages 可直接从 Github 仓库创建网站

  • Hexo 是一个快速、简洁且高效的博客框架

我会尽量将建立过程讲述清楚,但清楚并不等于事无巨细,一些基础操作(例如注册账号等)会用简单的一句话略过

杂项
Github PagesHexo静态网站