0%

前言

开完题了,论文的审稿意见也下来了。不出意料,有两个评委给了 No,一个给了 Yes。值得开心的是他们都说这是一个新颖的想法,不足还是自己的写作方面,没有把模型说清楚,而且实验做的也不够充分,接下来可能就是要慢慢改了。循环神经网络部分的实验内容也总结完了,虽然还是模模糊糊,但是这些东西大体上在我看来也没那么高深莫测,倒是一些细节方面确实挺难的。

阅读全文 »

前言

花了一些时间填补了 WAV 文件的基础知识和快速傅里叶变换算法的内容。终于可以继续学习深度学习啦!前段时间买了个小米的小爱同学,用来睡前关灯还是挺方便的,这次的实验就是研究小爱同学究竟是如何被唤醒的。

阅读全文 »

前言

终于下定决心要啃掉这块骨头。大四选修数字图像处理的时候,第一次接触傅里叶变换,然后实现了时间度复杂度为 \(O(n^2)\) 的算法,后来才知道还有快速傅里叶变换,时间复杂度是 \(O(nlogn)\)

阅读全文 »

前言

距离上一篇博客已经过去了一个半月,这段时间看了几篇关于 Learning to Rank 的文章,老肖就很固执地想让我用到代码错误检测中去,我还是想再慢慢学一下推荐算法,看能不能做点小工作。同时这段时间想搭一个 BBS,于是升级重构了一下 phphub,算是捡起 Laravel 再学习了一下吧!深度学习也不能落下,继续搞起来。

阅读全文 »

前言

将人类可读的日期格式翻译成机器可读的日期格式,这个想法真的很有意思。这篇博客记录了如何使用 attention 机制来进行机器翻译。

阅读全文 »

前言

实验和上一篇博客都使用了 Embedding,这篇博客正好可以加深对词向量和嵌入矩阵的理解。发现吴恩达课程里面很多内容他说在实验里有,但是我却没找到,例如本节中的负采样,难道他也喜欢挖坑不喜欢填?

阅读全文 »

前言

写论文做实验的时候曾经想过用文本分类的模型,无奈样本太不均衡,所以最后用了自编码器提取特征。在 Coursera 的作业中,该实验分为两个小实验,一个是普通的文本分类,一个是使用 LSTM RNN 进行文本分类。

阅读全文 »

前言

终于把论文投出去了,虽然中的概率很渺茫,但是我肖的态度确实好了不少。终于又可以闲下来好好学学深度学习了,论文的实验过程中用了 LSTM Autoencoder,正好趁着这个机会再强化一下。在上篇学习笔记中,由于恐龙名字不会很长,所以在生成恐龙名字的作业中使用 RNN 已经可以满足任务要求。本次作业是创作爵士独奏,普通 RNN 无法解决长期依赖问题,所以使用了 LSTM。

阅读全文 »

前言

在介绍 RNN 的文章中,重点是学习 RNN 的结构,前向传播和反向传播的大致流程,所以在实现代码中并不是很全面,甚至没有关于损失函数的定义,这个作业基于字符级别,实现了一个语言模型。

阅读全文 »

前言

按照吴恩达 Deeplearning 系列课程,应该是先学卷积神经网络,但是自己的实验中要用到递归神经网络,感觉不能再拖了,就先学习一下序列模型这一章节。在普通的神经网络中,一般都是输入一个向量,然后输出一个向量或者通过 Sigmoid 函数后输出一个值。

阅读全文 »