今日凌晨VAE发布了新曲MV《乌鸦》,感觉VAE的创作风格真的是越来越剑走偏锋,与前三张专辑的风格迥异,但是多听几遍总是可以产生共情的。
由于诸多的偏差,往往我们多数时候只能看到别人光鲜面,却发现自己大部分时候都是在平淡地活着,甚至是颓唐地活着,因此一旦觉察倒世上也有与我一样的人,难免就会触而生情。
-
真的狼灭啊,三点不睡发邮件,当日还得早起有事。话说这反射弧也太长了,不回也没啥其实,好在这样事件算是正式画上句号,明天最后一课我也不会太尴尬了,如释重负。
-
31℃,4km,17’03",这么好的状态也破不了16’56"的pb,接下来要刷新pb越来越难,下周二周四比较凉快,争取再试一次。
-
被迫参加月底研学代会,其实现在我倒是不太抗拒这些无聊的琐事,就算是我本科四年欠下的经历给补上罢。
机器学习×数值分析,就决定做这个方向了,lh想做迭代算法做那我就一个人搞这个,还是有点意思的,至少我现在看了这么多ACL EMNLP的顶会paper从来没有人用过这些最传统的统计方法,以及对优化算法的底层进行改进,现在想想确实如此,有那么多ill-conditioned的问题,凭什么你会觉得在你找到的训练集上模型的损失函数真的可以被优化算法(如SGD,ADAM)优化得很好。
现在的问题是在DL年代,我们并不关心训练数据长什么样子,反正一股脑儿输进去就完事了,但是我觉得至少输入数据的条件数还是非常有参考意义的(即输入矩阵的最大奇异值除以最小奇异值),尤其是在NLP领域,很多外部知识(如词袋模型,tfidf矩阵,乃至知识图谱?)都是可以转换为矩阵形式输入到模型中去的。只是这里面有个trick,就是现在的输入数据越来越复杂,可能大多数时候已经不是矩阵,而是至少三维的张量,这个条件数以及预条件子矩阵怎么从二维推广到三维确实是个问题,另一个问题是输入的广度也是复杂的,可能有时候需要综合多个不同类型的输入(比如还有其他特征)。我想对于前者可能切片处理,这也许是一个解决方案,给每个切片找个预条件子矩阵,现在不是确实也有人在研究用CNN自动生成预条件子矩阵的事情嘛。对于后者的话,我倾向于建立子模型来处理,我还是挺反对把所有能用的东西全部输入到模型训练,应当将不同的输入分别训练,这可能需要设计更加合理的结构,还得实践才能知道该怎么做。
总之我越来越觉得邓琪的研究方向很有趣,这学期虽然这门课没有怎么听(因为太难听不懂,而且不考试),但是确实是非常有帮助的知识,对我之后的进展大概率会有思路上的开拓,总之人还是不能太局限于代码上的能力,理论知识,无论紧密与否,选择走这条路就得博采众长,包括计量那边的一些研究方法,也是很值得借鉴的,现在毕业真TM难,我可不想被延毕。