所以农历新年以后的每天过的都是这种生活……好吧其实在过年之前就是这样的生活了,除了去吃饭以为就是在房间呆着了,游戏也没玩。 过年那天在沙发上坐了会就被问在干嘛。一般不都是在发短信祝贺新年什么的吗但是我当时正在看哈利波特(1-7).txt(…………) 其实也偶尔出门了。昨天有去梅园,前天在小区闲逛遇到火灾。。 再之前几天发现姨妈养的乌龟死了← 之前都以为是在冬眠。姨妈家的芦荟也死了orz 不管怎样新地址新开始的第一篇,还是要说新年快乐XDD 继续阅读
查询到最新的2条
所以农历新年以后的每天过的都是这种生活……好吧其实在过年之前就是这样的生活了,除了去吃饭以为就是在房间呆着了,游戏也没玩。 过年那天在沙发上坐了会就被问在干嘛。一般不都是在发短信祝贺新年什么的吗但是我当时正在看哈利波特(1-7).txt(…………) 其实也偶尔出门了。昨天有去梅园,前天在小区闲逛遇到火灾。。 再之前几天发现姨妈养的乌龟死了← 之前都以为是在冬眠。姨妈家的芦荟也死了orz 不管怎样新地址新开始的第一篇,还是要说新年快乐XDD 继续阅读
本文直接采用VanillaNet的方案重新开始构建模型ReduceNet。按照VanillaNet的方式极限压缩网络深度至单层 前几天在知乎上看到华为提出的一个VanillaNet,其中的一个设计点和我一直想实现的功能非常类似,即训练阶段的时候模型是比较深的网络,推理的时候会自动变成比较浅的网络。起初我一直想缓渐地暴力地丢掉卷积层,结果不能如愿,模型性能会在训练阶段的最后几个epoch一直退化,模型变成毫无用处 继续阅读