18.5.27 这几天一开始在看ssd那个代码,看着看着感觉每次去百度语句什么意思,然后看完就忘了,这样实在不行,就想着去把python啊numpy啊一些包好好看官方文档学习下,然后稍稍扫了扫python文档就不行了,那个英文真难看啊。后来就看hanson-ml了,看了一章书,来看github上代码了,然后又是遇到代码看不懂需要百度的问题,oops,又准备看文档,然后自己又不想看,每次这种,都是以看电视来解决。吃过晚饭,这个问题总该解决吧,其实吧,真的不可能一蹴而就,得好好耐着性子去看啊。
18.3.16 Today is very brilliant! 像小哥说的,看到出现’ok’,结果出来的时候,真的是万分高兴!终于知道小哥眼睛为啥每晚都红彤彤的,刚刚一直看着任务管理器,盯着上面显示内存用了多少,交换用了多少(虽然我具体不知道交换干啥的,但是它可是能帮忙存放数据的!)。总算re-ranking可以跑起来了,虽然我并没有写啥程序,只是把这两个程序放在一起,先后使用。一开始呢,想把re-ranking的程序放在triplet loss里面,无奈处理tensor时总显示OOM…放到集群上都不行(还死皮赖脸地让不认识的学长装h5py,sklearn,sklearn还用不起来)。后来呢,稍稍看了一下re-ranking的matlab代码,发现是可以把那边的embeddings数据搬过来,用这边的evaluate程序。最后看一下matlab可以读h5py文件,哈哈,下面就开始装matlab啦,小哥盘和说明在此,不担心!最后看着运行,内存溢出,就感受到院长下午说的正确性,程序员都是会释放内存的,释放不要用的数据,当然也可以分段操作,把要用的保存下来放到文件里,但是程序员不会这样做。然而我并没有改代码释放内存,但是在看任务管理器的时候,我深深感受到了这个的重要性。最后感觉,matlab虽然好像有点慢,但是它不会内存溢出,会继续完成任务。而tensorflow虽然很快,但是,遇到了大的数据,就OOM了。现在我还是一个不会写matlab tensorflow程序的渣渣,这只是今天的一个初步印象。
12.14 啊,距离上次写已经一个星期了,干了啥,不知道,11号下午心血来潮想弄个caffe微调,13号下午彻底放弃,然后今天想着再看一下那个open-reid吧,先装pytorch,跟着看一个例子,才一行代码,就有问题,ssl啥啥啥握手失败。现在呢,那个问题还没有解决,重装无数次系统,pip安装各个包安装出现好多问题?sudo -H pip install,还有啥,insecure platformwarning?心累累。明天早上再重装吧,还好周六支撑着我!百度、csdn博客的一些答案纵容容易看是中文,可怎么就贼不靠谱,一个一个样,一些英文论坛倒不错,可我总感觉是中国人,可是你们为啥非要用英文,明明知道它可能是对的,我硬是关了,贼难受!
12.07 看hands-on machine learning的chap2,End-to-End Machine Learning Project,刚刚看到Select and Train a Model,书上先试了个linear regression,各种操作就只要用对应的sklearn的一个函数,训练、测试、求均方根误差都只要一个函数,而且比如训练连参数返回值都没有,它自己就存了,然后测试的时候直接调用,都不用拿出来给你看,完全就是一个黑箱。突然就有点感觉,怪不得有人说理论有用,但用处不大,给人的提升效果不快。???回头找找小阳。另外,pytho函数整理要废弃,太踏马多了,小阳还真说对了,坚持不了。
12.03 学习是一个循序渐进的过程,从没有一蹴而就,切不可急功近利,踏踏实实学习。(来自看了别人博客的我)
11.27 运气好的时候,事事顺心,认为就是理所当然,然后习以为常,从来没有一点感激;到了运气差的时候,麻烦事一件接着一件,便开始破口大骂,殊不知这也是常态。(来自躁了十多天的我)