2021-05-13

2021-05-13  本文已影响0人  可苟可远

我觉得人生就好像一次gradient descent。每个人的数据集都是一样的--这个世界,然而生来的初始点是随机的,有人称之为“命”。但是我相信命由己造,相由心生。只要算法对,坚持不断迭代、cross validation、tune parameters(试错),早晚会descent到一个相对最优解--稳定的价值体系、人生意义和目标。

当然这个世界之大,有无数局部最优解,却难言有全局最优解。我一生也想多走到更多的最优解。所以有人即使出生就在自认的最优解的塔尖上,站在稍微远一点的地方看,还是可以看到山外有山。我们的先人曾经认为一千多米的泰山就是最高峰了。

每个人所有的资源也是不同的,有人原生家庭给了他一个相对优化的基础算法,有人家庭条件殷实--算力强,内存大。然而,我们是一个动态的生物体,我们可以优化算法、不但可以积累自己的算力,更重要的是可以借助其他人的算力。

每个人的learning rate也不一样。追求稳定,小确幸这些就是learning rate太小,即使你的算法一点弯路不走,带你走像你想要的最优解顶峰,你一生的epoch也是及其有限的,所以很多人死时后悔自己没敢做这,没去做那。而且碰见第一个最优解就陷进去了。

overshoot vs small learning steps

当然我们也不想要overshooting,这包括盲目踏出能力权、不愿积累、不能守住底线和普世美德。孔夫子的中庸之道就是讲的就是balance的艺术。

我个人希望自己多经历一些,包括一般人认为的所谓坏事。人生经历太少,就相当于没有data的data science。train model,调参,validate都需要大量的数据。找数据也是能力啊

自己的算法还得自己去coding和优化,首先是培养自己的growth mindset,是走向持续改进自己算法的第一步。也就是真正的虚心和抛去所谓的颜面。无论抱着自大或者自卑的心态,而不是积极面对的心态,则没人能撬开你的大脑去替你改变思维框架。其次是多借鉴别人的知识和经验(包括错误),一个好的DS需要知道现有的工具(各种语言、各种库,各种平台),而不是会造轮子。

上一篇下一篇

猜你喜欢

热点阅读