今天再复习下深度学习里一个有点反直觉的现象,以及一个天才般的解决方案——残差网络(ResNet)。这可不是什么冷冰冰的技术名词堆砌,而是一个关于“如何让机器学得更聪明”的真实故事。 一个让研究者挠头的实验——越深反而越差? 想象一下,你是个深度学习研究员,时间是2015年左右,那时大家有个共识:网络
之前遇到过一类难以理解的错误,不明所以的报错位置,按报错提示做也不行,如下所示: fine_tunning_label_text_features = fine_tunning_model.encode_text(label_text) fine_tunning_label_text_feature
Stanford的这篇论文及后续的AI小镇出来后,我非常感兴趣,想尝试着复现,然后在云服务器上运行做一个自我运作的游戏,考虑到chatgpt的调用费用,我使用能在CPU上推理的大模型来做替代,以下是我在复现时遇到的一些问题总结。 相关论文 A Survey on Large Language Mod
在2022年10月前后,有感于自己在算法上成长不大,就想转开发岗以延长职业年龄,我选了C/C++这个偏底层语言,希望能从此开始重塑自己的计算机技能。虽然自己是计算机专业出身的普通硕士,但重新把知识都捡起来是需要较长时间的。怕自己犯不专心的老毛病,特别是在现在还要带娃,时间非常宝贵,我就选了某内教育,