文章目录
1.阅读第一篇论文
作为一个研一新生,科研新手,第一次阅读论文,应该如何入门?读一篇论文,应该抓住哪些重点?
(1)论文结构
①标题 (Title)
②摘要 (Abstract)
③引言 (Introduction)
④方法 (Method)
⑤实验 (experience)
⑥结论 (conclusion)
⑦关键词
⑧参考文献
(2)目标
看文献抓重点,只看你想要的东西
1.看模型实现了什么目标,拿什么实现的
2.摘要或引言里,看他自己说的创新点,然后在文章里找他怎么实现的这个创新点
3.先看摘要和结论,有些他们创新的算法要看挺久
2.使用GPT辅助论文的阅读与写作
1.用GPT简述内容,整理创新点,写综述,解析代码
①将几篇文章放上去,让GPT帮忙写成综述,将每篇论文用两句话总结,然后整理共同点和不同点。
②用传统的方式肉眼逐篇逐字去看,一些细节一开始很难看懂,有些专有名词不认识,需要一个个查,用GPT会方便理解。
③写毕设的时候,用GPT来写毕业论文的第一章很爽。
④用GPT来拓展思路也很有用。
3.专有名词
(1)架构
1.Transformer:Transformer模型架构是一种基于自注意力机制的神经网络结构。
2.Pytorch、TensorFlow:两种深度学习框架。2019年起,Pytorch逐步取代TensorFlow成为主流。
(2)网络
1.CNN:卷积神经网络。
在 Transformer 被广泛应用之前,CNN 是计算机视觉领域的主流架构,用于图像分类、目标检测、图像分割等任务。许多经典的视觉模型(如 ResNet、VGG、Inception 等)都是基于 CNN 的。
2.U-Net:基于CNN,主要用于生物医学图像分割。
3.ResNet:基于CNN,何凯明提出,为了解决深度神经网络中的梯度消失和梯度爆炸问题(解决深层网络退化问题),使得训练更深的神经网络成为可能。ResNet 的核心思想:残差模块,残差学习。应用:图像分类、目标检测(Faster R-CNN)与图像分割(Mask R-CNN模型都采用ResNet作为特征提取的主干网络)、迁移学习(医学图像分析、遥感图像分类)
(3)机器学习
1.机器学习的两种主要学习方法:
①有监督学习(Supervised Learning):一种机器学习方法,其中模型通过使用带有标签的训练数据来学习预测目标变量的关系。
②无监督学习(Unsupervised Learning):使用未标记的数据,算法必须自行发现数据中的结构
2.baseline:在深度学习和机器学习中,baseline(基线)指的是在某项任务中用来作为参照的基础模型或标准方法。它为新模型的性能提供一个基准,以便评估新方法的改进效果或有效性。许多图像分割任务中,U-Net 经常被用作 baseline。U-Net 因其卓越的分割能力和易于实现的结构,已经成为医学图像分割、语义分割等任务中的标准模型。因此,很多研究都会使用 U-Net 作为 baseline,对比新方法在分割任务中的表现。
3.欠拟合与过拟合
①欠拟合 (Underfitting):训练集和测试集表现很都差。因此模型太简单、训练数据不够。
②过拟合 (Overfitting):训练集表现好,测试集表现差。模型记住了训练集的太多噪声。
4.训练集、验证集、测试集
①训练集 (Training Set):模型训练
②验证集 (Validation Set):模型调优
③测试集 (Test Set):测试模型
4.文献翻译软件
最快的方式:扔给GPT,让它总结【中文总结】
次快的方式:豆包,全部显示为中文【中文文档】
其次的方式:知云文献翻译,看不懂的段落,直接划词,翻译为中文【中文段落】
最慢的方式:对着原pdf,一个生词一个生词查有道词典【中文单词】
论效率,越快越好。论效果,越慢越好。自己掌握平衡。
1.知云文献翻译:知云官网:https://www.zhiyunwenxian.cn/
2.Zotero:
①Zotero官网:https://www.zotero.org/download/
②Zotero教程:文献管理利器Zotero的使用说明
3.ReadPaper
4.小绿鲸
5.直接搓pdf,然后不会的单词查字典
6.豆包
7.GPT
5.从哪里下载文献?
①dblp:dblp.org
②papers with code:paperswithcode.com
③arxiv:http://arxiv.org/
④维度学术
6.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
新意度 × 有效性 × 问题大小 = 价值
7.经典论文
(1)AlexNet 2012
(2)FCN 全卷积 2014
(3)ResNet:残差学习(Residual Learning)
(4)Attention is All You Need 2017
1.Transformer model的开山奠基之作,首次引入了自注意力机制(self-attention mechanism):《Attention is All You Need》,2017年6月12日
讲解链接:https://zhuanlan.zhihu.com/p/673974803
本站资源均来自互联网,仅供研究学习,禁止违法使用和商用,产生法律纠纷本站概不负责!如果侵犯了您的权益请与我们联系!
转载请注明出处: 免费源码网-免费的源码资源网站 » 论文阅读与写作入门
发表评论 取消回复