以下论文代表了人工智能发展史上的关键突破,对机器学习、深度学习和AI应用产生了深远影响。
Attention Is All You Need
2017年
提出了Transformer架构,彻底改变了自然语言处理领域,成为BERT、GPT等现代NLP模型的基础。
Deep Residual Learning for Image Recognition
2015年
提出了残差网络(ResNet),通过跳跃连接解决了深度神经网络训练中的退化问题,显著提高了图像识别准确率。
Generative Adversarial Networks
2014年
提出了生成对抗网络(GAN),通过生成器与判别器的对抗训练,实现了高质量数据生成,开启了生成式AI新时代。
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
2018年
提出了BERT模型,通过双向Transformer和掩码语言建模预训练,在11项NLP任务上取得了突破性成果。