欢迎来到 MMPretrain 中文教程!¶
MMPretrain 是一个全新升级的预训练开源算法框架,旨在提供各种强大的预训练主干网络, 并支持了不同的预训练策略。MMPretrain 源自著名的开源项目 MMClassification 和 MMSelfSup,并开发了许多令人兴奋的新功能。 目前,预训练阶段对于视觉识别至关重要,凭借丰富而强大的预训练模型,我们能够改进各种下游视觉任务。
我们的代码库旨在成为一个易于使用和用户友好的代码库库,并简化学术研究活动和工程任务。 我们在以下不同部分中详细介绍了 MMPretrain 的特性和设计。
MMPretrain 上手路线¶
为了用户能够快速上手,我们推荐以下流程:
我们始终非常欢迎用户的 PRs 和 Issues 来完善 MMPretrain!
模型库
- 模型库统计
- ArcFace
- BarlowTwins
- BEiT
- BEiTv2
- BLIP
- BLIP-2
- BYOL
- CAE
- ChineseCLIP
- CLIP
- Conformer
- ConvMixer
- ConvNeXt
- ConvNeXt V2
- CSPNet
- CSRA
- DaViT
- DeiT
- DeiT III: Revenge of the ViT
- DenseCL
- DenseNet
- DINOv2
- EdgeNeXt
- EfficientFormer
- EfficientNet
- EfficientNetV2
- EVA
- EVA-02
- Flamingo
- GLIP
- HiViT
- HorNet
- HRNet
- Inception V3
- iTPN
- LeViT
- LLaVA
- MAE
- MaskFeat
- MFF
- MILAN
- MiniGPT4
- MixMIM
- MLP-Mixer
- MobileNet V2
- MobileNet V3
- MobileOne
- MobileViT
- MoCoV2
- MoCoV3
- MViT V2
- OFA
- Otter
- PoolFormer
- RegNet
- RepLKNet
- RepMLP
- RepVGG
- Res2Net
- ResNet
- ResNeXt
- Reversible Vision Transformers
- RIFormer
- SAM
- SEResNet
- Shufflenet V1
- Shufflenet V2
- SimCLR
- SimMIM
- SimSiam
- SparK
- SwAV
- Swin-Transformer
- Swin-Transformer V2
- Tokens-to-Token ViT
- TinyViT
- Transformer in Transformer
- Twins
- Visual-Attention-Network
- VGG
- VIG
- Vision Transformer
- Wide-ResNet
- XCiT
API 参考文档
其他说明
设备支持