InceptionNeXt是一种基于
InceptionNeXt Block构建的模型,它采用了4 Stage的模型框架,并使用了Batch Normalization来强调推理速度。与
ConvNeXt相比,
InceptionNeXt在Stage 4的MLP模块中使用的Expansion Ratio为3,并将保存的参数移动到分类器中,以减少计算量。不同大小的
InceptionNeXt模型的参数配置可以参考图4。[1]
实验结果表明,在不同的模型尺寸下,
InceptionNeXt在以UperNet为分割头的任务和以Semantic FPN为分割头的任务上的性能始终优于其他模型,如Swin、
ConvNeXt、PVT和PoolFormer。这表明
InceptionNeXt在密集预测任务上具有很高的潜力。[2]
与其他最先进的模型相比,
InceptionNeXt不仅具有较高的竞争性能,而且具有较高的速度。例如,
InceptionNeXt-T相比
ConvNeXt-T在精度上提高了0.2%,同时训练和推理的吞吐量也比
ConvNeXt-T高1.6倍和1.2倍,与ResNet-50相似。因此,
InceptionNeXt-T既具有ResNet-50的速度,又具有
ConvNeXt-T的精度。[3]
引用[.reference_title]
- *1* *2* *3*
InceptionNeXt[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
版权声明:
本文来源网络,所有图片文章版权属于原作者,如有侵权,联系删除。
本文网址:https://www.mushiming.com/mjsbk/9741.html