第一种:

import os
import pandas as pd

path = 'data/train/'
img_label_list=[]
testList = os.listdir(path)
for file in testList:
    label='aa'
    img_label_list.append([file, label])

df1 = pd.DataFrame(data=img_label_list,
                      columns=['id', 'label'])
df1.to_csv('result.csv',index=False)


在这里插入图片描述
第二种

import os
import pandas as pd

path = 'data/train/'
img_list=[]
lable_list=[]
testList = os.listdir(path)
for file in testList:
    img_list.append(file)
    label='aa'
    lable_list.append(label)

img_label_list2 = list(zip(img_list, lable_list))
df3 = pd.DataFrame(data=img_label_list2,
                      columns=['filepath', 'label'])
df3.to_csv('result.csv',index=False)


在这里插入图片描述
第三种:

import os
import pandas as pd

path = 'data/train/'
img_list=[]
lable_list=[]
testList = os.listdir(path)
for file in testList:
    img_list.append(file)
    label='aa'
    lable_list.append(label)

df = pd.DataFrame({"filename": img_list, "label": lable_list})
df.to_csv('result.csv',index=False)

在这里插入图片描述

图像分类网络

在这里插入图片描述

AlexNet

【第61篇】AlexNet:CNN开山之作

VGGNet

【第1篇】VGG

GooLeNet系列

【第2篇】GooLeNet

【第3篇】Inception V2

【第4篇】Inception V3

【第62篇】Inception-v4

ResNet

【第5篇】ResNet

DenseNet

【第10篇】DenseNet

Swin Transformer

【第16篇】Swin Transformer

【第49篇】Swin Transformer V2:扩展容量和分辨率

MAE

【第21篇】MAE(屏蔽自编码器是可扩展的视觉学习器)

CoAtNet

【第22篇】CoAtNet:将卷积和注意力结合到所有数据大小上

ConvNeXtV1、V2

【第25篇】力压Tramsformer,ConvNeXt成了CNN的希望

【第64篇】ConvNeXt V2论文翻译:ConvNeXt V2与MAE激情碰撞

MobileNet系列

【第26篇】MobileNets:用于移动视觉应用的高效卷积神经网络

【第27篇】MobileNetV2:倒置残差和线性瓶颈

【第28篇】搜索 MobileNetV3

MPViT

【第29篇】MPViT:用于密集预测的多路径视觉转换器

VIT

【第30篇】Vision Transformer

SWA

【第32篇】SWA:平均权重导致更广泛的最优和更好的泛化

EfficientNet系列

【第34篇】 EfficientNetV2:更快、更小、更强——论文翻译

MOBILEVIT

【第35篇】MOBILEVIT:轻量、通用和适用移动设备的Vision Transformer

EdgeViTs

【第37篇】EdgeViTs: 在移动设备上使用Vision Transformers 的轻量级 CNN

MixConv

【第38篇】MixConv:混合深度卷积核

RepLKNet

【第39篇】RepLKNet将内核扩展到 31x31:重新审视 CNN 中的大型内核设计

TransFG

【第40篇】TransFG:用于细粒度识别的 Transformer 架构

ConvMAE

【第41篇】ConvMAE:Masked Convolution 遇到 Masked Autoencoders

MicroNet

【第42篇】MicroNet:以极低的 FLOP 实现图像识别

RepVGG

【第46篇】RepVGG :让卷积再次伟大

MaxViT

【第48篇】MaxViT:多轴视觉转换器

MAFormer

【第53篇】MAFormer: 基于多尺度注意融合的变压器网络视觉识别

GhostNet系列

【第56篇】GhostNet:廉价操作得到更多的特征

【第57篇】RepGhost:一个通过重新参数化实现硬件高效的Ghost模块

DEiT系列

【第58篇】DEiT:通过注意力训练数据高效的图像transformer &蒸馏

MetaFormer

【第59篇】MetaFormer实际上是你所需要的视觉

RegNet

【第60篇】RegNet:设计网络设计空间

InternImage

【第73篇】InternImage:探索具有可变形卷积的大规模视觉基础模型

FasterNet

【第74篇】 FasterNet:CVPR2023年最新的网络,基于部分卷积PConv,性能远超MobileNet,MobileVit

注意力机制

【第23篇】NAM:基于标准化的注意力模块

物体检测

【第6篇】SSD论文翻译和代码汇总

【第7篇】CenterNet

【第8篇】M2Det

【第9篇】YOLOX

【第11篇】微软发布的Dynamic Head,创造COCO新记录:60.6AP

【第12篇】Sparse R-CNN: End-to-End Object Detection with Learnable Proposals

【第13篇】CenterNet2论文解析,COCO成绩最高56.4mAP

【第14篇】UMOP

【第15篇】CBNetV2

【第19篇 】SE-SSD论文翻译

【第24篇】YOLOR:多任务的统一网络

【第31篇】探索普通视觉Transformer Backbones用于物体检测

【第36篇】CenterNet++ 用于对象检测

【第45篇】YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors

行人属性识别

【第66篇】行人属性识别研究综述(一)

【第66篇】行人属性识别研究综述(二)

行人跟踪

【第47篇】BoT-SORT:强大的关联多行人跟踪

【第65篇】SMILEtrack:基于相似度学习的多目标跟踪

【第70篇】DeepSort:论文翻译

【第72篇】深度学习在视频多目标跟踪中的应用综述

OCR

【第20篇】像人类一样阅读:自主、双向和迭代语言 场景文本识别建模

【第44篇】DBNet:具有可微分二值化的实时场景文本检测

超分辨采样

【第33篇】SwinIR

弱光增强

RetinexNet

【第52篇】RetinexNet: Deep Retinex Decomposition for Low-Light Enhancement

【第50篇】迈向快速、灵活、稳健的微光图像增强

NLP

【第17篇】TextCNN

【第18篇】Bert论文翻译

多模态

【第43篇】CLIP:从自然语言监督中学习可迁移的视觉模型

知识蒸馏

【第54篇】知识蒸馏:Distilling the Knowledge in a Neural Network

剪枝

【第55篇】剪枝算法:通过网络瘦身学习高效卷积网络

【第71篇】DepGraph:适用任何结构的剪枝

智慧城市

【第51篇】用于交通预测的时空交互动态图卷积网络

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐