import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
import numpy as np# 定义通道注意力
class ChannelAttention(nn.Module):def __init__(self, in_channels, ratio=16):"""通道注意力机制初始化参数:in_channels: 输入特征图的通道数ratio: 降维比例,用于减少参数量,默认为16"""super().__init__()# 全局平均池化,将每个通道的特征图压缩为1x1,保留通道间的平均值信息self.avg_pool = nn.AdaptiveAvgPool2d(1)# 全局最大池化,将每个通道的特征图压缩为1x1,保留通道间的最显著特征self.max_pool = nn.AdaptiveMaxPool2d(1)# 共享全连接层,用于学习通道间的关系# 先降维(除以ratio),再通过ReLU激活,最后升维回原始通道数self.fc = nn.Sequential(nn.Linear(in_channels, in_channels // ratio, bias=False), # 降维层nn.ReLU(), # 非线性激活函数nn.Linear(in_channels // ratio, in_channels, bias=False) # 升维层)# Sigmoid函数将输出映射到0-1之间,作为各通道的权重self.sigmoid = nn.Sigmoid()def forward(self, x):"""前向传播函数参数:x: 输入特征图,形状为 [batch_size, channels, height, width]返回:调整后的特征图,通道权重已应用"""# 获取输入特征图的维度信息,这是一种元组的解包写法b, c, h, w = x.shape# 对平均池化结果进行处理:展平后通过全连接网络avg_out = self.fc(self.avg_pool(x).view(b, c))# 对最大池化结果进行处理:展平后通过全连接网络max_out = self.fc(self.max_pool(x).view(b, c))# 将平均池化和最大池化的结果相加并通过sigmoid函数得到通道权重attention = self.sigmoid(avg_out + max_out).view(b, c, 1, 1)# 将注意力权重与原始特征相乘,增强重要通道,抑制不重要通道return x * attention #这个运算是pytorch的广播机制## 空间注意力模块
class SpatialAttention(nn.Module):def __init__(self, kernel_size=7):super().__init__()self.conv = nn.Conv2d(2, 1, kernel_size, padding=kernel_size//2, bias=False)self.sigmoid = nn.Sigmoid()def forward(self, x):# 通道维度池化avg_out = torch.mean(x, dim=1, keepdim=True) # 平均池化:(B,1,H,W)max_out, _ = torch.max(x, dim=1, keepdim=True) # 最大池化:(B,1,H,W)pool_out = torch.cat([avg_out, max_out], dim=1) # 拼接:(B,2,H,W)attention = self.conv(pool_out) # 卷积提取空间特征return x * self.sigmoid(attention) # 特征与空间权重相乘## CBAM模块
class CBAM(nn.Module):def __init__(self, in_channels, ratio=16, kernel_size=7):super().__init__()self.channel_attn = ChannelAttention(in_channels, ratio)self.spatial_attn = SpatialAttention(kernel_size)def forward(self, x):x = self.channel_attn(x)x = self.spatial_attn(x)return ximport torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
import numpy as np# 设置中文字体支持
plt.rcParams["font.family"] = ["SimHei"]
plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题# 检查GPU是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"使用设备: {device}")# 数据预处理(与原代码一致)
train_transform = transforms.Compose([transforms.RandomCrop(32, padding=4),transforms.RandomHorizontalFlip(),transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.1),transforms.RandomRotation(15),transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])test_transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])# 加载数据集(与原代码一致)
train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=train_transform)
test_dataset = datasets.CIFAR10(root='./data', train=False, transform=test_transform)
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)
使用设备: cuda
import torch
import torchvision.models as models
from torchinfo import summary #之前的内容说了,推荐用他来可视化模型结构,信息最全# 加载 VGG16(预训练)
model = models.vgg16(pretrained=True)
model.eval()# 输出模型结构和参数概要
summary(model, input_size=(1, 3, 224, 224))
==========================================================================================
Layer (type:depth-idx) Output Shape Param #
==========================================================================================
VGG [1, 1000] --
├─Sequential: 1-1 [1, 512, 7, 7] --
│ └─Conv2d: 2-1 [1, 64, 224, 224] 1,792
│ └─ReLU: 2-2 [1, 64, 224, 224] --
│ └─Conv2d: 2-3 [1, 64, 224, 224] 36,928
│ └─ReLU: 2-4 [1, 64, 224, 224] --
│ └─MaxPool2d: 2-5 [1, 64, 112, 112] --
│ └─Conv2d: 2-6 [1, 128, 112, 112] 73,856
│ └─ReLU: 2-7 [1, 128, 112, 112] --
│ └─Conv2d: 2-8 [1, 128, 112, 112] 147,584
│ └─ReLU: 2-9 [1, 128, 112, 112] --
│ └─MaxPool2d: 2-10 [1, 128, 56, 56] --
│ └─Conv2d: 2-11 [1, 256, 56, 56] 295,168
│ └─ReLU: 2-12 [1, 256, 56, 56] --
│ └─Conv2d: 2-13 [1, 256, 56, 56] 590,080
│ └─ReLU: 2-14 [1, 256, 56, 56] --
│ └─Conv2d: 2-15 [1, 256, 56, 56] 590,080
│ └─ReLU: 2-16 [1, 256, 56, 56] --
│ └─MaxPool2d: 2-17 [1, 256, 28, 28] --
│ └─Conv2d: 2-18 [1, 512, 28, 28] 1,180,160
│ └─ReLU: 2-19 [1, 512, 28, 28] --
│ └─Conv2d: 2-20 [1, 512, 28, 28] 2,359,808
│ └─ReLU: 2-21 [1, 512, 28, 28] --
│ └─Conv2d: 2-22 [1, 512, 28, 28] 2,359,808
│ └─ReLU: 2-23 [1, 512, 28, 28] --
│ └─MaxPool2d: 2-24 [1, 512, 14, 14] --
│ └─Conv2d: 2-25 [1, 512, 14, 14] 2,359,808
│ └─ReLU: 2-26 [1, 512, 14, 14] --
│ └─Conv2d: 2-27 [1, 512, 14, 14] 2,359,808
│ └─ReLU: 2-28 [1, 512, 14, 14] --
│ └─Conv2d: 2-29 [1, 512, 14, 14] 2,359,808
│ └─ReLU: 2-30 [1, 512, 14, 14] --
│ └─MaxPool2d: 2-31 [1, 512, 7, 7] --
├─AdaptiveAvgPool2d: 1-2 [1, 512, 7, 7] --
├─Sequential: 1-3 [1, 1000] --
│ └─Linear: 2-32 [1, 4096] 102,764,544
│ └─ReLU: 2-33 [1, 4096] --
│ └─Dropout: 2-34 [1, 4096] --
│ └─Linear: 2-35 [1, 4096] 16,781,312
│ └─ReLU: 2-36 [1, 4096] --
│ └─Dropout: 2-37 [1, 4096] --
│ └─Linear: 2-38 [1, 1000] 4,097,000
==========================================================================================
Total params: 138,357,544
Trainable params: 138,357,544
Non-trainable params: 0
Total mult-adds (G): 15.48
==========================================================================================
Input size (MB): 0.60
Forward/backward pass size (MB): 108.45
Params size (MB): 553.43
Estimated Total Size (MB): 662.49
==========================================================================================
import torch
import torch.nn as nn
from torchvision import models# 自定义VGG16模型,插入CBAM模块
class VGG16_CBAM(nn.Module):def __init__(self, num_classes=10, pretrained=True, cbam_ratio=16, cbam_kernel=7):super().__init__()# 加载预训练VGG16self.backbone = models.vgg16(pretrained=pretrained).features# 在特定卷积层后添加CBAM模块self.cbam_layer1 = CBAM(in_channels=64, ratio=cbam_ratio, kernel_size=cbam_kernel)self.cbam_layer2 = CBAM(in_channels=128, ratio=cbam_ratio, kernel_size=cbam_kernel)self.cbam_layer3 = CBAM(in_channels=256, ratio=cbam_ratio, kernel_size=cbam_kernel)self.cbam_layer4 = CBAM(in_channels=512, ratio=cbam_ratio, kernel_size=cbam_kernel)# 修改分类头self.avgpool = nn.AdaptiveAvgPool2d((7, 7))self.classifier = nn.Sequential(nn.Linear(512 * 7 * 7, 4096),nn.ReLU(True),nn.Dropout(),nn.Linear(4096, 4096),nn.ReLU(True),nn.Dropout(),nn.Linear(4096, num_classes),)def forward(self, x):# 主干特征提取for i in range(4): # 第一个CBAM在第四个卷积层后x = self.backbone[i](x)x = self.cbam_layer1(x)for i in range(4, 9): # 第二个CBAM在第九个卷积层后x = self.backbone[i](x)x = self.cbam_layer2(x)for i in range(9, 16): # 第三个CBAM在第十六和第四个CBAM在第二十三个卷积层后x = self.backbone[i](x)x = self.cbam_layer3(x)for i in range(16, 23):x = self.backbone[i](x)x = self.cbam_layer4(x)# 全局平均池化 + 分类x = self.avgpool(x)x = torch.flatten(x, 1)x = self.classifier(x)return x# 初始化模型并移至设备
model = VGG16_CBAM().to(device)
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)
scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', patience=3, factor=0.5)
import time# ======================================================================
# 4. 结合了分阶段策略和详细打印的训练函数
# ======================================================================
def set_trainable_layers(model, trainable_parts):print(f"\n---> 解冻以下部分并设为可训练: {trainable_parts}")for name, param in model.named_parameters():param.requires_grad = Falsefor part in trainable_parts:if part in name:param.requires_grad = Truebreakdef train_staged_finetuning(model, criterion, train_loader, test_loader, device, epochs):optimizer = None# 初始化历史记录列表,与你的要求一致all_iter_losses, iter_indices = [], []train_acc_history, test_acc_history = [], []train_loss_history, test_loss_history = [], []for epoch in range(1, epochs + 1):epoch_start_time = time.time()# --- 动态调整学习率和冻结层 ---if epoch == 1:print("\n" + "="*50 + "\n🚀 **阶段 1:训练注意力模块和分类头**\n" + "="*50)set_trainable_layers(model, ["cbam", "classifier"])optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=1e-4) # 降低初始学习率elif epoch == 6:print("\n" + "="*50 + "\n✈️ **阶段 2:解冻高层卷积层**\n" + "="*50)set_trainable_layers(model, ["cbam", "classifier", "backbone.24", "backbone.28"]) # 解冻最后两个卷积块optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=5e-5)elif epoch == 21:print("\n" + "="*50 + "\n🛰️ **阶段 3:解冻所有层,进行全局微调**\n" + "="*50)for param in model.parameters(): param.requires_grad = Trueoptimizer = optim.Adam(model.parameters(), lr=1e-5)# --- 训练循环 ---model.train()running_loss, correct, total = 0.0, 0, 0for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)optimizer.zero_grad()output = model(data)loss = criterion(output, target)loss.backward()optimizer.step()# 记录每个iteration的损失iter_loss = loss.item()all_iter_losses.append(iter_loss)iter_indices.append((epoch - 1) * len(train_loader) + batch_idx + 1)running_loss += iter_loss_, predicted = output.max(1)total += target.size(0)correct += predicted.eq(target).sum().item()# 按你的要求,每100个batch打印一次if (batch_idx + 1) % 100 == 0:print(f'Epoch: {epoch}/{epochs} | Batch: {batch_idx+1}/{len(train_loader)} 'f'| 单Batch损失: {iter_loss:.4f} | 累计平均损失: {running_loss/(batch_idx+1):.4f}')epoch_train_loss = running_loss / len(train_loader)epoch_train_acc = 100. * correct / totaltrain_loss_history.append(epoch_train_loss)train_acc_history.append(epoch_train_acc)# --- 测试循环 ---model.eval()test_loss, correct_test, total_test = 0, 0, 0with torch.no_grad():for data, target in test_loader:data, target = data.to(device), target.to(device)output = model(data)test_loss += criterion(output, target).item()_, predicted = output.max(1)total_test += target.size(0)correct_test += predicted.eq(target).sum().item()epoch_test_loss = test_loss / len(test_loader)epoch_test_acc = 100. * correct_test / total_testtest_loss_history.append(epoch_test_loss)test_acc_history.append(epoch_test_acc)# 打印每个epoch的最终结果print(f'Epoch {epoch}/{epochs} 完成 | 耗时: {time.time() - epoch_start_time:.2f}s | 训练准确率: {epoch_train_acc:.2f}% | 测试准确率: {epoch_test_acc:.2f}%')# 训练结束后调用绘图函数print("\n训练完成! 开始绘制结果图表...")plot_iter_losses(all_iter_losses, iter_indices)plot_epoch_metrics(train_acc_history, test_acc_history, train_loss_history, test_loss_history)# 返回最终的测试准确率return epoch_test_acc# ======================================================================
# 5. 绘图函数定义
# ======================================================================
def plot_iter_losses(losses, indices):plt.figure(figsize=(10, 4))plt.plot(indices, losses, 'b-', alpha=0.7, label='Iteration Loss')plt.xlabel('Iteration(Batch序号)')plt.ylabel('损失值')plt.title('每个 Iteration 的训练损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()def plot_epoch_metrics(train_acc, test_acc, train_loss, test_loss):epochs = range(1, len(train_acc) + 1)plt.figure(figsize=(12, 4))plt.subplot(1, 2, 1)plt.plot(epochs, train_acc, 'b-', label='训练准确率')plt.plot(epochs, test_acc, 'r-', label='测试准确率')plt.xlabel('Epoch')plt.ylabel('准确率 (%)')plt.title('训练和测试准确率')plt.legend(); plt.grid(True)plt.subplot(1, 2, 2)plt.plot(epochs, train_loss, 'b-', label='训练损失')plt.plot(epochs, test_loss, 'r-', label='测试损失')plt.xlabel('Epoch')plt.ylabel('损失值')plt.title('训练和测试损失')plt.legend(); plt.grid(True)plt.tight_layout()plt.show()# ======================================================================
# 6. 执行训练
# ======================================================================
model = VGG16_CBAM().to(device)
criterion = nn.CrossEntropyLoss()
epochs = 50print("开始使用带分阶段微调策略的ResNet18+CBAM模型进行训练...")
final_accuracy = train_staged_finetuning(model, criterion, train_loader, test_loader, device, epochs)
print(f"训练完成!最终测试准确率: {final_accuracy:.2f}%")# torch.save(model.state_dict(), 'resnet18_cbam_finetuned.pth')
# print("模型已保存为: resnet18_cbam_finetuned.pth")
开始使用带分阶段微调策略的ResNet18+CBAM模型进行训练...==================================================
🚀 **阶段 1:训练注意力模块和分类头**
==================================================---> 解冻以下部分并设为可训练: ['cbam', 'classifier']
Epoch: 1/50 | Batch: 100/782 | 单Batch损失: 1.5561 | 累计平均损失: 1.9607
Epoch: 1/50 | Batch: 200/782 | 单Batch损失: 1.4757 | 累计平均损失: 1.6771
Epoch: 1/50 | Batch: 300/782 | 单Batch损失: 1.3365 | 累计平均损失: 1.5326
Epoch: 1/50 | Batch: 400/782 | 单Batch损失: 1.3983 | 累计平均损失: 1.4436
Epoch: 1/50 | Batch: 500/782 | 单Batch损失: 0.8634 | 累计平均损失: 1.3712
Epoch: 1/50 | Batch: 600/782 | 单Batch损失: 1.2394 | 累计平均损失: 1.3200
Epoch: 1/50 | Batch: 700/782 | 单Batch损失: 0.8161 | 累计平均损失: 1.2776
Epoch 1/50 完成 | 耗时: 95.49s | 训练准确率: 55.13% | 测试准确率: 73.81%
Epoch: 2/50 | Batch: 100/782 | 单Batch损失: 1.1340 | 累计平均损失: 0.9804
Epoch: 2/50 | Batch: 200/782 | 单Batch损失: 1.2382 | 累计平均损失: 0.9886
Epoch: 2/50 | Batch: 300/782 | 单Batch损失: 1.0366 | 累计平均损失: 0.9789
Epoch: 2/50 | Batch: 400/782 | 单Batch损失: 0.8488 | 累计平均损失: 0.9731
Epoch: 2/50 | Batch: 500/782 | 单Batch损失: 0.9304 | 累计平均损失: 0.9663
Epoch: 2/50 | Batch: 600/782 | 单Batch损失: 0.8692 | 累计平均损失: 0.9565
Epoch: 2/50 | Batch: 700/782 | 单Batch损失: 0.9259 | 累计平均损失: 0.9492
Epoch 2/50 完成 | 耗时: 93.23s | 训练准确率: 66.64% | 测试准确率: 76.95%
Epoch: 3/50 | Batch: 100/782 | 单Batch损失: 0.7439 | 累计平均损失: 0.8900
Epoch: 3/50 | Batch: 200/782 | 单Batch损失: 0.8751 | 累计平均损失: 0.8882
Epoch: 3/50 | Batch: 300/782 | 单Batch损失: 0.9008 | 累计平均损失: 0.8811
Epoch: 3/50 | Batch: 400/782 | 单Batch损失: 0.8706 | 累计平均损失: 0.8779
Epoch: 3/50 | Batch: 500/782 | 单Batch损失: 0.9341 | 累计平均损失: 0.8761
Epoch: 3/50 | Batch: 600/782 | 单Batch损失: 0.9934 | 累计平均损失: 0.8741
Epoch: 3/50 | Batch: 700/782 | 单Batch损失: 1.0965 | 累计平均损失: 0.8721
Epoch 3/50 完成 | 耗时: 93.84s | 训练准确率: 69.24% | 测试准确率: 78.06%
Epoch: 4/50 | Batch: 100/782 | 单Batch损失: 0.7415 | 累计平均损失: 0.8234
Epoch: 4/50 | Batch: 200/782 | 单Batch损失: 0.8565 | 累计平均损失: 0.8316
Epoch: 4/50 | Batch: 300/782 | 单Batch损失: 0.6663 | 累计平均损失: 0.8400
Epoch: 4/50 | Batch: 400/782 | 单Batch损失: 0.8686 | 累计平均损失: 0.8337
Epoch: 4/50 | Batch: 500/782 | 单Batch损失: 0.6824 | 累计平均损失: 0.8323
Epoch: 4/50 | Batch: 600/782 | 单Batch损失: 0.8236 | 累计平均损失: 0.8332
Epoch: 4/50 | Batch: 700/782 | 单Batch损失: 0.6454 | 累计平均损失: 0.8309
Epoch 4/50 完成 | 耗时: 94.95s | 训练准确率: 70.78% | 测试准确率: 79.24%
Epoch: 5/50 | Batch: 100/782 | 单Batch损失: 0.7504 | 累计平均损失: 0.7974
Epoch: 5/50 | Batch: 200/782 | 单Batch损失: 0.8141 | 累计平均损失: 0.7833
Epoch: 5/50 | Batch: 300/782 | 单Batch损失: 0.8299 | 累计平均损失: 0.7901
Epoch: 5/50 | Batch: 400/782 | 单Batch损失: 1.1897 | 累计平均损失: 0.7954
Epoch: 5/50 | Batch: 500/782 | 单Batch损失: 0.7235 | 累计平均损失: 0.7918
Epoch: 5/50 | Batch: 600/782 | 单Batch损失: 0.7812 | 累计平均损失: 0.7894
Epoch: 5/50 | Batch: 700/782 | 单Batch损失: 1.0576 | 累计平均损失: 0.7872
Epoch 5/50 完成 | 耗时: 93.63s | 训练准确率: 72.14% | 测试准确率: 80.13%==================================================
✈️ **阶段 2:解冻高层卷积层**
==================================================---> 解冻以下部分并设为可训练: ['cbam', 'classifier', 'backbone.24', 'backbone.28']
Epoch: 6/50 | Batch: 100/782 | 单Batch损失: 0.9639 | 累计平均损失: 0.7345
Epoch: 6/50 | Batch: 200/782 | 单Batch损失: 0.5671 | 累计平均损失: 0.7398
Epoch: 6/50 | Batch: 300/782 | 单Batch损失: 1.0322 | 累计平均损失: 0.7428
Epoch: 6/50 | Batch: 400/782 | 单Batch损失: 0.9354 | 累计平均损失: 0.7363
Epoch: 6/50 | Batch: 500/782 | 单Batch损失: 0.7988 | 累计平均损失: 0.7340
Epoch: 6/50 | Batch: 600/782 | 单Batch损失: 0.7025 | 累计平均损失: 0.7381
Epoch: 6/50 | Batch: 700/782 | 单Batch损失: 0.6588 | 累计平均损失: 0.7375
Epoch 6/50 完成 | 耗时: 92.11s | 训练准确率: 74.16% | 测试准确率: 80.82%
Epoch: 7/50 | Batch: 100/782 | 单Batch损失: 0.5994 | 累计平均损失: 0.7185
Epoch: 7/50 | Batch: 200/782 | 单Batch损失: 0.7812 | 累计平均损失: 0.7192
Epoch: 7/50 | Batch: 300/782 | 单Batch损失: 0.5821 | 累计平均损失: 0.7182
Epoch: 7/50 | Batch: 400/782 | 单Batch损失: 0.7363 | 累计平均损失: 0.7191
Epoch: 7/50 | Batch: 500/782 | 单Batch损失: 0.8393 | 累计平均损失: 0.7180
Epoch: 7/50 | Batch: 600/782 | 单Batch损失: 0.6314 | 累计平均损失: 0.7210
Epoch: 7/50 | Batch: 700/782 | 单Batch损失: 0.8020 | 累计平均损失: 0.7175
Epoch 7/50 完成 | 耗时: 92.17s | 训练准确率: 74.72% | 测试准确率: 80.99%
Epoch: 8/50 | Batch: 100/782 | 单Batch损失: 0.7341 | 累计平均损失: 0.7157
Epoch: 8/50 | Batch: 200/782 | 单Batch损失: 0.5608 | 累计平均损失: 0.7029
Epoch: 8/50 | Batch: 300/782 | 单Batch损失: 0.5959 | 累计平均损失: 0.7036
Epoch: 8/50 | Batch: 400/782 | 单Batch损失: 0.7556 | 累计平均损失: 0.7071
Epoch: 8/50 | Batch: 500/782 | 单Batch损失: 0.7005 | 累计平均损失: 0.7057
Epoch: 8/50 | Batch: 600/782 | 单Batch损失: 0.5958 | 累计平均损失: 0.7054
Epoch: 8/50 | Batch: 700/782 | 单Batch损失: 0.5461 | 累计平均损失: 0.7055
Epoch 8/50 完成 | 耗时: 92.62s | 训练准确率: 75.16% | 测试准确率: 82.00%
Epoch: 9/50 | Batch: 100/782 | 单Batch损失: 0.6607 | 累计平均损失: 0.6983
Epoch: 9/50 | Batch: 200/782 | 单Batch损失: 0.6213 | 累计平均损失: 0.6966
Epoch: 9/50 | Batch: 300/782 | 单Batch损失: 0.7511 | 累计平均损失: 0.6882
Epoch: 9/50 | Batch: 400/782 | 单Batch损失: 0.7870 | 累计平均损失: 0.6976
Epoch: 9/50 | Batch: 500/782 | 单Batch损失: 0.7935 | 累计平均损失: 0.6929
Epoch: 9/50 | Batch: 600/782 | 单Batch损失: 0.6186 | 累计平均损失: 0.6937
Epoch: 9/50 | Batch: 700/782 | 单Batch损失: 0.6287 | 累计平均损失: 0.6949
Epoch 9/50 完成 | 耗时: 91.92s | 训练准确率: 75.34% | 测试准确率: 82.12%
Epoch: 10/50 | Batch: 100/782 | 单Batch损失: 0.6090 | 累计平均损失: 0.6847
Epoch: 10/50 | Batch: 200/782 | 单Batch损失: 0.7220 | 累计平均损失: 0.6883
Epoch: 10/50 | Batch: 300/782 | 单Batch损失: 0.5225 | 累计平均损失: 0.6812
Epoch: 10/50 | Batch: 400/782 | 单Batch损失: 0.7003 | 累计平均损失: 0.6837
Epoch: 10/50 | Batch: 500/782 | 单Batch损失: 0.5424 | 累计平均损失: 0.6824
Epoch: 10/50 | Batch: 600/782 | 单Batch损失: 0.6114 | 累计平均损失: 0.6855
Epoch: 10/50 | Batch: 700/782 | 单Batch损失: 0.6351 | 累计平均损失: 0.6839
Epoch 10/50 完成 | 耗时: 95.88s | 训练准确率: 75.97% | 测试准确率: 82.60%
Epoch: 11/50 | Batch: 100/782 | 单Batch损失: 0.6751 | 累计平均损失: 0.6612
Epoch: 11/50 | Batch: 200/782 | 单Batch损失: 0.6527 | 累计平均损失: 0.6596
Epoch: 11/50 | Batch: 300/782 | 单Batch损失: 0.6667 | 累计平均损失: 0.6674
Epoch: 11/50 | Batch: 400/782 | 单Batch损失: 0.5971 | 累计平均损失: 0.6687
Epoch: 11/50 | Batch: 500/782 | 单Batch损失: 0.8421 | 累计平均损失: 0.6721
Epoch: 11/50 | Batch: 600/782 | 单Batch损失: 0.8855 | 累计平均损失: 0.6745
Epoch: 11/50 | Batch: 700/782 | 单Batch损失: 0.7721 | 累计平均损失: 0.6736
Epoch 11/50 完成 | 耗时: 95.56s | 训练准确率: 76.21% | 测试准确率: 82.88%
Epoch: 12/50 | Batch: 100/782 | 单Batch损失: 0.5727 | 累计平均损失: 0.6698
Epoch: 12/50 | Batch: 200/782 | 单Batch损失: 0.7433 | 累计平均损失: 0.6617
Epoch: 12/50 | Batch: 300/782 | 单Batch损失: 0.7549 | 累计平均损失: 0.6537
Epoch: 12/50 | Batch: 400/782 | 单Batch损失: 0.6134 | 累计平均损失: 0.6547
Epoch: 12/50 | Batch: 500/782 | 单Batch损失: 0.6157 | 累计平均损失: 0.6568
Epoch: 12/50 | Batch: 600/782 | 单Batch损失: 0.5984 | 累计平均损失: 0.6584
Epoch: 12/50 | Batch: 700/782 | 单Batch损失: 0.4584 | 累计平均损失: 0.6605
Epoch 12/50 完成 | 耗时: 94.44s | 训练准确率: 76.80% | 测试准确率: 82.91%
Epoch: 13/50 | Batch: 100/782 | 单Batch损失: 0.7270 | 累计平均损失: 0.6395
Epoch: 13/50 | Batch: 200/782 | 单Batch损失: 0.4586 | 累计平均损失: 0.6490
Epoch: 13/50 | Batch: 300/782 | 单Batch损失: 0.6169 | 累计平均损失: 0.6562
Epoch: 13/50 | Batch: 400/782 | 单Batch损失: 0.7299 | 累计平均损失: 0.6561
Epoch: 13/50 | Batch: 500/782 | 单Batch损失: 0.8272 | 累计平均损失: 0.6505
Epoch: 13/50 | Batch: 600/782 | 单Batch损失: 0.8096 | 累计平均损失: 0.6549
Epoch: 13/50 | Batch: 700/782 | 单Batch损失: 0.7126 | 累计平均损失: 0.6509
Epoch 13/50 完成 | 耗时: 97.75s | 训练准确率: 77.02% | 测试准确率: 83.23%
Epoch: 14/50 | Batch: 100/782 | 单Batch损失: 0.6534 | 累计平均损失: 0.6501
Epoch: 14/50 | Batch: 200/782 | 单Batch损失: 0.8621 | 累计平均损失: 0.6367
Epoch: 14/50 | Batch: 300/782 | 单Batch损失: 0.7036 | 累计平均损失: 0.6420
Epoch: 14/50 | Batch: 400/782 | 单Batch损失: 0.8217 | 累计平均损失: 0.6397
Epoch: 14/50 | Batch: 500/782 | 单Batch损失: 0.7702 | 累计平均损失: 0.6411
Epoch: 14/50 | Batch: 600/782 | 单Batch损失: 0.7000 | 累计平均损失: 0.6394
Epoch: 14/50 | Batch: 700/782 | 单Batch损失: 0.3676 | 累计平均损失: 0.6403
Epoch 14/50 完成 | 耗时: 100.53s | 训练准确率: 77.35% | 测试准确率: 83.64%
Epoch: 15/50 | Batch: 100/782 | 单Batch损失: 0.5342 | 累计平均损失: 0.6346
Epoch: 15/50 | Batch: 200/782 | 单Batch损失: 0.4884 | 累计平均损失: 0.6284
Epoch: 15/50 | Batch: 300/782 | 单Batch损失: 0.6588 | 累计平均损失: 0.6379
Epoch: 15/50 | Batch: 400/782 | 单Batch损失: 0.4437 | 累计平均损失: 0.6365
Epoch: 15/50 | Batch: 500/782 | 单Batch损失: 0.7628 | 累计平均损失: 0.6340
Epoch: 15/50 | Batch: 600/782 | 单Batch损失: 0.9489 | 累计平均损失: 0.6320
Epoch: 15/50 | Batch: 700/782 | 单Batch损失: 0.4534 | 累计平均损失: 0.6318
Epoch 15/50 完成 | 耗时: 97.04s | 训练准确率: 77.67% | 测试准确率: 83.58%
Epoch: 16/50 | Batch: 100/782 | 单Batch损失: 0.5005 | 累计平均损失: 0.6163
Epoch: 16/50 | Batch: 200/782 | 单Batch损失: 0.5728 | 累计平均损失: 0.6197
Epoch: 16/50 | Batch: 300/782 | 单Batch损失: 0.7579 | 累计平均损失: 0.6189
Epoch: 16/50 | Batch: 400/782 | 单Batch损失: 0.6198 | 累计平均损失: 0.6197
Epoch: 16/50 | Batch: 500/782 | 单Batch损失: 0.8280 | 累计平均损失: 0.6188
Epoch: 16/50 | Batch: 600/782 | 单Batch损失: 0.6307 | 累计平均损失: 0.6220
Epoch: 16/50 | Batch: 700/782 | 单Batch损失: 0.7405 | 累计平均损失: 0.6217
Epoch 16/50 完成 | 耗时: 95.44s | 训练准确率: 78.03% | 测试准确率: 83.61%
Epoch: 17/50 | Batch: 100/782 | 单Batch损失: 0.7000 | 累计平均损失: 0.6119
Epoch: 17/50 | Batch: 200/782 | 单Batch损失: 0.5694 | 累计平均损失: 0.6118
Epoch: 17/50 | Batch: 300/782 | 单Batch损失: 0.4480 | 累计平均损失: 0.6093
Epoch: 17/50 | Batch: 400/782 | 单Batch损失: 0.5957 | 累计平均损失: 0.6058
Epoch: 17/50 | Batch: 500/782 | 单Batch损失: 0.8769 | 累计平均损失: 0.6029
Epoch: 17/50 | Batch: 600/782 | 单Batch损失: 0.5457 | 累计平均损失: 0.6064
Epoch: 17/50 | Batch: 700/782 | 单Batch损失: 0.5370 | 累计平均损失: 0.6087
Epoch 17/50 完成 | 耗时: 98.79s | 训练准确率: 78.32% | 测试准确率: 83.52%
Epoch: 18/50 | Batch: 100/782 | 单Batch损失: 0.3908 | 累计平均损失: 0.6177
Epoch: 18/50 | Batch: 200/782 | 单Batch损失: 0.6751 | 累计平均损失: 0.6205
Epoch: 18/50 | Batch: 300/782 | 单Batch损失: 0.7216 | 累计平均损失: 0.6166
Epoch: 18/50 | Batch: 400/782 | 单Batch损失: 0.5663 | 累计平均损失: 0.6165
Epoch: 18/50 | Batch: 500/782 | 单Batch损失: 0.5815 | 累计平均损失: 0.6161
Epoch: 18/50 | Batch: 600/782 | 单Batch损失: 0.7549 | 累计平均损失: 0.6141
Epoch: 18/50 | Batch: 700/782 | 单Batch损失: 0.5939 | 累计平均损失: 0.6143
Epoch 18/50 完成 | 耗时: 101.45s | 训练准确率: 78.36% | 测试准确率: 83.74%
Epoch: 19/50 | Batch: 100/782 | 单Batch损失: 0.4253 | 累计平均损失: 0.5968
Epoch: 19/50 | Batch: 200/782 | 单Batch损失: 0.4800 | 累计平均损失: 0.5962
Epoch: 19/50 | Batch: 300/782 | 单Batch损失: 0.6604 | 累计平均损失: 0.5924
Epoch: 19/50 | Batch: 400/782 | 单Batch损失: 0.6934 | 累计平均损失: 0.5980
Epoch: 19/50 | Batch: 500/782 | 单Batch损失: 0.6824 | 累计平均损失: 0.6005
Epoch: 19/50 | Batch: 600/782 | 单Batch损失: 0.7236 | 累计平均损失: 0.6045
Epoch: 19/50 | Batch: 700/782 | 单Batch损失: 0.5636 | 累计平均损失: 0.6086
Epoch 19/50 完成 | 耗时: 108.51s | 训练准确率: 78.63% | 测试准确率: 84.30%
Epoch: 20/50 | Batch: 100/782 | 单Batch损失: 0.8197 | 累计平均损失: 0.6068
Epoch: 20/50 | Batch: 200/782 | 单Batch损失: 0.6022 | 累计平均损失: 0.6033
Epoch: 20/50 | Batch: 300/782 | 单Batch损失: 0.5682 | 累计平均损失: 0.6032
Epoch: 20/50 | Batch: 400/782 | 单Batch损失: 0.6012 | 累计平均损失: 0.6032
Epoch: 20/50 | Batch: 500/782 | 单Batch损失: 0.7576 | 累计平均损失: 0.6014
Epoch: 20/50 | Batch: 600/782 | 单Batch损失: 0.6027 | 累计平均损失: 0.6026
Epoch: 20/50 | Batch: 700/782 | 单Batch损失: 0.5330 | 累计平均损失: 0.6036
Epoch 20/50 完成 | 耗时: 114.49s | 训练准确率: 78.72% | 测试准确率: 84.37%==================================================
🛰️ **阶段 3:解冻所有层,进行全局微调**
==================================================
Epoch: 21/50 | Batch: 100/782 | 单Batch损失: 0.3482 | 累计平均损失: 0.5702
Epoch: 21/50 | Batch: 200/782 | 单Batch损失: 0.4764 | 累计平均损失: 0.5716
Epoch: 21/50 | Batch: 300/782 | 单Batch损失: 0.5167 | 累计平均损失: 0.5668
Epoch: 21/50 | Batch: 400/782 | 单Batch损失: 0.6438 | 累计平均损失: 0.5649
Epoch: 21/50 | Batch: 500/782 | 单Batch损失: 0.4732 | 累计平均损失: 0.5636
Epoch: 21/50 | Batch: 600/782 | 单Batch损失: 0.5195 | 累计平均损失: 0.5625
Epoch: 21/50 | Batch: 700/782 | 单Batch损失: 0.5012 | 累计平均损失: 0.5628
Epoch 21/50 完成 | 耗时: 122.71s | 训练准确率: 80.16% | 测试准确率: 85.26%
Epoch: 22/50 | Batch: 100/782 | 单Batch损失: 0.4270 | 累计平均损失: 0.5091
Epoch: 22/50 | Batch: 200/782 | 单Batch损失: 0.5310 | 累计平均损失: 0.5192
Epoch: 22/50 | Batch: 300/782 | 单Batch损失: 0.5260 | 累计平均损失: 0.5256
Epoch: 22/50 | Batch: 400/782 | 单Batch损失: 0.3363 | 累计平均损失: 0.5242
Epoch: 22/50 | Batch: 500/782 | 单Batch损失: 0.5976 | 累计平均损失: 0.5202
Epoch: 22/50 | Batch: 600/782 | 单Batch损失: 0.5327 | 累计平均损失: 0.5190
Epoch: 22/50 | Batch: 700/782 | 单Batch损失: 0.5064 | 累计平均损失: 0.5183
Epoch 22/50 完成 | 耗时: 110.27s | 训练准确率: 81.67% | 测试准确率: 85.72%
Epoch: 23/50 | Batch: 100/782 | 单Batch损失: 0.4734 | 累计平均损失: 0.4997
Epoch: 23/50 | Batch: 200/782 | 单Batch损失: 0.3616 | 累计平均损失: 0.4980
Epoch: 23/50 | Batch: 300/782 | 单Batch损失: 0.4213 | 累计平均损失: 0.4995
Epoch: 23/50 | Batch: 400/782 | 单Batch损失: 0.6570 | 累计平均损失: 0.5003
Epoch: 23/50 | Batch: 500/782 | 单Batch损失: 0.4213 | 累计平均损失: 0.4958
Epoch: 23/50 | Batch: 600/782 | 单Batch损失: 0.5556 | 累计平均损失: 0.4959
Epoch: 23/50 | Batch: 700/782 | 单Batch损失: 0.6496 | 累计平均损失: 0.4958
Epoch 23/50 完成 | 耗时: 112.06s | 训练准确率: 82.42% | 测试准确率: 86.11%
Epoch: 24/50 | Batch: 100/782 | 单Batch损失: 0.4465 | 累计平均损失: 0.4760
Epoch: 24/50 | Batch: 200/782 | 单Batch损失: 0.5008 | 累计平均损失: 0.4768
Epoch: 24/50 | Batch: 300/782 | 单Batch损失: 0.4536 | 累计平均损失: 0.4759
Epoch: 24/50 | Batch: 400/782 | 单Batch损失: 0.3049 | 累计平均损失: 0.4769
Epoch: 24/50 | Batch: 500/782 | 单Batch损失: 0.3577 | 累计平均损失: 0.4750
Epoch: 24/50 | Batch: 600/782 | 单Batch损失: 0.3798 | 累计平均损失: 0.4762
Epoch: 24/50 | Batch: 700/782 | 单Batch损失: 0.5775 | 累计平均损失: 0.4741
Epoch 24/50 完成 | 耗时: 113.78s | 训练准确率: 83.29% | 测试准确率: 86.35%
Epoch: 25/50 | Batch: 100/782 | 单Batch损失: 0.4324 | 累计平均损失: 0.4714
Epoch: 25/50 | Batch: 200/782 | 单Batch损失: 0.2862 | 累计平均损失: 0.4600
Epoch: 25/50 | Batch: 300/782 | 单Batch损失: 0.3771 | 累计平均损失: 0.4572
Epoch: 25/50 | Batch: 400/782 | 单Batch损失: 0.4873 | 累计平均损失: 0.4508
Epoch: 25/50 | Batch: 500/782 | 单Batch损失: 0.7972 | 累计平均损失: 0.4531
Epoch: 25/50 | Batch: 600/782 | 单Batch损失: 0.8058 | 累计平均损失: 0.4565
Epoch: 25/50 | Batch: 700/782 | 单Batch损失: 0.2774 | 累计平均损失: 0.4566
Epoch 25/50 完成 | 耗时: 103.64s | 训练准确率: 83.95% | 测试准确率: 86.81%
Epoch: 26/50 | Batch: 100/782 | 单Batch损失: 0.6712 | 累计平均损失: 0.4371
Epoch: 26/50 | Batch: 200/782 | 单Batch损失: 0.4103 | 累计平均损失: 0.4424
Epoch: 26/50 | Batch: 300/782 | 单Batch损失: 0.4517 | 累计平均损失: 0.4400
Epoch: 26/50 | Batch: 400/782 | 单Batch损失: 0.3697 | 累计平均损失: 0.4349
Epoch: 26/50 | Batch: 500/782 | 单Batch损失: 0.3016 | 累计平均损失: 0.4301
Epoch: 26/50 | Batch: 600/782 | 单Batch损失: 0.5969 | 累计平均损失: 0.4334
Epoch: 26/50 | Batch: 700/782 | 单Batch损失: 0.3948 | 累计平均损失: 0.4336
Epoch 26/50 完成 | 耗时: 102.55s | 训练准确率: 84.62% | 测试准确率: 86.85%
Epoch: 27/50 | Batch: 100/782 | 单Batch损失: 0.4172 | 累计平均损失: 0.4462
Epoch: 27/50 | Batch: 200/782 | 单Batch损失: 0.4054 | 累计平均损失: 0.4404
Epoch: 27/50 | Batch: 300/782 | 单Batch损失: 0.4281 | 累计平均损失: 0.4338
Epoch: 27/50 | Batch: 400/782 | 单Batch损失: 0.4494 | 累计平均损失: 0.4299
Epoch: 27/50 | Batch: 500/782 | 单Batch损失: 0.3262 | 累计平均损失: 0.4277
Epoch: 27/50 | Batch: 600/782 | 单Batch损失: 0.2885 | 累计平均损失: 0.4294
Epoch: 27/50 | Batch: 700/782 | 单Batch损失: 0.4365 | 累计平均损失: 0.4325
Epoch 27/50 完成 | 耗时: 103.16s | 训练准确率: 84.64% | 测试准确率: 87.07%
Epoch: 28/50 | Batch: 100/782 | 单Batch损失: 0.6126 | 累计平均损失: 0.4087
Epoch: 28/50 | Batch: 200/782 | 单Batch损失: 0.3851 | 累计平均损失: 0.4107
Epoch: 28/50 | Batch: 300/782 | 单Batch损失: 0.4676 | 累计平均损失: 0.4102
Epoch: 28/50 | Batch: 400/782 | 单Batch损失: 0.4450 | 累计平均损失: 0.4129
Epoch: 28/50 | Batch: 500/782 | 单Batch损失: 0.3518 | 累计平均损失: 0.4121
Epoch: 28/50 | Batch: 600/782 | 单Batch损失: 0.4325 | 累计平均损失: 0.4126
Epoch: 28/50 | Batch: 700/782 | 单Batch损失: 0.5842 | 累计平均损失: 0.4139
Epoch 28/50 完成 | 耗时: 103.32s | 训练准确率: 85.62% | 测试准确率: 87.29%
Epoch: 29/50 | Batch: 100/782 | 单Batch损失: 0.5007 | 累计平均损失: 0.4051
Epoch: 29/50 | Batch: 200/782 | 单Batch损失: 0.3324 | 累计平均损失: 0.3982
Epoch: 29/50 | Batch: 300/782 | 单Batch损失: 0.5501 | 累计平均损失: 0.3997
Epoch: 29/50 | Batch: 400/782 | 单Batch损失: 0.3742 | 累计平均损失: 0.3971
Epoch: 29/50 | Batch: 500/782 | 单Batch损失: 0.5271 | 累计平均损失: 0.4011
Epoch: 29/50 | Batch: 600/782 | 单Batch损失: 0.3696 | 累计平均损失: 0.4020
Epoch: 29/50 | Batch: 700/782 | 单Batch损失: 0.3654 | 累计平均损失: 0.4015
Epoch 29/50 完成 | 耗时: 102.87s | 训练准确率: 85.88% | 测试准确率: 87.44%
Epoch: 30/50 | Batch: 100/782 | 单Batch损失: 0.4692 | 累计平均损失: 0.3938
Epoch: 30/50 | Batch: 200/782 | 单Batch损失: 0.3445 | 累计平均损失: 0.3896
Epoch: 30/50 | Batch: 300/782 | 单Batch损失: 0.2445 | 累计平均损失: 0.3936
Epoch: 30/50 | Batch: 400/782 | 单Batch损失: 0.3952 | 累计平均损失: 0.3956
Epoch: 30/50 | Batch: 500/782 | 单Batch损失: 0.5035 | 累计平均损失: 0.3930
Epoch: 30/50 | Batch: 600/782 | 单Batch损失: 0.4506 | 累计平均损失: 0.3912
Epoch: 30/50 | Batch: 700/782 | 单Batch损失: 0.2855 | 累计平均损失: 0.3894
Epoch 30/50 完成 | 耗时: 103.50s | 训练准确率: 86.22% | 测试准确率: 87.91%
Epoch: 31/50 | Batch: 100/782 | 单Batch损失: 0.3252 | 累计平均损失: 0.3863
Epoch: 31/50 | Batch: 200/782 | 单Batch损失: 0.3754 | 累计平均损失: 0.3819
Epoch: 31/50 | Batch: 300/782 | 单Batch损失: 0.4529 | 累计平均损失: 0.3792
Epoch: 31/50 | Batch: 400/782 | 单Batch损失: 0.3839 | 累计平均损失: 0.3778
Epoch: 31/50 | Batch: 500/782 | 单Batch损失: 0.4228 | 累计平均损失: 0.3769
Epoch: 31/50 | Batch: 600/782 | 单Batch损失: 0.3096 | 累计平均损失: 0.3780
Epoch: 31/50 | Batch: 700/782 | 单Batch损失: 0.2523 | 累计平均损失: 0.3796
Epoch 31/50 完成 | 耗时: 102.88s | 训练准确率: 86.63% | 测试准确率: 87.83%
Epoch: 32/50 | Batch: 100/782 | 单Batch损失: 0.3799 | 累计平均损失: 0.3841
Epoch: 32/50 | Batch: 200/782 | 单Batch损失: 0.5369 | 累计平均损失: 0.3804
Epoch: 32/50 | Batch: 300/782 | 单Batch损失: 0.3019 | 累计平均损失: 0.3819
Epoch: 32/50 | Batch: 400/782 | 单Batch损失: 0.2522 | 累计平均损失: 0.3775
Epoch: 32/50 | Batch: 500/782 | 单Batch损失: 0.3382 | 累计平均损失: 0.3769
Epoch: 32/50 | Batch: 600/782 | 单Batch损失: 0.2575 | 累计平均损失: 0.3773
Epoch: 32/50 | Batch: 700/782 | 单Batch损失: 0.3985 | 累计平均损失: 0.3769
Epoch 32/50 完成 | 耗时: 103.30s | 训练准确率: 86.71% | 测试准确率: 87.94%
Epoch: 33/50 | Batch: 100/782 | 单Batch损失: 0.3768 | 累计平均损失: 0.3777
Epoch: 33/50 | Batch: 200/782 | 单Batch损失: 0.3702 | 累计平均损失: 0.3729
Epoch: 33/50 | Batch: 300/782 | 单Batch损失: 0.2169 | 累计平均损失: 0.3671
Epoch: 33/50 | Batch: 400/782 | 单Batch损失: 0.4155 | 累计平均损失: 0.3653
Epoch: 33/50 | Batch: 500/782 | 单Batch损失: 0.4082 | 累计平均损失: 0.3619
Epoch: 33/50 | Batch: 600/782 | 单Batch损失: 0.3635 | 累计平均损失: 0.3625
Epoch: 33/50 | Batch: 700/782 | 单Batch损失: 0.4254 | 累计平均损失: 0.3646
Epoch 33/50 完成 | 耗时: 103.02s | 训练准确率: 87.13% | 测试准确率: 88.44%
Epoch: 34/50 | Batch: 100/782 | 单Batch损失: 0.2500 | 累计平均损失: 0.3530
Epoch: 34/50 | Batch: 200/782 | 单Batch损失: 0.2712 | 累计平均损失: 0.3456
Epoch: 34/50 | Batch: 300/782 | 单Batch损失: 0.2749 | 累计平均损失: 0.3504
Epoch: 34/50 | Batch: 400/782 | 单Batch损失: 0.2845 | 累计平均损失: 0.3498
Epoch: 34/50 | Batch: 500/782 | 单Batch损失: 0.2477 | 累计平均损失: 0.3483
Epoch: 34/50 | Batch: 600/782 | 单Batch损失: 0.2847 | 累计平均损失: 0.3499
Epoch: 34/50 | Batch: 700/782 | 单Batch损失: 0.3128 | 累计平均损失: 0.3524
Epoch 34/50 完成 | 耗时: 103.35s | 训练准确率: 87.44% | 测试准确率: 88.36%
Epoch: 35/50 | Batch: 100/782 | 单Batch损失: 0.3254 | 累计平均损失: 0.3439
Epoch: 35/50 | Batch: 200/782 | 单Batch损失: 0.2342 | 累计平均损失: 0.3405
Epoch: 35/50 | Batch: 300/782 | 单Batch损失: 0.3152 | 累计平均损失: 0.3393
Epoch: 35/50 | Batch: 400/782 | 单Batch损失: 0.1746 | 累计平均损失: 0.3380
Epoch: 35/50 | Batch: 500/782 | 单Batch损失: 0.3170 | 累计平均损失: 0.3398
Epoch: 35/50 | Batch: 600/782 | 单Batch损失: 0.6826 | 累计平均损失: 0.3433
Epoch: 35/50 | Batch: 700/782 | 单Batch损失: 0.3968 | 累计平均损失: 0.3443
Epoch 35/50 完成 | 耗时: 103.32s | 训练准确率: 87.64% | 测试准确率: 88.35%
Epoch: 36/50 | Batch: 100/782 | 单Batch损失: 0.1661 | 累计平均损失: 0.3338
Epoch: 36/50 | Batch: 200/782 | 单Batch损失: 0.4482 | 累计平均损失: 0.3327
Epoch: 36/50 | Batch: 300/782 | 单Batch损失: 0.3140 | 累计平均损失: 0.3292
Epoch: 36/50 | Batch: 400/782 | 单Batch损失: 0.1750 | 累计平均损失: 0.3329
Epoch: 36/50 | Batch: 500/782 | 单Batch损失: 0.3137 | 累计平均损失: 0.3364
Epoch: 36/50 | Batch: 600/782 | 单Batch损失: 0.1617 | 累计平均损失: 0.3342
Epoch: 36/50 | Batch: 700/782 | 单Batch损失: 0.2343 | 累计平均损失: 0.3372
Epoch 36/50 完成 | 耗时: 104.33s | 训练准确率: 87.97% | 测试准确率: 88.76%
Epoch: 37/50 | Batch: 100/782 | 单Batch损失: 0.3910 | 累计平均损失: 0.3265
Epoch: 37/50 | Batch: 200/782 | 单Batch损失: 0.3187 | 累计平均损失: 0.3317
Epoch: 37/50 | Batch: 300/782 | 单Batch损失: 0.3435 | 累计平均损失: 0.3289
Epoch: 37/50 | Batch: 400/782 | 单Batch损失: 0.3511 | 累计平均损失: 0.3254
Epoch: 37/50 | Batch: 500/782 | 单Batch损失: 0.2155 | 累计平均损失: 0.3257
Epoch: 37/50 | Batch: 600/782 | 单Batch损失: 0.2409 | 累计平均损失: 0.3263
Epoch: 37/50 | Batch: 700/782 | 单Batch损失: 0.2960 | 累计平均损失: 0.3261
Epoch 37/50 完成 | 耗时: 103.14s | 训练准确率: 88.32% | 测试准确率: 88.27%
Epoch: 38/50 | Batch: 100/782 | 单Batch损失: 0.2492 | 累计平均损失: 0.3325
Epoch: 38/50 | Batch: 200/782 | 单Batch损失: 0.2956 | 累计平均损失: 0.3241
Epoch: 38/50 | Batch: 300/782 | 单Batch损失: 0.3037 | 累计平均损失: 0.3215
Epoch: 38/50 | Batch: 400/782 | 单Batch损失: 0.3102 | 累计平均损失: 0.3198
Epoch: 38/50 | Batch: 500/782 | 单Batch损失: 0.4242 | 累计平均损失: 0.3176
Epoch: 38/50 | Batch: 600/782 | 单Batch损失: 0.3365 | 累计平均损失: 0.3198
Epoch: 38/50 | Batch: 700/782 | 单Batch损失: 0.4242 | 累计平均损失: 0.3210
Epoch 38/50 完成 | 耗时: 104.08s | 训练准确率: 88.51% | 测试准确率: 88.98%
Epoch: 39/50 | Batch: 100/782 | 单Batch损失: 0.4183 | 累计平均损失: 0.3166
Epoch: 39/50 | Batch: 200/782 | 单Batch损失: 0.3139 | 累计平均损失: 0.3167
Epoch: 39/50 | Batch: 300/782 | 单Batch损失: 0.4980 | 累计平均损失: 0.3162
Epoch: 39/50 | Batch: 400/782 | 单Batch损失: 0.3789 | 累计平均损失: 0.3126
Epoch: 39/50 | Batch: 500/782 | 单Batch损失: 0.4513 | 累计平均损失: 0.3131
Epoch: 39/50 | Batch: 600/782 | 单Batch损失: 0.4489 | 累计平均损失: 0.3140
Epoch: 39/50 | Batch: 700/782 | 单Batch损失: 0.3007 | 累计平均损失: 0.3156
Epoch 39/50 完成 | 耗时: 102.95s | 训练准确率: 88.86% | 测试准确率: 88.82%
Epoch: 40/50 | Batch: 100/782 | 单Batch损失: 0.1439 | 累计平均损失: 0.3015
Epoch: 40/50 | Batch: 200/782 | 单Batch损失: 0.3258 | 累计平均损失: 0.3043
Epoch: 40/50 | Batch: 300/782 | 单Batch损失: 0.2105 | 累计平均损失: 0.3051
Epoch: 40/50 | Batch: 400/782 | 单Batch损失: 0.3451 | 累计平均损失: 0.3054
Epoch: 40/50 | Batch: 500/782 | 单Batch损失: 0.3345 | 累计平均损失: 0.3070
Epoch: 40/50 | Batch: 600/782 | 单Batch损失: 0.4133 | 累计平均损失: 0.3075
Epoch: 40/50 | Batch: 700/782 | 单Batch损失: 0.2839 | 累计平均损失: 0.3076
Epoch 40/50 完成 | 耗时: 103.49s | 训练准确率: 89.00% | 测试准确率: 88.85%
Epoch: 41/50 | Batch: 100/782 | 单Batch损失: 0.2864 | 累计平均损失: 0.3070
Epoch: 41/50 | Batch: 200/782 | 单Batch损失: 0.4049 | 累计平均损失: 0.3045
Epoch: 41/50 | Batch: 300/782 | 单Batch损失: 0.2045 | 累计平均损失: 0.3015
Epoch: 41/50 | Batch: 400/782 | 单Batch损失: 0.2675 | 累计平均损失: 0.2992
Epoch: 41/50 | Batch: 500/782 | 单Batch损失: 0.2869 | 累计平均损失: 0.3003
Epoch: 41/50 | Batch: 600/782 | 单Batch损失: 0.3276 | 累计平均损失: 0.3023
Epoch: 41/50 | Batch: 700/782 | 单Batch损失: 0.3760 | 累计平均损失: 0.3026
Epoch 41/50 完成 | 耗时: 103.35s | 训练准确率: 89.10% | 测试准确率: 88.61%
Epoch: 42/50 | Batch: 100/782 | 单Batch损失: 0.2120 | 累计平均损失: 0.2860
Epoch: 42/50 | Batch: 200/782 | 单Batch损失: 0.3176 | 累计平均损失: 0.2866
Epoch: 42/50 | Batch: 300/782 | 单Batch损失: 0.2915 | 累计平均损失: 0.2922
Epoch: 42/50 | Batch: 400/782 | 单Batch损失: 0.1972 | 累计平均损失: 0.2966
Epoch: 42/50 | Batch: 500/782 | 单Batch损失: 0.2939 | 累计平均损失: 0.2947
Epoch: 42/50 | Batch: 600/782 | 单Batch损失: 0.3320 | 累计平均损失: 0.2949
Epoch: 42/50 | Batch: 700/782 | 单Batch损失: 0.1988 | 累计平均损失: 0.2965
Epoch 42/50 完成 | 耗时: 102.80s | 训练准确率: 89.45% | 测试准确率: 89.00%
Epoch: 43/50 | Batch: 100/782 | 单Batch损失: 0.4522 | 累计平均损失: 0.2848
Epoch: 43/50 | Batch: 200/782 | 单Batch损失: 0.2352 | 累计平均损失: 0.2946
Epoch: 43/50 | Batch: 300/782 | 单Batch损失: 0.2566 | 累计平均损失: 0.2886
Epoch: 43/50 | Batch: 400/782 | 单Batch损失: 0.2981 | 累计平均损失: 0.2893
Epoch: 43/50 | Batch: 500/782 | 单Batch损失: 0.2021 | 累计平均损失: 0.2886
Epoch: 43/50 | Batch: 600/782 | 单Batch损失: 0.1517 | 累计平均损失: 0.2873
Epoch: 43/50 | Batch: 700/782 | 单Batch损失: 0.3852 | 累计平均损失: 0.2889
Epoch 43/50 完成 | 耗时: 103.68s | 训练准确率: 89.68% | 测试准确率: 88.95%
Epoch: 44/50 | Batch: 100/782 | 单Batch损失: 0.2193 | 累计平均损失: 0.2935
Epoch: 44/50 | Batch: 200/782 | 单Batch损失: 0.3290 | 累计平均损失: 0.2912
Epoch: 44/50 | Batch: 300/782 | 单Batch损失: 0.2837 | 累计平均损失: 0.2898
Epoch: 44/50 | Batch: 400/782 | 单Batch损失: 0.2521 | 累计平均损失: 0.2884
Epoch: 44/50 | Batch: 500/782 | 单Batch损失: 0.3175 | 累计平均损失: 0.2885
Epoch: 44/50 | Batch: 600/782 | 单Batch损失: 0.3056 | 累计平均损失: 0.2850
Epoch: 44/50 | Batch: 700/782 | 单Batch损失: 0.3452 | 累计平均损失: 0.2846
Epoch 44/50 完成 | 耗时: 103.63s | 训练准确率: 89.97% | 测试准确率: 88.95%
Epoch: 45/50 | Batch: 100/782 | 单Batch损失: 0.1738 | 累计平均损失: 0.2704
Epoch: 45/50 | Batch: 200/782 | 单Batch损失: 0.1968 | 累计平均损失: 0.2783
Epoch: 45/50 | Batch: 300/782 | 单Batch损失: 0.2569 | 累计平均损失: 0.2754
Epoch: 45/50 | Batch: 400/782 | 单Batch损失: 0.2075 | 累计平均损失: 0.2756
Epoch: 45/50 | Batch: 500/782 | 单Batch损失: 0.2608 | 累计平均损失: 0.2735
Epoch: 45/50 | Batch: 600/782 | 单Batch损失: 0.2700 | 累计平均损失: 0.2752
Epoch: 45/50 | Batch: 700/782 | 单Batch损失: 0.3428 | 累计平均损失: 0.2761
Epoch 45/50 完成 | 耗时: 103.74s | 训练准确率: 90.25% | 测试准确率: 89.02%
Epoch: 46/50 | Batch: 100/782 | 单Batch损失: 0.3770 | 累计平均损失: 0.2868
Epoch: 46/50 | Batch: 200/782 | 单Batch损失: 0.2452 | 累计平均损失: 0.2830
Epoch: 46/50 | Batch: 300/782 | 单Batch损失: 0.1669 | 累计平均损失: 0.2769
Epoch: 46/50 | Batch: 400/782 | 单Batch损失: 0.1802 | 累计平均损失: 0.2792
Epoch: 46/50 | Batch: 500/782 | 单Batch损失: 0.3140 | 累计平均损失: 0.2773
Epoch: 46/50 | Batch: 600/782 | 单Batch损失: 0.3905 | 累计平均损失: 0.2782
Epoch: 46/50 | Batch: 700/782 | 单Batch损失: 0.2951 | 累计平均损失: 0.2761
Epoch 46/50 完成 | 耗时: 103.92s | 训练准确率: 90.10% | 测试准确率: 89.14%
Epoch: 47/50 | Batch: 100/782 | 单Batch损失: 0.2697 | 累计平均损失: 0.2699
Epoch: 47/50 | Batch: 200/782 | 单Batch损失: 0.2045 | 累计平均损失: 0.2653
Epoch: 47/50 | Batch: 300/782 | 单Batch损失: 0.3354 | 累计平均损失: 0.2629
Epoch: 47/50 | Batch: 400/782 | 单Batch损失: 0.4930 | 累计平均损失: 0.2646
Epoch: 47/50 | Batch: 500/782 | 单Batch损失: 0.1635 | 累计平均损失: 0.2673
Epoch: 47/50 | Batch: 600/782 | 单Batch损失: 0.2259 | 累计平均损失: 0.2659
Epoch: 47/50 | Batch: 700/782 | 单Batch损失: 0.0627 | 累计平均损失: 0.2681
Epoch 47/50 完成 | 耗时: 102.96s | 训练准确率: 90.42% | 测试准确率: 89.11%
Epoch: 48/50 | Batch: 100/782 | 单Batch损失: 0.2600 | 累计平均损失: 0.2642
Epoch: 48/50 | Batch: 200/782 | 单Batch损失: 0.2261 | 累计平均损失: 0.2606
Epoch: 48/50 | Batch: 300/782 | 单Batch损失: 0.1583 | 累计平均损失: 0.2632
Epoch: 48/50 | Batch: 400/782 | 单Batch损失: 0.4387 | 累计平均损失: 0.2640
Epoch: 48/50 | Batch: 500/782 | 单Batch损失: 0.1742 | 累计平均损失: 0.2640
Epoch: 48/50 | Batch: 600/782 | 单Batch损失: 0.3551 | 累计平均损失: 0.2625
Epoch: 48/50 | Batch: 700/782 | 单Batch损失: 0.2540 | 累计平均损失: 0.2642
Epoch 48/50 完成 | 耗时: 104.25s | 训练准确率: 90.57% | 测试准确率: 89.42%
Epoch: 49/50 | Batch: 100/782 | 单Batch损失: 0.2321 | 累计平均损失: 0.2490
Epoch: 49/50 | Batch: 200/782 | 单Batch损失: 0.2713 | 累计平均损失: 0.2543
Epoch: 49/50 | Batch: 300/782 | 单Batch损失: 0.3475 | 累计平均损失: 0.2591
Epoch: 49/50 | Batch: 400/782 | 单Batch损失: 0.2733 | 累计平均损失: 0.2588
Epoch: 49/50 | Batch: 500/782 | 单Batch损失: 0.2290 | 累计平均损失: 0.2585
Epoch: 49/50 | Batch: 600/782 | 单Batch损失: 0.1909 | 累计平均损失: 0.2569
Epoch: 49/50 | Batch: 700/782 | 单Batch损失: 0.2724 | 累计平均损失: 0.2569
Epoch 49/50 完成 | 耗时: 102.96s | 训练准确率: 90.82% | 测试准确率: 89.23%
Epoch: 50/50 | Batch: 100/782 | 单Batch损失: 0.1978 | 累计平均损失: 0.2481
Epoch: 50/50 | Batch: 200/782 | 单Batch损失: 0.2116 | 累计平均损失: 0.2485
Epoch: 50/50 | Batch: 300/782 | 单Batch损失: 0.2898 | 累计平均损失: 0.2519
Epoch: 50/50 | Batch: 400/782 | 单Batch损失: 0.1441 | 累计平均损失: 0.2527
Epoch: 50/50 | Batch: 500/782 | 单Batch损失: 0.2770 | 累计平均损失: 0.2544
Epoch: 50/50 | Batch: 600/782 | 单Batch损失: 0.1975 | 累计平均损失: 0.2554
Epoch: 50/50 | Batch: 700/782 | 单Batch损失: 0.3464 | 累计平均损失: 0.2565
Epoch 50/50 完成 | 耗时: 103.73s | 训练准确率: 90.98% | 测试准确率: 89.58%训练完成! 开始绘制结果图表...
训练完成!最终测试准确率: 89.58%
torch.save(model.state_dict(), 'vgg16_cbam_finetuned.pth')
print("模型已保存为: vgg16_cbam_finetuned.pth")
模型已保存为: vgg16_cbam_finetuned.pth
@浙大疏锦行